AIが社会に浸透する中、AIの倫理観について企業はどういった姿勢を示すべきなのか。難しい課題だが、例えばトロッコ問題をAIに考えさせるのは問題があると考える中島氏。「徳倫理学」という倫理学の領域を提示して、この問題についての議論の必要性を説く。また、法整備という点では、日本のAI規制議論の遅れについてフィルターバブルや国家に都合の良い関係性の危険を指摘する。本講義終了後の質疑応答編。(2025年7月12日開催:早稲田大学Life Redesign College〈LRC〉講座より、全7話中第7話)
※司会者:川上達史(テンミニッツ・アカデミー編集長)
≪全文≫
●トロッコ問題はニセの問題ではないか…倫理の限界と徳倫理学
【質問】
IT企業でAIサービスの事業化に携わっている者です。AIが社会に浸透する中で、企業としてAIの倫理観についての姿勢を示す必要に迫られています。例えば誰かが何らかの判断でプログラミングをしないと機械は作動しないのですが、トロッコ問題のように、ハンドルをどちらに切ったら正しいかというところでの判断として、最終的には倫理観に基づいた基準がないと決められないというものが出てきていると思います。その前提となる「正しい倫理」というものは存在するのでしょうか。哲学者としての先生のお考えをお聞きしたいです。
中島 今、具体的にトロッコ問題というものを出していただきましたが、あの問題自体が今のわれわれの議論の中ではニセの問題ではないかと、そういう疑いを持っているのです。というのは、あれは決定できない、判断ができないからです。なぜかというと、それぞれの登場人物たちの置かれている状況が一切見えない形になっていて、数字だけで判断するということになっているでしょう。
でも、果たして倫理的な判断をするときに、数字だけで、最大多数の最大幸福で突っ走れるのか。それぞれの状況を考慮して、その上でやらなければいけないのではないのか。こういう議論があるのです。
どこの地方か忘れましたけれど、どこかの中学校か何かで、保護者の方が学校に電話してきたそうなのです、トロッコ問題で。「うちの子が泣いて家に帰ってきた。あんなの選べるわけがないのに、先生に選んで議論しろと言われちゃって。もう私はどうしていいか分からなくなった。何でこんなバカな問題を授業でやらせるんだ」という怒りの電話が来たそうです。
たぶん、今トロッコ問題に関しては、どの教科書会社もだんだん慎重になってきていると思います。つまり、あれはひょっとしたら非常に強力なニセの問題であって、倫理的な決断を迫らせて、学習する人たちを困らせている問題にすぎないのではないか。ある種本当の倫理の問題のすり替えなのではないか。このようになってきているわけです。ですから、トロッコ問題のような問題をAIに装備させると、そういう怒りの電話をしてくる保護者が増えるということです。
そうではなくて、正しい倫理とおっしゃいましたけれど、倫理の問題ということでいうと、途中でも申し上げたように、人...