AI・人工知能の技術が発展したことにより、多くの産業の構造が変化し始めています。それは、少子高齢化社会の日本にとって多くのメリットをもたらすものでもありますが、必ずしもメリットばかりというわけではありません。健全な社会を維持するためには、AIのリスクともなりうる倫理的な問題ともしっかりと向き合う必要があるのです。
そこで今回は、AIの倫理における問題について詳しく解説していきます。今後、適切にAIを活用していくためにも、この機会にAIを取り巻く倫理的な問題を把握しておきましょう。
■そもそも倫理とは何か?
冒頭では「倫理的な問題」と紹介しましたが、まずは倫理というものの理解から深めていきましょう。
倫理とは、簡単に言えば「社会生活を送る上での一般的な決まりごと」「社会で何かしらの行為を起こす際に善悪を判断する根拠」のことを指します。例えば、道を歩いているときに老人が倒れているのを見かけた場合、その人は「老人を助ける」「老人を助けない」という2つの判断を下すことになるでしょう。
もし、倒れている老人を放置して通り過ぎた場合、多くの人は自分が下した判断に対して後ろめたさを感じるでしょう。これはまさに、その人が「倫理的に悪いことをした」と判断しているからなのです。
そして、最近では社会的影響が大きい意思決定の判断材料にもAIが用いられるケースが多くなってきていることから、倫理的な問題と向き合う必要性が高まっている状況にあります。ディープラーニングをはじめとするAI技術は、膨大な量のデータを学習することによって、テキスト認識や音声認識、画像認識といった領域で躍進的な進歩をもたらしてきました。
ただ、状況判断を行うことができる自律的なシステムを搭載させた場合、いくつかの問題も生じてきます。自動車やロボットなどは、特にその可能性が高いといえるでしょう。というのも、AIを搭載したハードウェアが現実世界でも自律的に行動を起こすと、事故を起こすなどのトラブルを発生させる可能性が高まると同時に、そのトラブルの責任の所在を明確にできなくなってしまうからです。
この「責任の所在」は、人間でも物議をかもすことが多い難しい問題でもあるため、AIとなればさらに多くの物議をかもすことが予想されます。この「責任の所在」を問う事例としては、トロッコ問題というものが有名です。
このトロッコ問題とは、イギリスの哲学者であるフィリッパ・フット氏が提唱したもので、簡単に言えば「ある人を助けるために他の人を犠牲にするのは許されるか」という問いのことです。
線路を走っていたトロッコの制御が不可能になってしまい、前方で作業をしている5人がトロッコに轢かれてしまうというもの。ただ、Aさんであればトロッコの進路を変えることができ、5人を救うことができるのですが、その場合は別の進路にいる1名が犠牲になってしまうのです。
この際の「Aさん」の身になって、自分であればどちらの選択を下すか、というのが「トロッコ問題」になります。非常に難しい2択のように感じられるかもしれませんが、今後AIをさまざまな場面で活用していくと、このような選択を迫られる可能性も否めません。だからこそ、しっかりと倫理問題と向き合っていく必要があるのです。
■AI・人工知能における「倫理問題」とは
では、AIに物事の選択を任せた場合、具体的にどのような倫理的問題が発生するのでしょうか。その例としては、主に以下のようなものが挙げられます。
・理由を説明できない
就職活の選考にAIを活用している企業があるとします。その場合、企業の入社試験を受けた人間は「AIがなぜその判断を下したのか」という理由を知ることができない可能性があります。
当然、それは就活生だけでなく、AIを活用している企業の社員も把握できない可能性があるため、万が一「不採用になった理由」を質問されても、「AIがそう判断したから」といった説得力に欠ける回答しか行えなくなる可能性があるのです。
・責任の所在を明らかにできない
先ほどもご紹介した通り、AIが自律的に操作する機械で事故が発生した場合、その責任はどこにあるのか、明確にできない可能性があります。AIを設計した人なのか、部品を作った人なのか、それとも部品を組み立てた人なのか。事故の原因を明確にすることができなければ、責任のとりようがなくなってしまいます。特に自動車は、今後自動運転などが導入される可能性もありますので、より細かく法律が整備される必要があるでしょう。
■アルゴリズムの欠陥が人権侵害につながる可能性も
裁判所の判決、人事採用プロセス、犯罪容疑者のプロファイリングなど、社会的な影響が大きい意思決定の判断材料にもAIが使われ始めています。
当然これらのAIのアルゴリズムは「蓄積された過去のデータ」がもとになっていますが、システムのトレーニングに使用されるデータの中には、人種や性別のバイアスが含まれているケースもあります。それによって差別的な意思決定につながってしまう可能性もあるのです。必ずしもAIによる分析や予測が「誰にとっても平等なもの」とは限らないと言わざるを得ないでしょう。
そのため、世界中の政府は、AIを使ったシステムが引き起こす望ましくない事態の影響を抑えるべく、開発者に「人権を尊重したアルゴリズム」を作成するように伝えているといいます。また、それを手助けするための法案、ガイドライン、フレームワークにも取り組んでいるそうです。
AIの活用によって生活の利便性は一段と向上していますが、このような「倫理的問題」とは今後も向き合っていく必要があるでしょう。
■「倫理問題」と向き合いながらAIを有効に活用しよう
今回は、技術の進化によって重要度を増したAIの「倫理問題」についてご紹介しました。生活の利便性が高まる一方で、さまざまな問題が生まれ始めていることもお分かりいただけたのではないでしょうか。
今後は、社会的影響が大きい意思決定の判断材料にもAIが用いられるケースが増加していくことが予想されます。そのようなシーンでも問題なくAIを活用するためには、AIに関わるすべての人が「倫理問題」としっかり向き合うことが大切になるでしょう。