AIと人間が協働する時代の新たな課題「AI倫理」とは<デジタルトランスフォーメーションを考える27>

AI倫理とは?

AIは私たちの生活に非常に身近なものとなりました。プログラミングの知識がなくても簡単にAIモデルを組み上げられる「ノーコード」型のサービス基盤なども登場し、今後さらにAIの活用範囲は広がっていきそうです。社会の中でAIと人間が協働する時代を迎えようとしている今、あらたな課題が浮き彫りになっています。それがAIと「倫理」の問題です。

 

2020年12月23日の日経新聞に、次のような記事がありました。

AI倫理 人工知能(AI)が人類に悪影響を与えないようにするための規範を指す。学習データの偏りから不当な差別につながったり、国家による監視に使われたりするのを防ぐ。AIの代表格であるディープラーニング(深層学習)は判断の過程が不透明で、使う側が気づかぬうちに問題を起こす懸念が高まっている。米グーグルや米マイクロソフトなどIT(情報技術)企業が相次ぎ指針を公開してきた。(日本経済新聞朝刊 2020年12月23日 )

 

AIは人間の能力や創造性を広げてくれる高度な道具ではありますが、AIにまつわる事件も増えており、何らかの倫理基準のもとで活用しなければ、AIは思わぬ不利益や差別を生む危険性があるということがわかってきました。煩雑な労働を自動化できる、精度の高いデータを得ることができるなどの利便性だけでは済まされない問題を、AIははらんでいます。

 

AI倫理にまつわるさまざまな問題

自動運転車と「トロッコ問題」

AI倫理に関してもっとも有名なのが、自動運転にまつわる「トロッコ問題」ではないでしょうか。SOMPO未来研究所が発行した2019年1月の論文「自動運転車の倫理的側面を考える」に、この問題が詳しく説明されています。

 

上記の論文にも書かれているように、人間は事故が起こりそうな瞬間、とっさの判断を取らざるを得ません。冷静な判断はないかもしれませんが、その結果に対しては何らかの責任を負うことになります。一方自動運転車の場合は、どのような事態にどう対応するかは事前の学習で決められています。したがって事故が発生した場合には、なぜそのような判断をすることになったのか、責任がどこにあるのかを明らかにすることが求められます。「トロッコ問題」は非常に難しい問題で、いまだに解決策は見つけられていません。自動運転車だけではなくあらゆる分野において、AIが行う業務の処理過程や判断理由が倫理的に妥当なのかどうかという議論をせずに、サービスを実現するということはできません。

 

プロジェクト中止となったAmazonの採用ツール

学習データが偏っていたために、AIが不当な差別を生んでしまうというケースも少なくありません。Amazonは、2014年頃からAIを活用した人材採用システムの導入を検討していました。履歴書データを元に、AIが採用すべき人材を自動で判別するというツールです。しかし、その採用ツールが男性ばかりを高く評価し、女性に対して不公平な扱いをしていることが明らかになりました。AmazonはAIツールからバイアスを取り除こうとしましたが、複雑すぎて実行できず、結局2017年にプロジェクトは中止されました。AIがこのように女性差別をするようになってしまった理由は、学習データにありました。学習に使用した履歴書の多くが男性だったため、AI システムは男女の割合の不均衡をそのまま反映してしまったのです。人間に無意識の偏見や思い込みがある限り、その人間のデータから学ぶAIの判断にも意図せぬ差別が含まれてしまう可能性は十分にあります。

 

AIが解析した内定辞退率の予測データを無断で企業に販売

たとえバイアスのない精度の高い分析結果が得られたとしても、その情報をどう利用するかというモラルの問題も残ります。2019年にはリクルートキャリア社が就職サイト「リクナビ」を利用している就職活動生の行動をAIで解析し、個人の許可なく内定辞退率の予測データを顧客企業に販売したニュースが波紋を広げました。AIによって得られた情報が個人のプライバシーや権利を侵害するリスクはないのか、その情報が他者にわたったときにどのように利用される可能性があるのか、客観的に検証し、さまざまな対応をめぐらせなければ、サービスそのもの、またサービス提供元の企業の信頼は失われることになってしまいます。

 

「責任あるAI」への取り組み

社会におけるAIの役割が大きくなればなるほど、倫理や価値観、責任などについてさまざまな問題に直面することになります。AIの進化・普及を支援しする一方で、倫理的・法的な課題をどのように解決していくのか、ここ数年、世界各国の政府機関がAIのあり方についての方針作りに取り組んでいます。

 

日本では内閣府が2019年3月に「人間中心のAI社会原則」を発表し、AIを使う際の7原則を策定しました。7原則の筆頭には「人間中心の原則」が挙げられ、「AIの利用にあたっては、人が自らどのように利用するかの判断と決定を行うことが求められる。AIの利用がもたらす結果については、問題の特性に応じて、関わった種々のステークホルダーが適切に分担して責任を負うべきである」としています。たとえAIが自律的に学習し成長するものであったとしても、あくまでも人間がコントロールできるものであるべきだ、というのが「人間中心の原則」の考え方です。

 

EUも2019年4月に「Ethics guidelines for trustworthy AI」(信頼できるAIの倫理ガイドライン)を公開し、「人間中心」を打ち出しました。このガイドラインでは、AI技術者が守るべき技術原則を定めており、人間によるAIシステムの監視、プライバシー保護、透明性や説明可能性、責任を明確にすることなどの内容が盛り込まれています。

 

AI技術が人権を侵害するような事態を避けるため、「責任あるAI」(Responsible AI)というキーワードのもと、AIの開発や利用に関する指針を定める企業も増えています。

 

Googleは2018年に「GoogleのAI原則(Artificial Intelligence at Google Our Principles)」を公表しました。AI利用の目標として「社会的に有益であること」、「不公平性や偏見を助長しないこと」、「AIを安全に設計し、慎重に検証テストすること」、「AIシステムにつき説明責任を果たすこと」など7項目、AI利用を追求しない分野として4項目を列挙しています。

 

Microsoftも「AIの基本原則」として、公平性、信頼性と安全性、包括性など6項目を掲げるほか、機械学習モデルの公平性を評価するオープンソースのツールキットなども提供しています。そのほか富士通やNECなど、AI倫理に関するガイドラインを発表する日本企業も増えてきています。

 

AI監査プラットフォームを提供するスタートアップ企業も登場

AIは自律的に学習し、いろいろなことを判断しますが、過失が起きた場合にAI自身が責任を取るということはできません。やはり責任を問われるのは、AIの設計開発や運用を行なった人間ということになります。そこで、倫理的・法的な過失を防ぎ、透明性が高く、説明可能なAIモデルを構築するためのAI監査ツールを提供するスタートアップ企業が増えています。

 

例えば、アルゴリズム監査プラットフォームを提供するアメリカのParity社は、パフォーマンスの監視だけではなく、特定の属性でバイアスがかかっていないか、法令遵守ができているのかなど、リスクを事前に検出するツールを提供しています。またFacebookの元エンジニアが立ち上げたFiddler Labs社は、AIによる意思決定のブラックボックス解明を目指し、説明能力を持つAIエンジンの開発を進めています。

 

今、AIの開発や運用を行う企業や人々の関心が、技術的なことから倫理や説明責任へとシフトしはじめています。Googleが3ヶ月の間にAI倫理の担当者を2人続けて解雇したことは大きく報道され、労使問題にも発展しています。倫理や価値観の問題は簡単に解決できることではありませんが、AIの活用方法やAIに対する姿勢が、そのまま企業のブランドとなる時代も遠くないのかもしれません。AI時代には、自然科学と人文・社会科学の連携も重要なポイントとなりそうです。

 

 

筆者プロフィール

大澤 香織
大澤 香織
上智大学外国語学部卒業後、SAPジャパン株式会社に入社し、コンサルタントとして大手企業における導入プロジェクトに携わる。その後、転職サイト「Green」を運営する株式会社I&Gパートナーズ(現・株式会社アトラエ)に入社し、ライターとしてスタートアップ企業の取材・執筆を行う。2012年からフリーランスとして活動。
北海道札幌市在住。

クラウドサービスをコネクトしてITをフル活用

ビーブレイクシステムズでは、様々なマネジメントサービスの中からお客様にとって最適なシステム・サービスを選定し、選定された複数のシステムやサービスを繋いだサービス「コネクテッド・クラウド」を提案しています。

ERP、RPA、シングルサインオン、電子請求書、Web会議システムなど様々なクラウドサービスを上手にコネクトして仕事にお役立てください。