精度向上だけではない、企業価値に直結するAIの進化の方向性 – Going Digital インタビュー

新型コロナの感染拡大を契機に、社会のデジタル化は大きく進んだ。デジタル化は多様多量のデータの蓄積を促し、そのデータを活用すべくAIの導入も加速している。こうした状況の下、クローズアップされるようになったのが「AIの信用と信頼をいかに担保するか」という課題だ。企業活動における重要な意思決定にAIが関与する割合が高まれば高まるほど、AIが思わぬ挙動をした場合の負の影響も大きくなる。それは単純に金銭的な損失だけでなく、企業のブランド価値の毀損という、修復不可能なダメージにつながりかねない。そこで重要なのが「AIガバナンス」だ。アクセンチュアAIセンター長の保科学世氏は、AIガバナンスを通じて「責任あるAI」を実現することは、ネガティブな影響を回避するだけでなく、積極的な企業価値向上のためにも重要であると語る。 

Original Post>

AIが差別主義者として成長するリスク

保科学世(ほしな・がくせ)
アクセンチュア ビジネス コンサルティング本部 AIグループ日本統括 AIセンター長マネジング・ディレクター 博士(理学)

AI・アナリティクス部門の日本統括およびデジタル変革の知見や技術を結集した拠点「アクセンチュア・イノベーション・ハブ東京」の共同統括として、AI HUBプラットフォームやAI POWEREDサービス等の開発を手掛けるとともに、AI技術を活用した業務改革を数多く支援。

 AIが人間の意図を超えて暴走する──。そんな事例として有名なのが、2016年にマイクロソフトがリリースしたAIチャットボット「Tay(テイ)」だ。若い女性というキャラクターを与えられた「彼女」はTwitterでデビューし、絵文字を交えたツイートを多くのユーザーと交換し、ジョークを言ったり、気の利いた返事をしたり……。たわいもないやりとりを通じてコミュニケーション力を高めながら、人々に愛される存在になるはずだった。しかし、実際には、わずか十数時間で反ユダヤ主義者に「成長」し、人種差別的なツイートを次々に投稿するようになる。サービスはその日のうちに停止された。

 AI開発者に重い教訓を突き付けたこの事件以降も、同様の事例は繰り返されている。2020年には、韓国のスタートアップ「スキャッターラボ」のAIチャットボット「イルダ」が、やはり差別的な発言でサービス停止に至った。もちろん、対策を講じていなかったわけではない。Tayの事例を教訓としてテストを繰り返したにもかかわらず、暴走を防げなかったのだ。

Advertisements

 原因の一つは、AIと人間の認識のずれだ。AIは膨大なデータを学習することで成長する。Tayやイルダのようなチャットボットの場合、学習の材料はデータ化された人間同士の会話だ。ただし、人間は、言葉の意味をあえて曖昧にする婉曲表現を多用する。さらに、冗談、謙遜、お世辞、嫌味などで、言葉に逆の意味を込めることも珍しくない。言葉を「記号列」として処理するAIに対して、差別的な言葉に機械的に印を付けたデータを与えるだけでは、人間同士の会話に含まれるネガティブな意図を全て取り除くのは難しい。そして、インプットされた悪意が何かのきっかけで増幅すれば、アウトプットが一気に偏ってしまうのだ。

 AIの暴走は、ネガティブな固定観念を増強したり、不平等を助長するといった社会的な悪影響を引き起こす。サービスを提供した企業は、手間とお金をかけてわざわざ顧客に嫌な思いをさせることになる。

 明らかな暴走や炎上に至らなくても、AIが生み出す偏りは功罪両面を併せ持つ。SNSのAIは気の合う仲間をどんどん紹介してくれるし、ショッピングサイトのAIは好みの商品を次々にレコメンドしてくれる。こうした機能が私たちの生活を便利にするのは確かだが、リスクと表裏一体だ。

 そんなリスクの一つに「エコーチェンバー現象」がある。賛同する意見、好みの情報だけに囲まれる状態が行き過ぎれば、同質性の高い情報だけが強化され、異質な情報が不可視化されていく。そして、次第に多様性を受け入れられなくなっていく。今年1月、米国大統領選挙の不正を主張するトランプ前大統領の支持者たちによる合衆国議会議事堂の襲撃事件が発生したが、その背景にもエコーチェンバー現象が指摘されている。