誰がAIを規制するのか – オンライン

Marcos Osorio/Stocksy

サマリー:オープンAIのCEO、サム・アルトマンは、強力なAIシステムに規制を設ける必要性を米国議会で訴えた。世界的にAIの規制や禁止については激しい議論が行われており、規制の主導者が世界経済の変革のスピードと方向性に大きな影響を与えることになる。AIの破壊的な影響や倫理的な問題に対処するために規制は必要だ。本稿では、世界の動きを踏まえたうえで、各企業がどう対処すべきかを考察する。

オープンAIのCEOが規制の設置を主張

オープンAIのCEO、サム・アルトマンは、5月16日に米連邦議会で行った証言の中で、強力なAIシステムに対して規制当局はいまこそ制限を設けるべきであると述べた。

「このテクノロジーが発展する中で、私たちの生活はどう変わってしまうのだろうかと人々が不安を抱いていることを、当社は理解しています。当社も同じように不安です」と、アルトマンは上院委員会に語った

「もしこのテクノロジーが間違った方向に進めば、非常に大きな問題を引き起こす可能性があります」と彼は述べ、「世界にとって深刻な害」をもたらしかねないと訴えた。そして、リスクの軽減に向けて政府の監視は不可欠という点で議員らと合意した。

この問題は、1年前には立法府の議員にほとんど注目されていなかったが、いまや世界中の政府が、人工知能技術の一部の使用を規制または禁止することの是非について激しく議論している。

とはいえ、現時点でビジネスリーダーが注視すべきは、AIの規制がどのように、またはいつ実施されるのかではなく、誰によって行われるのかである。

規制を主導するのが米連邦議会か、欧州委員会か、中国か、米国の州政府または裁判所なのかによって、AIが世界経済を変革するスピードと方向性の両方が左右される。その結果、一部の業界が保護されたり、すべての企業がAI技術によって消費者と直接やり取りする能力を制限されたりする可能性がある。

2022年11月にオープンAIがリリースしたチャットGPTは、ニューラルネットワークを用いた自己改良型の大規模言語モデル(LLM)を基盤とする生成AIチャットボットだ。リリース以降、生成AIの使用は爆発的に増えている。

スタティスタの集計データによると、チャットGPTのユーザーは5日間で100万人に達した。フェイスブックやスポティファイ、ネットフリックスといった、かつてのインターネット製品の急速な普及を圧倒的に上回る勢いだ。

ユーザーの指示に基づいてオリジナルのイラストを生成するLLMのミッドジャーニー(Midjourney)やダリ(DALL-E)も、同じように爆発的な人気を集め、毎日数百万の画像を生み出している。

生成AIは、筆者の一人であるダウンズが以前に共著論文で定義した「ビッグバン型破壊」の基準を間違いなく満たしている。すなわち、リリースした瞬間から、競合するテクノロジーよりも優れた体験をより安価でユーザーに提供する、新規テクノロジーである。

これほど驚異的な普及は当然ながら熱狂を生むが、既存企業にとっては心配の種でもある。LLMの可能性は無限のように思われ、検索、コンテンツ生成、カスタマーサービス、教育、ほかにもあらゆるものを変革するだろう。より的を絞ったビッグバン型破壊とは異なり、チャットGPTをはじめとするLLMは、一つの業界だけでなくあらゆる業界で長年続いてきたルールを同時に打ち破る、超越的な破壊者である。

この破壊の潜在的規模、そしてプライバシーやバイアスの問題、さらには国家の安全保障にさえ関わる問題を踏まえれば、議員が注目するのは当然だ。

ディズニーのクラシック映画『ファンタジア』でアニメ化された、ゲーテの詩「魔法使いの弟子」を考えてみよう。工房で弟子が放った魔法が、すぐに制御不能となり、目の前にあるものをすべて破壊しそうになる。そこに魔法使いが戻ってきて、秩序を回復する。

アルトマンのような開発者も含め、AIが引き起こしかねない意図せぬ結果に懸念を抱く人々の多くは、立法者に魔法使いの役割を果たすよう求めているわけだ。

名乗りを上げる面々

米国では複数の関連当局が、AIの規制を主導しようとしのぎを削っている。

まずは連邦議会だ。上院多数党院内総務のチャック・シューマーは、AI製品・サービスに対する規制の「ガードレール」を設ける予防的な法案の制定を呼びかけている。これらのガードレールが重点を置くのは、ユーザーに対する透明性、政府への報告、そして「AIシステムを米国の価値観と一致させ、AI開発者に、よりよい世界をつくるという約束を確実に実行させること」である。ただし、この提案は曖昧である点が期待外れだ。

次に、バイデン政権がいる。2022年10月にホワイトハウスが発表したAI権利章典の青写真の施行をめぐり、連邦政府機関の間である程度の競争が見られる。

この青写真も同じように一般論的で、開発者に次のことを求めている。「安全で効果的」なシステム、差別をしないこと、プライバシーに関する期待を裏切らないこと、ユーザーが自動化システムを使用している際にはその旨を説明すること、ユーザーが望む場合には人間による「フォールバック」(代替手段)を提供すること。少なくとも現時点では、これらのキーワードは一つとして意味が明確にされていない。

米商務省では、国家電気通信情報庁(NTIA)が、AIシステムの監査と認証の有効性に関する質問を公開した。AIシステムの説明責任に関する数十の質問について、一般から意見を募集している。

ここには、新たなアプリケーションに対する評価、認証、監査が行われるべきか否か、いつ、どの方法で、誰によって行われるべきか、それらの審査にどのような基準を設けるべきか、などが含まれる。質問の具体性に関しては、正しい方向に向かっているようだ。

一方、米連邦取引委員会(FTC)の委員長リナ・カーンは異なるアプローチを取る。FTCはLLMに対する管轄権をすでに有していると彼女は主張し、反競争的行為を取り締まり消費者を保護する強硬な姿勢を、新たなAI技術に対して示している。

カーンの推測によれば、AIは「談合、独占、合併、価格差別、不公正な競争方法」といったテック業界の既存の問題を悪化させかねない。さらに、偽物だが説得力のあるコンテンツをつくる生成AIの能力は、「不正を加速させる危険がある」という。

加えて、LLMはユーザーのリクエストに対し、バイアスを伴うデータセットに基づいて応答を生成することで、既存のプライバシー法と差別禁止法に(意図的であろうとなかろうと)違反する可能性があるともカーンは指摘する。

そしてさらに、州レベルでの取り組みがある。AI関連の法案はすでに、少なくとも17の州で導入されている。これらの法案の中には、地元でのAI製品の開発を奨励するものもあれば、医療や雇用などの用途での使用を制限するものもある。多くの州は、今後の法案に関する助言を行う独自のタスクフォースを設けているか、設置を検討中だ。

現在のところ、上記に挙げてきた法案はどれも具体性に乏しく、AIによる仮想的な危害の種類は、誤情報や著作権と商標権の侵害といった既存のカテゴリーに分類されている。

Original Post>