OpenAI CTO「スケールに賭けていた」“生成AIブーム”の前夜、AGIに向けた懸念も明かす

 この1年半の生成AIブームに火をつけたのがOpenAIならば、CTOとして「ChatGPT」や「DALL-E」の開発を率いたMira Murati(ミラ・ムラティ)氏は重要な立役者だろう。2023年末にCEOのSam Altman(サム・アルトマン)氏が解任された際、Murati氏が暫定CEOに選ばれたことも同氏の重要性を裏付けている。

スケールに賭けていた──生成AIブームの前夜

Altman氏がCEOに復職後、再びCTOとしてAI製品開発を統括するMurati氏が提携先であるQualtricsのイベント「X4 Summit」(5月1日~3日、米ソルトレークで開催)にゲスト出演し、QualtricsのAI戦略プレジデントに就任したばかりのGurdeep Singh Pall氏と対談した。Pall氏は、約34年にわたりMicrosoftに勤務し、直近ではビジネスAI・プロダクトインキュベーションのトップとしてOpenAIとの提携などに関わった人物だ。旧知の仲ともいえるMurati氏とPall氏は、生成AIのブームやAGI、人類への影響などをテーマに語った。本稿では、その対談の一部をお送りする。

*     *     *

ChatGPTなどが生成ブームを起こしたが、当事者のMurati氏はこのブームをどう見ているのか。Pall氏が「予想外の出来事はあったか」と尋ねると、Murati氏は、『テクノロジー』『社会・経済』『規制』の3つの面で自身が感じている変化を説明した。

まず、テクノロジーの観点では、「私たちはスケールを信じ、賭けていた」とMurati氏。大規模言語モデルに大量の処理能力を持たせ、大量のデータを学習させるとモデルがパワフルになり、さまざまなドメインで多くのことが可能になるという賭け、これを統計的に予測するのと現実世界で能力を発揮しているのを見ることでは違う体験だったと振り返る。

「スケールのパラダイムが現実に機能している様子を見ると、魔法のような驚きを感じた。GPT-3からGPT-4にアップグレードしたことで、さまざまな領域で推論能力がアップしている。次のモデルでも同じようなことが起こるだろう」と予想した(対談後、OpenAIは5月13日に最新モデル「GPT-4o」を発表している)。

また、Murati氏は「(ChatGPTなどの生成AIが)あっという間に社会へと溶け込み、経済にも大きな影響を与えていることに驚いている」とも述べる。「電力とインターネットがあれば、GPT-3.5やGPT-4と同水準のモデルを無料あるいは少額で利用できるようになった」と話す。AIの歴史は新しいものではないが、生成AIという形でOpenAIが仕掛けたタイミングは絶妙だったということだろう。実際、ChatGPTはリリースから2ヵ月で月間アクティブユーザー1億人に達しており、歴史上最も急速に成長したコンシューマーアプリといわれている。

そしてブームとなった生成AIは、社会・経済へと一定のインパクトを与えており、各国政府も規制の在り方などを模索している。Murati氏は以前からAI規制に好意的な立場を示しており、この日も「多くの政府が“AIセキュリティ”に取り組む組織を立ち上げ、AIを便利で安全なものにするために規制がどうあるべきかを考え始めている。これは素晴らしいことだ」と言及した。

AIは知識と創造性の関係を変える

生成AIが急速に普及しているとはいえ、まだ初期段階だ。では、これからどのような変化が起こるのだろうか。Murati氏は大局観として、「知識と創造性の関係を完全に変えてしまう可能性がある」との予想を示す。特に「人々の生活の質を変えるチャンス」だとして、医療や教育の領域で良い変化が起こることに個人的な期待を寄せていた。

たとえば教育では、カーンアカデミーやカーネギー・メロン大学などがOpenAIのAIモデルを用いてパーソナライズされたカリキュラムを開発しているという。「30人の生徒を1人の教師が教えるというモデルからシフトすることができる」とMurati氏。生徒1人ひとりにあった方法で教えることで、やる気を引き出すことができるようになる。

また、モデルナなどが臨床試験のプロセスを強化したり、小児ケアのSummer HealthがChatGPT Enterpriseを導入して医師の負担を軽減したり、医療にかかわる活用事例も紹介された。その中、OpenAIは協力することはもちろん、プラットフォームへの投資などを進めていくことが役割だとする。APIを用いながら、多くの企業がAIモデルを活用できるようにツールの提供などを進めていくことで、「機械学習の専門知識がなくとも、ビジネスに組み込めるようになる」とMurati氏は述べた。

「AGI」に向け、反復展開と“準備”を進める

OpenAIの目標は「AGI(汎用人工知能)」だ。Pall氏は、AIモデルがパワフルになっていく中、どのように取り組んでいるのかと尋ねると、「OpenAIの目標はAGIを構築し、それを有用な形で世界に展開すること。これにより全人類に利益をもたらす。これと同時に、我々はモデルの安全性にも細心の注意を払っている」とMurati氏は答える。

「人間の価値観との整合性があるのか、我々が意図していることが本当に行われているのか、確認が必要だ」(Murati氏)

人間にとって害のある誤用、人間がコントロールできなくなる状態、人間の価値観と一致しない状況などを避けるための取り組みを続けているという。

具体的な取り組みとして、AIモデルを早期段階でデプロイし、きちんと管理された方法で、特定のユースケースや業界でどのように利用されるのかを理解しようとしているという。「どのような能力やリスクがあるのか、具体的なシナリオはどのようなものが考えられるのかを調べている。これによりリスクを理解し、開発の各段階で緩和策を組み込んでいく」とMurati氏。これを「反復展開」と述べた。

これとあわせて、産業界や政府、社会などを巻き込むことも重要だと述べる。「我々は受動的な傍観者ではなく、積極的な参加者としてテクノロジーに何ができるのか。そして、どのように工夫すれば、最も有用かつ堅牢なものになるのかを考えている」とMurati氏。OpenAIには、現在のユースケースや応用例、誤用に特化したチーム、破壊的な影響を与えるものを含む長期リスクを専門とするチームがあるとして、「リスクをゼロにすることはできないが、最小限にする最大の取り組みをすべきだ」と続ける。

加えて、AIの安全性を考える上では、「preparedness」が1つのキーワードになるとした。日本語で“準備”を意味する言葉だが、Murati氏は「我々が開発する最も強力なシステムである『フロンティアAIモデル』のリスクを調査している[1]」と切り出すと、サイバーセキュリティや生物学的脅威など以外にも、未知のリスクもあるはずだと警鐘を鳴らす。「私たちは統計からAIモデルのパフォーマンスを予測できるが、その能力も予測する必要がある」として、リスクの追跡や評価、監視などの準備を進めているという。OpenAIの社内的な取り組みだけでなく、産業界や政府と共に全員で準備できるように働きかけていくとした。

「AGI」にどのように到達するのか? どう進展していくのか?

Murati氏は「今後数年にわたるテクノロジーの進化に重要なベクトル」として『スケール』『マルチモーダル』『強化学習』『アラインメント』の4つをキーワードとして挙げる。スケールについて、「今後も(処理能力と質の高いデータという)スケールのパラダイムを進めることになる」と話すと、マルチモーダルの進展にも期待すべきだとして「人間は言語だけでやり取りしているのではない。我々は、人間が世界を理解するのと同じような世界観や理解をモデルに代入したい」とMurati氏。AIモデルが現実世界と相互作用する機会を持つためにも強化学習は欠かせないとした上で、「行動や意図などが我々の価値観に沿ったものになるのか、アラインメントの問題を解決しなければならない」と注意を促す。

このようなAIの進化が人類に与える影響について、Murati氏は楽観視している。ただし、「我々がミッションに向かって正しく進んでいれば」だ。

「テクノロジーにより、仕事の意味、情報との付き合い方、人との関わりなどすべてが変わるだろう。人々が能力を発揮できるようになり、知識と創造性をより高められるような未来になることを願っている」(Murati氏)

また、気候変動や医療、教育など、まだ答えが見えていない社会課題に対し、技術が解決を助ける可能性があると期待も語った。

「1年半前まで、GPT-3.5やGPT-4と同水準の能力を持つAIモデルがたくさん登場し、利用されることは想像できなかったのではないか。OpenAIの望みは、AIの素晴らしいユースケースがたくさん出てくること。我々のアプローチは、コミュニティとして全員で進めていくことだ」(Murati氏)

Original Post>

Leave a Reply