ChatGPTを取り巻く日本の現況に「負け犬のよう」AI inside渡久地氏がAIにかける熱き想い

 生成AI技術の進化・発展が著しい中、「LLM(Large Language Model/大規模言語モデル)」や「ChatGPT」などの活用について、ビジネスの場でも語られるようになってきた。しかしながら、「ビジネスの鍵を握る」と期待の声がある一方、具体的な活用のための議論や環境整備が進んでいないという指摘もある。そんな中、“AI民主化の推進役”を標榜するAI insideが、本格的に生成AI・LLMを活用したサービスの事業化を発表した。純国産AIベンチャーとして注目を集める同社から見たAIを取り巻く現況と課題、可能性などについて同社代表取締役社長 CEO 渡久地択氏に伺った。

生成AIが乱立する状況下でこそ、意義のある使い方を

──生成AIやLLMなどの研究はたゆまず長きにわたって行われてきましたが、「ChatGPT」の衝撃もあり、一種のブームとして注目を集めているようにも思われます。この状況をどのように感じていらっしゃいますか。

一言でいえば難しい状況にあると感じています。「乱立しているな」というのが第一印象で、それもプロンプトの入力方法などの活用方法ばかりが乱立している状況で、肝心のAIモデルに関する議論が見当たりません。しかも、誤った情報がSNSなどで流されおり、訂正されることもない。多くの方がChatGPTを触ったことがあるくらいで、正しい情報を見つけだせない状況にあると思います。

たとえば、「企業で活用できそうなLLMを思い浮かべることができますか」と聞いても、多くのユーザー企業の担当者はスグに判断できないと思います。「バズワード的に流行っているから、うちも導入しなければ」と、SIerやベンダーから「AIを活用したソリューション」と説明を受けて導入する。そういう状況にあるのかもしれません。

もちろん、SIerは重要です。当社ではAIモデルやそれを動かすインフラに注力しており、SIerとはパートナーシップを組んで提案しています。大切なことは、ユーザー側がこうしたいという「ユーザーシナリオ」を考えた上で提供することです。特にBtoBの市場においては「AIを活用したという製品・サービス」を単に導入するのではなく、価値を生み出せる「ユーザーシナリオ」をしっかりと模索し、提示していく必要があるでしょう。

──コンシューマー向けの製品が先行したこともあり、企業導入においては意欲だけが先走っている状態なのでしょうね。生成AIに関するBtoB市場が形成されていない状態ではありますが、その市場規模をどのように見積もられていますか。

何百億円とも何兆円とも、いろいろな試算が出ていますが「まだわからない」というのが正直なところです。とはいえ、生成AIを包含した「AI」が既存のビジネスに入り込んでいくため、どこまでをAI市場として捉えるべきか、実は明確に切り分けられません。今後、ありとあらゆる産業、業務・サービスにAIが組み込まれていくことは間違いないでしょう。

もちろん、AIを取り巻く市場の成長という観点では、ChatGPTの存在が一般的に知られるようになった頃から、急激に一回りほど市場規模が大きくなったように感じています。当社でも、自然言語の処理モデルであるTransformer系の技術については、2022年3月にaiforce solutions社を買収[1]した際に取得しており、一気にAIプラットフォームの拡張を図っています。この当時、aiforce solutions社では数値データをもとにした予測AIを開発・提供しており、フォーキャスト(予測)のAIに注力していました。生成AIについても社内実験を進めていましたがビジネスとしての優先度は低く、まさにOpen AI社に動きがみられた頃からビジネスとしてのポテンシャルを感じるようになり、しっかりと事業化しなければと思いましたね。

というのも、どんなにAIが進化しても、プロダクトに埋め込まれて初めて活用されます。つまり、プロダクトやサービスがユーザーに受け入れられることが重要で、ChatGPTが登場した頃から土壌が醸成されていき、そこからユーザーに浸透してきた段階で当社でもLLMに関するリリースを発表しました。

本来の「AI」は量子コンピューティングなどと並ぶ技術革新

──AI insideでは、生成AIをどのように事業展開していくのでしょうか。

現在は、生成AIとLLMの研究開発と社会実装を行う研究チームとして「XResearch(エックスリサーチ)」を立ち上げ、「PolySphere-1(ポリスフィア-ワン)」という独自LLMを発表しています[2]。また、企業ごとにPolySphere-1をファインチューニングするサービスも進めています。既にコールセンターでの使用など、具体的な用途や可能性をディスカッションしており、「実際にやってみよう」という機運が高まっている最中です。

AI inside 代表取締役社長 CEO 渡久地択氏

実は「ChatGPTをベースにやってみよう」と考える企業は多いのですが、早い段階で「やりたいことがChatGPTではできない」と気づかれ、ご相談いただくケースが増えています。たとえば、OpenAI社に自社のデータが学習されてしまう可能性を懸念する方などがいて、リバースプロンプトエンジニアリングが実証されたわけではありませんが、心配ではありますよね。だからこそ、当社が国内サーバーのプライベート環境上にファインチューニングできるようなサービスを提供するのです。

──国産LLMが注目を集める一方で、国の支援などが不十分という声も耳にします。

AI insideとしてだけでなく私個人としても“日本発”にこだわりたく、世界に負けずにやっていきたいと意気込んでいます。国としても既に支援を検討・実施していると思いますが、それがなくとも事業者が自分たちの力で、責任をもってやっていくしかないと思っています。

これから数十年の間に、革新的な技術変革が起きる領域を考えてみたとき、AIと肩を並べられるのは量子コンピューティングや核融合など限られた分野です。今、私たちが注力すべき領域の一つがAIであり、国と事業者がそれぞれのやり方で投資していくべきでしょう

──国の支援という観点では、法制度など環境面での整備も挙げられますね。

この観点でも、やはり事業者が連携した上で国が支援していく図式になるのだと思います。米国ではGAFAが先行して取り組んでいますが、その方向性が世界中の国や業界にとって良いのかどうかわかりません。

たとえば、規制を強めすぎるとイノベーションや新しい発想は起きにくいですよね。極端な話、AIにデータを学習させないとした瞬間にAIの進化は止まります。日本は未整備故に「AIの学習大国」などとも言われ、広範囲にわたりデータが活用されています。そうした状況下では、拡散モデル(Diffusion Model)に対する著作権保護を考える必要があるでしょう。一方、LLMは容易にそのまま複製できるものではないため、深く理解して法整備することはかなり難しいはずです。だからこそ、国主導の法整備については「かなり難しいだろう」と考えるわけです。そうなると、やはり事業者が連携していくしかないでしょう。

──AI insideが牽引していこうという意思を感じますが、連携していくような国内における競合他社の存在はいかがでしょうか。

まだ明確な動きを捉えられておらず、ニュースなどで流れてくる情報を見ても、実際に現場でしっかりと成果を上げている事例が見当たりません。国内のLLMサービスの中には、広告やライティング(執筆)など限定条件下で活用できるサービスはあるようですが、生成AIがもたらす“本来のインパクト”を与えられるまでには至っていないと思います。どうしてもChatGPTが先行したためか、そこから発想や活用の範囲を超えられていない印象がありますね。

生成AIは「DX」の起爆剤足り得るのか?

──では、生成AIがもたらす本来の価値とは何でしょうか。声高に叫ばれている「DX」などデジタル変革の起爆剤足り得るものなのでしょうか。

あくまでも私個人の考えではありますが、LLM自体はある程度成長したら十分なのです。主眼とすべきは、これをどう使うか。つまり、従来のITサービスやソリューションにおけるインターフェイスをどれだけ変えられるかが核心となります。

たとえば、今使っている業務アプリケーションを思い浮かべて欲しいのですが、いろいろなボタンをクリックさせて画面を遷移したり、目的別に各アプリケーションにログインしないといけなかったりと煩雑になっていますよね。しかし、LLMならば自然言語という私たちが無意識で使用しているインターフェイスを利用できます。つまり、アプリケーションなどを利用する際に「何を使うべきか」「どう使うべきか」を考える必要がなく、自然に活用することができる。まさにそこが明確かつダイナミックに変わるポイントと言えるでしょう。

そして忘れてはいけないのが、これまで求められていたITリテラシーが不必要となれば、自然とすべての人の能力が底上げされることです。たとえば、SaaSが乱立して1社で100種類以上ものツールを使い分けることに課題があると指摘されていますよね。ここに生成AIを上手く活用できればフロント部分からSaaSが消え去り、従業員は自然言語のインターフェイスで喋るようにやり取りするだけでよくなります。そうした観点でゲームチェンジャーとなる可能性が高いでしょう。

──では、生成AIを自社で利用したいと考えるとき、どのようなアプローチをとればよいのでしょうか。

まずは、生成AIやLLMを活用する「ユーザーシナリオ」を描いてみることだと思います。どのような企業規模や産業、職種なのか。たとえば、デザイナーや警備担当者では業務内容も異なるため、活用先の業務を具体的にリストアップして、それぞれ生成AIやLLMで何ができるかを想像してみる。このとき、想像しにくい場合にChatGPTなどを使ってみたらよいのです。決算資料を読み込んでレポーティングさせる、そのレポートを分析させる、データをCSV形式で別のシステムにアウトプットして投資判断に活かす……というように活用できる部分が見えてくるでしょう。

そうして「活用できる部分」がわかったら、どのような形でもいいので早く実行すべきです。今の局面ではスピードこそがすべてであり、ここから約1年は先行して取り組む企業が大きな恩恵を得られるでしょう。ただし、覚悟していただきたいのは技術的な変化が激しいため、確実に作り直すことになるということです。そのため完全内製で自社でやるか、それとも外部に委ねるかの判断も必要になるでしょう。

──外部協力のニーズが高まると予測される中で、AI insideでは何を提供でき、実現できるのか。今現在のソリューションなどについてご紹介いただけますか。

まずは、2023年6月にローンチしたAI統合基盤「AnyData」[3]から紹介しましょう。AIのデータ基盤と学習基盤、運用基盤から成るもので、データ基盤にAI学習データを蓄積し、各ツールと連携しながら運用するものになります。学習基盤として提供してきたノーコードAI開発・運用ツールである「Learning Center」を、これまでは社内インフラと連携させて提供していましたが、インフラ部分を含めて丸ごとパブリッククラウド上で提供しています。

いわばIaaSとPaaSが一体化したようなもので、プライベートクラウド上に自社専用のスケーラブルなAI基盤が構築でき、LLMもその上で運用できます。研究開発中のオートノマスAI(自律型AI)を実装すれば、自社データをどんどん蓄積することで「何をするのか」をユーザーが決めずとも、AIが自律的に学習・モデル開発してくれ、本番運用もできるようになります。

この「AnyData」を提供するためにインフラ整備には力を入れており、インスタンスAPIを立ち上げ、スケールの設定なども簡単にできるようにしており、手前味噌ですが使いやすいAI基盤ができたと思っています。これまで提供してきたサービスの進化版でもあるため、サービスの安定運用およびアップデート、そして新機能追加や先進テクノロジーの導入などは従来サービスの開発部隊が担っているのですが、これとはまったく切り離してイノベーションに特化させ、テクノロジーとビジネスデベロップメントの両方の役割をもたせた部隊が前述した「XResearch」にあたるのです。

当初は「XResearch」という名称さえなく、有志メンバーでスタートしてから約半年を迎える中で「PolySphere-1」の開発、各企業との実証実験など多くの活動を推進しています。

──国産LLMがいくつか立ち上がる中で、「PolySphere-1」はかなりの熱量をもって開発されたと聞いています。

まさに「PolySphere-1」リリースに至った原動力は“悔しさ”ですね。久々にテレビを見ていたら、ChatGPTについてAI権威とされる方やスタートアップの方などが「これを上手く活用することが日本の勝ち筋」「ものづくりは日本が上手いので」といった表現ばかりされていたのです。始めからAIのエンジンとなる部分は海外任せで、利用だけにフォーカスしている様があまりに悔しくて……そう言いつつ自分もやっていないじゃないかと負け犬のような気分になりました。また、ChatGPTと同様のものを構築するには1兆円規模の開発費が必要という論調にも違和感を覚え、それなら当社がやるのが当然だろうと奮起し開発したのが「PolySphere-1」なのです。

開発を通してあらためて感じたことは、本来LLMがもつポテンシャルからするとChatGPTはデモ版のようなサービスだということです。トークン長が制限されているためプロンプトに全文を入力できず、エンジニアリングもできない。Function Calling機能は良いと思いましたが、タスクが終わるまでプロンプトをつなげたり、長いトークンを細切れにして入れたりと現場努力のプロンプトエンジニアリング頼みの設計が多い点が気になりました。インフラ面を考慮しているのかもしれませんが、本来必要なことに対応できていないのがChatGPTだと感じますね。

そこで私はまず、ChatGPTで対応できていなかった長いトークンやファインチューニングなどにフォーカスして開発することにしました。特にトークン長に関して「PolySphere-1」は、2,259万トークンを分割せず一度に受けつけて返答することに成功しており、膨大な企業データを根こそぎ入れられます[4]。極端な話、企業内のドキュメントを全部入れたら、それを理解した上で回答することが可能になるのです。そうすると重要になってくるのが、それに耐えうるだけのアーキテクチャです。ですが、詳細は企業秘密とさせてください(笑)。細かな話は面白いのですが、それよりもユーザーにとって大切なのは「早く学習ができる」「長いトークンが入れられる」「自社にあわせてファインチューニングがしやすい」ことでしょう。ここに関しては7年間、多くの企業と付き合う中で“必須”と実感していることばかりですから。

──「PolySphere-1」と「AnyData」はどのような位置付けなのか、改めて教えてください。

一言でいえば「AnyData」の中で使えるAIモデルの1つとして「PolySphere-1」があるという関係です。どんな企業でも「AnyData」と「PolySphere-1」だけで高度にファインチューニングが運用まで含めて容易に実現できます。「AnyData」では画像認識や予測判断のAIモデルも運用できるため、LLMを含むAIモデルを複合活用しながらマルチモーダルな処理が可能です。また、これまで当社で取り組んできたAI-OCR「DX Suite」との連携も計画しており、既に活用いただいている企業や自治体などでもLLMの恩恵を享受できるようになります。

筐体である「AI inside Cube」はエッジの運用基盤であり、さしずめ「AnyData」は「AI inside Cube」のクラウド版とも言えるでしょう。たとえば、現状のままの活用はもちろん、独自のLLMを作って「AI inside Cube」に配信して利用することも可能になります。ちなみに複数台を接続できるためクラスタハードウェアであり、「AnyData」ではそれをクラウドでも再現しています。

あらためて俯瞰してみるとAI-OCRを軸としてきましたが画像認識だけでなく、フォーキャストモデルを作れたり、それをオンプレミスやクラウド環境関わらずプライベートに運用できたりと、市場や対象ユーザーも広がっていますね。

──では、今後の市場戦略についてお聞かせいただけますか。

当社は、「AI×SaaS」という下地がなかった時代にサービス展開をしてきました。良いユーザー体験を提供することでユーザーを増やし、利益の多くをインフラに投資することで価格を下げるという戦略を採ってきました。一般的なSaaSのビジネスモデルは、広く普及させて課金額を上げていく戦略ですが、当社は言ってしまえば“反SaaSモデル”であり、投資したインフラを「AnyData」として開放することで、私たちが実践してきたサイクルをサードパーティにも実践して欲しいです。もっと言えば、AWSのような大手クラウドベンダーが採っているビジネス戦略と近く、先ほど述べたように負け犬根性から奮起した“もう一つのチャレンジ”であり、AWSやGCPと続々登場してきた状況を静観している場合ではないだろうという思いがあるのです。

また、販売については何年も関係を深めているパートナーがいることはもちろん、パブリッククラウドベンダーに近いビジネスモデルとなるために、テクノロジーパートナーやISV(独立系ソフトウェアベンダ)に加え、SIerやコンサルティングファームなどとの連携も強化している最中です。

これに合わせて組織も変えつつあり、「AnyData」のローンチとともに「InsideX」という経営層向けのAI実装コンサルティングチームを社内に立ち上げ、ISVやエンタープライズとやりとりを始めています。単にSaaSを販売するのではなく、ファイナンスやマニュファクチャリングに特化したチームを業界や業務に精通させ、より深いところまでサポートできる形にする。私は従来から「The Model」の反対をいくつもりで、カスタマーサクセスを一番に考えた戦略を採っています。

──これまで以上に期待が高まりますね。では、最後にAIの展望を含めてメッセージをいただけますでしょうか。

「AnyData」もそうですが、生成AIやLLMを活用する前には、どのようなデータを入れるのか、蓄積したデータをどう使っていこうかと現場が考えなければならず、そこが固まる前にCIOやCDO(Chief Data Officer)がデータウェアハウスの必要性を説いて構築しても必要なデータは入ってこないでしょう。逆を言えば、各部門が「どう使うか」さえ決められたならば、各業務フロー間で連携させたり、SaaSに対応させたりと自然に前進していくはずです。つまり、データをユーザーがどう使うかという観点で進めていくことが大切であり、同じことが生成AIやLLMの活用においても言えると思います。

何よりも伝えたいことは、DXが進むのは「動いてもらうための理由や根拠」という強いモメンタムができたタイミングです。まさに今こそそのときであり、ここでやらなくては、もう取り組むタイミングはやってこないでしょう。前述したように今後5~10年のうちに革新的なイノベーションが起きるとしたら、AI以外には量子コンピューティングと核融合などエネルギー革命以外にはないと思います。直接的にDXやユーザー部門に係わるのはAIだけです。つまり、今できないのなら今後ずっと変革はできません。だからこそ、とにかく早く手を打つべきです。

そして、生成AIは自然言語に適したものであり、その言語自体は人間のインターフェイスで思考そのもの。となると、日本語の特徴である“超ハイコンテクスト”な点は、まさに生成AIに求められるものでしょう。日本語は「そこであれをして」のような指示が日常的にとんでくるはずで、そこに対応できるようにさまざまな情報を入れることで曖昧な指示であってもAIが想像して対応してくれるようになる。人間が発する自然言語のバックグラウンドでは、画像認識や予測判断がなされているマルチモーダルな状態にあります。それを人間は無意識にオーケストレーションしていて、日本人は言語特性もあり得意としている。そうした日本語や日本人がもつ本質的なAIにおける優位性を活かしながら、当社も日本発で世界標準に挑戦していけたらと思っています。

Original Post>

Enjoyed this article? Sign up for our newsletter to receive regular insights and stay connected.