リコー、大規模言語モデル(LLM)による独自のAI開発、「GPT-X時代」に向け進化中

 リコーはいち早く大規模言語モデル(LLM)を活用した独自のAIを開発してきた。AWS環境上でBERTを用い、コールセンターのVoC分析サービスを稼働。さらに自前のGPT-3を開発し、より自社に適した「AI開発プラットフォーム」構築に取り組んでいる。AWS Summit Tokyo 2023で明かされた、リコーの進化中のAIプロジェクトの詳細を紹介する。

大規模言語モデル(LLM)によるコールセンターのVoC分析

株式会社リコー デジタル戦略部 デジタル技術開発センター長 梅津良昭氏

4月20日から21日に行われたAWS Summit Tokyo 2023。4年ぶりのリアル開催で多くの講演が行われる中、「大規模言語AIモデルを活用した顧客価値創造 ~デジタルサービスの会社への変革を目指すリコーのデジタル戦略~」と題した講演では、リコーの大規模言語モデルを使った取り組みが紹介された。

リコーと言えば、一般にはOA機器メーカーのイメージが強い。しかし、2021年から2025年までの中期経営計画では、「はたらく場をつなぎ、はたらく人の創造力を支えるデジタルサービスの会社」への変革を目標に掲げ、取り組みを進めている只中にある。その実現で重要な役割を担うのがAIだ。

その取り組みの歴史を遡ると、最近では深層学習のユースケースが登場し始めた2015年頃から、リコーでも画像解析を活用した外観検査アプリケーションなどから、様々な最新テクノロジーを活用した取り組みを進めてきた。その適用領域を自然言語処理にまで拡げ、中核ビジネスとの関連の深いドキュメント解析に取り組み始めたのが2020年のことである。そして2021年からは、企業から許諾を得て預かった各種データを解析し、業務効率化や新しい価値創造を支援するサービス「仕事のAI」の提供を開始した。

「仕事のAI」シリーズで最初に提供を始めたのが、コールセンターのお客様相談窓口に集まるVoC(Voice of Customer)を分析するサービスである。これまでのVoC分析では、手作業で内容の仕分けを行うか、テキストマイニングで自動分類を行うかだったものを、大規模言語モデル(LLM:Large Language Models)を用いてより早く簡単に正確な分類ができるようにした。

AWSサーバレス環境上で「BERT」を稼働

このサービスで採用したモデルはBERT(Bidirectional Encoder Representations from Transformers)である。BERTをクラウドで動かせるよう、パートナーであるAWSに相談したところ、梅津氏のチームが勧められたのは推論を行った時だけ課金されるAmazon SageMaker Serverless Inferenceであった。「低ランニングコストかつ高可用性を実現し、非常にリーズナブルにお客様へのサービス提供を実現できた」と梅津氏は結果を振り返った。

この時からリコーは大規模なLLMを活用したAIビジネスに参入したが、普及が加速しないことにもどかしさを感じている。報道でしばしば「PoC止まり」「PoC疲れ」が話題になるように、「お客様にとってのAIは未知の存在で、効果への懸念や性能を出せるかに不安があるのだと思う」と梅津氏は分析する。「まず試させてほしい。できれば自社のデータを使って検証したい」という要望を聞く機会が多いと打ち明ける。特に自社のデータを他社に預けるとなると、NDAの締結を含め、検討に時間を要することになってしまう。その解決に向けては、リードタイムを短縮し、顧客が早く成果を出せるような仕組みが必要だ。

そこで、リコーは顧客が社外にデータを出さなくても、リコー側でデータの分析から、AIのモデル開発、AIのモデル運用を行う専用の環境を用意することにした。現在準備中の「AI開発プラットフォーム」ができあがると、顧客自身でAIエンジニアリングを自走できるようになると梅津氏は期待を寄せる。顧客はシステムからAPIをコールすれば、モデルを使え、面倒な運用時のパラメーター調整を行う必要もない。

Original Post>