生成AIの活用について試行錯誤が続く企業が多い中、日立製作所はどのようなアプローチで取り組んでいるのだろうか。ITとOTの両面から生成AIを活用し、社内の業務改革と外販向けソリューションの提供を推進する日立の戦略を、Generative AIセンターの吉田氏へのインタビューから探る。CAXO(Chief AI Transformation Officer)の立場から生成AIの責任ある活用のための社内ガイドラインや人材育成の取り組みを紹介する。
3人のChief AI Transformation Officer(CAXO)体制で取り組む

株式会社日立製作所 Generative AIセンター長 兼 Chief AI Transformation Officer 吉田順氏
──まず、生成AI活用に取り組むための組織体制を整備した経緯から聞かせて下さい。
以前から私たちの本部ではデータサイエンスに取り組んできましたが、「生成AIって面白いよね?」から始まって、2022年秋頃から有志200人ほどが集まり、情報交換を始めたのが今の組織を立ち上げたきっかけです。下地ができていたとはいえ、日立グループは大きい組織なので、各セクターが独自に組織を作ると一貫した取り組みができません。そこで、ワンストップでできる組織を作ろうと、2023年のGW明けにGenerative AIセンターを立ち上げました。

2023年5月に立ち上げたGenerative AIセンター 出典:日立製作所 [画像クリックで拡大]
さらに、2023年12月には、「グリーンエナジー&モビリティ」「コネクティブインダストリーズ」「デジタルシステム&サービス(DSS)」という3つのセクターそれぞれにChief AI Transformation Office(以下、CAXO)を設置しました。背景には、日立としてOTの領域で差別化したいという思いがあるためです。私は3つ目のIT領域を管轄するDSSセクターのCAXOを務めていて、社内の案件の検証とお客様のPoCの支援の両方の取り組みをリードしています。生成AIでOT領域の事業を強くしなくてはならないわけですから、私たちは他の2人のドメイン知識を活かしながらのサポートを意識しています。また、DSSセクターの中には2021年7月に買収して子会社化したGlobalLogicがいて、海外の案件は彼らが主にリードしています。

左から、各セクターの Chief AI Transformation Officerに就任した桧垣弥生子氏、三溝勝広氏、吉田順氏
──2024年度になって変わったことはありますか。
大きくは変わりませんが、日立には多くのビジネスユニットやグループ会社があります。それぞれの部門で生成AIの活用を推進する部署ができ、CXAOやGenerative AIセンターと連携し、ナレッジの共有や人財育成を共同で行う体制になりました。社員はかなり変わったと実感しているのではないかと思います。また、今年度からは、本格的にソリューション提供を始める計画を進めています。
──2024年度にやろうとしている生成AI活用について、もう少し詳しく教えて下さい。
社内改革と、社外のお客様に向けての取り組みの両方があります。まず、社内改革では「システム開発の生産性向上」と「フロントラインワーカー不足の支援」の2つが重点領域です。システム開発では、ソースコードだけでなく各種仕様書の生成を含め、開発プロセスの各フェーズに生成AIを適用し、どこの何に効果的かを検証しているところです。日立の場合、大規模で社会を支える重要なシステムが多いため、品質や信頼性がとても大切です。対外的には、2027年までに3割の生産性向上という目標を示していますが、社内で段階的に適用を進めながら、その成果をノウハウとしてお客様に提供していこうとしています。
人員削減ではなく、人員不足を知恵で補うために使う生成AI
──コード生成だけではなく、プロセスに焦点を当てているのですね。
要件定義からデプロイまでのステップそれぞれが対象です。また、ミッションクリティカルなシステムの多い国内ではウォーターフォール開発、海外ではアジャイル開発が中心と採用手法が異なるので、GlobalLogicと一緒に検証中です。コード資産もJavaやPythonなど、様々なものがありますし、品質保証のドキュメント資産も将来の差別化の源になりそうです。
──2つ目のフロントラインワーカー不足への対応では何を計画していますか。
対象は、コールセンターのオペレーターの他、鉄道や電力などの設備保守を担当する人たちを想定しています。現在、フロントラインワーカーは世界的に減少傾向にあり、人員不足を補うために生成AIを使うことが期待されています。たとえば、コールセンター業務では、お客様からの問い合わせを受ける際の調査、回答作成への生成AI適用で、エスカレーション件数を減らす成果を得ています。また、設備保守の業務では、現場でのナビゲーションに生成AIを適用しています。以前であれば、機械にトラブルが出ると、保守員が機械を見て原因を判断して対策を実施していました。ところが、人員不足が進むと、メンバーの知識やスキルレベルにバラツキが出てきて、解決が遅れてしまう。機械が状態を表すデータを出力する代わりに、日本語や英語などの自然言語で説明してくれれば変わるのではないか。それでできたのが「話す機械」です。生成AIは機械の中に直接ではなく、ユーザーインターフェースに組み込む設計で、このようにユースケースの開発で効率向上を実現する方法を検証しています。
この他の取り組みを含めて、進行中の取り組みが、最終的にはお客様に提供するソリューションになる予定で、2024年度は日立らしいソリューションを充実させていくつもりです。業種別にユースケースも整理しています。

業種別に実施している生成AIユースケースの特定 出典:日立製作所 [画像クリックで拡大]
──AIはもっと前から取り組んでいた印象です。
1960年代から長期間にわたってAIに取り組み、ここ10年ほどはデータサイエンティスト育成にも注力してきました。生成AIの登場で、データサイエンティストの役割は、モデルを作る立場から、モデルを使う立場に変わりつつあります。アプリケーションを開発する、あるいはRAGのようなモデルの出力を調整する仕事は、従来、データサイエンティストにとっては周辺の仕事という感覚で、当初は「それは私たちの仕事じゃない」という声も一部ありました。しかし、ここまで大きなトレンドになると、むしろ新しいあり方として積極的に受け入れています。
生成AIの基盤モデルをどう使い分けるか
大規模言語モデル(LLM)によるテキスト生成に、外部情報の検索を組み合わせ、回答精度を向上させるRAG(検索拡張生成)についてもかなり進んできました。RAGについては、一部で独自の技術的工夫を加える拡張も行なっています。たとえば、チャットボットの自動応答では、回答に確信度スコアを付加し、回答の正確性をユーザーが判断しやすいようにしています。また、曖昧な質問に対しては、質問を聞き直すような処理を実行するようにもしています。この2つは日立なりの拡張を追加している例と言えるでしょう。最近のPoCのお客様の傾向を見ていると、RAGとともに言語モデルへのファインチューニングや追加学習をどうやるかに関心が移ってきたような印象です。PoCの実績も増えてきて、国内と海外を合わせると累計で約200件になりました。国内では名古屋鉄道と三菱HCキャピタルとの取り組みが代表的な事例になります。
──基盤モデルはどれか1つだけを使っているのか、あるいは使い分けているのか。方針を教えて下さい。
今のところゼロからの開発はせず、基本的には使い分けることで、お客様のさまざまなニーズに対応していく方針です。Microsoft Azureだけでなく、Amazon BedrockやGoogle Cloudのことがありますし、大部分はパブリッククラウドでも、RAGの対象だけをオンプレミス環境のシステムにしたい場合もあるので、お客様の希望する環境に対応できるようにすることが必要になるからです。とはいえ、システム開発やフロントラインワーカーの支援で強みを発揮していくためには、日立独自のデータ資産を活かすことが必要になりますから、用途特化型のLLMを作ることを検討する可能性は出てくるかもしれません。
生成AIの社内活用のガイドラインをどう作るか
──全社での活用を促すための社内ガイドライン策定はどう進めたのでしょうか。
最初は、社内のIT部門がA4版1、2枚程度にまとめたシンプルな規則集を作って出しました。しかし、使っているうちにわからないことが出てくるかもしれないということで、有志メンバーで、もっと具体的な内容にしようと改訂版を出したのが2023年4月のことです。その最初のバージョンから、インプットのデータに何を使うか。アウトプットをどう扱うか。倫理的観点、著作権やプライバシー保護の観点を加味した内容にしました。可能な限り、具体的な内容を盛り込んだつもりでしたが、実際は多くの問い合わせが来ましたし、Azureなどのサービス仕様はどんどん変化していることもあって、頻繁な内容改訂を実施しています。結局、今は2カ月に一度の頻度でアップデートしています。
![社員が生成AIを活用するためのガイドラインを策定 出典:日立製作所 [画像クリックで拡大]](https://ez-cdn.shoeisha.jp/static/images/article/19729/19729_03.jpg)
生成したソースコードの著作権は? 外販向けのガイドライン

──おそらくどの会社でも同じような試行錯誤をしているでしょうね。
生成AIが登場したとき、近い将来、横断的な組織が必要になりそうだと思い、Generative AIセンターを立ち上げ、法務、知財、品質保証、技術管理などのメンバーの意見を聞きやすい体制にしていたことが良かったと思います。私たちは並行してPoCでお客様支援をしていましたが、裏側では調整に時間をかけました。
外販向けのガイドラインも整備中です。たとえば、「GitHub Copilotで生成したソースコードの著作権はどうなるか?」では、社内の関係者だけでなく、Microsoftの法務の見解を聞いて意見統一を図ることもやりました。「もっとスピード感を持って進めるべきでは?」という意見も出たのですが、お客様から問い合わせを受けた時に備え、守りを固めるべきだとなったのです。実際、自信を持って「やってます」と言えますし、信頼されていると感じる機会が2023年の秋口から増えてきたように思います。
──「責任あるAI」という考え方が重視されています。どのように推進されていますか?
ここまでお話ししたのは、日立社内で使うためのもので、これとは別のガイドラインの整備も進めています。たとえば、JP1のようなソリューションの中に生成AIを組み込む場合、監視対象システムに障害が発生すると、オペレーターによる原因究明から、対策、復旧後の障害報告書の提出まで、複数の使い所が考えられます。もし、仮に誤った生成AIの出力結果を気づかずに使ってしまうと、日立の責任問題になる可能性もあります。これを避けるには、お客様との契約書の中で補償範囲を明確にしなければならない。製品によっては、製造物責任の定義にも関わることなので、法務と一緒に「サービス開発ガイドライン」の内容を検討しています。
──外販用のソリューション開発のためのガイドラインでは何を参考にしていますか。
海外ではEUの規制動向、国内では日本政府のAI事業者向けガイドラインなどを一通り確認しました。それこそAI倫理やプライバシーは何年も前から取り組んでおり、研究所も一緒に最新動向に追随するようにしています。
──Generative AIセンターでのAI人材育成の方針を聞かせて下さい。
人財像の明確化から進めています。生成AIを使う人と基盤モデルのチューニングをする人で変わってきますが、日立では職種ごとのジョブディスクリプションを定義しているので、その見直しを行う予定です。システムエンジニアであれば、ジョブディスクリプションの内容に生成AIのスキルが追加されることになります。企画や営業も同じですね。一方、プロンプトエンジニアのような新しい職種の追加も検討する必要があります。内容が固まれば、それに合わせて育成計画も具体化していくでしょう。データサイエンティストを中核に、ITエンジニアもOTエンジニアも生成AIがわかる将来像を描いています。
Enjoyed this article? Sign up for our newsletter to receive regular insights and stay connected.
