日立の研究開発グループがAIを活用する側面は多岐にわたる。ただし、そこに共通して流れているのは、「最終的な責任は人が引き受ける」という姿勢である。AI倫理が技術革新を止めるための制約にならないように、人とAIの関わりの中から社会に受け入れられる知恵を蓄えている。研究開発グループAI倫理委員会をはじめとした日立の研究開発現場でのAI倫理原則への具体的な取り組みを通じて、AIと信頼の関係をひもといていく。
研究開発グループのAI倫理全体の取り組みについてはこちら<AIはどこまで信頼できるのか――日立の研究開発現場に見るAI倫理と社会実装>をご覧ください
AIの判断はどこまで信頼できるのか
――説明可能AIと「人が責任を持つ」設計
AIのニーズはミッションクリティカルな業務に拡大している。金融の与信審査や医療の診断支援、社会インフラ制御などに適用が広がる一方で、AIのブラックボックス問題が課題になってきた。AIが「なぜその判断に至ったのか」を説明できることがAIの信頼性と密接に関連する。Digital Innovation R&D 先端AIイノベーションセンタ メディアインテリジェンス研究部 主任研究員の間瀬正啓は、約10年にわたりAIの説明性(XAI:Explainable AI)の研究に取り組んできた。
XAIは、AIの判断に影響した因子や事例を示すことで説明する。従来のXAIでは、入力データの各変数を入れ替えながら予測の変化を見ることで、入力変数の重要度を測る手法が取り入れられていた。しかしこの手法では、実際には起こり得なかったり論理的に不可能だったりするデータも含めて予測することになる。それでは本当に信頼できる説明にすることが難しい。間瀬らは、観測データだけを用いて重要因子を評価する「コホートシャープレイ」と呼ぶ手法を提案し、より現実に即した、信頼性の高い分析を可能にした。モデルの出力結果を実データから説明できるため、公平性評価への応用も視野に入る。
観測データだけを使ったXAIは、AIのブラックボックス問題へのひとつの回答になる。しかし説明可能AIには、絶対的な正解は存在しない、と間瀬は指摘する。それだけに「説明の目標」を明確にすることが大切になる。AI倫理委員会による審査でも、AIの信頼性を担保するために、「専門家の介在による目標設定」と「最終的な責任は人間が持つこと」が必要、という考え方が取り入れられている。間瀬は、「AI倫理の実践の難しさは、継続的に運用して改善していくことにある。予測型AIから生成AI、エージェント型AI、そしてフィジカルAIと技術が進化していく中で、継続的にAIの説明の考え方の改善を図っていく」と、信頼できるAIに向けた意気込みを語る。
動画はこちらからご覧ください
AIの説明性とAI倫理実践の考え方
youtu.be人の評価を支援するAIはどこまで許されるのか
――面談時の性格推定AIに見る相互理解とAI倫理
労働市場の流動化が進み「人財の適財適所」が急務となる一方、面談官の経験や主観による人財評価のバラつきを抑え、個々の魅力を十分に、かつ公平に汲み取ることには限界がある。こうした状況に対し、 日立は東京大学と共同で、表情や身振り、声の大きさやトーンといった非言語情報から性格特性を推定するAIの研究開発に取り組んでいる。日立はこの技術を「最終判断を代替する存在」ではなく、あくまで「相互理解を深める支援ツール」と定義している。活用の推進にあたっては、多様なデータを用いた公平性の検証*1、ブラックボックスを排除した説明可能なアルゴリズム*2、そして本人の意図しない情報取得を防ぐプライバシー保護や拒否権の確保など*3、倫理的配慮を技術・運用の両面で徹底することで、面談に臨む双方が信頼と納得感を持って自己の特性を共有できる環境の実現をめざしている。
Sustainability Innovation R&D 計測インテグレーションイノベーションセンタ マルチモーダルセンシング研究部 主任研究員の沼田崇志は「会話の内容ではなく、行動など非言語情報に着目することで、質問や会話の内容が流動的であっても相互理解を補助しやすい」と考えたと語る。本技術は、説明性を重視し、ルールベースで推定アルゴリズムを設計している。ブラックボックスにしないことで、相互理解の支援ツールとしての活用が期待される。一方で、人間の評価をAIが支援する技術であるだけにAI倫理の観点も強く求められる。
技術を世の中に公表する前の出口審査でAI倫理委員会とやり取りする中で、プライバシー保護や公平性といった課題についての指摘があった。「製品やサービスとして提供する前に、プライバシーが漏れないような仕組みを構築することや、公平性、説明性、透明性を担保できることを、日立からメッセージとして提供する必要があることを再確認し、研究開発を進めている」(沼田)。
面談時の性格推定AIを相互理解支援のツールとして活用するためには、AI倫理の視点からも「どのような用途で、どのように使うのか」を丁寧に伝える姿勢が欠かせない。面談する側、される側の双方が気持ちよく性格特性の推定AIを活用できるようにするためにも、AI倫理の視点からの研究開発が不可欠なのだ。
*1: 公平性の観点では、国籍・人種・性別などの属性差による評価の偏りが生じないか、多様な属性をもつデータセットでの検証や、特定の属性を不当に扱わないためのガードレール(未検証の属性を含むデータは評価対象としない設計や運用などの安全対策)も重要。
*2: 説明性の観点では、本技術は説明可能性を意識したルールベースでの推定プロセスを開発しており、その根拠を説明することが可能。
*3: プライバシーや安全の観点では、データ漏洩に限らず、本人が意図しない情報取得の扱いも十分な配慮が必要。そのため、利用目的に合った必要最低限の情報取得に留め、推定結果は人が最終判断するための補助情報とするとともに、利用に同意しない場合に不利益を被らない選択肢の提示や、本人が推定結果を確認して修正や削除、異議申し立てができる権利の確保も重要。
動画はこちらからご覧ください
面談時の表情や身振り、発話のトーンなどの非言語情報を用いて、性格特性を推定するAI技術
youtu.be社会インフラにAIを使うときの倫理設計
――コミュニティ主導型VPPの挑戦
地域の意思を反映させるシステムに、どのようにAI倫理が関わるべきか。複数の発電設備を束ねて1つの発電所のように運用する仮想発電所(VPP: Virtual Power Plant)に関する研究で、1つの方向性が見えてきた。電力の安定供給と環境性能の両立を可能にするVPPの中でも、地域コミュニティの価値観を運用に反映させるVPPに関する取り組みだ。
Digital Innovation R&D モビリティ&オートメーションイノベーションセンタ 自律制御研究部 主任研究員の石原新士らは、地域コミュニティの価値観を運用に反映できるVPP制御AIを開発している。コミュニティ主導型のVPPでは、環境性やコストなど、地域ごとに重視するポイントが異なる。市や町など自治体レベルのコミュニティの意思をAIに反映させながら、いかに停電を起こさず安定運用するかが課題となる。ここではAI倫理原則に基づいてアーキテクチャを構築することで、コミュニティのポリシーにできる限り寄り添いながら、停電させない制御を実現した。
仮想発電所を安定して運用させるために、周波数安定化など電力系統の安全に直結する制御は従来の物理モデルで守る。停電させない価値を担保する形だ。一方で、「どの発電所を優先するか」という判断部分にはAIを活用する。住民や自治体が運用結果を比較し、どちらが望ましいかを選ぶ「プリファレンスラーニング」により、AIはコミュニティの意思に近づいた判断をするようになる。このようにして、オペレーターの意思を反映させながら、社会インフラとしての安定稼働を守り抜くシステムが出来上がった。AI倫理の視点だけでなく、さらに上位の、社会的な倫理に関わる意思決定を実現するシステムである。
動画はこちらからご覧ください
地域価値を反映する仮想発電所運用AI技術
youtu.be自動運転はAIだけでは完結しない
――人とAIの協働が生む安全と信頼
少子高齢化や運転手不足により、地域公共交通の維持は難しさを増し、解決策として自動運転などの新しいモビリティ技術の実用化が期待される。一方で、自動運転などを実現するには安全性やプライバシーなど多面的な倫理課題が存在する。日立では自動運転技術とAIやデジタルを組み合わせて、地域交通を評価する技術や高効率で高安全に運用管理する技術を開発する。ここでもAI倫理原則に基づく研究開発が進められている。
Digital Innovation R&D モビリティ&オートメーションイノベーションセンタ 自律制御研究部 研究員の北村毅らは、自動運転車の実証実験を通じて、AIと人が協調する運用のあり方を検証してきた。高精度な地図を使ったルート決定や、カメラやレーザー光による周辺認識、障害物検知などで周囲の物体と衝突しないように計画するAI技術は、自動運転に不可欠な要素だ。北村は、「道路上に存在する人や車を正しく認識する機能を開発している。個人情報の管理やAI活用時のリスクなど、AI倫理委員会で議論してもらい、社内で相談しながら研究を進めている」と説明する。
実際、AI倫理原則の観点から、自動運転の実験時には手動運転に切り替えるためのドライバーと、さらにトラブルが生じたときにドライバーに通知するための保安員を配置する。計2名体制で実験を実施することで、実証実験の安全性を担保する取り組みだ。AIと人間のUI(ユーザーインターフェース)についても検討を進めた。システムが異常を検知したときに、どのように提示すると保安員が理解し、安全を担保できるかといった視点だ。AIの出力をそのまま提示するだけでは非常時に人間がアクションを起こしにくい。人間を含むシステムとして自動運転を捉えたとき、人間とAIの疎通部分としてのUIがもたらす信頼性の向上にも目を向けている。
動画はこちらからご覧ください
地域交通全体の設計・評価・実装等の取り組みを効率化するデジタル基盤技術
youtu.be経験とAIをどう融合するか
――安全文化を支える倫理設計
熟練者の経験に支えられてきた産業現場の安全活動は、人材不足や高齢化により継承が難しくなっている。高度なノウハウによって支えられている技術に、AIを適用する研究も行っている。Digital Innovation R&D 先端AIイノベーションセンタ ビジョンインテリジェンス研究部 研究員の大館良介が取り組むのは、リスク危険予知(RKY)活動をメタバースとAIで支援する技術だ。安全に関わる情報を取り扱うだけに、AI倫理原則とも密接に関係する。
研究初期からAIの活用法を研究部で精査し、実際に活用する際にはAI倫理委員会が提供するチェックシートで確認、その後ニュースリリースとして世の中に公開する前にもAI倫理委員会のチェックを受けた。「研究開始段階では、対象がどこまで広がるかわからない。AI倫理委員会からは、『EUの法律に抵触する可能性がある』といった詳細なコメントが戻され、研究と法制度の関わりなども探ることができた」(大館)。研究では、現場の写真や過去事例をもとにAIがリスクを提示する仕組みを構築した。刻一刻と変化する国内外の法制度への対応などに積極的に対応できる素地が出来上がる。
PoC(概念実証)では、従来のホワイトボードを使った手法によるRKYよりはるかに多くの情報を引き出せることが確認された。リスク危険予知メタバースは、原子力施設の廃炉作業など、人が容易に立ち入れない現場への応用も想定されている。AI倫理の議論を通じて、安全性と効率性のトレードオフを意識しながら技術設計が行われた。経験とデータを融合させた新たな安全文化の形成に向けて、AI倫理が研究の方向性を支える役割を果たしている。
動画はこちらからご覧ください
日立の次世代AIエージェント「Naivy」を活用し、現場の安全性を高めるリスク危機予知支援システムを新開発、現場の安全性・効率性向上の効果を実証
youtu.be








