AI(人工知能)の活用は、生成AIブームを背景に社会全体で高い関心を集め続けている。プライベートからビジネスまで、壁打ち相手になるだけでなく、プログラムやビジュアルの作成など多様な役割を担うようになってきた。一方でAIの社会実装が進む中で、性能や効率の側面だけでなく、「そのAIを本当に信頼できるのか」という問いが、これまで以上に重みを持つようになっている。AIの答えが人や社会にどのような影響を与えるのか。その判断を、誰が、どのように引き受けるのかは技術の進化とともに難しさを増している。
日立製作所の研究開発グループでは、こうした潮流を前提に、生成AIにとどまらずエージェント型AIやフィジカルAIといった次世代技術の広がりを見据えながら、AI倫理の考え方を更新し続けている。AI倫理を単なる理念やルールとして掲げるのではなく、日々の研究や実証の中で使い続ける実践として取り扱っている。特徴的なのは、AI倫理への取り組みを技術開発と別枠で考えていない点だ。研究者教育や研究テーマの評価段階から倫理の観点を組み込み、生成AIやエージェント型AI、フィジカルAIといった技術の進化を前提に、運用やガバナンスのあり方を考え続けている。
AI倫理は「決める」より「続ける」
――進化するAI社会に即応する信頼性維持の仕組み
AIの社会実装が進展する中で、AIに求める倫理や、AIがもたらす成果への信頼性について問われることが増えてくる。AIの信頼性をどのように担保するかは、技術開発企業にとって避けては通れない課題なのだ。日立製作所は2021年にAI倫理原則を策定し、全社的な指針として掲げてきた。その中で研究開発グループでは、定められた原則を遵守することを超えて、それを研究開発の現場でどう運用し続けているかに着目した取り組みを進めている。それも、 AI倫理原則への取り組みを継続して進化させるプロセスを実践している点が特徴だ。
AI倫理に対する取り組みを「運用し続けること」は容易ではない。研究現場における日々の活用やフィードバックはもちろん、AIの進化やそれに対する社会の変化など、AI倫理に求められる変化への対応を継続できる体制を整えている。それは、直近の社会実装を超えて、エージェント型AIやフィジカルAIといった最新の取り組みや、まだ見えない未来のAIについても、日立のAI倫理が信頼性を提供していくことにつながる。
技術戦略室 技術統括センタ 研究管理部 主任技師の菅原俊樹は、「AI倫理は、作って終わりではありません。使われ続ける中で価値を発揮し続けるための基盤であり、だからこそ運用が重要です」と語る。研究開発の段階では、将来どのような用途に広がるかを正確に見通すことは難しい。だからこそ、初期段階から倫理の観点を織り込み、途中で立ち止まって見直せる仕組みが求められる。
日立のAI倫理原則は、持続可能社会の実現のためにAIの開発、利活用を行う、計画フェーズ、人間中心の視点の社会実装フェーズ、提供価値が長期に持続する維持管理フェーズの3つの行動規準と7つの実践項目で構成されている。研究開発グループでは、これらを単なるチェックリストとして扱うのではなく、研究の初期から公開までの活動に組み込んでいる。具体的には、入社時研修から職場討論などリテラシーを底上げする「研究者教育」と、個々の研究について研究計画時の入口と成果公開時の出口、両面での「研究テーマ評価」を2本の柱とする。
研究テーマ評価では、研究開発グループAI倫理委員会(以下、AI倫理委員会)が評価の中核を担う。AI倫理委員会は、各研究センタから代表で選ばれたメンバーによって委員会を構成している。それぞれの研究分野において現場に近い意識を持ったメンバーで構成することで多様な視点を取り入れるためだ。まずは研究テーマごとにセルフチェックを行い、その内容を委員会がレビューし、研究者にフィードバックする。一方向の審査で終わらせず、循環させることを重視している。
「委員会のメンバーには、各研究センタの代表として参加してもらっています。その狙いは、AI倫理をすべての職場で自分ごと化して捉えてもらうことにあります」と菅原は話す。AIの使い方は研究分野やテーマごとに異なるため、当初はAI倫理に対する考え方にばらつきが出ることもあったという。ただ、レビューとフィードバックを繰り返す中で、研究開発グループ全体としての共通理解やガイドラインが徐々に形になってきた。
委員会によるフィードバックが進むだけでなく、近年は生成AIの活用も進んでいる。「AI倫理レビュー」と呼ぶもので、リスクが低い案件に対しては生成AIが確認やコメント案の作成を支援する。一方で、リスクが中程度以上の場合は、職場代表の委員やAI倫理委員会がリスク評価を行う。いずれも最終的な判断を人間に委ねることで、評価の信頼性を担保している。効率化や自動化は重要だが、倫理については正解があるわけではない。だからこそ、人が考え、確認しフィードバックしていくプロセスを大切にしている。
研究成果がニュースリリースや社外実証として世の中に出る直前には、改めて出口審査を行う。ここで疑問点や懸念を洗い出し、クリアにした上で公開することが運用体制に組み込まれている。さらに、その後の実証実験や外部からのフィードバックも次の研究や運用改善に生かされる。AI倫理原則とは一度決めて終わりになるものではなく、地道な運用で回し続けることでAIや製品・サービス全体の信頼性を支えるものなのだ。
動画はこちらからご覧ください
AI倫理の社会実装を推進する研究の現場
youtu.be進化し続けるAIから現実社会を守る
――フィジカルAI時代を見据えたガードレールの作り方
AIの社会実装が本格化するにつれ、技術の高度化と倫理・信頼性をどう両立させるかが改めて問われている。Digital Innovation R&D 先端AIイノベーションセンタ メディアインテリジェンス研究部長の松原大輔は、「AI倫理は原則を定めるだけでは足りません。技術の進化を見据えたAIガバナンスの実践が必要です」と語る。
日立のAI研究は、デジタル空間に閉じたものではない。社会インフラや産業分野でのフィジカル領域での長年の蓄積から、機械制御技術や設計・運用のナレッジをAIと融合し、物理世界を対象とする「フィジカルAI」へと展開してきたためだ。発電プラント工事の工程シミュレーション、鉄道や信号、インフラのリアルタイム状態監視、生産現場データの一元化、カスタマーサポートの高度化など、AIは設計から製造・運用・保守まで幅広いフェーズで使われている。社会実装を前提にした研究開発が、日立のAI活用の土台にある。
その一方でAIは技術革新が急速に進んでいる。2023年には生成AIとのチャットでRAG(Retrieval-Augmented Generation)による情報検索や要約の用途が広がり、2024年には人が与えた手順をAIが代行するAIエージェントが登場した。そして今後は、AIが自律的に手順を立案し、必要なツールを組み合わせるエージェント型AIが幅広く使われるようになる。同時に、生成AIとロボットが組み合わさることで、フィジカルAIの応用範囲も広がっている。
こうしたAIの進化により自律性や学習能力が高まってくると、リスクの性質も変わる。松原は、「規範を持ってAIを作り、運用することがこれまで以上に重要になります」と指摘する。日立では、AI倫理原則の策定にとどまらず、技術進化を見据えたAIガバナンスの実践を進めている。G7広島AIプロセスや世界AI安全サミットといった国際的な議論とも歩調を合わせながら、高度なAIを責任ある形で社会に実装することを意識している。
フィジカルAIの例として、ロボットが自律的に周囲を観測し、「どの程度動いても安全か」を判断しながら制御する。その土台となるのが、保護制御や安全分析、AI高信頼化技術による「AIガードレール」だ。根拠を提示できない場合は回答を拒否してAI自身の出力のハルシネーションを抑制する仕組みや、AIの外側に入力・出力の監視ルールを組み合わせることで、AIを組み込んだシステム全体の安全性と信頼性を担保する。ドイツのフラウンホーファー研究機構との共同研究や、STAMP(System- Theoretic Accident Model and Processes)などの安全分析の方法論も取り入れている。
AIの高信頼化を実現するには、AIそのものを成長させて高信頼にする取り組みだけでなく、AI以外の仕組みで高信頼を支える取り組みの両方が必要になる。松原は「AI倫理の実践と信頼性向上のためには、LLMそのものを高度に学習させるだけでなく、プロンプトやRAGで使う文書など外部のデータの維持、運用管理までに着目する必要がある」と指摘する。
動画はこちらからご覧ください
生成AI時代のAI倫理
youtu.be具体的な研究テーマにおけるAI倫理への取り組みはこちら<AI倫理は研究開発をどう変えたのか――AIを駆使した信頼性を実装する研究者たち>をご覧ください






