AI関連研究開発に「日立AI倫理原則」を信頼性の高い運用体制の下に適用することで、安心・安全なAIの社会実装を加速させる

近年、飛躍的な進歩を遂げているAI。適切に活用すれば社会生活などに大きな効果をもたらす半面、倫理面でのリスクも内包するため、AI活用がマイナスの影響を及ぼす危険性が指摘されて久しい。日立製作所は、こうしたAI倫理を取り巻くリスクに対応すべく、いち早く「A I倫理原則」の策定に着手。特に、研究開発グループでは、A I関連の研究開発に携わる全ての研究者に対して、日立のAI倫理原則に則り、徹底したリスク評価や教育・啓蒙活動を継続的に実施している。こうした取り組みとその将来ビジョンについて、AIの著作権に詳しい早稲田大学大学院の上野達弘教授と、日立 研究開発グループの菅原主任技師、間瀬主任研究員が語り合った。

目次:

・3つの行動基準と7つの実践項目
・異なる研究部門から委員を集めた研究開発グループAI倫理委員会の価値
・仕組み作って安心せず、継続して改善に取り組む
・生成AI時代の対応もAI倫理原則から導かれる
・AIがAI倫理原則への対応を判断するような将来も

3つの行動基準と7つの実践項目で構成される研究開発グループのAI倫理活動

画像1: 3つの行動基準と7つの実践項目で構成される研究開発グループのAI倫理活動

上野氏:私は著作権法を中心とする知的財産法が専門で、インターネットやエンタテインメントビジネスに関わる実務的課題についても取り組んでいます。最近はAIと著作権の問題にも関心を持っているところです。そうした視点から感じるのは、日立がAI倫理についての原則をすでに2021年には策定していたことですね。これは非常に早い。

画像2: 3つの行動基準と7つの実践項目で構成される研究開発グループのAI倫理活動

菅原:日立は2021年2月に、社会イノベーション事業における「AI倫理原則」を策定しています。複雑化する社会課題の解決に向けて、人間中心のAIを開発し、社会実装するための原則で、3つの行動基準と7つの実践項目からなります。3つの行動基準は、「計画」「社会実装」「維持管理」のそれぞれのフェーズに対応するものです。また「安全重視」「プライバシー保護」「公平性実現」「適正開発・利活用」「透明性・説明責任重視」「セキュリティ重視」「法令遵守」の7つの実践項目があります(※)。

*AI倫理原則・AI倫理ホワイトペーパー

画像3: 3つの行動基準と7つの実践項目で構成される研究開発グループのAI倫理活動

上野氏: AI倫理原則の活用は日立の研究開発グループにおける研究・開発活動の中で、具体的にどのようなアクションとして展開されているのでしょう。

菅原:研究開発グループのAI倫理への取り組みの目的は、「条約、法令および日立AI倫理原則などを尊重し、人間の尊厳が守られた安全かつ快適でレジリエントな社会の実現と、人々のQuality of Life(QoL)向上に貢献する研究開発の推進」にあります。

この目的に対して、研究開発グループのAI倫理活動には2本の柱を設けました。1つ目が「研究者教育」、2つ目が「研究テーマ評価」です。研究者教育では、まず入社時に集合研修でAI倫理について学びます。これを導入として、定着のための活動として危険予知トレーニング(KYT)による職場討論と、チェックのためのAI研究者教育を実施しています。

画像4: 3つの行動基準と7つの実践項目で構成される研究開発グループのAI倫理活動

もう1つの研究テーマ評価では、個々の研究テーマでAI倫理にかかわるリスクを把握します。まず「入口評価」として、AI倫理チェックリストに基づき、研究内容がAI研究に該当するか非該当かをチェックし、AI研究に該当する場合はリスクを評価した上で、アドバイザー(職場代表委員)・事務局等でレビューします。その後、実際の研究テーマのリスクを確認、考慮しながら研究を遂行します。残存リスクが高い場合は研究部で対策を検討し、情報を共有します。研究成果が得られた後の「出口評価」としては、ニュースリリースやPoC(Proof of Concept/概念実証)、社外実証の申請をするときにもAI倫理チェックリストを確認します。「入口評価」「出口評価」の2段構えで、もれなくAI倫理をチェックするようにしているのです。

異なる研究部門から委員を集めた研究開発グループAI倫理委員会の価値

画像1: 異なる研究部門から委員を集めた研究開発グループAI倫理委員会の価値

上野氏:ではその実践のための具体的な研究開発グループ内の体制はどのようになっていますか。

菅原:「研究開発グループAI倫理委員会」(以下、AI倫理委員会)を設けています。研究開発グループでは研究領域が多岐にわたるため、さまざまな分野の研究者によるレビューやフィードバックが必要だからです。各研究センタからは、チェックリストによるセルフチェックの結果をAI倫理委員会に提出します。研究委員会では、研究背景や職場状況を考慮して、レビューとフィードバックをします。

間瀬:AI倫理委員会では、各研究センタから選出された職場代表委員が中心に活動をしています。活動の1つが先ほどの研究者教育で紹介した危険予知トレーニング(KYT)による職場討論です。KYTとは、工場などで事故が起こらないように、機器の使い方や設置の仕方、危険の有無などを職場で議論する形態のトレーニング方法です。日立では安全衛生の教育としてKYTを実施することが多いですが、このKYTをAI倫理にも応用しました。AI倫理の欠如がもたらす危険性を各研究者が身につけるトレーニングに活用します。

画像2: 異なる研究部門から委員を集めた研究開発グループAI倫理委員会の価値
画像3: 異なる研究部門から委員を集めた研究開発グループAI倫理委員会の価値

具体的には、職場代表委員がAI倫理原則のKYTのケースの例を提示し、職場の研究者がKYTを実施します。例えば「プラント現場のデータを生成AIに問い合わせる知活用サービス」といった研究をすることをケースとして設定します。これに対して、職場でAI倫理のリスクがどこにあるかを議論するわけです。回答例としては、「生成AIで何でも問い合わせられるのではなくて、利用範囲や責任範囲を明確化するような適性開発利活用が求められる」「データに基づく判断は、データが誤っていたときは安全上のリスクがあることから、人間の判断を組み合わせる」といったものがあります。実際の研究テーマについてAIリスクを検討する職場におけるAI倫理教育の一環です。

菅原:KYTに使うケースは、職場代表委員が作成します。フィクションとして提供していますが、実例をもとに作成したケースなのでリアリティがあります。研究者が身近に抱えている問題を洗い出すだけでなく、この研究成果をサービスや製品として世に出したときにはどのようなことがリスクになるのかという判断までを積極的に考えてもらいます。AI倫理などの取り組みでは、原則を作るのも容易ではありませんが、大きな組織で実践していくのはもっと難しいところです。教育のこうした取り組みから、徐々にAI倫理を考える習慣を研究者に身に付けてもらいたいと思っています。

上野氏:法令遵守と倫理の関係について、お考えを聞かせてください。

画像4: 異なる研究部門から委員を集めた研究開発グループAI倫理委員会の価値

間瀬:倫理と法制度については、毎年のAI倫理教育で例示して説明しています。その説明では、倫理には、「人の倫理」と「AIの倫理」があることを示しています。人の倫理では、ある事象に対する行動・表現があったとき、それが倫理的に正しいかを自ら、ないしは社会的に判断します。もし正しくない行動や表現だった場合に、人間は反省して正しい判断ができるようにフィードバックが働きます。

画像5: 異なる研究部門から委員を集めた研究開発グループAI倫理委員会の価値

一方、AIの場合はどうでしょうか。何もしないと正しくない行動や表現が、そのまま放置されるリスクがあります。AIでは、目的に合わせたシステムを構想し、設計、実装、検証を経て社会実装します。このAIが社会で使われることが、人間の行動や表現に相当します。運用ということですね。そこで倫理的に正しくないことが起きた場合、どこかにフィードバックする必要があります。人間ならば反省すれば良いのですが、AIの場合は構想から社会実装、さらに維持管理までの多くのプロセスがあります。その中のどこが悪かったのか、AI構築全体のプロセスにフィードバックしていく必要があるのです。AI倫理のカバー範囲は非常に広く、その中の1つの項目として法令やルールの遵守もあります。

画像6: 異なる研究部門から委員を集めた研究開発グループAI倫理委員会の価値

研究開発グループでは、こうした考え方を徹底し、定期的に周知することで、AI倫理を担保していこうと考えています。EUのAI Act (世界初の包括的なAIに関する規定) が日本でもできた場合も、AI倫理についての考え方に基づいて修正していくことで、柔軟な対応が可能だろうと想定しています。

仕組み作って安心せず、継続して改善に取り組む

上野氏:研究開発グループでAI倫理活動を進めてからの実績にはどのようなものがありますか。

菅原:研究計画を立てる段階で、AI研究に該当するかどうかを評価して、該当する場合は課題があるかどうかを判断し、課題がある場合はチェックリストを提出してもらっています。言うまでもなくAI関連研究は急増していますから、チェックリストは直近でも年間500件を超えていて、さらに年々増える傾向にあります。チェックリストは職場代表委員を通じてしっかりチェックしてもらっています。特に残存リスクが高そうな研究については、レビューとフィードバックをお願いしています。

画像1: 仕組み作って安心せず、継続して改善に取り組む

職場代表委員は大変な役割ですが、各センタから選ばれた方々には高い意識を持って取り組んでもらっています。異なる分野の研究者が集まることが、専門分野の視点からでは気づかなかったリスクを発見することにもつながっています。どうやったらチェックしやすくなるか、評価が正しくなるかについても検討を続けていて、毎年のようにチェックリストの改善提案も出ています。改善提案の例としては、AI倫理について議論した結果を事例としてまとめたガイドの作成や、AI倫理チェックリストのビジュアル化があり、これらは提案を取り入れて取り組みの改善につなげています。

上野氏:研究者というものは研究に専念したいはずです。AI倫理原則への対応は面倒だと考える人もいるでしょうね。

画像2: 仕組み作って安心せず、継続して改善に取り組む

間瀬:いないとは言い切れませんが、自分でチェックリストを使って判断し、そこで心配や課題を感じた場合には職場代表委員に相談に乗ってもらえたりアドバイスをもらえたりするのは研究開発活動自体に安心感を提供できます。むしろ(面倒だと感じている研究者の)研究開発活動を加速させることになると思います。

菅原:リスクコミュニケーションの一種ですね。研究者が1人で「AI倫理のリスクが低いだろう」と無理に判断して研究を進めるよりも、チェックリストを提出してもらうことで研究者から職場代表委員、さらに事業部門まで皆でリスクの状況を共有できることは、大事なことだと考えています。

上野氏:AI倫理についてチェックリストを使って検討して、必要があればAI倫理委員会に諮ることが当たり前の取り組みになっていることがよくわかりました。もう1つ、冒頭で教育の話が出ました。研究者教育は年に1回とのことでしたが、どのようなことを教育していますか。

菅原:私や間瀬さんが講師になる講習が年に1回で、AI倫理に関連する最先端トピックを社内に周知するようにしています。さらにAI倫理委員会で外部の講師の方をお呼びする講習も実施しています。以前、上野先生には外部講師として講習会にご登壇いただき、著作権に関する話題提供をいただきました。テクノロジーの進化や法制度の変化は激しい分野ですから、外部の講師の方にも年1回は講演をお願いしてアップデートを続けていきたいと考えています。

画像3: 仕組み作って安心せず、継続して改善に取り組む

上野氏:素晴らしい取り組みだとは思いますが、AI倫理を議論することで研究開発にブレーキがかかってしまうようなことはないでしょうかね。

間瀬:そこは考え方次第でしょう。仮に研究開発の時点でAI倫理を議論しなかったとしても、研究開発の成果を具体的な製品やサービスに落とし込むときには必ず事業部門や知的財産部門などから倫理的な指摘が飛んでくる可能性が高い。日立のA I倫理原則は全社の原則ですからね。従って、研究開発の初期段階でチェックできれば、製品化直前での再検討と比較すれば圧倒的に効率的であることがご理解いただけるかと思います。

日立では社会イノベーション事業で多くの重要な社会インフラに関わっています。そうした分野でAIを導入することには極めて慎重です。一般には画像認識やディープラーニングなどのAIが製品やサービスに入り始めていますが、重要インフラではまだそこまで到達していません。どこにAIが使えるのかという基礎的な部分に熟練者の判断が必要だからですが、同時に、だからこそこの段階からA I倫理原則を研究者ひとりひとりが考える体制が必要不可欠なのです。そういう意味では(守りというよりは)「攻めのA I倫理原則」と言えるかもしれません。

生成AI時代の対応もAI倫理原則から導かれる

上野氏:2022年ごろから画像生成AIやChatGPTのような文章生成AIが急速に発展して一般化しました。同時にクリエイターなどを中心にAIに対する強い危機感を覚える声が高まっています。「こんなことがAIでできるようになります」とプレスリリースを出すと、「仕事がなくなる」とクリエイターから批判の声が上がることも少なくありません。研究開発グループのAI倫理委員会の取り組みで、生成AIとAI倫理の関係に対応できますか。

菅原:AI倫理原則は、原則なので広く普遍的な考えを示しています。生成AIもその一部であり、原則を守っていればかなりの部分で対応できるはずです。大事なことは、日立はAI倫理原則をきちんと守るように取り組んでいるということ、そしてその取り組みの体制が極めて信頼性の高いものであること、そしてその内容が随時アップデートされていることを社内外に周知していくことでしょうね。

画像: 生成AI時代の対応もAI倫理原則から導かれる

もちろん、成長著しい生成AIに対しては個別の対応も求められます。そうした場合は、2023年に設立した「Generative AIセンター」が対応します。リスクマネジメントしながら活用を推進するCoE(Center of Excellence)組織として、生成AIについて専門的に取り組みます。

間瀬:実際のところは、生成AIと「生成じゃない」AIは、その境界が意外と曖昧です。自動運転AIは一般には生成AIではないと考えられますが、特定の信号を生成するAIという見方もできます。コンテンツを生成しているAIだけが生成AIなのかというと疑問で、その垣根はそれほど高くないかもしれません。するとAIでも生成AIでも倫理原則は同様と考えられ、大部分はAI倫理原則で対応できるという方針に間違いはないと思います。

AIがAI倫理原則への対応を判断するような将来も

上野氏:お話を聞いて、早くから企業としてAI倫理に取り組んでいること、効率やビジネス以上に安全性を重視していること、そしてAI倫理原則を作るだけではなく浸透するような仕組みを継続して運用していることなどに感銘を受けましたが、こうした取り組みは他社でもあるのでしょうか。

間瀬:AI倫理原則の実践項目そのものは、他社と共通点が多くあると考えています。一方で多くのIT企業との違いとしては、日立は社会イノベーション事業が中核にあることです。エネルギーやモビリティなどのインフラでは、ITだけでなくOT(運用技術)が重視されます。安全確保や法令重視が強く求められますし、製品のライフサイクルが長いことも特徴です。そうした社会インフラにAIを取り入れて、継続的なアップデートをしたり、新しいイノベーションを起こそうと考えたりしているところは、日立ならでは、かもしれません。

上野氏:生成AIでは、学習データが著作権などの法令に違反しないか、著作権に関わる出力が行われないか、検証が必要です。AI倫理原則でウオッチする体制があることで対応できますか。

菅原:学習データそのものの安全性や学習の透明性を説明できると、日立のAIの差異化要因になるかもしれません。そうした分野での日立の取り組みとしては、説明可能なAI(XAI、Explainable AI)があります。AIが出した結論を説明できるもので、AI倫理の中の公平性や透明性の確保に貢献できると考えています。

間瀬:XAIによって、AIモデルの振る舞いを人間が理解できるようになります。実際、社会インフラなどの現場では、AIが行った判断の根拠を丁寧に説明できないAIは導入してもらえません。これまで何度もぶつかってきた障壁です。同様に、著作権に対する懸念もXAIによって説明して理解を進めてもらえる可能性があると考えています。

上野氏:XAIによってAIの振る舞いを説明できるようになると、その先にはAI倫理に合致しているかどうかをAIが判断するという世界が出現しそうですね。

画像1: AIがAI倫理原則への対応を判断するような将来も

間瀬:AIを活用することで、人間はAI倫理へ適合したうえでさらに高度な判断に注力できるようになるかもしれません。例えば、社会インフラ向けのAI活用の取り組みでは、画像や文章を自動生成するのとは異なる難しさがあります。AIが判断した結果が、所望のレコメンデーションと異なった場合に、どのように修正していくのか、巨大な言語モデルをどうコントロールしていくのかについては重要な研究の問題意識として捉えています。

上野氏:EUのAI Actが2026年には全面的に適用開始になります。基本的にEU域内が対象ですが、EUの顧客を対象にするようなサービスについては、域外の企業も対応を求められる可能性があります。AI倫理原則で、こうした海外の動きに対応できますか。

菅原:マーケットはすでにグローバルに開かれていて、EUの動きは無視できないものです。日立でも早くからEUの動向を抑えながら、対応を検討してきました。AI倫理原則はEUの動向も見ながら普遍的に作ったものなので、一定の対応は可能だと考えています。その上で、課題がより明確になったら、Generative AIセンターなどを中心に具体的な組織や体制を作って継続的に対応していけること自体が、日立のAI倫理への取り組みの特徴でもある、と言えるでしょうね。

画像2: AIがAI倫理原則への対応を判断するような将来も

プロフィール

画像1: 日立製作所・研究開発グループにおける実践的な「AI倫理原則」への取り組み

上野達弘

早稲田大学 法学学術院 教授

立教大学法学部教授、マックスプランク知的財産法研究所 客員研究員を経て2013年より現職。専門は知的財産法で、知的財産戦略本部・AI時代の知的財産権検討会 委員なども務める。

画像2: 日立製作所・研究開発グループにおける実践的な「AI倫理原則」への取り組み

菅原俊樹

日立製作所 研究開発グループ 技術戦略室 技術統括センタ 産学官連携部 主任技師

研究開発グループAI倫理委員会 事務局。2021年の委員会立ち上げから担当。その他渉外やコンプライアンス(生命倫理、研究公正等)を担当。

画像3: 日立製作所・研究開発グループにおける実践的な「AI倫理原則」への取り組み

間瀬正啓

日立製作所 研究開発グループ デジタルサービス研究統括本部 先端AIイノベーションセンタ メディア知能処理研究部 主任研究員

2019年から2021年までスタンフォード大学 客員研究員としてXAIに関する共同研究に従事。AIトラストとガバナンスを支える研究開発に取り組んできた。

関連リンク

社会イノベーション事業におけるAIのガバナンスと倫理:SPECIAL ISSUE Autumn 2021:日立評論 (hitachihyoron.com)
多様な人々が対話し価値を共有することで、AIのある社会は発展する│協創の森ウェビナー第5回 「AIのガバナンス 」プログラム3「社会から信頼されるAI」 - Linking Society (hitachi.co.jp)

This article is a sponsored article by
''.