根拠校正技術と単純化技術で、より信頼される説明可能なXAI(eXplainable AI)を作る
人工知能(AI)の技術が進化し、現場での利用が広まっている。一方で、実際に活用していくと、人の知識や経験とAIの判断に乖離が起こることも少なくない。本当に現場で使えるようにAIを育てるにはどうしたらいいか。説明可能なAI(XAI)の視点から、先端AIイノベーションセンタの恵木正史主管研究員にAIの信頼性を高めるためにどのような技術が求められるのかを語ってもらった。
“物のことわり”を紙と鉛筆とプログラムで解き明かす
昔から物理や数学が好きで、それを生業にできるような職業に就けたらと考えていました。大学では工学部で固体物性の理論を研究していましたが、理論物理を追求したいと考え、大学院では理...