AIのブラックボックス化

680206_R

AIのブラックボックス化

以前(2017年6月)、NHKで「人工知能 『天使』か『悪魔』か?」という番組を放送していました。人工知能の前に屈したプロ棋士、人工知能の導入で客数を伸ばしたタクシー会社、人工知能が事故を起こす危険性の高い運転手を見つけ出すバス会社、人工知能が再犯リスクを予測し、仮釈放の決定に関わるアメリカの事例などが紹介されていました。

番組の中で、羽生善治さんが

「私たち棋士たちの直面している違和感は人工知能の思考がブラックボックスになっていることです。膨大な情報をどのように処理してその結論に至ったのかはわかりません」

と述べていました。プログラマーの山本一成さんは

「・・こまっていることがあるんです。なんで強くなっているのか分からなくなりつつある。私がプログラムを書いているが、私の理解は超えつつあるのが今の人工知能です」

と述べていました。

ディープラーニングを使った人工知能が下した判断の理由を、専門家や開発者自身が説明できないという「ブラックボックス化」という問題が最近注目されているようです。

ちなみに、人工知能のブラックボックス化といったとき、前述のシステム設計者すら理解できないという意味の他に、人工知能の開発者が、人工知能の中身を知的財産などとして意図的に中身を見せないことによるブラックボックスという意味での使われ方もあるようです。

人工知能の透明性

ビジネスの分野においては、例えば、組織の意思決定過程において、理由は分からないが人工知能が推奨しているからというだけでは説得力に欠けます。あるいは、医師が患者に病名や治療方法を知らせるとき、どんな根拠をもって病名や治療法を特定したのか分からずに人工知能がそう導き出したからでは患者は不安になります。

このようなビジネスにおける意思決定や医療における人命や健康、公的機関における平等な取扱いなどにおいて、結論に至る途中の過程が見えないのでは説明責任が果たせないという指摘があります。

AIの判断プロセスがブラックボックス化していることに対抗して、説明を求める権利やアルゴリズムの透明性を高める取り組みも出てきています。

EUの「一般データ保護規則(GDPR)」では、データ主体から個人データを収集する場合、プロファイリングおよび処理に利用するロジックに関する有意な情報や、データ主体に対する処理の意義や想定上の結果を含む、自動化判断(automated decision-making)の有無などを提供することが義務付けられています。

2016年4月に行われた「G7香川高松情報通信大臣会合」において、AIの開発に当たり留意すべき事項をまとめた「AI開発原則」の考え方を示していますが、その一番最初に次のような「透明性の原則」を挙げています。

AIの研究開発の原則の策定
① 透明性の原則・・・AIネットワークシステムの動作の説明可能性及び検証可能性を確保すること。
(G7香川高松情報通信大臣会合 http://www.soumu.go.jp/joho_kokusai/g7ict/main_content/ai.pdf より)

また、2017年7月に、総務省の「AIネットワーク社会推進会議」が公表した「AI開発ガイドライン(案)」では次のよう「透明性の原則」や利用者への「アカンタビリティの原則」を挙げています。

(主にAIシステムのリスクの抑制に関する原則)
② 透明性の原則—–開発者は、AIシステムの入出力の検証可能性及び判断結果の説明可能性に留意する。
(主に利用者等の受容性の向上に関する原則)
⑨ アカウンタビリティの原則——開発者は、利用者を含むステークホルダに対しアカウンタビリティを果たすよう努める。
(国際的な議論のための AI開発ガイドライン案 平成 29 年7月 28 日 AIネットワーク社会推進会議 http://www.soumu.go.jp/main_content/000499625.pdf より)

ホワイトボックス型AI

こうしたガイドラインや規則に対して、AIの研究開発を萎縮させるという批判もあります。一方、製造・保全分野では、故障予知へのAI活用が注目されていますが、ディープラーニングは因果関係が分からないため故障の原因を特定することが難しいという課題があり、因果関係の見える、いわゆる人間も理解できる「ホワイトイトボックス」型のAIが求められ、その開発も進められています。

その一つはブラックボックス型に解釈性を与える方法です。カリフォルニア大学バークレー校とマックス・プランク情報科学研究所では、ディープラーニングによって画像認識を学習したAIが、「なぜその結論に達したか」を説明するアルゴリズムについての研究を行っています。「Attentive Explanations: Justifying Decisions and Pointing to the Evidence」という論文では、下図において「これは何のスポーツですか?」という質問に対して、いずれも野球と答えていますが、上段はその理由を「選手がバットを握っている」と答え、下段は「選手がバットを振っている」と言葉が使い分けられています。

black_box_001_R(Attentive Explanations: Justifying Decisions and Pointing to the Evidence https://arxiv.org/pdf/1612.04757v1.pdf より)

もう一つは、ホワイトボックス型の精度をディープラーニングなみに向上させようという試みです。

NECでは発見したルールを説明できるホワイトボックス型のアプローチとして2012年に「異種混合学習技術」を開発し、2016年にはリレーショナルデータベースの大規模データに対する予測分析を完全自動化する「予測分析自動化技術」を開発しています。
三井住友銀行などとの実証実験では、それまで2~3か月かかっていたデータ分析作業が、これまでと同等の分析精度を達成しつつわずか1日でできたそうです。そして、具体的な予測根拠も得られたとのことです。
(NEC プレスリリース 2016年12月15日 http://jpn.nec.com/press/201612/20161215_06.html 参照)

富士通研究所の発表によれば、グラフ構造のデータを学習する独自のAI技術「ディープ・テンソル」と、学術文献など専門的な知識を蓄積した「ナレッジグラフ」と呼ばれるグラフ構造の知識ベースを関連付けることで、AIの推定理由や根拠を提示する技術を開発することに成功したとのことです。
今回はゲノム医療における専門家の調査作業の効率化を想定した模擬実験が行われ、変異から疾患に至る医学的に裏付けされた根拠を構成するとともに、疾患の候補を見ることができたそうです。
(FUJITSU プレスリリース2017年9月20日 http://pr.fujitsu.com/jp/news/2017/09/20-1.html 参照)

コメントを残す

メールアドレスが公開されることはありません。 * が付いている欄は必須項目です