AIと公的認証制度

ai2016_010_r

AIと公的認証制度

2016年12月31日の日経新聞は、「AIに公的認証 ~利用者の責任限定~」という見出しで、総務省が企業が開発する人工知能に公的認証を与える方針であることを報じていました。

報道によれば、急速に進歩しているAIに研究開発の特別な規制や指針はなく、AIが制御できなくなって暴走したり、人に危害を加えたりといったことが起きる前に、認証制度を通じて安全性を高めて開発・普及を促そうということが狙いのようです。
厳しく規制するのではなく、安全性が高いものが市場で選ばれやすくなるような制度を考えているようです。

AI開発ガイドライン

総務省の有識者会議の一つに、AIネットワーク化の推進に向けた社会的・経済的・倫理的・法的課題を総合的に検討する「AIネットワーク社会推進会議」があります。そこでは2017年の夏ごろを目途に「AI開発ガイドライン」(仮称)の策定を進めていますが、そこでの論点が先日公表され、2017年1月31日までの間に意見を募集することになりました。

公開された「AI開発ガイドライン」(仮称)の論点は、以下の11が示されています。その内、AIの公的認証については、「第十 開発原則の実効性の確保における市場の活用の在り方」で述べられています。

第一 基本概念の定義
第二 AI開発ガイドラインの体系
第三 分野共通開発ガイドラインの構成
第四 分野共通開発ガイドラインの目的、基本理念等
第五 分野共通開発ガイドラインの適用範囲
第六 開発原則の構成及び順序
第七 開発原則の個々の項目の内容の具体化
第八 連携の原則【仮称】
第九 開発原則の実効性の確保の在り方
第十 開発原則の実効性の確保における市場の活用の在り方
第十一 AIネットワークシステムの利活用に関し利用者等が留意すべき事項

(「AI開発ガイドライン」(仮称)の策定に向けた国際的議論の用に供する素案の作成に関する論点
平成28年12月28日 AIネットワーク社会推進会議事務局 (総務省情報通信政策研究所調査研究部 より)

ここでは利用者が開発原則に適合しないAIを選択する可能性について、競争促進効果から一律に否定せず、市場の機能を活用して、開発原則に適合しているAIが利用者に選択されやすくなる環境を整備すること、そしてそのことで開発者に対し、開発原則の遵守への誘因を付与する措置が考えられるとしています。

具体的な例として、「公正中立で高度な専門性を有する第三者機関が当該AIの開発原則への適合性を評価して認証する制度」として、AIの公的認証制度について述べています。さらに、開発原則に適合したAIの活用によって被害が生じた場合の民事や刑事の責任問題について、利用者の法的責任や法的義務を免除する制度やLiability Gapを回避するための制度(保険など)の整備なども挙げています。

また、市場の機能の活用に関しては、「人権等他の利益とバーター(※1)にすべきでないもの」については、法制度の整備等を検討することを求めています。また、市場を活用する前提としてイノベーティブな研究開発と公正な競争が機能していることが期待されるとして、ガイドラインに「連携の原則」【仮称】として開発原則を追加することを提言しています。

(※1)バーターは英語では”barter”です。交換、取引といった意味があります。

公的認証の付与

公的認証の付与に当たっての具体的な条件は、おそらく前述の「第六 開発原則の構成及び順序」と「第七 開発原則の個々の項目の内容の具体化」で示されている以下の事柄が該当するものと思います。

Ⅰ AIの機能に関する原則

(1) 主にAIネットワークシステムのリスクの抑制に関連する原則

① 透明性の原則
② 制御可能性の原則
③ セキュリティ確保の原則
④ 安全保護の原則
⑤ プライバシー保護の原則
⑥ 倫理の原則

(2) 主にAIネットワーク化の健全な進展の促進及びAIネットワークシステムの便益の増進に関連する原則

⑦ 連携の原則【仮称】

(3) (1)及び(2)に掲げる原則を補完する原則

⑧ 利用者支援の原則

Ⅱ Ⅰに掲げる原則に関連し、開発者が利用者等ステークホルダーに対し果たすべき責任に関する原則

⑨ アカウンタビリティの原則

(「AI開発ガイドライン」(仮称)の策定に向けた国際的議論の用に供する素案の作成に関する論点
平成28年12月28日 AIネットワーク社会推進会議事務局 (総務省情報通信政策研究所調査研究部 より)

公表された論点を見ると、制御可能性については、「AIについて人間又は信頼し得る他のAIによる監督及び対処(停止、切断、修理等)の実効性を確保すべき」とあり、緊急時に停止できる仕組みを備えることが求められるのだろうと思われます。また、安全保護の原則では「運動能力等の抑制、監視装置等の実装などセーフティ・バイ・デザインを講ずべき」とあり、必要以上のスピードやパワーの抑制が求められるのかもしれません。プラバシー保護では、AIが有する個人の自律を侵害し、差別を助長するリスクについては、設計段階からそうしたことに考慮したプライシーデザインについても言及しており、2016年3月にマイクロソフトの開発した人工知能「Tay」が人種差別主義的メッセージを学習し、不適切な発言をして公開半日で緊急停止した出来事などを想定しているのかもしれません。

このような観点点で第三者機関が評価し、公的認証を与えるということになるではないかと想像されます。

 

コメントを残す

メールアドレスが公開されることはありません。 * が付いている欄は必須項目です