人工知能と人間社会に関する検討

artificial_iIntelligence_001_R

人工知能と人間社会に関する検討の動向

人工知能(AI)やロボットと人間とのかかわりについては、人類の幸せや福祉に大きく貢献すると期待する意見もあれば、人間の仕事を奪い、さらには人間に危害を加える存在になるかもしれないなど様々な意見がありますが、そうした中で、企業、大学、民間、行政などの各団体では、AIと人間社会のかかわり、AI研究者・技術者の倫理問題、AIと法律問題など活発に議論され、具体的な提案もされるようになってきています。
こうした問題についての取組みへの動きは欧米の方が早いようです。アメリカのスタンフォード大学のAI100やイギリスのオックスフォード大学のFuture of Humanity Institute、GoogleのAI ethics boardなどでは早くからAIの暴走や悪用を防止するための倫理問題の議論を深めています。日本では人工知能学会の研究会として2006年に「社会におけるAI研究会」が設立され、かなり早くから議論をしているようです。その人工知能学会は2014年12月に倫理委員会を設け、2016年6月には研究者が守るべき倫理綱領の素案として「人類への貢献」「誠実な振る舞い」「公正性」「不断の自己研鑽」「検証と警鐘」「社会の啓蒙」「法規制の遵守」「他者の尊重」「他者のプライバシーの尊重」「説明責任」の10項目からなる指針を示しています。

人工知能と人間社会に関する懇談会

このような民間の動きに対して日本政府の動きは少々遅いのではと心配する向きもあります。このままでは日本での自動運転車やドローン、IoTの開発や普及が立ち後れてしまうという声があります。アメリカでは「We Robot」というコンファレンスを2012年から開催されていますし、法制度の検討が始まっています。EUでも「RoboLaw Project」が2014年5月にロボット規制のガイドラインを公表しています。
日本では、2015年にやっと「ロボット革命イニシアチブ協議会」や総務省の「AIネットワーク化検討会議」が発足し、ようやく法的な課題の議論が始まったところです。2016年になって、先の伊勢志摩サミットで① 透明性の原則、② 利用者支援の原則、③ 制御可能性の原則、④ セキュリティ確保の原則、⑤ 安全保護の原則、⑥ プライバシー保護の原則、⑦ 倫理の原則、⑧ アカウンタビリティの原則の「AIの研究開発の原則」を示したり、「人工知能と人間社会に関する懇談会」(2016年5月30日)を立ち上げるなど、AIの社会実装を見据えた検討がようやく少し前進してきたようにも感じます。ちなみに懇談会では、次の5つの論点で検討を重ねていくようです。

1.倫理的論点:人間の尊厳を尊重した人工知能について
意識や心を持つ人工知能の扱い
人間の意思決定や信念の形成に関する人工知能の扱い など
2.法的論点:人工知能による豊かな人間社会形成のための法的課題について
人工知能やその利活用の法的位置づけ など
3.経済的論点:人工知能の経済的恩恵について
産業構造や就業形態等の経済への影響 など
4.社会的論点:人工知能が受容される社会について
豊かな人間社会に貢献する人工知能 など
5.研究開発的論点:
人工知能の研究開発に当たり考慮すべき項目 など
(人工知能と人間社会に関する懇談会の開催について 平成28年5月30日 内閣府特命担当大臣(科学技術政策 より)

人工知能と人間社会に関する検討を行っている団体

ところで、第1回の「人工知能と人間社会に関する懇談会」では、資料として「人工知能と人間社会に関する検討の国内外の動向」が示されました。次のような団体・組織が挙げられています。

(1)国外の動向

AI100

AI100(One Hundred Year Study on Artificial Intelligence)は、AIが社会や経済にどのような影響もたらすかを100年という長期的なスパンで調査や予測を行い、学際的に考える材料を提供することを目標としています。
2014年12月にスタンフォード大学のAAAI(Advancement of Artificial Intelligence)の研究グループがもととなって設立されました。

Future of Humanity Institute (FHI)

Nick Bostrom氏ら哲学者や倫理学者などによって2005年と比較的早くに設立されたオックスフォード大学哲学科の下部組織です。AIについては、いかにして危険性を排除しつつ高度なAIを利活用するかといったことなどについて検討しているようです。また、Googleとも連携してAIの潜在的危険性を研究しています。最近では、DeepMind社と「SafelyInterruptibleAgents」という論文を発表し、人間の手によってAIを停止させる仕組みの必要性を述べています。 同組織は人工知能だけではなく気候変動や経済破綻などのリスクも扱っています。

Cambridge Center for Existential Risk (CSER)

Huw Price(哲学)、 Lord Martin Rees(宇宙学,宇宙物理)、Jaan Tallinn(スカイプ,コンピュータ科学)らが主宰するAIや気候変動等の人類存亡のリスクを研究する組織で、ケンブリッジ大学の人文社会学研究所の下に設立されています。人工知能、バイオテクノロジー、ナノテクノロジーなどの最先端技術や科学を概念化し、そのリスクについての哲学的・倫理的な研究が行われており、AIについては、科学技術の発展で起きるglobal catastrophic risks(グローバルな壊滅的リスク)の予測と影響について評価し、AIの安全性やリスクについての研究を前進させ、産業界のリーダーや政策立案者に適切な戦略や規制に関する情報を提供することを目的としています。
Existential Riskというのは、“threats that could cause our extinction or destroy the potential of Earth-originating intelligent life (人類を絶滅させる脅威,もしくは地球起源の知的生命体の生じる可能性をなくす脅威)”と定義されているそうです。

The Machine Intelligence Research Institute (MIRI)

2000 年に設立されたカリフォルニア州バークレーに拠点を置くNPOの組織で、Strong AI(汎用AI)の開発における安全性に関する研究しています。年度ごとに戦略プランを公開し、未来のAI技術についての予測、AIの高信頼性とエラー許容性、いかにしてAIに人間の価値観を教えるかといったことを研究しているようです。MIRI はSingularity University と一緒にSingularitySummitも開催しています。

Future of Life Institute (FLI)

Future of Life Institute(FLI)はボランティア運営の研究支援団体で、2015年には総額8億5000万円を主に人工知能関係の研究団体に資金の提供をしています。諮問委員会にはイーロン・マスク、理論物理学者のスティーブン・ホーキング、俳優のモーガン・フリーマンなどが名を連ねています。

Google AI ethics board

AlphaGoを開発したDeepMind買収時に、DeepMind側から、AIの暴走や悪用を阻止するための倫理委員会の設置を要求され、Googleが応じて2014年に設置したものです。

OpenAI

テスラ社CEOのイーロン・マスク氏、クラリアム・キャピタル(Clarium Capital)のピーター・シール(peter thiel)氏らによって2015年に設立されたAIの推進を目的とする研究組織です。設立趣旨は「人類全体に利益が最大限貢献される方向に、人工知能を進化させること」としています。

RoboLaw

EUのFP7のプロジェクト(2012年〜2014年の27ヶ月)として、RoboLawと呼ばれるロボットサービスに関する倫理的・法的・社会的課題の規制ガイドラインを作成しています。

Digital Economy Policy

インターネットをはじめとする情報通信技術(ICT)の発展のため、また、ICTの発展により生じた課題、具体的には「デジタル化によって生じる職業の変化」「将来必要となるスキル・知識」「デジタル化で生じる社会的・環境的課題」などに対して必要な政策及び規制環境の促進について、議論を行っています。

(2)国内の動向

人工知能学会倫理委員会

発足は、2014年12月に東京大学で開催された第1回の倫理員会になります。委員会の趣旨は、人工知能研究あるいは人工知能技術と社会との関わりを広く捉え、それを議論し考察し、社会に適切に発信していくことであることから、「倫理委員会」という名称に決定するまでに「人工知能と未来社会検討委員会」などいろいろな名称が検討されたようです。
人工知能研究者にとってみると当たり前の技術が社会に大きなインパクトを与えてしまうこともあり得るとして、専門家として、予見できるものを予見し、どういう問題が発生する可能性があるのか、それに対して我々はどのような解決策をもつことができるのかなどを議論しておく必要があるとしています。
前述のように2016年6月に人工知能が人類や社会への脅威になるのを防ぐため、研究者が守るべき倫理綱領の素案をまとめ、発表しています。

AIネットワーク化検討会議

2016年2月に発足し、AIネットワーク化に関し、目指すべき社会像、AIネットワーク化の社会・経済への影響・リスク、当面の課題等について検討を行っています。4月に中間報告書「AIネットワーク化が拓く智連社会(WINS(ウインズ))―第四次産業革命を超えた社会に向けて―」が出され。6月20日には「報告書2016 AIネットワーク化の影響とリスク― 智連社会(WINSウインズ)の実現に向けた課題 ―」がだされました。この報告書では、ロボットを例にリスク・シナリオ分析の枠組みを示しており、その中には「親しみのある見た目の人型ロボットが、オレオレ詐欺の「受け子」や「出し子」など人間の代用物として犯罪に悪用されるリスク」や「テレイグジスタンス・ロボットにより外国人が入国審査を受けることなく「上陸」することが可能となり、テロリストなどが流入するりすく」、「人間に投棄された「野良ロボット」が徒党を組んで人間に対して参政権当の権利付与を要求するリスク」など生起確率は低いとは言うものの、SFさながらのシナリオが挙げられています。

社会におけるAI研究会

前述のように2006年に人工知能学会の分科会として発足しています。AIの研究成果の社会実装促進、安全性や生活の利便性向上を議論しています。

次世代人工知能技術社会実装ビジョン作成検討会

NEDOの技術戦略センター(TSC)と経済産業省産業技術環境局研究開発課が共同で設けた検討会です。人工知能技術の進展予測と、2030年以降までの時間軸ごとに、何が実現しそうかという具体的な実現性の予測を可視化し、「産業界や学術界と議論を深め、日本が人工知能による“出口戦略”を議論する土台を示すものとして2016年4月に「次世代人工知能技術社会実装ビジョン」を発表しています。

Acceptable Intelligence with Responsibility (AIR)

2014年に発足した人工知能と社会の相互作用や社会像について議論することを目的とした分野横断的な組織です。例えば、「嘘をつくコンピュータは倫理的にどのように判断されるか」「査読システムに倫理的審査規定を入れる可能性の検討」「人工知能の責任問題」といったことなどです。

CPSによるデータ駆動型社会の到来を見据えた変革

経済産業省産業構造審議会 商務流通情報分科会 情報経済小委員会は2015年4月に取りまとめた「中間取りまとめ」です。その中で、CPSが産業や社会にもたらす影響として、「CPSの自律化が進むと人間の果たす役割の代替が進む」ことや「個々の情報がより他者に晒され、情報コントロール権の喪失やデータの由来者が特定される可能性」「セキュリティ・リスク、コンプライアンス・リスクの増大」などについて述べられています。

知のコンピューティングとELSI/SSH

独立行政法人科学技術振興機構(JST)研究開発センター(CRDS)の「知のコンピューティング」のELSIに関するワークショップです。「知のコンピューティング」の目的は、知の創造、蓄積と流通を促進し、人間の科学的発見を加速し、人々が日々賢く生きるための仕組みづくりを行うことです。このような知的情報処理技術の研究開発が進展し、実社会への適用が次々と実現することに対して、情報科学技術の研究者・技術者においても倫理的・法的・社会的(ELSI: Ethical, Legal, and Social Issues)な視点での考慮は不可欠であるとして、人文社会科学 (SSH: Social Science and Humanities)および情報科学関連の有識者が集い、戦略プロポーザル「知のコンピューティング」の描き出す未来像に対して、人文社会科学/情報科学の双方からプロジェクトの推進において必要となる ELSI に関する論点を議論しています。

AI社会論研究会

駒澤大学の井上智洋氏(経済学)、全脳アーキテクチャ・イニシアチブ理事・副代表で理化学研究所チームリーダーの慶應義塾大学特任准教授 高橋恒一氏らによって2015年12月に発足しました。人文社会、自然科学、官僚、芸術家、ビジネスマンなど多彩なメンバーです。メンバーから分かるように、哲学、経済学、邦楽、政治学、社会学など多様な観点から「人工知能が社会に与える影響」について議論しています。

ロボット法研究会

 慶応義塾大学総合政策学部教授の新保史生氏らが中心となった組織で、現在「ロボット法学会」の設立を準備しています。
アイザック・アシモフの「ロボット工学三原則」はあくまで“思想”であって、“法や規範ではない”として、下記の「ロボット法 新8原則」などを提案しています。
人間第一の原則(「ロボット工学三原則」の前提)
命令服従の原則(「ロボット工学三原則」アシモフの第二条に相当)
秘密保持の原則(秘密を守らなければならない)
利用制限の原則(禁止事項ではない、利用倫理の問題)
安全保護の原則(安全と安心について)
公開・透明性の原則(ロボット開発、ロボット利用の両方について)
個人参加の原則(パブリックコメントなど、個人が参加できる体制)
責任の原則(事故を起こしたときの責任)

(人工知能と人間社会に関する検討の国内外の動向 内閣府 政策統括官(科学技術・イノベーション担当) 参照)

 

コメントを残す

メールアドレスが公開されることはありません。 * が付いている欄は必須項目です