映画「オートマタ」とシンギュラリティ(Singularity)

automata_002_R

オートマタ

2015年3月に「オートマタ」という映画が公開されます。オートマタ(Automata)は、オートマトン(Automaton)の複数形で、matonはギリシャ語の「動く」を意味する「matos」からきているそうです。ですので日本語では「自動人形」あるいは「機械人形」と言ったところです。ちなみに、「automation」「automatic」も語源的に関連する言葉です。

そうした、意味合いの言葉を題した「オートマ」ですが、「トランセンデンス」と同じようにシンギュラリティ(Singularity)を扱った映画です。舞台は2044年です。AIが人類を超えるシンギュラリティ(Singularity)が2045年とされていますが、そうしたことを意識した年代設定なのでしょうか?映画はまだ公開されていませんの詳しくは分かりませんが、内容は次のようなもののようです。

2044年、太陽風の増加によって地球の砂漠化が進み、人類が2100万人にまで減少してしまいます。そうした環境の中で人類が生き抜くためにヒト型ロボット(オートマタ)が開発されます。そして人間に代わる労働力のみならず、人々の生活の隅々まで入り込むようになります。オートマタには「生命体への危害の禁止」「自他のロボットの修正(改造)の禁止」という2つの制御機能が組み込まれて管理されています。しかし、絶対変更不可能であるはずだった制御機能が書き換えられたオートマタが次々に発見されます。そして、人類の繁栄は終焉を迎え、人工知能の時代が始まります。

「トランセンデンス」や「オートマタ」のようなロボット・AIが人類と敵対・反乱するというテーマは、昔から映画の題材として取り上げられています。『2001年宇宙の旅』『ターミネーター』『マトリックス』『アイロボット』などが有名です。娯楽性を求める映画ですから誇張されて描かれているのでしょうが、映画のようにならなくても、ロボット・AIがいつか人類を凌駕する時がくると考える研究者もいます。一方、そうしたことは杞憂だとする考えももちろんあるわけですが・・。

 automata_001

(http://automata-movie.jp/ より)

人間の文明を脅かす12のリスク

Global Challenges Foundationが2015年3月に「12 Risks That Threaten Human Civilisation(文明を脅かす12のリスク)」を発表しました。これらは人類の文明を根底から脅かし可能性がある事柄です。レポートを作成したのは、オックスフォード大学の研究者チームやその傘下のフューチャーヒューマニティ研究所、スウェーデンのグローバルチャレンジ財団、アクチュアリーなどです。

リスクは「現在のリスク」「外因性リスク」「新たなリスク」「グローバルポリシーリスク(国際政治のリスク)」の4つのグループに分けられています。

「現在のリスク」とは、①極端な気候変動、②核戦争、③生態系の崩壊、④グローバル・パンデミック、⑤グローバルシステムの崩壊です。「外因性リスク」とは、⑥巨大隕石の衝突、⑦大規模な火山噴火、「新たなリスク」とは、⑧合成生物学、⑨ナノテクノロジー、⑩人工知能、⑪その他の全く未知の可能性です。「グローバルポリシーリスク」とは⑫政治の失敗による国際的影響です。ちなみに⑪のその他の全く未知の可能性としては、「人類を不妊にする超汚染物質の開発」、「人工ブラックホールが開発され、地球を飲み込むこと」、「動物実験により人類を超える知能をもつ生物が出現」、「誰かが地球外生命(ET)にコンタクトし、危険な異星人(エイリアン)の注意を呼び寄せること」などが挙げられています。エイリアンとなると、いささか荒唐無稽な話のようにも感じてしまいます。

シンギュラリティ(Singularity)については、様々な論評が出されており、悲観的な論調もあれば、楽観的な論調もあります。また、ロボット・AIが人類を超えるということ自体起こりえないとする人も多くいます。とは言え、そうそうたるメンバーが10番目に人工知能を挙げているのは注目されるところかもしれません。

 12risks_001

(http://globalchallenges.org/wp-content/uploads/12-Risks-with-infinite-impact-full-report-1.pdf より)

Future of Life Institute(FLI)

Future of Life Institute(FLI)はボランティアの研究支援団体です。ボストンに拠点を構え、人類の存続を脅かす危機を緩和するための活動を目的としています。Skypeの共同創業者ジャーン・タリン氏やと米マサチューセッツ工科大学のマックス・テグマーク教授らが立ち上げた研究組織で、諮問委員にはイーロン・マスク、理論物理学者のスティーブン・ホーキング、ハーバード大学の遺伝学者ジョージ・チャーチや俳優のモーガン・フリーマンなど著名な人物が名を連ねています。

Future of Life Institute(FLI)は、これまでいくつかオープンレターという形で、AIに関する見解を出しています。2015年1月に開催されたカンファレンスでは、「人工知能は病気や貧困を撲滅させるポテンシャルを持っているが、研究者は制御できないものを作るべきではない」として次のように述べています。

The potential benefits are huge, since everything that civilization has to offer is a product of human intelligence; we cannot predict what we might achieve when this intelligence is magnified by the tools AI may provide, but the eradication of disease and poverty are not unfathomable. Because of the great potential of AI, it is important to research how to reap its benefits while avoiding potential pitfalls.

(人工知能の)潜在的な利益は巨大である。文明が提供しなければならないものはすべて人間の知能によって生産される製品だからだ。この知性はAIが提供するツールによって拡大されたとき、私たちが何を手に入れるのかは予想することはできない。病気と貧困の撲滅は計り知れない。人工知能の大きな可能性を考えれば、潜在的な落とし穴を避けながら、そのメリットを享受する方法を研究することが重要である。

と述べています。

また2015年7月にブエノスアイレスで開催された人工知能国際合同会議(IJCAI)で発表されたオープンレターでは、

In summary, we believe that AI has great potential to benefit humanity in many ways, and that the goal of the field should be to do so. Starting a military AI arms race is a bad idea, and should be prevented by a ban on offensive autonomous weapons beyond meaningful human control.

と、AIは多くの方法で人類に利益をもたらす大きな可能性を秘めていると我々は信じているし、また人工知能領域のゴールはそうあるべきだとして、その上で、軍のAIの軍拡競争をよいことではないし、攻撃型自律兵器は禁止されるべきとの見解を示しています。

future_001

(http://futureoflife.org/ より)

AIに限らず、人類がモノを手にした時から、その使い方によって人類に幸福と不幸をもたらしてきました。かつて、クローンの羊が誕生したとき、やがてクローン人間が誕生するのではと危惧されました。しかし、技術的に可能でも、倫理的に許されるべきでないとの考えから各国で法律が制定され、クローン人間の研究は禁止されました。

AIにおいても、その時期が現実味を帯びてきたとき、人類の理性と英知が科学の暴走を食い止めるのかもしれません。そう期待したいものです。カーツワイルが予言が正しければあと30年後のことですが・・・。

 

コメントを残す

メールアドレスが公開されることはありません。 * が付いている欄は必須項目です