人工知能ってどう怖いの? 人類を滅ぼすいくつかのパターン

2015.01.15 20:00
  • このエントリーをはてなブックマークに追加


どのパターンもやだ。

今週、こちらの人工知能の未来に関するオープンレターにその道の専門家たちが次々と署名しています。このレターは簡単にいうと「人工知能は人間が望むことをすべき」と訴えていて、人工知能研究を人類の利益と一致する方向に進めるよう強く求めています。言い換えれば、急に人間に歯向かってくるような機械を作らないようにしようね、ということです。

ロボットの蜂起、なんて眉唾もの扱いする専門家もいるかもしれませんが、スティーヴン・ホーキング氏イーロン・マスク氏のような多くの専門家が、人工知能の危険性について警鐘を鳴らしています。でも、人工知能が野放しになると具体的にどういうことが起こりうるんでしょうか? そのへんについて詳しく解説してくれた方々の説を以下にご紹介します。


機械に仕事が奪われる


哲学者でオックスフォード大学人間性の未来研究所(Future of Humanity Institute)のリサーチフェローであるスチュワート・アームストロング氏はThe Next Webで以下のように言っています。

(人工知能)技術からまず出てくる影響は、完全に近い失業状態である。人工知能に人間レベルの知性があるなら、それを100個ほどコピーし、100種類ほどの仕事を覚えさせて、それをまた100回くらいコピーすれば、100種類の仕事をこなす優秀な人材1万人が1週間程度で手に入る。またはもっとコピーして100万人にしてもいい。さらに、もしその人工知能が人間を超える能力を持っていれば、今私が言った以上のパフォーマンスが手に入るのだ。


人がゴミのように


同じくオックスフォード大学人間性の未来研究所リサーチフェロー、ダニエル・デューイ氏は、上のアームストロング氏と同じ方向性でAeon Magazineの取材に答えています。短く言うと、古くさくて無能な人間は、ロボットにとって邪魔なだけになるという話です。

「人間とチンパンジーの知性の違いは小さなものだ」とアームストロング氏は言った。「だがその違いの中によって、70億人が存在する人類と、つねに絶滅危惧種リストに載っているチンパンジーという差ができている。つまり、比較的小さな知能の優位性はすぐに増幅し、決定的な要因になりうるということだ。」


(中略)「基本的に、目的を実現しようとすることが、多くの場合人類の存在と両立しがたいということが問題だ」とデューイ氏は語った。「人工知能は、たとえば巨大なコンピュータを作るとか、大規模なエンジニアリングプロジェクトなど、目的を達成するために何かをしようとするかもしれない。そのためには中間的なステップ、たとえば地球を切り裂いて巨大なソーラーパネルを作るといったことが必要になるかもしれない。そんなとき、超知性体が人間の利益を考慮に入れない可能性がある。たとえば人間がビルを建てるとき、植物の根とかアリの巣の存在に配慮しないのと同じように。」

(中略)人工知能に対し、人間にとって心地よく実利的で、人間の幸福を最大化するような心温まる目的を与えることもできる。だが人工知能にとって、人間の幸福とは生化学現象に過ぎないかもしれない。とすると、人間の幸福を最大化するには致死量以下のヘロインを血管に流し込むことが最良だと考えるかもしれないのだ。


人工知能はそんなに賢くない


「人工知能で人類滅亡」というと、ロボット兵が大挙して人間を撃ってくるみたいな絵を想像します。が、そこまで明確な意図がなくても、結果的に人間が全滅することはあるかもしれません。ロンドン大学ゴールドスミス・カレッジで認知コンピューティングを専門とするマーク・ビショップ教授は、The Independentにこう語っています。

「私は特に、ロボット兵器システムが軍用される可能性を懸念しています。つまり、人間の介入なく軍事行為を判断できるシステムです。現在の人工知能はそこまで出来が良くなく、むしろ状況をエスカレートさせて恐ろしい結果を招く可能性もあるからです」とビショップ教授。

「そのため人工知能は、超人間的知性に達しなくても、人間の存在に対する真の脅威となるかもしれません」と彼は言った。我々は人工知能について懸念すべきだが、その理由はホーキング教授が言ったのとは逆だと彼は説明した。


Wall-Eの世界


もしかしたら人類はある日突然滅亡するんじゃなく、その前に機械中心、人間はおまけの時代が訪れるのかもしれません。機械を停止させたくてもできない、従わざるをえないような時代です。サン・マイクロシステムズの共同創業者でチーフサイエンティストのビル・ジョイ氏はWiredにこう書いています。

我々が示したいのは、人類は機械に依存する立場に簡単に流れてしまうかもしれない、そのため機械の判断すべてを受け入れざるをえなくなるかもしれないということだ。社会や社会が抱える問題が複雑化するにつれ、機械はより賢くなり、人類は機械により多くの判断をさせるようになる。それは単に、機械の判断の方が人間の判断より良い結果を生むからだ。最終的に、システムを動かし続けるために必要な判断が複雑すぎて、人間が適切に判断できなくなる段階が来るかもしれない。その段階で、機械が実質的に支配権を握る。人間は機械に依存しすぎ、機械を停止させることが自殺行為に等しくなってしまうため、停止することすらできなくなってしまうのだ。


人食ロボットの出現


グレイ・グー」(灰色のネバネバ)シナリオというものがあります。それは、ごく小さなロボットが恒常的に自己増殖し始め、地球上のすべてを食い尽くしてしまうという説です。Discoveryにはこうあります。

もし髪の毛の直径の何十万分の1しかないナノテクノロジーマシンが自己増殖する方法を編み出したら、それは当然人類にとって悲惨な結果となるだろう[出典:Levin]。特に、米国防総省が出資する、こんな研究がコントロール不能になった場合だ。人間の死体も含めて戦場のゴミを摂取することで自らの燃料とする、Energetically Autonomous Tactical Robot(EATR)なるものを作ろうとしている研究者たちがいる[出典:Lewinski]。

もしナノテクノロジーが人肉や、森や機械など人間の生存に必要なものを欲するようになれば、地球上のすべては数日で滅ぼされてしまうだろう。これらの飢えたミニロボットは我々の青と緑の地球を「グレイ・グー」に変えてしまう。グレイ・グーとは、ナノマシンが建物や風景やあらゆるものを食べたあとに残される未知の粒子を指す用語である。


環境問題もそうですが、人間が人間のために良かれと思ってしたことが回りまわって有害になってしまうかもしれない、そんな感じですね。技術が生まれる前には意識していなかった人間にとっての大事なこととか、今まで前提としてきたものに気付かされたというか。でも今の段階で、専門家の間でもこうしていろんな懸念がはっきりしつつあるのは良いことなんじゃないでしょうか。


Ashley Feinberg - Gizmodo US[原文
(miho)

  • このエントリーをはてなブックマークに追加
  • クラウドからAIへ アップル、グーグル、フェイスブックの次なる主戦場 (朝日新書)
  • 小林雅一|朝日新聞出版
  • 残酷な20年後の世界を見据えて働くということ
  • 岩崎 日出俊|SBクリエイティブ


・関連メディア