AIと人間の共存を目指して。「AIはいつ他者を撃退し、いつ協力するのか」Googleがテスト中

AIと人間の共存を目指して。「AIはいつ他者を撃退し、いつ協力するのか」Googleがテスト中 1

さ、『エクス・マキナ』もう一度観よっと。

人工知能(AI)が人類に対して反乱を起こし、人間の文明を乗っ取ってしまうのではないかという恐怖はただのSFファンだけでなく大手企業のトップや科学者たちも抱えている懸念です。そんなのはSF映画の中での話だと一笑に付す知識人たちももちろんたくさんいるものの、AIが急速に人間の能力を凌駕し、人間の仕事を奪っていくのでは、という不安はどんどんと大きくなる一方です。

AIが本当に人類を敵とみなすかどうかは別としても、AIをどのように設計するかによって、今後人間とAIがどう共存していくかが決まっていく重要な節目に差し掛かっていることは間違いなさそうです。GoogleのDeepMindの研究者たちが先日発表した論文では、「AIがいつ他者を撃退しようとし、いつ他者と協力しようとするか」について研究しています。

DeepMindの研究者はAIを使って2つのゲームを行ないました。1つ目は、2つのAIが同時にリンゴをできるだけたくさん集めようとするゲーム。下の動画でゲームの様子を見られます。

赤と青がそれぞれAIによるプレイヤー、緑色がリンゴになっています。プレイヤーはそれぞれ、ビームを発射することができ、二度ビームに当たると一時的にゲームから排除されるというルールになっています。

限られたリンゴを集めるという目的を達成するためにAIはビームをどれくらい発射するのか(攻撃性)を測ったそうです。もちろん、お互いにビームを打ちまくっていたら両者ともリンゴをたいして集められなくなるわけです。リンゴの出現頻度、ビームによってゲームから排除される時間の長さ、を変えながら何千回もこのゲームをプレイさせたそうです。

これによってAIがどのような条件で学習をすれば攻撃的になり、どのような条件なら協力的な行動を選ぶのかについてのデータを集めたとのこと。

このゲームでは、「ビームをどれくらい頻繁に利用するか(攻撃性)」を「新しいリンゴがどれだけ早く出現するか(資源の豊富さ)」と「ビームを撃たれたプレイヤーがゲームに復活するのにかかる時間(敵対によるダメージ)」の関数として分析したところ次のような結果がわかりました。

AIと人間の共存を目指して。「AIはいつ他者を撃退し、いつ協力するのか」Googleがテスト中 2

image: DeepMind

こちらは、Napple(資源の豊富さ)、Ntagged(敵対コスト)とAggressiveness(攻撃性)の相関グラフ。青が濃いほうが攻撃性が高いことを示しています。

それによると、資源が乏しい、もしくは敵対ダメージが高い環境で学習した時の攻撃性は高く、資源が豊富、もしくは敵対ダメージが低い環境の場合は攻撃性が低くなったそうです。

「リンゴ摘みゲーム」に加えてDeepMindが行なったのは「狼の群れゲーム」です。こちらも同様にゲームの様子が動画で公開されています。

こちらのゲームでも同様に2つのAIが参加します。2つのAIは「狼」であり、フィールドには1匹だけ「獲物」が動いています。それぞれのAIは獲物に触れる(狩る)ことで個別にポイントを得るのですが、もう一方の狼が近くにいる状態(協力)で獲物に触れると両者ともポイントが得られ、またチームプレイ・ボーナスが得られるというルールです。

また、獲物を単独で獲得しても、獲物を他のハイエナに奪われてしまうというリスクが存在しています。2匹のAI狼で獲物を狩るとそのリスクも減るという設定になっていたそうです。

2匹が協力したと見なされる「近さ」とチームプレイ・ボーナスの得点を調整しながら何度もプレイさせて学習する様子を記録しました。

AIと人間の共存を目指して。「AIはいつ他者を撃退し、いつ協力するのか」Googleがテスト中 3

image: DeepMind

こちらはチームプレイ・ボーナスがもられる「radius(半径)」、チームプレイ・ボーナスの「rteam(点数)」と単独で狩りをする頻度(Lone-wolf capture rate)の相関グラフ。青が濃いほうが単独の狩りが多いことを示しています。

時間をかけて協力して狩りをすることを学んだ、とのことですが協力の仕方には明らかに2つの種類が生まれたそうです。1つはまず他の狼を見つけてから、一緒に獲物に向かって移動するというもの。もう1つはまず獲物を見つけてから、もう1匹の狼が来るのを待つというものです。

結果だけを見れば「当たり前じゃん」と思ってしまいそうですが、AIがどのように学習し、どのような戦略を身につけるのかを研究することは非常に重要です。今後ニューラルネットワークがますます普及する中、複雑かつ情報が不完全な状況でAIがどのように振る舞うのかについて、我々は知識を深める必要があります。

DeepMindのJoel Leibo氏は、Bloombergの取材に対して次のように語っています。

(同様の研究で)将来的には、他のAIが持っている目的や知識について論理的に考える能力をAIに備えさせられたら面白いだろう。

top image: YouTube
other image: DeepMind
source: DeepMind, YouTube(1, 2), Bloomberg

Rhett Jones - Gizmodo US[原文
(塚本 紺)

あわせて読みたい

    powered by CXENSE