Googleが警告するAI開発の問題点が小さい子どもに似てる

人工知能の反乱を防ぐには、お掃除ロボを極めるべし。

Google、OpenAI、スタンフォード大学、カリフォルニア大学バークレー校の研究者たちが共同で執筆した「Concrete Problems in AI Safety」という論文が発表されました。この論文は人工知能の危険性について書かれたものですが、何が他の論文と違うのかというと、それは人工知能を開発する開発者が自問するべき5つの問題を示しているから、注目を集めているのです。

これって、SF作家であるアイザック・アシモフが提唱した人間を守るためにロボットが遵守すべきルールである「ロボット工学三原則」を目指してるの? そう思う人もいるかもしれません。今回発表された論文はあくまでも開発する上で人間が考えるべき点をまとめたまで。論文では、実際に人工知能開発者が考えるべき5つの問題を、お掃除ロボットを例にしてあげています。お掃除ロボ?

  1. ネガティブな副作用の回避。例えば、掃除が早く終わるからといって、花瓶をひっくり返すという行動を学習させないこと。
  2. ずる賢い行動の回避。例えば、ゴミを覆い隠すことで一見掃除したように見せるといったずるをさせないこと。
  3. スケーラブルな管理。例えば、人間からもらったフィードバックから効率的に学習することで、人間の手をわずらわせないこと。
  4. 安全な試行錯誤。例えば、濡れたモップを使うときに、電気製品をそのモップで掃除させないこと。
  5. 環境の変化に対する適応力。例えば、学習環境と異なる環境におかれたときに、新しい環境に合わせたふるまいができること。

なんというか、親が小さな子どもに対して注意するのと一緒ですね。「ちゃんと掃除しなさい」とか、「掃除するときはまわりに気をつけなさい」とか。もしかしたら人が危惧している人工知能の暴走は、ただのロボットの反抗期なのかも...。

近年、人工知能の急速な発展が進む一方で、人工知能が暴走して人間に対して危害を加えないか懸念する声が広がっています。例えば、Tesla MotorsのCEOイーロン・マスクや天才物理学者スティーブン・ホーキング博士は、これまでその危険性を語っています。

研究者の取り組みがポジティブな人工知能の開発に寄与すればいいのですが...。

source: Google via CNET

Angela Chen - Gizmodo US[原文

(tmyk)