ロボットに倫理を教える研究が始まっています

ロボットに倫理を教える研究が始まっています 1

ロボットのための倫理の授業。

アメリカのタフツ大学とブラウン大学、レンセラー工科大学がアメリカ海軍とタッグを組んで、倫理的な判断を下せる能力を持つロボットの開発が始めたようです。

この研究は「何が良くて何が悪いかという感覚をもった自立的なロボット」を開発するのが目的。倫理を理解するロボットが活躍する1つのシナリオとして、タフツ大学でコンピュータサイエンスの教授であり、同大学のHuman-Robot Interaction Laboratory(HRI Lab)のディレクターでもあるMatthias Scheutzさんは、戦場を挙げています。Scheutzさんによると、

もしロボット衛生兵が「戦傷を負った兵士を近くの野戦病院に運べ」と命令され、実際に脚がひどく骨折している兵士と遭遇した時に野戦病院に運ぶというミッションを中止して、怪我をの治療を優先すべきなんでしょうか。

そして、もしロボットが兵士の体の状態を診断し、骨折でズレた骨を正しい位置に行う牽引が必要だと判断したとします。牽引は確実に兵士に激痛をもたらすことは確実だとしても、兵士の今後を考えて治療するかどうかをロボットに判断できるでしょうか?

という問題提起を行っています。こんな状況にさしかかれば人間でも判断に困りますよね。

かの有名なSF作家であるアイザック・アシモフは、人間への安全性と命令への服従、自己防衛がロボットが従うべき原則であるとして「ロボット三原則」を自著で示し、その後の人工知能の研究に多大な影響を与えたのですが、未だにこれを理解できるロボットは現れてないそうです。

この研究では、ロボットはまずIBMによるスーパーコンピュータを用いた人工知能「ワトソン」のような、事前に用意された倫理チェックシステムに判断を通します。その後、まだ助けが必要な場合に、Scheutzさんらによって開発される予定の人間の倫理をモデル化したシステムに頼ることになるんです。

なんだか難しい話だと思いますが、要するに時間をかけて人工知能がインストールされたロボットでも理解できる倫理のフレームワークを作るということなんです。

いつかは戦場はもちろん、カウンセラーやオフィスの受付などの仕事はロボットに任されるんでしょうか? まるでSFの世界なんて言ってられないような気がしますよね。

source: Tufts Now via Gizmag

(徳永智大)