SF作家のアイザック・アシモフが自身の小説で定めている「ロボット工学三原則」は実験の結果、これを守ることは困難であることが判明したそうです。
ちなみに、「ロボット工学三原則」は下記の通り。
第一条:ロボットは人間に危害を加えてはならない。また、その危険を看過することによって、人間に危害を及ぼしてはならない。第二条:ロボットは人間にあたえられた命令に服従しなければならない。ただし、あたえられた命令が、第一条に反する場合は、この限りでない第三条:ロボットは、前掲第一条および第二条に反するおそれのないかぎり、自己をまもらなければならない。
イギリスにあるブリストル・ロボティクス・ラボラトリーのロボット学者のアラン・ウィンフィールド氏は、アシモフのロボット工学三原則の第一条を単純化した実験をしたそうです。
彼とそのチームが行ったのは、ロボットにプログラムを施し、人間の代理となる他のロボットが穴に落ちるのを妨ぐというものです。
助けに行く対象が1つであれば、問題なく成功したのですが、2つになった瞬間にロボットは混乱。どちらか一方は穴に落ちてしまうことがほとんどでした。何回かは2つとも穴に落ちてしまうことも。
兄弟メディのコタク・ジャパンでは実験の様子や、この実験がどのような事につながってくるかなどが掲載されていました。ロボットが平和を守ろうとするあまり、人類がいなくなる…なんて日がくるのでしょうか。
source: コタク・ジャパン
(ギズモード編集部)