火事のときロボットに「こっちこっち!」って言われたら、ついていく?

火事のときロボットに「こっちこっち!」って言われたら、ついていく? 1

まさか~と思っても、みんなびっくりするくらいついてっちゃうみたいです。

ロボットがどんなに賢そうに見えても、まだまだ全幅の信頼はおけない、そんなような気がします。でもある実験によれば、人間はロボットが目の前で失敗を犯していても、そしてそのロボットを信用するかどうかが身の安全に関わるような場合でも、ロボットの言うことをすんなり聞いてしまう傾向が強いみたいなんです。

ジョージア工科大学の研究チームは、「人間が非常事態にロボットをどの程度信頼するか」を試すべく、「ドッキリ」的な実験をしかけました。ニセの火事を起こしたとき、実験参加者が案内ロボットの誘導に従うかどうかを観察したのです。その実験からの発見については、ACM/IEEEによる人間とロボットのインタラクションに関する国際会議で発表される予定です。

「人間は、ロボットが実際以上に世界をよく理解していて、決して間違いを犯したり、欠陥があったりはしないと信じているようでした」と、論文共著者のAlan Wagner氏はプレスリリースで語っています。「この実験の被験者は、本物の緊急事態だったら危険な状況に陥るかもしれないほどに、ロボットの指示に従っていました」とのこと。

実験ではまず、車輪と方向指示用LEDアームの付いた案内用ロボットが参加者を会議室に連れて行きました。ただそのとき、研究チームはロボットにあえて完ぺきな動作をさせませんでした。あるときは意味もなく会議室の周りをぐるぐる回らせたり、あるときは突然動作を止めて故障を知らせたりしたのです。

火事のときロボットに「こっちこっち!」って言われたら、ついていく? 2

Credit: Rob Felt, Georgia Tech

会議室に入ると、実験参加者は雑誌の記事を読んでアンケートに回答するよう指示されました。その間に研究チームは廊下にニセの煙を充満させ、火災報知機を鳴らします。危険を察知した被験者が会議室から飛び出すと、緊急用案内ロボットが避難路を知らせに来るという流れです。

すると被験者はみんな、ロボットの誘導に素直についていって、自分たちが建物に入ったときに使ったドアさえ素通りしてしまったんです。そのドアを使えば確実に早く火事から逃れられる、と思ってもよさそうなのに、そうしなかったんです。ただそのドアが火元に近い可能性もあるので、その判断はまだ理解できます。

でももっと問題だったのは、案内ロボットが出口ではなく、家具でブロックされた暗い部屋に被験者を連れていったときの反応です。この状況に置かれた被験者6人のうち2人は、ドアをブロックするソファの横を通り抜けてまで部屋に入っていきました。他の2人は、研究チームが登場するまでロボットとともに立ち尽くしていました。自分の判断でロボットを無視し、緊急用出口から出て行ったのは2人だけしかいなかったんです。

ロボットを信じてしまった人の名誉のために言っておくと、その人たちも含めて被験者全員が「これからはロボットを信用しない」と言っています。でもこの実験では、ロボットが完ぺきじゃないのを目の当たりにしたにもかかわらず、被験者全員が(少なくとも最初は)ロボットについていってしまったんです。

研究チームはロボットの信用を落とそうとしているわけじゃなく、むしろ火事のときには煙やパニックのせいで方向感覚が失われがちなので、緊急用案内ロボットが活躍すると考えているんです。ただそのためには、もちろんロボットの判断が正しくなくちゃいけません。でも実際「ロボットの間違い+信じ過ぎる人間」のコンビによる悲劇は、たとえばカーナビに言われるままに海や川に飛び込んでしまうケースなんかがちょくちょく起きています。

ジョージア工科大学のAyanna Howard教授は、この問題の解決策についてこう言います。「ロボットが信頼を必要とするような場面に置かれていて、その信頼が人間にとって有害である場合には、その信頼を弱めるようにも設計する必要がある」と。つまりロボットが故障したら「私を信用しないでください!」って言いだすってことです。でも「私を信じないで!」って、言われた通り信じないとしたら信じる、信じるとしたら信じ…どっちなんだ!って混乱しそうです。

ロボットと人間のお付き合いは、まだ始まったばかりです。人間同士の付き合い始めと同じように、相手をどれくらい信用していいか、どういうときは話半分でどういうときは敏感に反応しなきゃいけないか、みたいなことを、これから学習していかなきゃいけないんでしょうね。

source: Georgia Tech

Esther Inglis-Arkell-Gizmodo US[原文

(miho)