ロボットにも触覚を、カメラで実現。
人工知能の発達で人間の仕事がロボットに奪われる! なんて話はこの数年さんざんされてますが、逆にロボットがやってくれたらありがたいな~っていう作業は日常の中に無数にあります。たとえば、家事全般。ただロボットは人間と違って教えたこと、指示したことしかできないので、人間にとっては当たり前のことがすごく難しかったりするみたいです。
たとえば「バナナの皮をむく」というタスクは、人間なら2、3歳でもマスターでき、バナナ本体を握りつぶすことなく皮だけ上手にむけるようになります。でもロボットの場合、単に「この細長い黄色い物体の下半分をホールドしながら、上の細くて固い部分を折って、引っ張ってね」と言うだけじゃダメみたいです。
カーネギーメロン大学の山口明彦さんとChristopher Atkesonさんに言わせると、その課題を解くカギは「触覚によるフィードバック」にあるようです。TechCrunchによれば、山口さんたちはロボットの動作に対してフィードバックを与えるべく、ロボット用の皮膚「Fingervision」を開発しています。Fingervisionは、一見チープな(そして実際低コストな)アクリル板やシリコンに小型カメラを組み合わせ、人間同様の微妙な力加減をロボットにおいて実現するためのシステムです。
上の動画は産業用ロボット「Baxter」の手にFingervisionを装着させ、実際バナナをむかせているところです。人間に比べれば苦戦してはいますが、最後には食べられる形でバナナの身を取り出しています。
FingerVisionが興味深いのは、ロボットに触覚を与えるためにカメラを使っていることです。FingerVisionが物と接する部分には、柔らかい透明シリコンに黒いビーズをたくさん埋め込んだものが付いています。このビーズの動きや歪み方をカメラで捉えてソフトウェアで分析することで、ロボットは自分の手にどんな力がかかっているかを知ることができるんです。この研究については、2016年11月の IEEE-RAS International Conference on Humanoid Robotsで発表されました。
しかもこれらの材料は基本的に市販のもの、フレーム部分は3Dプリントしているそうで、Fingervisionは1台約50ドル(約5500円)で作れるとのこと。さらに山口さんたちはFingervisionをオープンソースにしているので、誰でも自作ロボットに微妙な触覚のフィードバックを与えることができます。
Fingervisionを使うことで、バナナの皮がむけるだけではなく、ナイフを使って野菜を切ったり、羽でなでられただけで検知したりといったこともできるようです。
また下の動画にあるように、ものを人に手渡したら、相手が取りやすいようにパッと手を放すとか、逆に簡単に引っ張っただけでは放さないようにしっかりつかむとか、きめ細かく調節できるようにいろいろなパターンが開発されています。
山口さんは今後、できればこのFingervisionでロボットの全身を覆えるようになりたいとしています。たしかにそうすれば、周りの人や物にぶつかったら動きを止めるとか、羽でくすぐられるとか(?)、人間と仲良く生活するために役立つスキルをもっと身につけられそうですね。
Image & Video: Akihiko Yamaguchi / YouTube
Source: Fingervision via TechCrunch
(福田ミホ)