未来のロボットアームは、人工知能でモノを視覚的に判断できる、はず。

  • author George Dvorsky - Gizmodo US
  • [原文]
  • そうこ
未来のロボットアームは、人工知能でモノを視覚的に判断できる、はず。
Image: Tom Buehler/CSAIL

知らない物体は掴めないんですよね、今のロボットって。

工場にあるロボットアームは、事前プログラムすることで特定のタスクを行います。「〇〇サイズのネジをつまんで、右にあるXXにはめる」とうタスクをプログラムしたら、そのタスク専用のロボになります。もし〇〇が△△に変わったりしてしまうと、当然エラーになるわけです。ただ、幅広いタスク(様々な形、大きさのモノを認識)をこなすロボットアームが作れないわけじゃないのです。問題はコスト。高価すぎて、工場でのビジネス利用には向きません。今日のモノを掴むロボットは、シンプルすぎるか複雑すぎるのどちらか。あーぁ、人間みたいにリアルタイムでモノを判断してくれるアームがあったらいいんだけどなー! ほら、出番ですよ人工知能!

Video: MITCSAIL/YouTube

MITのコンピューターサイエンス&人工知能研究室(CSAIL)が取り組んでいるプロジェクトは、DON(Dense Object Nets)ニューラルネットワークを用いて、視覚情報からモノの視覚ロードマップを描き出します。視覚ロードマップを作るのにかかる時間は、平均20分ほど。モノをあらゆる角度から「見る」ことで、物体のポイントをチェック。これをもとに、モノを3D的に認識します。ロボットがモノを学習したら、人間の出番。どのポイントを持つか教えてあげれば、あとはロボットがそこを持ってハンドリングします。実験では、ロボットが初めて見る靴やぬいぐるみをうまく持ち上げることに成功。将来的には、人間のサポート一切なしでロボットアームがモノを認識からハンドリングまでこなしてくれれば万々歳です。

180914mit01
Image: Tom Buehler/CSAIL

研究チームは、本プロジェクトについて、来月スイスで行われるロボット学習カンファレンスにて発表予定。論文はそれに先駆けて、ネタ元のarXivですでに公開されています。コンピュータ・ビジョンについては何十年も研究が続いていますが、ニューラルネットワークがモノを3D的に自己学習するのは新たなアプローチですね。

Source: arXiv, MIT News

    あわせて読みたい

    powered by