脳から心を読む。正解率96%、見ているものをリアルタイムで推定

2016.02.02 16:30
  • このエントリーをはてなブックマークに追加

160202_brainreading1.jpg


人類超能力者化計画、またひとつ前進。

ワシントン大学の研究者たちが、科学的な読心術の実現に向けて一歩進みました。彼らは脳インプラントとソフトウェアを使うことで、実験の被験者が今何を見ているのか、ものすごいスピードと正確さで解読したんです。

紙やコンピューター画面で2次元の画像を見る能力、そしてその画像が何かを認識する能力の裏側には、科学者にもまだ解明できていないプロセスがあります。そこでワシントン大学の神経科学者Rajesh Rao氏と神経外科医のJeff Ojermann氏は、ある実験を行ないました。彼らはその中で、コンピューターが人間の脳の信号をほとんど人間の認知と同じ速度で解読できることを示したのです。詳細についてはPLOS Computational Biologyの論文で公開されています。

研究チームは実験にあたり、てんかん治療中の患者7人の協力を得ました。その患者たちは薬で発作を抑えられないため、電極で発作のポイントを特定すべく一時的に脳インプラントを埋め込まれていました。研究チームはこれを実験の好機と捉えたのです。「彼らはどちらにしても電極を付けられることになっていました」とOjermann氏。「我々は彼らの空いた時間に、追加のタスクを与えただけでした。」

そして患者たちは、人間の顔、家、何もないグレーのスクリーンによるランダムな絵のシーケンスをコンピューター画面で400ミリ秒間隔で見せられました。彼らのタスクは、上下逆さまになった家の画像を探すことでした。


160202_brainreading2.jpg

顔と家を見分けるタスク。Credit: Kai J. Miller et al., 2016/PLOS Computational Biology


そのとき脳の電極がソフトウェアにつながっていて、脳から「事象関連電位」「広帯域スペクトル変化」という2種類の信号が抽出されていました。前者はたくさんのニューロンが画像に反応して発生するもの、後者は画像を見たあとに残るものです。

画像が画面に表示されると、コンピューターは脳の信号を毎秒1,000回の間隔でサンプリング、デジタル化していきました。信号を細かく捉えることで、患者の見ているものともっとも相関の高い電極の位置と信号の組み合わせが判断できました。「我々は異なる電極位置から異なる反応を得られました。ある部分は顔に対して感度が高く、ある部分は家に反応を示したのです。」

研究チームはそのデータを使ってソフトウェアに学習させたあと、患者にまったく違う画像の集合を見せ、脳の信号を計測しました。すると、患者たちが見たのはこれまで見たことのない絵だったにもかかわらず、彼らが見ているのが家なのか顔なのかグレーの画面なのか、コンピューターは96%の精度で推定できたのです。それも、患者がそれぞれの絵を認識するのとほぼ同じスピードでした。

この推定は、事象関連電位と広帯域スペクトル変化の両方を考慮したことで可能になりました。これは論文によると、「それぞれ(の信号)が被験者の認知状態の異なる補完的な側面を捉えている」ことを示しています。

興味深い研究ですが、この研究結果は非常に限定的でもあります。このシステムが真に試されるのは、もっといろいろなカテゴリのものを含んだ画像の集合を見たときです。たとえばこの手法で、人間の顔と犬の顔を見たときの違いを認識できるのかどうかはすぐにはわかりません

でもこの研究がもっと進めば、たとえば言語障害のある人とのコミュニケーション手段の開発などが期待できます。またこの技術は脳マッピングの支援にもなり、どんな情報が脳のどの部分に対応しているかをリアルタイムで把握することも夢ではないかもしれません。

ただ個人的には、誰もが超能力者みたいに他人の心を読めるようになるのがいつかってことが気になります。それが実現するのがいいのかどうか、よくわからないんですが…。


source: PLOS Computational Biology

George Dvorsky - Gizmodo US[原文
(miho)

  • このエントリーをはてなブックマークに追加
・関連メディア