数年後もしくは十数年後。ソニーCSLが植えた技術の芽がどう育つかが楽しみです。
脳科学者でQUALIAプロジェクトにも関わっていた茂木健一郎さん、東大教授かつUI研究者の暦本純一さん、バイオメカニクス義足エンジニアの遠藤謙さん等々、名だたる研究者が集うソニーCSL。ソニーテクノロジーの根幹となる技術を日々研究しているチームといえる存在です。
10月23日、24日に行われたオープンハウスにお邪魔してきたのですが、各ブースのプレゼン内容はなかなか興味深いものが多かったですね。いくつかまとめて紹介しますね。
MRゴーグルならぬMRプロジェクター
ゴーグルのように目を覆うのではなく、レーザープロジェクターで視界を埋め尽くす映像を出力するとは。近未来ガジェットじゃないかこれは。
HeadLight : a wearable wide-angle projector system for Egocentric visual augmentation. from shks on Vimeo.
ヘッドトラッキングで向いている方向に合わせて投射する映像も変わります。VRコンテンツを体験している人の視界を、他の人が見られるツールでもあるのですね。
クラブのような薄暗く広い空間で、オーディエンス全員がコレをつけていたら楽しそう。
テレビ&プロジェクターで没入感を高める周辺視野映像合成

テレビに表示されている映像を認識して、画面の外の世界を感じさせる映像をリアルタイムで作り出していますよ。表示されている映像の色に合わせて背面が発光するテレビはありましたが、こちらは景観がそのまま続いているかのように見えます。
壁全体に映像空間が広がっているようにも感じられますし、没入感は高いですね。
子供といっしょにシムシティごっこができるクレヨンシティ

レゴブロックの色によって商業施設、公共施設、オフィス施設、緑地などが分かれていて、決められたボード内においたブロックから都市の状態を数値化しています。まるで、さわれるシムシティ。
ふむ。フィジカルに都市計画を楽しめるプロジェクトじゃないですかこれは。子供にも、何事もバランスが大事だってことを伝えられそうですし。
AI作曲家がデビューする日は近い?

既存の楽曲をAIに食べさせまくって学習させると、AIはどのような曲を作り出すのでしょうか。AメロBメロCメロの存在をAIが知り、どのようなコード進行やメロディラインがいいのかを決めていくというのは斬新。だって曲作りって正解がないじゃないですか。
デモをきかせてもらいましたが、アバンギャルドな展開を見せるもんで、一言では言い表すには難しい曲でした。しかし似たメロディラインを繰り返していたり、4小節目でマイナーからメジャーへと収束させていたり、勉強しているという片鱗を感じさせるものでしたね。将来的には、AIがどういう考えで曲の展開を決めたのか、可視化できるようになるみたいですよ。
AIだけの、新たな音楽理論が生まれそうな技術かもしれません。個人的にはメタルの曲ばかり食べさせたらどんな曲を作り出すのかが知りたい...。
音楽や音声関連の研究がけっこう多いんです。ピアニストの技術をグローブにインストールしたり...
そして疲れたのか寝ていたAIBO

事業化を前提とはしていない研究結果発表ゆえに、ふわっとしたところはありました。それでもソニーグループの方をはじめ、多くの方が来場して興味深そうにプレゼンを見ていたのが印象的。彼らの脳裏には、「この技術とアレをつなげて…」と、ビジネスにつなげる思考が加速していたんじゃないかなあ。
プレゼンに疲れたのか、AIBOはぐったりしていましたけどね。お疲れさま...。
Source: Sony CSL Open House 2018