Gizmodo Gallery : マーティン・フレイInterview「現実世界を拡張する方法」

Gizmodo Gallery : マーティン・フレイInterview「現実世界を拡張する方法」 1

 

昨今コンスーマーエレクトロニクスやポータブルデバイスが目覚しく進化しています。

従来アーティストといえば社会問題や人々の関心をアートのテーマとしてとりあげていましたが、最近のメディアアーティストやインタラクティブプロダクトデザイナーは、自分自身の興味や意図を具現化する傾向にあります。

ドイツ人アーティスト兼デザイナーであるマーティン・フレイ氏はその中の一人で、GPSによる位置情報と時刻、そしてスケジュール管理を融合した"Just in Time Watch"や、サーボモーターをハイキングシューズに内蔵して歩行者ナビゲーションを行う"CabBoots"など画期的な作品を発表しています。

今回Gizmodoでは、フレイ氏を取材し、インタラクティブプロダクトの将来やネットワークなどの技術を融合したプロダクトに対するユーザーの評判などについて話を聞きました。

画像&映像とインタビューは、「続きを読む」(↓)から。

 

名前 : マーティン・フレイ

年齢 : 28

学歴 : Diploma Designer - University of Applied Sciences Wuerzburg-Schweinfurt, "Absolvent" of the University of the Arts Berlin - passed with distinction

所属 : Independent designer

展示(一部) :  "REALITY CHECK @ c-Base / Partner Event Transmediale '06" (Berlin, 2006), "Designmai '06 / Designtransfer Galerie" (Berlin, 2006), "Ars Electronica Festival '06" (Linz, Austria, 2006), "EUROPRIX Top Talent Festival '06" (Vienna, Austria, 2006), "TEI '07 - First International Conference on Tangible and Embedded Interaction" (Baton Rouge, USA, 2007)

URL : http://www.freymartin.de

 

"Just in Time Watch" - video (Frey, 2005)

 

GIZMODO(以下、GM) : まず"Just in Time Watch"ですが、これは約束の時間、場所を入力しておくと自動的にルートと所要時間を計算、逆算をしてユーザーに知らせてくれる腕時計です。腕時計本体にGPSを内蔵し位置情報を取得、Bluetoothで携帯電話と通信し、交通情報や時刻表などの情報をインターネット経由で得ます。時計のディスプレイには残り時間を常に表示し、基準経過時間と比較して進んでいるか遅れているかを判断し、ユーザーには「急ぐ」べきか「ゆっくり」行くべきかを知らせます。その結果、目的の場所に「ピッタリ到着」することが出来る、とても便利な腕時計です。どうしてあなたはただ「時間を表示する」という機能しかなかった腕時計にこのような「約束の時間に間に合うように着く」という付加価値をつけようと考えたのでしょうか?

マーティン・フレイ(以下、MF) : 去年までベルリン芸術大学(UdK Berlin)に在学していましたが、"Just in Time Watch"(JITWatch)は "ここ/そこ - ネットワーク化された日常作品"というテーマの授業の課題で思いつきました。授業の課題が「日頃持ち歩くものをネットワーク化したらどうなるか?」というものだったのです。色々なものを考えたのですが、腕時計を思いつくまでには時間がかかりました。というのも私はこの数年間、腕時計をしていなかったからです。時間を知りたい場合は常に持ち歩いている携帯電話を見ればいいからです。携帯電話が腕時計の完全な代わりになるとは思いません。というのも携帯電話はいちいち取り出して見なければいけなく、ハンドフリーじゃないですからね。しかしただ時間を知るという用途には十分ですし、腕時計にはそれしか求めてなかったから着用しなくなったわけです。

GM : 「時刻」はそれだけでは価値をもちません。時刻を見る動機が必ずあります。時刻を見たときにどんなことを考えますか?

MF : 今何時? 次の約束は何時だっけ? 約束の場所はどこで、そこまではどれくらい時間がかかるのだろう? じゃあいつ出ればいいんだ? それまであと何分あるんだろう? 今出なきゃいけない?それとももう遅れている?

よくこのような考えと計算をしがちですが、これは面倒くさいだけでなく間違いなく不正確です。例えば所要時間を適当に見積もったり、事故や交通渋滞など予測できない外部要因に影響されたりします。実際自分が知りたい重要な情報とは今オンスケで動いているかどうかです。しかしこれは、目的地の位置と約束の時間、自分の正確な位置、利用する経路、公共交通機関の時刻表、交通渋滞などによります。こういった情報サービスはすでに存在してます。多くのWebアプリケーションでこれらの機能を提供しています、例えばカレンダーアプリケーション、経路案内サービス、ナビゲーションシステムなど。ところがこれをすべて網羅したサービスというものは無く、実用的でありません。さらに移動中など特定の状況ではWebアプリケーションにアクセスできないことがあります。"JITWatch"はこのような情報を一括管理するネットワーク腕時計で、必要な情報だけを見やすく表示します。ユーザーは腕時計をするだけでいいのです。"JITWatch"とは、毎日の生活、少なくとも毎日のスケジュール管理をちょっと快適にしてくれる便利なものだと私は思っています。誰でも簡単に使えるという点で、"JITWatch"のコンセプトは「ユーザーを中心としたデザイン手法」を使った結果の良い例でしょうね。

 

Gizmodo Gallery : マーティン・フレイInterview「現実世界を拡張する方法」 2

"Cab Boots" (Frey, 2006)

 

GM :  "CabBoots"はGPSとサーボモーターを通常のハイキングブーツに埋め込んだ歩行者ナビゲーションシステムで、靴を履いた人を自動的に目的地まで連れて行ってくれます。どうして靴をインターフェースに選び、そこにナビゲーションシステムを内蔵させたのでしょうか? プロトタイプを一般公開した時のユーザーの評判はいかがだったでしょうか? どんなフィードバックがありましたでしょうか? 今後どのような開発予定でしょうか?

MF : "CabBoots"もまた「ユーザーを中心としたデザイン手法」を使った好例です。従来のナビゲーションデバイスは通常ユーザーと音声または映像でのみ情報をやりとりしていました。歩行者ナビゲーションを考えたとき、映像と音声による案内は色々と不都合があります。そこで"CabBoots"で歩行者ナビゲーションの新しいインターフェースのコンセプトを提案をしてみました。まず感触による情報伝達手法です。歩くわけですから、そこで直接的に作用する場所といえば足しかありません。これは誰にでも理解できることでしょう。そしてこれは野山の獣道をたどるときの感覚によく似ています。車両用ナビゲーションシステムはここ数年で爆発的に普及しました。基本的に液晶ディスプレイとスピーカーを装備し、ディスプレイには地図表示、ルートをアンダーライン表示して交差点拡大や次の交差点でどちらに曲がればいいかを教えてくれます。さらにスピーカーからは音声案内が流れるようになっています。液晶ディスプレイはダッシュボードに内蔵され、往々にして運転者側にオフセットして取り付けられています。

一方歩行者用ナビゲーションデバイスは専用で開発されたものはありません。通常車載用と同じハードウェア構造とナビゲーション方法を採っています。それもそのはずで、ユニットは完全に共用で、ソフトウェア内部で車用と歩行者用を切り替えているだけですから。しかしこの方法は実際には非常に不都合です。歩行者は歩きながら常にディスプレイを見ていなければならず、見てなかったらどこを曲がって良いのかわかりません。音声案内をしようにもヘッドフォンをして歩いていると周囲の音が聞こえなくて危険です。逆にスピーカーで流すと周囲の騒音に負けて聞こえません。こういった理由で"CabBoots"ではタンジブル(触感)インターフェースを使うことにしました。

身体の中で触感でインターフェースするのに適した場所を探したら、足に行き着きました。当たり前ですが、足は歩行をする直接的な部分だからです。しかし問題はどのようにユーザーにどちらへ進めばいいのかを感触で知らせる方法でした。これは野山の獣道を歩く場合を思い浮かべてようやくその方法を見つけることができました。野山の獣道は細く、よく踏み固められて窪んでいます。中央を歩くと両足は比較的平面状の部分に来ます。しかし道がカーブしているところをそのまま行くと片足が端の斜めの部分にかかってしまい、足首が内側に曲がります。身体はその傾きを自然に吸収し、自律的に道の中心に戻るように補正をします。これによって曲がっている道でも自動的に道に沿って歩くことができます。この方法を使えば例え獣道が見えなくても、歩くことが出来ます。

 

"CabBoots" - Video (Frey, 2006)

 

この「獣道を歩く法則」を利用し、仮想的に靴底で獣道を作り出すことにしました。CabBootsのソール部分の電気回路とサーボモーターで人工的に獣道の外側の斜め部分を靴に作り出し、足首を傾けます。足は傾きが地面によるものか靴が傾いているか区別できませんが、いずれにしても道の端に来ていると感じて自然に道にそって曲がります。これによって現実世界の拡張として仮想的に獣道を作り出すことに成功しました。

見えない獣道を歩ける法則を証明するには、実際にプロトタイプを製作して試験するのが一番手っ取り早い方法でした。プロトタイプはセンサーやサーボモーター、電子回路が内蔵された靴と、制御ソフトが動作するPCから構成されています。靴とPCはワイアレス通信します。靴のサーボモーターは木製のフラップに接続されていて、必要になればソールに角度をつけます。複数のセンサー、光センサー、加速度センサー、距離センサーは靴、つまり足の実際の状態を常に把握します。PC側のソフトウェアでは獣道のルート設定を行ったり、靴の空間的な状態をモニターするコントロールパネルと靴のアクチュエータ制御を行います。このプロトタイプを使い、一般客を対象にユーザーテストをアルス・エレクトロニカ(訳注:オーストリアのリンツで開催される芸術・先端技術・文化の祭典:Wikipediaより)で行いました。このテストの目的は予めセットしたルートどおりに靴を履いたユーザーが誘導されるかどうかを確認することでした。コンセプトと動作原理を短く紹介をした後、ほとんどの人は何歩か歩けばすぐにすべてを理解してその後は自然に歩くことができました。もちろん数名はわざわざ聞きにきましたが(笑)。

今回のプロジェクトのコンセプトは、いかに自然にヒューマンマシンインターフェースをデザインすることができるか、でした。入力手段として、ルート設定はPCで簡単に行うことができます。一方出力手段として、人間を設定したどおりのルートを歩かせることは簡単ではありません。しかし結果的に人がすでに経験している足裏による地面との対話を模すことで現実的な方法に落ち着きました。今後の開発の予定ですが、靴に内蔵するメカをもっと薄く、小さくして普通の靴と見た目、重さ、大きさで見分けがつかないようにしたいと思っています。なぜかというと何人かのユーザーでは靴を壊しやしなかと冷や冷や歩いていたものですから(笑)。これはサーボモーターの代わりに空気圧式のアクチュエータにすることで解決可能でしょう。さらにGalileoのような正確なトラッキングシステムや地図データと将来連携することでさらなるバージョンアップを図っていきます。

 

Gizmodo Gallery : マーティン・フレイInterview「現実世界を拡張する方法」 3

"SnOil" (Frey, 2006)

 

GM : "SnOil"(Snake + Oilの省略形)は磁性流体であるFerrofluidを使った触感的ディスプレイで、電磁石を格子状に配置することで144の突起それぞれ独立して制御、内蔵されたモーションセンサーで有名なクラッシックゲーム「スネーク」をディスプレイを傾けてプレイすることができます。なぜこの磁性流体をディスプレイに使ったのでしょうか? そしてどうしてスネークゲームなのでしょう?

MF : 実は"SnOil"製作の目的は余りありません(笑)。ですから最近の私のプロジェクト、"CabBoots"や"JITWatch"と違って何かを解決したいとか、そういうデザインプロセスがあったわけではないのです。誤解があるようですが、そもそもこれは触感的ディスプレイではありません。Ferrofluid(磁性流体)は液体で、磁界でちょっ出っ張っているだけです。さらに言うとFerrofluidはオイルと真っ黒なインクで出来ているので、もし触ったら何日も色が落ちないですよ(笑)。実をいうと"SnOil"を製作した動機はといえば、ただFerrofluidと呼ばれるこの妙な液体が磁石にすいつくのが面白かったので使いたくなっただけなんです。特にその黒光りした見た目と磁力で形を作れるという特性に惹かれました。

 

"SnOil" - video (Frey, 2006)

 

"SnOil"は2つのパートから成り立っています。まずディスプレイ部分で、電磁石を使い、電流を流したり、切ったりすることで表示を変化させることができます。25cm×25cmの容器を用意し、そこにFerrofluidを満たしました。容器の底に12×12、合計144個の電磁石を格子状に隣接して配置しました。磁石は4つ構造的に同じものをひとつのブロックとし、36個のブロックから成り立っています。各々の磁石を操作する電子回路はプリント基板を作り、各磁石層の真下に配置しています。この設計は将来拡張することを見越したもので、大きく作ることができます。ディスプレイ部分には電磁石により144の突起を独立して作り出すことができます。電磁石はONとOFF、つまり0と1しか状態がありませんが、電流をパルス状に流すことで中間状態を作ることができ、アナログ的に高さを調整することができます。磁性液体は最大数ミリメーターの高さにしかなりません。しかしFerrofluidのベースは黒いオイルで出来ていて、表面は漆黒で非常に強い光沢を持ちます。これで環境光を反射しますし、突起が変化するとその変化が際立って実際の高さ以上に目立ちます。突起の発生と消滅は神秘的で、とても美的な印象を与えます。これでFerrofluidディスプレイに画像や文字をドット単位で制御して表示することができるようになりました。次にFerrofluidディスプレイのアプリケーションとしてクラシックゲームのスネークを使ったのにはいくつか違う理由があります。スネークゲームではエサのドットがありますが、スネークに食べられるとエサがまるで飲み込まれるようにスネークの体に変化します。そしてスネークの尻尾の長さは実際の液体が集結して膨らみながら一緒に成長するのでよりリアルに見えます。普通のスネークゲームはジョイスティックかキーボードで操作しますが、この"SnOil"ではもっと直接的な入力方法、傾きを利用した入力方法を使っています。プレイヤーはFerrofluid容器を直接つかみ、スネークを操作したい方向に少しだけ傾けてコントロールします。傾きセンサーとコントロールプログラムで傾き具合を計測して行うのです。私はこの手の入力方法が大好きなのですが、これで飛行機を操作するようにスネークを動かしたい方向に直接操作できます。スネークは重力に従って行ってくれますので操作は直接的で、まるでスネークが生きているようにも感じられるのではないでしょうか。

 

Gizmodo Gallery : マーティン・フレイInterview「現実世界を拡張する方法」 4

"First Contact" (Frey, 2006)

 

GM : "First Contact"はあなたが始めてソニーのAIBOと触れ合ったとき、感情的なものをAIBOに感じた経験にインスパイアされたものと聞きました。AIBOと違って"First Contact"はつるつるで真っ白、まんまるで、最初ユーザーの出現に「驚いて」、できる限り遠ざかろうとゴロゴロと転がって逃げる反応をします。時間がたつとだんだんと慣れてきて、ユーザーの手招きに応じてちょっとづつ近づいていきます。どうしてこのような人間的っぽい感情や直感的に感じた何かを白い球に加えたのでしょうか? この白い球と観衆の間でどのようなやりとりがありましたか? そしてそれは想定どおりでしたか?

MF : 過去に動物っぽいものからヒューマイドタイプまでロボットの開発が行われてきました。AIBOのようなロボットから、最近ではASMIOでは違った視点から生命の源をシミュレーションすることを試みています。外観、運動性能、特徴、場合によっては振る舞いまで。しかし大人は間違いなくロボットが電子部品とメカから成り立っている機械だということを知っています。一方で多くの人はいくつかの仕草の中にあたかも「感情」が入っているように感じています。私もAIBOに感情を感じて(笑)、それをキッカケとして"First Contact"を開発しました。ポイントはユーザーとAIBOの間のインタラクションによって"命のきらめき"が生み出される点です。犬が単に移動して勝手に動いているとしたら「感情」があるとは意識しないでしょう。もちろんAIBOは多くの動物っぽいジェスチャーや動きのパターンをシミュレートしています。ですからそこで感じた「感情」は仕草、振る舞いによって作り出されているのかも知れません。そこで物事を簡素化してロボットや物体が「生きている」よう感じるポイントはどこかということに着目するために、ユーザーとのやりとりに集中させたいと考えました。この仮定を証明するためにこのプロジェクトは以下に留意しました。

「モノ」とのインタラクションは単純に位置と動きの変化のみとする(ユーザーとモノの両方とも)。外観や暗示的な形状の影響を排除するために、物体はできる限りシンプルな外見とすること。白いボールはこの要件をとても良く満たしています。球体は完全に対称的です。これには前も後ろも上も下も何もありません。

結果としてこの球体とのインタラクションに対するユーザーの反応はAIBOへの反応と同じようなものでした。絶えず「カワイイー」といった声があがったり、球体をなでなでしたり、かわいがったりしていました。

 

Gizmodo Gallery : マーティン・フレイInterview「現実世界を拡張する方法」 5

"Herman - the Unprepossessed" (Frey, 2005)

 

GM : "Herman - The Unprepossessed(ハーマン - 魅力的でないもの)"は椅子と椅子のフレームに接続された2つのスピーカーから成っています。誰かが座ると左右のスピーカーから音が流れますが、"死刑"か"遺伝子操作"に対するそれぞれ反対の視点からの意見を左右で違う声で聞かせます。どうしてこのプロジェクトのインターフェースとして椅子をえらんだのでしょうか? 反対意見を流すことで何を見せようとしたのでしょうか、そしてそれは成功していますか?

MF : "Herman - The Unprepossessed"はUdk Berlin大学の授業の宿題の成果です。1週間後の締め切りというとても時間的に厳しいプロジェクトで、宿題のテーマは「ハーマンチェアにインタラクティブな拡張をすること」でした。ですから「どうして椅子をインターフェースとして選んだの?」とのご質問ですが、いいかえるとすると「スピーカーをなぜ椅子につけたの?」という方が正確でしょう(笑)。紹介いただいたように、各サイドの2つのスピーカーは座った人に2つの対立する視点からの違った意見を聞かせます。椅子にまっすぐに座ることで、右と左の両方の音を聞くことができます。音量は控えめですが聞き取れる位で、どちらの話も追うことができます(スピーチはゆっくりで文章は短く、シンプルです)。頭をどちらかのスピーカーに近づければ一方の話だけを聞くことができそうですが、近づけた方の音量は自動的に下がり聞き取れなくなり、離れた方のスピーカーは注目してもらうために少しだけ音量が上がります。逆に頭を近づければ逆になります。そのため両方の声、両方の意見を聞くことしかできません。体をどちらか一方に近づけて声をもっとよく聞こうとすることは、結果としてよく聞こえなくなるという不自然で奇妙な体験となります。このように両方の声、意見を公平に聞くという体験は「正義の女神の天秤」を思い出させるものです(訳注:正義の女神・テミスは目隠しをし、右手に剣を、左手に天秤を持ち、剣は法の厳しさや司法の権威・権力を、天秤は法の公正・公平を、目隠しは先入観や予断を持たないで裁く、法の理想を表現する人格的象徴として描かれている)。

GM : 今までどうもありがとうございました。最後になりますが、現在手がけているプロジェクトと今後の予定についてお聞かせ下さい。今までのプロジェクトの延長になりますか、それとも全く違うタイプでしょうか?

MF : 去年大学卒業した後は"CabBoots"の次のプロトタイプなどいくつかのプロジェクトを手がけていました。また"CabBoots"などをいくつかの別のイベントに持っていって展示する予定です。今週末は例えば Baton Rouge, Louisianaで、"Tangible and Embedded Interaction" (触覚的、埋め込みインタラクション)に出席します。今後のプロジェクトは特に決めていませんが、私の元々の興味分野であるヒューマン・コンピュータインタラクション分野での活動になりそうです。

(インタビュー・記事/ジョナ ブルッカー・コーエン Jonah brucker-Cohen

(訳/野間 恒毅)