ARの未来がひらく、準備がはじまってます。
Appleが「この秋」と言う正式リリースに向けて、開発が進められているiPhoneとiPadの最新OS「iOS 12」。
パフォーマンスは複数のタスクが走っているときのアプリ起動が最大2倍早く、通知は一連のメッセージやトピックごとにスタックして表示してくれるようになるなど、見た目に派手なアップデートというよりは、中身の最適化が進められているOSだと言われています。
今回、リリースに先駆けて開発へのフィードバックを目的に提供されている「パブリックベータ」を試してみたところ、最適化はもちろん、リリースのそのあとが気になる点がいくつか見えてきました。で、それは気づいたらARのことばっかりでした。
ちなみに、パブリックベータに興味があればこの方法でiPhone 5sより新しいiOSデバイスにインストールできます。でも、ただの興味本位でインストールするのは大失敗することもあるので、やめといたほうがいいですよ。
ミー文字を「ミー」にしたい

パブリックベータをインストールして最初に試したのが「ミー文字」。iPhone XのTrueDepthカメラを使って画面上のキャラクターの表情を自分の表情でコントールできるのがアニ文字。それを、自分に似せたアバターでたのしむことができるのがiOS 12から使える「ミー文字」です。上手に作ってSlackやTwitterのアイコンに使いたいなーって、ライトにたのしむ気だったんですが、これがちょっと奇妙なおもしろさ。
当然、まず自分に似せたアバターをつくるところからはじめるんですが、用意された顔のパーツから自分の顔をつくるというのが、自分の心臓と脳をこちょこちょくすぐられているような不思議な感じ。
僕は毎朝、鏡で自分をゆっくり見るってことをしないので、自分の目がどんな目で、鼻はどんな感じなのかわからないし、実際の自分とは別に「こうありたい自分」っていうのも多くの人にはありますよね(っていうのも恥ずかしい…!)。この自意識とパーツを決定していく自分とのやりとりがミー文字をたのしむ最初の段階で訪れます。普段から自分をベースにしたゲームなんかを遊んでいるひとにとっては慣れたことかもしれないですけど、複雑な意味でハードです。

でもミー文字をつくるのはたのしいです。ギズモード編集部の豊田さんにミー文字づくりを試してもらったら、声をあげて笑いながら作ってましたから。
先が気になるのは、アバターの作成に使えるパーツが増えるのかどうか。WWDCのデモを見たときは結構な数のパーツがあるように見えたんですが、使ってみると少し物足りない感じがしました。とくに髪型。僕は自分に合う髪型が見つけられずにちょっともやもや……。見た目を大きく左右するところなので追加に期待です。
ARを引っ張るAR
iOS 12で僕がいちばん期待してるのはAR(Augumented Reality, 拡張現実感)プラットフォームとしてのiOS 12です。iOS 12はARを扱うためのあたらしいフレームワーク「ARKit 2」に対応して、これまでひとつのディスプレイにとどまっていたARを共有するARに変えます。
WWDCの会場で体験したSling Shotを使った対戦ゲームがわかりやすいんですが、パブリックベータで試せるあたらしいARは、ARオブジェクトをひとつのファイル(USDZファイル)として扱って共有する体験です。

Appleのページで公開されているUSDZファイルをiOS 12のデバイス上でタップすると、そのオブジェクトを360度ぐるぐる見回すことができます。

そこからさらに「AR」のタブを選択するとカメラが立ち上がって、目の前の現実空間に、マグカップやエレキギターをあたかもそこに置いてあるかのように見ることができます。より現実感を演出するために、光のあたり具合で周囲の状況がそのオブジェクトの表面に映り込むシェーディングはただただARの進化を感じるばかり。
とはいえ、ARのオブジェクトはまだまだ少ないですし、十分にコンテンツが出揃ってくるのも、iOS 12がリリースされてからになってきます。ARはこの先、「来る」というより「来なければならない」空気もあるなか、Appleが最大のARプラットフォームとしてのiOS 12をどう活かすのか。そしてWWDCで発表されたAdobeのARコンテンツをつくるためのアプリケーション「Project Aero」にも期待大です。
iOS 12のリリースは、例年のながれに沿うのであれば、9月。あと一月と少しです。アップデートへの備えをして正式リリースをもう少し待ちましょう。
Source: Apple