今年は風薫るマウンテンビュー本社から野外LIVE!
火曜キックオフになったGoogle I/O 2021デベロッパーカンファレンス。去年はCOVID-19の影響でネット配信だったけど、やっとワクチン接種済みなら集まれるようになって、スンダー・ピチャイCEOも久々にマスクレスで笑顔で登壇です!
基調講演ではまずブラジル、祖国インドのコロナ禍に言及し、全力支援を誓いました。さらに日本の学校でChromebookが広まってることに言及したほか、随所に富士山や東京駅のデモもあって、かなり日本オシでしたよね。
フラグシップOSのAndroidは利用が世界30億台を突破して、スマホ、タブレ、スマウォからTVや冷蔵庫まで普及が広まっているのだといいます。山あいの村の児童がGoogle レンズの自動翻訳ARで英文の教科書を翻訳しながら勉強するシーンもあれば、肌の浅黒い人でもしっかりキレイに撮れる新機能もあって、あらゆる人に開かれたOSの道をゆっくりとだけど確実に進んでいる印象です。
発表のポイントを振り返ってみましょう。

会話ができる自然言語AIアシスタント「LaMDA(ラムダ)」
まず一番にぶったまげたのがLaMDAテクノロジーです。これはあらゆるバリエーションで自然な受け答えができるAIアシスタントの技術のこと。ふつうAIとやりとりするときには、聞き方があって、その定型どおりの語順で聞かないと正確な回答が返ってこなかったりしますよね。でもLaMDAは違うんです。あたかも人と話すように言いつけることができる。
しかも人じゃない何かになりすまして受け答えることまでできるんですね。たとえば冥王星になりすましてチャットしたり…

紙ヒコーキになりきってチャットもできます。

あらゆるパターンの回答から当意即妙な受け答えができるのはもちろんのこと、テキトーな語順でしゃべっても意味をくみ取って答えてくれるっていう超進化。
ほかにも「山の景色が美しいルート」を検索してくれたり。

「夕陽を背景にライオンが吠えるシーン」と言うと、動画中のそのシーンも検索できちゃうんですねーはいー。

まだ開発途中ですが、いずれはGoogle マップやYouTubeに組み込んでいく予定とのことです。まあ、GoogleのAIはかなりブロークンな英語でもちゃんと答えてくれるので、こりゃ単なるつくりもののデモじゃない気がしますよ~はい~。
LENSがさらに進化!検索アルゴリズム「MUM」

次におったまげたのが博識レベルが格段に上がった検索アルゴリズム「MUM(Multitask Unified Model)」です。「トランスフォーマーアーキテキチャがベースだが、従来の検索アルゴリズムBERTより1,000倍パワフル」なんだとか。1,000倍パワフルと言われてもなんのことやらですが、75以上の言語でトレーニング中で、動画や画像まで解析してむちゃくちゃディープな情報を引き出してくるものらしいです。
たとえば登山ブーツの写真をパシャっと撮って「富士山に履いていけるかな」と聞けば、それもわかったり。「今日は雨だから雨具の用意を忘れずに」と教えてくれたりもするし、「前に登ったアダムス山と富士山はどう違うの?」というややこしい質問にもバッチリ答えてくれるんですよお…。
言語に力を入れているのは日本語圏のユーザーにはうれしい限りですね。日本語で書かれた旅情報は世界的に見てもレベルが高いので(本当に役立つことが、くわしく正確に書かれている)、こっちの情報とあっちの情報をくっつけてベスト回答を出す博識検索アルゴリズムなら言語の壁も崩してくれるだろうし、海外に日本語コンテンツが開放される日も近いかも…!

歩きながらARナビ!屋内の順路案内も東京で来月ローンチ
The magic of Live View now works indoors, so there’s no more missing the train because you can’t find the ticket booth.
— Google Maps (@googlemaps) May 18, 2021
Start using indoor Live View in Zurich’s top train stations this week and Tokyo’s next month. #GoogleIOpic.twitter.com/fKS36WLGap
Googleは「ARナビを実装した唯一のカンパニー」で、世界100カ国以上で提供中。今年はAIの力で100以上の改善を加えていきます。
これまで経路検索でしか使えなかったAR Live Viewも外歩きで使えるようになります。スマホをかざしながら歩くと、カメラが捉えた外観をもとにお店の情報(混雑状況、営業時間、メニュー、レビューなど)やランドマークまでの距離がオーバーラップ表示されるようになりますよ~未来ですね~。
屋内ナビの新機能は東京で来月ローンチ。混雑状況がわかる「Area Busyness」機能も来月世界ローンチ。また、年内には横断歩道や街路灯などの詳細表示も新たに50の都市でスタートします。
スマウォのWear OSはアプリ起動が30%高速化
Wear OSはサムスンTizenとの統合と並んで、2019年に買収したFitbitについてもWear OS搭載モデルを準備中と発表されました。次期Wear OSは性能が向上し、バッテリーは丸1日もちます。ボタンを2回押すと前のアプリに戻れるなど、ナビまわりも改善。Wear OSのアップデートは秋になる見通しです。
カラフルなAndroid新UI「Material You」


アカウントでUIをカスタマイズすれば、全Googleプロダクトでシンクされる! 噂の新色パレット、ついに登場です。その名も「Material You」。端末ごとにちまちま調整する手間が省けますね。



壁紙写真からUIのテーマカラーを拾う「Color Extraction」
あと面白いと思ったのがこれ。Android 12発表者のSameer Samatさんが坊や2人の写真を壁紙に指定した途端、ぴったりなカラーパレットに一瞬で変わって会場から拍手拍手~でした。壁紙写真からアクセントカラーを拾って全UIをそれで揃えてくれる「Color Extraction」という新機能です。クロックもデカッ。今年らし~。

ちなみにGoogleアシスタントはiPhoneやGalaxy同様、電源ボタン長押しで起動となります。ビジュアルエフェクトも入るのにCPU処理にかかる時間は22%ダウン。こういう地味な変化もいいですね。
色黒な人もキレイに撮れる
肌が黒い人はカメラ嫌い。なぜなら集合写真で自分の顔だけ黒塗りになるから。これじゃいけない!ということで、秋から撮影後の処理がもっとインクルーシブになります。具体的には、肌の微妙な濃淡まできれいに出るフィルターができるみたい。これは楽しみ!
Googleフォトは似たものをまとめる機能が面白そう!
Google Photosの新機能3つでオヨヨンとなったのが、似た者同士を集める新機能「Little Patterns」です。日本語だと、「もしかしてこういうのが好み?」「やや被ってない?」ってな意味ですかね。
消したい過去も消せる
ありゃま…となったのは、二度と思い出したくもない顔や日付けを指定すれば、Memoriesからその写真がごっそり消せる機能です。できるべくしてできた機能と言えるでしょう。
これを待っていた! 皮膚診断アシストツール
個人的にこれ待ってたわーーー!となったのはやっぱりこれですね。Googleでは皮膚関係だけでも年間数十億件単位の検索があるのだとか。なかなか人には見せたくないですもん。例のAirPods Pro/ Powebeats Proの耳のかゆみもこういうのあったら一発でわかっていたのになー。
見つめ合って3Dリモート会議できるProject Starline

あたかも人がそこにいるかのようにガラス越しにリモート会議できる3Dカンファレンス技術 「Project Starline」 。これもすごかった…。会議中に①話者の3Dモデルをリアルタイムで生成して、②100分の1に圧縮して送信、③相手方の3Dディスプレイ(別途購入が必要)に3Dレンダリングして表示するというもので、この3つのうちひとつが欠けても実現できません。
何がすごいって、目を見つめ合って話せるところ。今はなかなかそれ、できませんからね。もう少しの辛抱ですよ、みなさん!
サスティナブルな取り組み
Googleは07年にカーボンニュートラルを達成した唯一のカンパニーでもあり、今年は地熱発電をネバダでやるぞ!ってなことでお開きになりました。いろいろてんこ盛りだったI/O。ゴージャスな天候にも恵まれてすごく開放感のある映像で楽しむことができました。今年も進化から目が離せませんねー。
Images: Google/YouTube