#WWDC23 でAppleが意地でも口にしなかった「あの言葉」

  • 24,361

  • author satomi
  • X
  • Facebook
  • LINE
  • はてな
  • クリップボードにコピー
  • ×
  • …
#WWDC23 でAppleが意地でも口にしなかった「あの言葉」
ニアミスはあったけど… Image: Apple

WWDC基調講演。2時間たっぷりの発表ステージで、ただの一度も口にされなかった旬ワードがあります。

3月のBuild基調講演ではMicrosoftのサティア・ナデラCEOが100回ぐらい叫んで、5月のI/O基調講演ではGoogleのサンダー・ピチャイCEOがその倍ぐらい叫び、先週のComputex2023基調講演ではNvidiaのジェンスン・フアンCEOが2時間たっぷり1000回ぐらい叫んでいた言葉なのですが、Appleの年1度の開発者カンファレンスではついに一度も口にされることはありませんでした。

さて、なんでしょう? (こたえは12行下に)













こたえ

AI

ギズモードを隅々まで読んでるみなさまはピンときたかもですが、出番のなかった旬ワードは「AI」です。AIのことはすべて「Machine Learning(ML、機械学習)」という言葉に置き換えて説明していました。その数7回。ChatGPTやDALL-EのベースになっているGoogleのTransformerのことも「言語モデル」と紹介する徹底ぶりで、これにはライブブログの報道陣も途中で気づいてざわめいたほど。

報道陣が途中で数えるのやめてしまったGoogle I/Oとは好対照をなしました(根性で数えたCNETによると合計140回だった)。

音声アシスタントCortanaをさっさと見限ってAIアシスタント「CoPilot」に乗り換えたMicrosoftとも好対照で、WWDC23では「Hey Siri」が「Siri」と呼ぶだけでよくなるという重大発表のみにとどまりました。ナデラCEOに「石みたいにアホ」と呼ばれる音声アシスタントに未来はあるのでしょうか。

でもAIを活用した機能はいっぱい

AIの開発をAppleがまったくしていないわけではありません。AI関連会社はここ数年で50社ぐらい買収していますし、現にWWDC23でもAI活用の機能はいろいろ紹介されていました。

Vision Pro装着時に動画チャットで表示する3Dアバターを顔スキャンでつくる機能とか、日記アプリJournalのネタをサジェストする機能周辺環境と設定に応じて音量を上げ下げするAirPodsの機能必要なときに必要な情報を見やすく表示するwatchOSのスマートスタック、ライブフォトにフレームを補正してiPadをアンロックするとアニメーションが立ち上がる機能など。どれもAIならぬ「機械学習」で動かしている機能です。

Transformerの応用で実現したのは、空白キーを押すと単語や文章の入力候補が表示されるiOS 17の新機能。これもAppleシリコンの機械学習に特化したNeural Engineがあるので端末上で処理できます。でもAppleは「AI」という言葉を使わない選択をしたことになります。

「AIじゃない、機械学習だ!」と主張する専門家に配慮したサビーな用語選択ではありますが、AI爆発元年の開発者会議でAIに言及しないことが吉と出るか凶と出るか…。特に先週、NVidiaフアンCEOが4年ぶりのLIVEオンステージで2時間ぶっ通しで3倍速ぐらいの勢いで「AI」を連発しているのを見た後ですから物足りなさは否めません(あちらはあまりの記憶力とスピードに「人間AI」だと思ったほど)。

人材募集ページでは「AI」で600件以上もヒットするApple。戦いはまだこれからだと思いたいですね。