Googleが検索にAIやARを使ったアプデを続々発表

  • 8,083

  • author Lauren Leffer - Gizmodo US
  • [原文]
  • 福田ミホ
  • Twitter
  • Facebook
  • LINE
  • はてな
  • クリップボードにコピー
  • ×
  • …
Googleが検索にAIやARを使ったアプデを続々発表
Image: Sundry Photography / Shutterstock

Google(グーグル)は今後数カ月で、検索結果にAIが生成するテキストを入れようとしています。2月8日、フランス・パリのイベントで、このほかにも検索や地図などなど、いろんなアップデートが発表されました。

Googleはほんの少し前に、OpenAIのChatGPTライクなAIチャットボットBard発表したばかりです。でもBardと違い、検索の中で生成されるAIの回答は「チャットボット」として切り出されるんじゃなく、検索の一部として見えるそうです。

以下、それがどんなものなのかとか、そのほかのいろんな発表をまとめていきます。

Googleは生成AIをどう使う?

230210_googleaiupdate2
GIF: Google

Google検索ではこれから答えが1つじゃないような質問(Googleはこれを「NORA(No One Right Answer)」なクエリと呼んでます)に対し、要点を複数文にまとめて回答するようになります。今までGoogle検索でちょっとした計算をしたり、言葉の意味を聞いたりすると、検索結果の一番上のボックスにその答えが表示されてましたよね。AIによる長文回答も、そのボックスに入って表示されるそうです。

GoogleのPrabhakar Raghavan氏は、事前収録のデモを使って、事例で説明してくれました。「星を眺めるとしたら、どの星座を見るのがベスト?」というクエリに対し、Googleの生成AIは微妙なニュアンスを含む箇条書きのリストを返してきました。星座としてはオリオン座やカシオペア座など、明るさや形などいろいろな理由で知られるものを挙げていました。

テキストでの回答の他に、検索結果にも追加の質問が提示されていて、これもAIによるものだと思われます。たとえば「この星座を見るのにベストな時期は1年の中でいつ?」といった質問です。さらにその質問に対する検索結果では、その前の回答を踏まえたっぽい情報を、新たな箇条書きリストで表示しました。2番目のクエリに対しては、星を見るのに最適な時期が書かれてただけじゃなく、オリオン座やカシオペア座などなど最初にリストに挙げた星座それぞれの説明もあったんです。

でもBardはどうなる?

230210_googleaiupdate3
ジェイムズ・ウェッブ宇宙望遠鏡について、Bardが誤情報出したところを広告にしちゃったGoogle
Image: Google

Googleは今回のイベントでは、Bardに関してあまり新情報を出しませんでした。でもBardがテストに入ったことは発表されてて、Googleの言語モデルLaMDAのライト版を使ってることはわかってます。

Googleは今年3月にテキスト生成APIをデベロッパー向けに提供開始し、それぞれ独自のツールや機能の開発を可能にすると言ってます。

Googleが今AIを前面に持ってきたのは明らかにChatGPT対抗策であり、ChatGPT開発元のOpenAIに素早く大規模投資を決めたMicrosoftを意識した動きでしょう。MicrosoftはChatGPT内蔵Bingのプレビューをもう開始してます。Bingでも、AIチャットボットを切り出した見せ方と、検索そのものに統合された見せ方の両方があります。

さしあたりMicrosoftの方が、生成AIを使った検索に対し強気のアプローチを採っているように見えます。Microsoftのブログにある例では、フィットネスに関するアドバイスをBingで聞くと、スタンダードな動画やリンクの検索結果と共に、AIが生成した数段階のエクササイズプランが見られます。Googleはより慎重なアプローチを採っているようで、生成AIが直接決定的な回答とかガイドを提示しない作りになっています。

「我々はAIの方針を重視し始めた最初の会社の1つです」とGoogleのRaghavan氏は言いました。彼いわく、Googleが公開する生成AIツール開発の哲学は、「大胆でありながら責任を持つ」ことなんですが、つまり「責任」を意識してるってことなんでしょうね。検索エンジンのトップの座を長く独占してきたGoogleは守るべきものが大きいのに対し、Microsoftは良くも悪くもチャレンジャーの立場なので、より自由度が高いのだと思われます。

とはいえ、GoogleはBardの広告の中でいきなりおいおい!となる誤情報出してるところを自ら晒してしまっていますけどね…。

他に発表したものは?

Google presents : Live from Paris

We're reimagining how people search for, explore and interact with information, ...

https://www.youtube.com/watch?v=yLWXJ22LUEc

生成AIを使った検索のほかに、Googleはビジュアル検索や地図、翻訳のいろんなアップデートを発表しました。以下はそのリストになります。

ビジュアル検索

230210_googleaiupdate4
GIF: Google

Googleはレンズとビジュアル検索ツールをアップグレードし、スマホ上で1クリックするだけで画像や動画の中のアイテムを検索できるようにしました。たとえばAndroidスマホ上で歴史的建造物の画像を表示すると、それをタップするだけで名前がわかる、みたいな感じです。

マルチ検索がモバイルに

230210_googleaiupdate5
GIF: Google

モバイルのマルチ検索では、iOSでもAndroidでも、検索結果に表示された画像の一部をタップして、選択された人や場所、モノに関するマルチ検索が可能になります。そこからさらに、色や形で絞り込むこともできます。

イマーシブビュー

230210_googleaiupdate6
GIF: Google

地図の新しい見え方、「イマーシブビュー」も登場しました。これはAIによる2D画像と3Dレンダリングを統合して、鳥瞰図からお店など建物の中へ、数クリックで移動できるってものです。天気予報もインタラクティブに確認でき、同じ場所で時間をスライドさせるだけです。

230210_googleaiupdate10
GIF: Google

新たな地図体験ができそうですが、さしあたりこの機能が使える地域は限られてて、ニューヨークとサンフランシスコ、ロサンゼルス、ロンドン、そして東京だけです。

地図のライブビュー

230210_googleaiupdate7
GIF: Google

空港みたいな巨大な屋内空間のために、地図の「ライブビュー」でのナビゲーションが拡張されました。このツールでは、スマホカメラで映す風景の中に、行き先を示す矢印がAR(拡張現実)で表示されます。

ライブビューが使えるのもまだ限られた場所だけですが、今後数カ月で1,000カ所に増やす予定だそうです。例えばバルセロナ、ベルリン、フランクフルト、ロンドン、マドリード、メルボルン、パリ、プラハ、シンガポール、シドニー、東京、サンパウロ、台北といった主要都市の空港や鉄道駅、ショッピングモールで使えるようになります。

ライブビューは、ユーザーの周りのお店や会社をビジュアルで発見するためにも使えます。ナビで目的地に到着して「この辺にあるはずなんだけど…」って周りをウロウロしちゃうことがよくありますけど、そんなときすごく役立ちそう。

電気自動車ドライバーにうれしいアプデ

230210_googleaiupdate8
Image: Google

ちょっと地味だけど、電気自動車ドライバー向けの地図も改善されました。充電ステーションのマッピングがより親切になり、高速充電できる場所が見つけやすくなったり、充電時間も考慮したうえでの効率良いルートを提案したりできます。

翻訳では文脈を考慮

230210_googleaiupdate9
Image: Google

Google翻訳では、ついに文脈を考慮できるようになります。たとえば「Novel」って単語には「小説」という名詞の意味と、「新しい」または「奇抜な」という形容詞の意味があります。そこでGoogle翻訳では、それぞれの定義と、どういった場面で使われるかを教えてくれるようになったんです。この機能が使えるのは、現時点ではドイツ語、フランス語、英語、スペイン語、そして日本語に限られています。

Google版ChatGPT「Bard」、一部限定ながら公開

GoogleのChatGPTへの答えは自社開発チャットボット「Bard」。2月6日のGoogle公式ブログで、Bardが「信頼できるテスター」に対し限定公開され...

https://www.gizmodo.jp/2023/02/bard-google-chatgpt-ai-microsoft-bing.html