日本語にも活かしてほしい
毎日お世話になっているGoogle(グーグル)検索ですが、質問の仕方によっておかしな回答を返すことも。しかし、新たにGoogle検索のアルゴリズムでは「(自然言語による)予想外の質問の理解力」が改善されています。
人間による質問の問題点は、自分の探している情報をどのようにして綴るのかを常に知っているわけではなく、またコンピューターにとって意味がある表現でない場合があることです。これにより、検索エンジンが無意味な回答を返すことがあります。だから、私達はキーワードを一緒に(そしてバラバラに)タイプするんですよね。
Googleはこれを解決するために、オープンソースのニューラルネットワーク(AI技術の一種)を使い、自然言語処理能力を向上させていたます。これはBidirectional Encoder Representations from Transformers(BERT)と呼ばれる技術で、これまでのようにキーワードだけに頼るのではなく、文章のコンテキスト(文脈)を考慮できるようになったのです。これまでは特に、「for」や「to」といった前置詞が検索結果を誤らせることがあったそう。
たとえば「2019年の時点では、ブラジルからアメリカへの旅行者はビザが必要です」という検索結果では、BERTを適用する前は「ブラジルを旅行するアメリカ市民」に関す情報が表示されていました。

Google アシスタントは大きな進展を遂げており、他の2つのアシスタント(AlexaやSiri)にくらべて最適な回答を返します。もちろん完璧ではないのですが、私が所有する3つのアシスタントの対応機器のなかで、Nest Hubと話すときは言葉を厳密に考える必要がありません。
Googleによると、BERTを利用することで、アメリカで英語を使った場合に10個に1個の割合で回答が改善されたそう。また、将来的には多言語でも利用できるようになることでしょう。Googleによると、英語版からの改良が韓国語やヒンディー語、ポルトガル語でも大きな改善につながっているそうです。