人間ほど賢くないから、お茶目な間違いもする。AIについて科学者にインタビューしてみた

  • 6,409

  • author Ryan F. Mandelbaum - GIZMODO US
  • [原文]
  • Rina Fukazu
人間ほど賢くないから、お茶目な間違いもする。AIについて科学者にインタビューしてみた
『You Look Like a Thing And I Love You』の表紙から

人間だったら、天然ボケを疑う...。

便利で、ときに脅威的な存在にも感じるAIについて、科学者でAI Weirdness運営者、米GizmodoのAIアストロロジャーであるJanelle Shaneにインタビューしてみました。新著『You Look Like a Thing And I Love You』リリースにあわせて、彼女が夢中になるAIの世界について聞いてみたところ、コンピュータの型破りな一面が見えてきました。

※インタビュー内容は、読みやすく編集しています。

AIの意外性に興味を持ったのがきっかけ

Gizmodo:AIに興味を持ったきっかけは?

Janelle Shane(以下Shane):高校卒業後、大学で何をやるか模索していたとき、進化論的アルゴリズムに関する研究の講演を聴く機会があったんです。それがとても魅力的で、アルゴリズムは予想外の方法で問題解決すること、技術的に正確ではあるけど、科学者が思いつかないようなソリューションにたどり着くこともあるといった内容が印象的でした。

たとえば、カメラや顕微鏡のレンズシステムを設計するのにアルゴリズムを使用したところ、デザインは優れていたのにレンズの厚みが15mだった...という話を聞いたら、もう興味を持たずにはいられませんでした。

その後、AIが生成した料理のレシピを目にすることがあったのですが、それも本当におもしろくて。テキスト生成ニューラルネットワークに膨大な量の料理本を与えたら、レシピを真似ようとがんばったのはわかるのですが、料理や食材のことをまったく理解していないことが明らかでした。バーボンの細切りというものがあったり、そもそもオーブンに入ってないはずのパイをオーブンから取り出すように書いてあったり...。そういうのを見ているうちにまた好奇心が高まって、AIのテキスト生成の実験をしてみたくなったんです。

Gizmodo:AIについて、簡単に説明していただけますか?

Shane:AIは、あらゆるものをひとまとめにするのに使われる用語のひとつです。SFの世界や、現実の機械学習を使用した製品でも用いられています。わたしがよく使う定義は、ソフトウェア開発者がよく使うものですが、機械学習アルゴリズムと呼ばれる特定の種類のプログラムのことを指します。プログラマーによってコンピュータが従う段階的な指示が書かれるようなルールベースだった従来のアルゴリズムとは異なり、機械学習はゴールを与えたらあとは問題とエラーによって問題解決に取り組ませるというものです。その背後にはニューラルネットワークや動的アルゴリズムなどさまざまなテクノロジーが働いています。

従来のものと機械学習アルゴリズムには大きな違いがあります。そのひとつは、機械学習が問題を解決するとその理由が説明しづらいという特徴があります。プログラマーによって、コンピュータが問題を誤解せずに実行したかなど、さかのぼって確認するには膨大な作業が必要となります。

このことは、人間とAIによる問題解決の大きな違いでもあります。人間には知性があって、問題を提示されると何が求められているか理解したり、明確な質問をしたりすることができます。 一方AIは、求められているものを汲み取るほど賢くないので、結果として完全に間違った問題を解決する可能性もあるのです。

たとえば著書のなかで、画像で皮膚がんを認識するよう機械学習アルゴリズムを学習させるスタンフォード大学の研究例を紹介しています。アルゴリズムが何をしていたのか、画像のどの部分を見ているのかを振り返ると、トレーニングデータでは多くの写真に定規が写っていたため、腫瘍ではなく定規を探していたことがわかりました。

人間ほど賢くないから予想外の答えを出すことも

Gizmodo:非常に技術的なトピックですが、読者向けに執筆している間に何か考えていたことはありますか?

Shane:新しい論文や製品も続々と出てきますし、変化の激しい世界なので、AIのどの部分をどう書くかについて決めるのは少し難しい作業でした。執筆を始めたのは2017年だったこともあり、この本が出版される頃、それから5年後、10年後も真実になることを書こうと考えていました。

そこで、何が真実で、AI研究の初期の時代から起きていることは何かに着目しました。たとえば、機械学習アルゴリズムが歩行の代替ソリューションとして考えられる傾向があることがわかりました。やり方を見ていると、高い塔のように自分自身を組み立てて倒れることが多いようです。たしかに人間でなければ、歩くよりもずっと簡単な方法ですよね。 こうしたアルゴリズムの例は、1990年代から最近まであります。

ほかにも、1990年代のプログラマーでおもしろい例があります。マルバツゲームでほかのプログラムを倒すという目的があったのですが、ボードは無限の大きさに広がるという特殊ルールがあって、対戦相手とはリモートでプレイし、すべてのゲームで順調に勝っているのがわかりました。ところが、プログラマーがその戦術を見てみると、相手が最初にどんな手を打っても、ボードの最も遠くにある大きな座標を選択することで、対戦相手がもっと大きなボードを構築しようとしてメモリを使い果たし、クラッシュさせていたことがわかったんです

また別の例では、AIはソートエラーを排除するように指示されていたのですが、リストごと完全に削除することでエラーを排除するというやり方をとっているものもありました。

Gizmodo:そういう場合、どう軌道修正させることができるのでしょうか?

Shane:私たちが望んだ通りにAIアルゴリズムが最適化されないケースは、たまに起きます。たとえば、YouTubeは視聴時間を最大化するという目標設定に対して、アルゴリズムが望んでいたのとは異なる方法を選択するので苦戦しています。

AIの苦手なことは「文脈を読み取ること」

Share: また違うところでは、知らないはずのことを知ろうとするAIもあります。人間の人種的偏見にとらわれないアルゴリズムを構築しようと、トレーニングデータ内の人種や性別に関する情報を削除して提供しても、郵便番号や大学といった情報からそれらの特徴を模倣する方法を見つけるといったことも起きます。

企業が「人種に関する情報をアルゴリズムに与えていない」と表明しても、おそらくアルゴリズムは彼らの気づかないうちに何らかのショートカットを見つけようとすることもあるんです。AIは人間ほど賢くないので、文脈を読み取ることを苦手としています。

画像をタグ付けしたり、どの音楽をおすすめしたりするかだけでなく、誰がローンを受け取り、誰が仮釈放となるかといったものまで、わたしたちの運命を分けるような意思決定をするAIはまだあります。

一方、わたしたち自身がAIについて決定を下すこともできます。地域に顔認証を導入させるかどうか取り締まること、ソーシャルメディアのプロフィールを基にベビーシッターを選別する新サービスを消費者として利用するかしないかを選ぶこともできます。

Gizmodo:じゃあ"良い"もの...あるいは、悪くないアプリケーションはあるのでしょうか?

Shane:個人的に、画像のタグ付けはとても便利だと思います。初歩的なものでも、猫やリビングの写真などいろいろ見つけることができます。優れたアプリケーションの多くは生活に重要なものではありませんが、便利だといえます。スパムのフィルタリングなどもそのひとつですね。Merlin Bird IDiNaturalistも優れたアプリケーションだと思います。

未来のAIには「人」が必要不可欠

Gizmodo: 未来のAIはどうなっているでしょうか?

Shane:ますます洗練されたツールになりますが、それを使用し編集する人が必要です。たとえば、言語翻訳の世界でプロの翻訳者は、まずニューラルネットワークに翻訳をさせ、それを下書きとして使用することになるでしょう。機械だけでは完璧なものを提供できませんが、翻訳者にとっては大幅な時間の節約が可能になります。

あるいは、集めた研究から情報をまとめて機械に記事を作成させて、それを最終的に人間の編集者がチェックすればいいだけになる...といったケースも考えられます。アートや音楽を含め、今後こうしたAIの適用のケースをもっと目にするようになるでしょう。

彼女の著書『You Look Like a Thing And I Love You』は、現在Amazonで販売中です。

    あわせて読みたい

    powered by