「自分が作ったAIアルゴリズムに排除されるかもしれない」。ある宇宙物理学者の闘い

  • 10,680

  • author Ryan F. Mandelbaum - Gizmodo US
  • [原文]
  • R.Mitsubori
「自分が作ったAIアルゴリズムに排除されるかもしれない」。ある宇宙物理学者の闘い
Image: Gizmodo US|ブライアン・ノード氏は宇宙物理学者であり、マシンラーニング研究者でもある。

AIは人間が作り出したもの。神じゃない。

今や、機械学習アルゴリズムは人々の日常にすっかり入り込んでいます。私たちが目にするニュースや広告はもちろん、時には車を操作することもあります。しかし、これらのアルゴリズムには負の一面が潜んでいます。というのも、機械学習のアルゴリズムは「人間が集めた、人間に関するデータ」に依存しているため、バイアスのかかった情報を吐き出してくる恐れがあるのです。

たとえば、求職者の採用審査を実行するアルゴリズムは、白人以外の(と思われる)名前を自動的に却下してしまう恐れがあります。また、顔認証システムは白人男性の識別は得意ですが、女性や有色人種の顔認証は苦手です。こうした現状を踏まえ、今AIの潜在的な「負の影響」を問題視し、声を上げる科学者や団体が増えているのです。

ブライアン・ノード氏もまた、自身の研究とAIアルゴリズムが生む「潜在的な害」を比較検討する研究者の一人。ノード氏は米フェルミ国立加速器研究所およびシカゴ大学で「自動操縦型望遠鏡」のコンセプトを研究する宇宙学者です。「自動操縦型望遠鏡」とは、機械学習アルゴリズムを活用して仮説の構築とテストを行なう望遠鏡です。

その一方で、彼は「自分が書いたアルゴリズムのバイアスが自分にかけられるのではないか」「それによって自分が不利な状況に陥るのではないか」という考えに苦しんでいます。そこで彼は、AIアルゴリズム開発の監視を強化するため、物理学者とコンピュータ科学者から成る連合を構築しようと取り組んでいます。

科学と倫理、というのは不動のテーマですが、AIがもたらす「害」について、ノード氏が米Gizmodoのインタビューに応えています。内容を簡潔明瞭にお伝えするため、編集および要約したものをご紹介します。

ここ数年で科学とディープラーニングは「切っても切れない関係」に

米Gizmodo(以下、米Giz):物理学者でありながら、AIとその負の側面に注目したきっかけは何だったのでしょうか?

ブライアン・ノード氏(以下、ノード氏):もともと私の専門は宇宙論で、2012年にフェルミ国立加速器研究所に移ってきた際、強力な重力レンズというサブフィールドに参入しました(著者注:重力レンズとは、遠くの物体が放つ光が、途中にある天体の重力によって曲げられ、ゆがんだり膨張して見える現象)。

私は数年間、従来の手法を用いて重力レンズの研究を行なってきました。具体的には、数千件もの潜在的な重力レンズを探索するため、テラバイト単位の画像を目視で確認していたのです。非常に特殊な現象なので、それを識別するための標準的なアルゴリズムが見つからなかったためです。しかし2015年ころになると、目で探すしかないという状況を悲観して周囲を見回した結果、ディープラーニングに出会いました。

それから数年間、私を含めた数人がディープラーニングを使用するというアイデアを広め、今ではこうした(重力レンズのような)対象物を探す標準的な方法となりました。銀河の認識という分野で、ディープラーニング以前の手法に戻ることはもうないでしょう。ディープラーニングの重要性も認識しましたし、天文学と科学全体にどれだけ影響力を持ち得るのか、その潜在性もすぐに見えてきました。科学はいまやディープラーニングとは切っても切れないのです。これは、このテクノロジーの可能性と危険性の証といえます。使用されるツールは比較的シンプルですが、一度正しくピースをつなげてしまえば、あとは深く考えることなく、あらゆることを簡単に行なうことができます。

ディープラーニングは非常に便利。ただし、人間の「バイアス」に制限される

米Giz:つまるところ、ディープラーニングとは何ですか? また、長所と短所はどこにあるのでしょう?

ノード氏:従来の数学モデル(ニュートンの運動方程式 F = maなど)は、データのパターンを説明するために人間が構築したものです。我々は、現時点での自然への理解、これを直観とも言いますが、それを使ってピースを選び、モデルを作ります。ですから多くの場合、そのモデルはデータセットに対する人間の知識や想像力の範囲に制限されることになります。さらに、そうしたモデルは小規模であることが多く、多様な問題に広く適用しにくい側面があります。

一方、AIのモデルは大規模で自由度も高く、汎用的にさまざまなデータセットを説明することができるのです。ただ、そうしたモデルを構築するには、まずデータを教え込まなければなりません。つまり、AIのモデルはAIのトレーニングに使われたデータによって形作られているということです。では、そのトレーニングデータを誰が選ぶのでしょうか? そう、人間です。結局、そのデータに対する我々の知識や想像力によって制限されてしまうということです。正しいトレーニングデータがなければこれまでの手法とさして変わらないことになり、あっという間に崖から転げ落ちてしまうことになります。

可能性と危険は表裏一体です。AIの持つ可能性とは、人間がまだ「直観的」なモデルで説明できないデータを説明できる能力のこと。しかし、それらをトレーニングするために使われるデータセットに人間のバイアスが組み込まれていることが、危険なのです。銀河を認識するAIであれば、宇宙の測定に偏りが生じるリスクがあるでしょう。また、AI主導の顔認証なら、たとえばデータセットが有色人種の顔に偏っていた場合、サービスの使用禁止や、監視強化、そして人としての自由の侵害…といった差別的な行動につながる恐れがあります。ですから、我々の研究が人々の生活を危険にさらす前に、これらの結果を比較検討して対処することが重要なのです。

ずさんなアルゴリズムが、すでに社会構造に組み込まれている現実

米Giz:AIが有害かもしれない、と気づいたのはいつごろですか?

ノード氏:2016年に非営利報道機関プロパブリカに掲載された「マシン・バイアス」の記事を読んだときですね。その記事は「再犯と法廷での判決手続き」について議論するものでした。当時、裁判官には判決結果を「推奨する」というかたちで、クローズドソースのアルゴリズムの使用が認められていました。しかし、このアルゴリズムに対して公的な監視態勢はなく、プロパブリカはこれに黒人へのバイアスがかかっていることを発見したのです。

このようなずさんなアルゴリズムを、人々がなんの説明責任も持たないまま使ってしまうのが現実です。私自身も黒人ですが、過去数年間はニューラルネットワークに胸を躍らせていたのです。でも、ハタと気付きました。私に害を及ぼしかねないアプリケーションがすでに存在し、使われている。しかも刑事司法制度を通じて私たちの社会構造に組み込まれているのだと。それから、少し目を凝らして世の中を見てみると、世界中の国々で機械学習アルゴリズムを組み込んだ監視技術が、抑圧的な用途に広く使われていることに気づきました。

AIが生むバイアスと戦う「連合」が必要

米Giz:それに対して、どう対応されましたか? 実際に何か行動されたのでしょうか?

ノード氏:私は無駄な労力を使いたくありません。そこで考えたのが、(同じ問題意識を共有する)「連合」を作ることです。私は仲間を求め、機械学習の公平性や説明責任、透明性を追求する団体、そしてAI分野で黒人研究者のコミュニティ構築に注力している団体を調査することにしました。中でも、今ある課題を独自に認識しているような集団が望ましいと思っています。AIの影響を受けるのは私たちですから。

ニュースにも注意を払っていたところ、(元Googleの)メレディス・ウィッタカー氏が「顔認証技術が偏見を生み出す」といった事例と戦うためのシンクタンクを立ち上げたこと、そしてMIT出身でAIによる偏見に立ち向かうジョイ・ブオラムウィニ氏が「アルゴリズム・ジャスティス・リーグ」の設立を支援したことを知りました。私は、本来自分の主要コミュニティであったコンピュータ科学者や物理学者の研究や活動について、今一度振り返ってみることにしました。

そこで我々(私や、機械学習研究者のサバンナ・タイス氏など)が気づいたことは、物理学者もAIによる恩恵と危険に利害関係があることを認識しなければならない、ということです。我々は政府から資金援助を受けており、研究に対して「基礎的な」アプローチを取る傾向があります。もしそのアプローチをAIに持ち込めば、これらのアルゴリズムの機能基盤に影響を与え、それがゆくゆくは多くのアプリケーションにまで及ぶ恐れがあります。私は「これらのアルゴリズムを開発するうえでの責任」と、それらの使用法について意見することについて、自分と同僚に問うたのです。

重要なのは、あらゆる分野で「AIの倫理」を共有すること

米Giz:ここまでの進捗具合はどうですか?

ノード氏:今のところ、高エネルギー物理学イベントであるSNOWMASSのホワイトペーパーを作成する予定です。SNOWMASSのプロセスは、この先約10年間にわたってコミュニティを導くビジョンを決定するものです。組織にいる物理学者や個人、そして資金提供機関は、自らが構築および実装するアルゴリズムに深い関心を持つ必要があります。それも、今すぐに。

なぜ関心を持たなければならないのか、という動機に関する議論を展開するため、今はともに戦ってくれる個人や仲間の物理学者、そしてこの問題に関心のある専門家の特定を始めています。これは、人々に「自分たちがしていることの倫理的意味をどれだけ考慮しているのか?」と問うていく活動になります。

すでにシカゴ大学では、これらの問題について話し合うワークショップを開催していますし、フェルミ研究所でも何度か初期のディスカッションを始めています。ただ、まだ業界全体でポリシーを構築するのに必要な人員、つまり「マス」は確保できていません。社会科学や技術研究のバックグラウンドがない物理学者だけではだめなのです。本来は、フェルミ研究所の物理学者をひとつにまとめ、そして他機関の社会科学者や倫理学者、科学技術研究者や専門家を集め、そこから何かを構築しなければなりません。重要なのは、他分野とパートナーシップを組むことなのです。

米Giz:なぜまだその「マス」が集まらないのだと思いますか?

ノード氏:アンジェラ・デイビス氏が言ったように、「私たちの闘いは彼らの闘いでもある」ということを、人々に示す必要があると思います。だからこそ連合を構築すべきだと考えています。私たちに影響を与えるものは、彼らにも影響を与えます。それを理解してもらうためには、人種や民族を超えて、潜在的な害を明確に示すのもひとつの方法です。

先日、博士課程の候補者選定を迅速化するため、ニューラルネットワークを使用したという論文が議論されました。彼らはアルゴリズムのトレーニングに履歴データを使ったといいます。

ここにニューラルネットワークがあり、そしてこちらには大学が受け入れた応募者のデータ、そして一方で不合格となった応募者のデータがあります。彼らを選んだのは、教員や何らかのバイアスを持つ「人」たちです。となれば、そのアルゴリズムにも同様のバイアスが埋め込まれるだろうことは、開発者であれば誰にでもわかるはずです。人々がこれらのことを問題と見なし、私たちの連合構築に力を貸してくれることを願っています。

将来的にはAIの安全性を監視する「機関」と「ポリシー」が必要

米Giz:倫理的なAIの未来について、どんなビジョンを描いていますか?

ノード氏:アルゴリズムの説明責任を担う機関を置くというのはどうでしょう? 地域レベル、国家レベル、組織レベルで。テクノロジーが将来どのように使われるのか、すべて予測することはできません。しかし、そのプロセスを始めるときに、「これでいいのか?」と問うていかなければなりません。後出しではだめなのです。

関係機関はこうした課題解消を支援しつつ、科学が成し遂げられることを許容していくことになります。もちろん、人々の生活を危険にさらさない範囲で。機関と並行して、アルゴリズムが人間や他の生物に適用される前に、あらゆるレベルでその安全性を明確に判断するポリシーが必要です。

もし私がしっかりと支持者を獲得できたとしたら、こうした機関やポリシーは信じられないほど多様な人々のグループによって構築されるでしょう。単一のグループが、そこにはいない別のグループの存在を無視してアプリやテクノロジーを開発したらどうなるか、その例を我々はいくつも見てきました。倫理的なAIのポリシーを作り上げるには、さまざまな経験を持つ人々が必要です。

米Giz:全体を通して、最大の懸念事項は何ですか?

ノード氏:私がもっとも恐れているのは、すでにテクノロジーリソースにアクセスできる人々が、すでに抑圧されている人々を支配するためにそれらを使い続けることです。Pratyusha Kalluri氏は、この考えをさらに「パワー・ダイナミクス(権力の力学)」へと進化させました。それこそ今私たちが世界中で目にしている光景です。

もちろん、中には顔認証を禁止しようと尽力する都市もあります。それでも、我々がさらに広大な連合を持たない限り、そしてこのことを直接受け入れることを厭わない都市や組織が増えない限り、このツールがすでに社会構造に内在する白人至上主義や人種差別、女性蔑視に拍車をかけるのを防ぐことができません。もし我々が、社会から取り残された人々の生活を最優先するポリシーを推進しなければ、彼らはこれからも抑圧され続け、それは加速していくでしょう。

「対岸の火事」ではなく、すべての人が自分のこととして取り組まなければいけない

米Giz:AI倫理について考えることで、あなた自身の研究に影響はありましたか?

ノード氏:AIの仕事をしたいのか、やるならどのようにするのか、さらには特定のアルゴリズムを構築することが正しいことなのか、自問自答しなければなりません。以前は、「できるだけ早く新発見をし、世界の役に立つテクノロジーを作る」ということだったのですが、今はそこに重要なニュアンスが加わりました。人類にとって最高のものであっても、最悪の使い道で利用されることもあります。私の研究にとって、これは計算の順序を根本的に見直すことです。

安全を第一に考えることは、おかしいことではありません。たとえば、建設現場などではしごを使用する場合、労働安全衛生局や各機関の安全担当グループが事故防止に必要なチェック項目を作っています。ではなぜAIでも同じことをしないのか? その答えのひとつは、「アルゴリズムの弊害が、すべての人に及ぶわけではない」からでしょう。

私が今いる組織でも黒人は少数派ですが、その一人として言うなら、私はこのことに気づいているし、懸念もしています。私の身の安全も重要であり、仕事を辞めても私の懸念は終わらない、ということを科学界は理解する必要があります。

米Giz:他に何か伝えたいことはありますか?

ノード氏:大学院の候補者選定や司法の場でバイアスのかかったアルゴリズムが使われた例など、これまでにいくつかの研究が出ていますが、同じようなバイアスをもとに、同じような問題が何度も何度も繰り返されていると強く訴えたい。こうしたバイアスは、あっという間にアルゴリズムに入り込みます。これは、多くの調査を行なわずとも、自明のことです。開発者側は、こうしたことをしっかり認識すべきです。もしかしたら、開発者がアルゴリズムを世に放つ機会を得る前に、これらの課題について考えるためにより多くの教育的要件が必要なのかもしれません。

個人や組織がこれらの問題を優先事項と見なすまで、会話のレベルを引き上げる必要があります。そこまで到達したら、そのときこそリーダーシップの機会であることに気づいてもらわねばなりません。組織的なリーダー獲得を支援する草の根コミュニティを得ることができれば、多くの人々が行動を起こしてくれるようになるでしょう。

    あわせて読みたい