2018年「不安になるAI業界のトレンド」5選

  • 10,964

  • author Brian Merchant - Gizmodo US
  • [原文]
  • かみやまたくみ
2018年「不安になるAI業界のトレンド」5選
Image: Tomohiro Ohsumi/Gettyimages

来年は不安なくAIを使えるようになればいいのに。

人工知能(AI)はすでに私たちのコントロールを離れ始めている。先日発表されたトップAI研究者たちによるレポートがそう警告しているそうです。「コントロールを離れる」なんて言われると、映画やゲームの暴走するAI(個人的には『ライブ・ア・ライブ』のSF編)を思い出してしまいますが、現実のAIの動向はまたちがった不穏さを見せています。

米Gizmodoに掲載されたBrian Merchantの記事に「2018年の不安になるAI業界のトレンド」がまとめられていました。それによると、人間の手を離れた現実のAIは監視を拡大するとともに、バイアス(偏見)を助長するとのこと。抜粋・翻訳してご紹介します。


1. 説明と実態の乖離

AIシステムを作る(そして利益を得る)人々によってなされる説明と(私やあなたのような)人々が受けるAIシステムの影響の実態、その乖離が大きくなっています。個人データを収集してあなたのためにさまざまな結論を出すAIシステムを作る。そんな考えは好きじゃないですよね? というか最悪ですよ! AI Now Instituteレポートは、一般市民が自身に影響を及ぼす人工知能システムに対処するために頼れるものが増えるのではなく、減っていることを発見しています。

2. 監視を拡大するために用いられるAI

AIは監視を拡大するために用いられますが、しばしばゾッとするような使われをします。もし顔認証技術の監視能力に不安にさせられるなら、そこまで注意深くないいとこ的テクノロジー・感情認識を待ちましょう。The InterceptのSam Biddleはこのレポートにおける感情認識の扱いについていい記事を書いています。感情認識は基本的に、現代化されリアルタイムで行なわれる骨相学のようなものです。

3. 公的補助が必要な人が助けを得られない

政府はコスト削減の名目で自動決定ソフトウェアを採用していますが、こうしたシステムは恵まれない人々にとって災厄となります。オンラインの公的補助金申請手続きから、住宅に住む資格がある人を決定する能力があると言われているADSシステムへ。しかし、ADSシステムはバイアスを転送し誤った情報に基づいて根も葉もなく応募者を拒絶する可能性があります。Virginia Eubanksが著書『Automating Inequality』(自動化される不平等)に詳しく書いているように、こうしたシステムによって不合格にされるのは、対処のために必要な時間とリソースを求める人々なのです。

4. すでに野に放たれまくっているAI

民間ではすでにAIテストがたくさん行なわれています。「シリコンバレーは“すばやく行動し破壊せよ”の精神で知られています」とAI Now Instituteのレポートには記されていますが、この精神は公共セクターのAIシステムをテストする企業を突き動かす、あるいは消費者空間にあからさまに放つものでもあります。きちんとした監視もなしに、ですが。トラッキングで大問題となったFacebook(すばやく行動し破壊せよの元祖で、AIのエヴァンジェリストですね)は、この戦略が災厄を招きうることを示す例として十分でしょう。

5. 問題を技術的に解決するアプローチは不適切

AIシステムが抱えるバイアスや数多くの問題を技術的に解決しようというアプローチは不適切です。Google(グーグル)がマシンラーニングの倫理に取り組むと発表して話題になりましたが、こうした努力は範囲が限られていて技術的アプローチ中心だとすでにわかっています。エンジニアは、さらなるエンジニアリングによってエンジニアリングの問題を解決できると考えがちです。しかしAI Now Instituteのレポートでは、より深い歴史の理解と、AIシステムが照準を合わせているデータセットの社会的コンテクトが本当に重要なのだとしています。

Source: Twitter, AI Now Institute

    あわせて読みたい

    powered by