ホーキング博士、イーロン・マスクが支持。AIの叛乱を防げるかもしれない「AI開発 23原則」

ホーキング博士、イーロン・マスクが支持。AIの叛乱を防げるかもしれない「AI開発23原則」

スカイネットが完成したら困りますからね。

世界的なSF作家 アイザック・アシモフは、ロボットの叛乱を防ぐために、将来いくつかの原則をロボットにプログラムしなければならなくなると予言しました。しかしその前に、安全で責任感のあるAI開発を行なうための、より基礎的なルールが必要です。つい先日行なわれたとある集会はまさしくその為で、人間がAIによって破滅に追い込まれるなんてことがないように、専門家のグループがAI開発における23項目の原則を提唱しました。

「23 Asilomar AI Principles」(アシロマAI 23原則)と名付けられたこのガイドラインは、AIの研究・倫理・将来の危険性に関する3つの問題に触れており、研究戦略やデータ所有権、透明性や人口超知能の危険性までカバーしています。以前にもアメリカ電気電子技術者協会(IEEE)やスタンフォード大学のAI100 standing committee、更にはホワイトハウスまでがAIのガイドラインを設けようとしましたが、どれも範囲が狭いか、総体的すぎました。一方アシロマ原則は、問題についての先進的な考え方をまとめあげ、AIの開発に関して最善の方法を記したルールブックのようなものを作りました。原則に強制力はありませんが、これから先のAI研究の方向性に影響を与えるのが目的です。

アシロマAI 23原則 1

AppleのSiri、AmazonのAlexa、MicrosoftのCortana、自動運転車、そして人間の能力を上回るアルゴリズムなど、AI研究は黄金時代を迎えようとしています(最近ではAIがポーカーのトッププレイヤーを破りました)。しかし他のテクノロジーと違い、この分野はしっかりとした保安規程や基準がないため、道を踏み外し、人類にとって不利益になってしまうことが懸念されています。一般的な不安といえば、人間の仕事を奪う無力化する、そして私たちの存在に対する脅威になる、などがあります。

これらの問題を解決するため、Future of Life Instituteは多くの専門家を集め、AI開発をよりポジティブな方向へ導き、破滅的なシナリオを避けるための基礎原則を作り出したのです。参加者はさまざまなバックグラウンドを持ち、技術者、プログラマー、ロボット工学者、物理学者、経済学者、哲学者、倫理学者、そして法学者などが集いました。

完成以来、原則には多くの支持者がついており、880人のロボット・AI研究者を含めた2,300人が支持を表明しています。中には著名人もおり、物理学者のスティーブン・ホーキング、SpaceX CEOのイーロン・マスク、未来学者のレイ・カーツワイル、Skype共同創立者のJaan Tallinnなど、他にも多くが名を連ねています。

では、原則とは実際どういうものなのか? 以下が簡単な説明です。

研究

1) AI研究の目標は、無秩序な知能ではなく有益な知能の開発である。

2) AIへの投資は、コンピューター科学、経済、法律、倫理、社会学の観点から有益と考えられる研究に向ける。

3) AI研究者と政治家の間で、建設的で健全な対話を行なう。

4) 研究者や開発者の間には協力、信頼、透明性の文化を育くむ。

5) AIの開発チーム同士での競争により安全基準を軽視することがないよう、チーム同士で協力しあう。

倫理と価値基準

6) AIシステムはその一生を通して、できる限り検証可能な形で安全、堅牢である。

7) AIシステムが害をなした場合、原因を確認できるようにする。

8) 自動システムが司法判断に関わる場合、権限を持つ人間が監査し、納得のいく説明を提供できるようにする。

9) AIシステムの開発者は、システムの使用、悪用、結果に倫理的な関わりがあり、どう使用されるかを形作る責任と機会がある。

10) 自動的なAIシステムは、目標と行動が倫理的に人間の価値観と一致するようデザインする。

11) AIシステムは、人間の尊厳、権利、自由そして文化的多様性と矛盾しないようデザイン、運営しなければならない。

12) AIには人間のデータを分析し、利用する力があるため、データを提供する人間は自分のデータを閲覧、管理、コントロールする権利が与えられる。

13) AIによる個人情報の利用は、人間が持つ、あるいは持つと思われている自由を理不尽に侵害してはならない。

14) AI技術は可能な限り多くの人間にとって有益で力をあたえるべきだ。

15) AIによる経済的な利益は広く共有され、人類全てにとって有益であるべきだ。

16) 人間によって生まれた目標に関して、AIシステムにどのように決定を委ねるのか、そもそも委ねるのかどうかを人間が判断すべきだ。

17) 高度なAIシステムによって授かる力は、社会の健全に不可欠な社会課程や都市過程を阻害するのではなく、尊重、改善させるものであるべきだ。

18) 危険な自動兵器の軍拡競争が起きてはならない。

長期的な問題

19) 一致する意見がない以上、未来のAIの可能性に上限があると決めてかかるべきではない。

20) 発達したAIは地球生命の歴史に重大な変化を及ぼすかもしれないため、相応の配慮と資源を用意して計画、管理しなければならない。

21) AIシステムによるリスク、特に壊滅的なものや存亡の危機に関わるものは、相応の計画と緩和対策の対象にならなければならない。

22) あまりに急速な進歩や増殖を行なうような自己改善、または自己複製するようにデザインされたAIは、厳格な安全、管理対策の対象にならなければならない。

23) 超知能は、広く認知されている倫理的な理想や、人類全ての利益のためにのみ開発されるべきである。

原則のいくつか、例えば兵器の軍拡競争をさせないようにするといったものは、あって当然、誰でも納得できるものです。しかし他の項目は、簡素に書かれていても解釈によって複雑になります。例えば「有益な知能」とは具体的に何を意味するのか? 集会に参加したカリフォルニア大学の物理学者 Anthony Aguirre氏によれば、この言葉の曖昧さは、優秀なAIが生まれ始めて間もない今の時点では逆に強みになるそうです。

アシロマAI 23原則 2

アシロマグループの集合写真。全ての参加者はこちらから見ることができます。

「人によって色々な解釈をしてほしいと思います。私が思うに、この原則の最も重要な点は、有益かどうかが開発の動機になることです。つまり開発者は、単純にAIをより優秀に、強力に、高速にするのではなく、自分の作っているものがどういう結果をもたらすのかを積極的に考える必要があるのです」とAguirre氏は米Gizmodoにコメントしました。

また、原則は人間の決定権(16番等)にも触れていますが、現在はAIがあらゆる作業を人間より優秀に、効率的にこなしてしまうので、むしろAIに色々な決定を委ねてしまう傾向にあります。つい先日も、株式取引の仕事をアルゴリズムが取って代わってしまいました。更に戦場のロボットも人間の手を離れ、自身の判断で相手を殺すことができるようになると懸念されています。Aguirre氏は、いくらかの決定はAIに譲ることになるが、細心の注意をもって行なうべきだと語りました。

その他は「言うは易し」なものが多く、例えば4番の透明性ですが、Apple、Google、Facebook、AmazonなどがAIアシスタントの技術でしのぎを削る中、お互いの技術を相手に明かす未来は想像が難しいでしょう。

「1つポジティブな兆候があるとしたら、助け合う環境の中で共同開発することによる利点が、情報を共有することで生じる競争的な損失に勝ることを理想として結ばれつつある、AI開発パートナーシップです。」とAguirre氏。

では、どうすれば企業に対しこれらの原則に則るよう促せるのでしょうか? 大抵の場合、法律にすることで強制させるしかないと私たちは考えがちですが、カリフォルニア ポリテクニック州立大学のEthics + Emerging Science Group(倫理と新興科学グループ)のリーダーを務めるPatrick Lin氏は、社会的な規範を作ることが重要だと語ります。

「例えば、米国は対人地雷を禁止したオタワ条約に署名していませんが、それでも条約に従っています。こういった強い規範に逆らうことは、政治的にも、引いては経済的にもダメージが大きいからです。逆らうことで起こる世界からの糾弾は十分な抑止効果が(今のところは)あるのです。」

しかし、FacebookやGoogleが、収益を大きく上げると同時に世界に対して多大な脅威をあたえるような超知能を作ることは、想像できないわけではありません。利益が大きければ、規範を破って世界から批判されることだって厭わないかもしれないのです。もしそうなった場合の対策を、私たちは何も持っていません。

更に重要なのは、人類の存在危機に関する項目(22番)です。つまり、自身のソースコードを改善できるAIの場合、人間の価値観にそぐわない機能を追加しないよう、その成長を常に監視する必要があるということです。これには何層もの保護対策に加え、AIが自身を改良する際に制限内で留めるようにすることが重要になりますが、簡単なことではありません。

「現在のAIで、暴走して危険を及ぼすようなものはまだありません。そこだけは皆さんに知ってほしい」とAguirre氏。「と同時に、最も優秀な人間と同等、あるいはそれすら超えるAIが生まれる時代を想像するなら、誕生と同時に世界が根本から一変しないと考えるのは愚かです。なので、AIの生み出す機会とリスクをどれだけ真剣に受け止めるのかは、AIの能力と共に変化せねばなりません。そしてメディアや業界による過剰な熱狂を抜きにした、冷静で確実な査定と予測を得ることができれば、良い開始点となるでしょう」

この23原則によってスカイネットの誕生を防げるのかと言われれば、恐らく答えはノーでしょう。結局のところはガイドラインでしかなく、原則を破っても何の罪にも問われないからです。しかしこの試みの意図とは、AI研究に関する今最も優れたアイデアを集めることで、将来より確実な何かのインスピレーションとすることなのです。不完全で楽観的かもしれませんが、この原則の存在にはちゃんと意味があるのです。

今度はポーカーでAIが人間を超える! その重要な意味とは?
Facebookのマーク・ザッカーバーグが今年の目標を経て感じた、これからの人工知能の課題

image Future of Life Institute
source: Future of Life Institute

George Dvorsky - Gizmodo US[原文
(scheme_a)

あわせて読みたい

    powered by CXENSE