AI開発停止は国際的かつ超強力な規制ができないと無理

  • X
  • Facebook
  • LINE
  • はてな
  • クリップボードにコピー
  • ×
  • …
AI開発停止は国際的かつ超強力な規制ができないと無理
Image: Shutterstock

AIの抱える問題多すぎ。

哲学者Tim Juvshik氏による米ギズモードへの寄稿文を翻訳しました。


今年3月、イーロン・マスク氏やスティーブ・ウォズニアック氏を含む多くのテック関係者や研究者が、AI開発の一時停止を求めてオープンレターを公開しました。

AI開発がこのまま進むことの危険性を訴える声は、このオープンレター以外にもあり、最近はAIの父とも言われるジェフリー・ヒントン氏が長年務めたGoogleを退社し、AIのリスクを語り注目を集めています。

AI脅威の声は今に始まったことではありません。経済的価値において人間と同等以上の自動AIシステムができるかどうか、その可能性についてはまだ確かなことはわかりませんが、一方で、顔認証技術による人種差別、誤情報の増加、教育現場での不正などAIリスクは明らかになってきました。

AI開発の速度を緩めろ!といくら叫んだところで、それを企業に実行させる術は現在のところまだありません。

そこで、技術倫理を研究する哲学者として、AI研究におけるフリーライダー問題について語ろうと思います。善意だけではAIリスクを乗り越えることは難しいでしょうから、この視点が社会がAIリスクにどう対応すべきかの指標となると考えています。

タダ乗りとは

フリーライディング=タダ乗りとは、哲学者が「コレクティブアクション問題」と呼ぶよくある現象のことです。

とある行動から、グループみんなが利益を享受できるというシーンにおいて、特定個人が行動をとらず利益だけを享受することをいいます。

こういう状況は公共財においてよく発生します。

例を挙げてみましょう。ある街の地下鉄、乗る人はみんな運賃を支払い、交通手段として地下鉄の利益を享受することができます。

が、乗っている人の中にはズルをして運賃を支払っていない人がいます。しかし、大部分の人が支払う運賃で地下鉄は走ります。つまり、タダ乗りしている人は貢献(この場合は運賃の支払い)はせずに、利益(地下鉄での移動)だけ享受していることになり、フリーライダーとなります。

この貢献せずに利益だけ享受する人の存在はガンであり、もし大部分が貢献をやめてしまえば、誰も利益を享受できなくなるというのが問題です。

哲学者は、他の人の貢献に報いることができないことから、タダ乗りは非倫理的であると考えます。また、社会契約の一部としての責任を果たせていないとも言えます。

つまり、タダ乗りするフリーライダーたちは、社会に貢献する一員としての義務を果たしていないということになります。

開発停止か先に進むか

医療データ分析診断、軍事関連の危険な仕事から鉱業の安全性向上まで、ありとあらゆることを人間よりもはるかに効率的にこなせる可能性があることから、AIは地下鉄と同じように公共財であると考えます。

AIのメリットとリスクは、AIを個人的には利用しない人も含めすべての人に影響します。AIによるリスクを減らすため、業界の慎重な研究や適切な監視機関、透明性、安全性はすべての人が関心を寄せることとなります。

例えば、フェイクニュースや誤情報は民主主義にとって脅威となりますが、AIが人間よりも効率的かつスピーディーにそれを拡散できることで、問題は悪化してしまいます。

もし、一部のテック企業が自主的にAI研究を一時停止したとして、他の企業もそれに続くでしょうか? その隙にAI研究を継続することで金銭的利益を得られる上に、AI競争においても優位に立つことができるというのに?

AI研究の自主的停止は、研究を続ける他企業にフリーライダーになるチャンスを与えることになりかねません。最終的には、より安全で透明性の高いAI開発で利益を享受することになるからです(自主的停止=社会貢献をせずに、AI開発で継続による利益は受けられるということ)。

OpenAIのサム・アルトマンCEOは、自社のチャットbotシステムChatGPTが引き起こすリスクが恐ろしいものであることを認めています。ABC Newsのインタビューにて「注意が必要である」と発言し、AIが誤情報を生み出すリスクに触れています。「僕たちもこれを少し怖いと思っていることに、みなさん喜ぶべきだと思います」とも発言。

4月5日に公開された文書にて、OpenAIはパワフルなAIシステムには安全性をチェックする規制が必要であり、そのためにどのような規制が最適なのか、政府に積極的に関わっていくと宣言しています。

とはいえ、OpenAIはGPT-4を継続するし、他の企業もより進化したAIのため開発とトレーニングを続けています。

規制の時は来た

コレクティブアクション問題に関する長年の社会科学研究で分かったのは、フリーライダーを回避するためには、信頼と善意で足りないならば、規制するしか方法はないということ。

自発的なコンプライアンスという取り組みは、フリーライダーを生むことになるだけなので、政府による行動が必要になります。そして、その規制は強制力を持つ必要もあります。地下鉄の例でいうと、タダ乗りする人に対する罰則がない限り、彼らが運賃を払うことはたぶんないということですね。

今日の世界で最も大きく深刻なフリーライダー問題といえば、気候変動です。

地球という星に対して、ここに暮らす我々すべてが居住可能な環境を維持するべきです(環境維持=貢献、地球で暮らせる=利益)。

しかし、気候変動対策というシステムがフリーライダーを許容しているため、どこの国も積極的な環境対策は行なっていません。気候変動における最も包括的な世界的取り組みはパリ協定ですが、これは自主的なものであり、国連には強制力がありません。

もし、EUや中国が自主的に炭素排出量を制限したとしても、アメリカやインドが制限をしなければ、後者は二酸化炭素排出量削減というミッションのフリーライダーとなってしまうからです。

世界的課題

AIにおけるフリーライダー問題も、気候変動と同じだと言えます。AIにおけるリスクも温室効果ガス排出も、それを生み出した国だけの問題ではないからです。

さらに、より高性能なAI開発は国際的な競争だからです。アメリカがAI研究・開発への国家的規制を導入したところで、中国や日本がこれに続かず、国内で独自の研究を続ければフリーライダーとなります。

AIにおける効果的な規制とその実行力は、気候変動問題と同じく世界的な協力と行動が必要です。アメリカで強力な規制となれば、連邦政府の監査や不適切なAI研究への高額罰金・禁止処置がとれる状態が必要で、規制監視委員会や内部告発者の保護、悪質なケースでは施設閉鎖や刑事告発なども必要になっていくでしょう。

強力な規制なくしてはフリーライダーを許容することになります。そして、フリーライダーが存在する限り、AIの脅威が和らぐことはないのです。

インド「うちはAIを規制しません」

インド当局は、同国政府がAIを規制しない方針を打ち出しました。大胆とも受け取れるこの宣言は、GPT-4の開発を一時停止するよう求める公開書簡に署名したちょうど1...

https://www.gizmodo.jp/2023/04/ai-chatgpt-google-bard-india-will-not-regulate-ai.html