イーロン・マスク、スティーヴン・ホーキング…自律型軍事ロボット禁止へ公開状

イーロン・マスク、スティーヴン・ホーキング…自律型軍事ロボット禁止へ公開状 1

ロボット技術が発展し続ける近年。このまま開発が進めばいつかロボットが人を殺害するような時代が来る日も近いのかもしれません。

そんな未来を避けるため、世界各国のテクノロジー、宇宙旅行、コンピューター、そして数学の分野に携わる1,000人以上の人々が自律型兵器の開発競争を止めるよう公開状に署名をしました

署名をした人物の中には数学修士をもつ一般の方から、哲学者であるノーム・チョムスキー氏や、アップルの共同設立者でありエンジニアのスティーブ・ウォズニアック氏などさまざま。この数カ月間、自律型殺戮ロボットについて警告をしているスティーヴン・ホーキング氏やイーロン・マスク氏もこの公開状に署名しました。

彼らは将来人類が“戦争の輪”から外れると考えており、そのことについて危惧しているようです。人の手で操縦されるミサイルやドローンではなく、人の意思を介さない完全自律型のロボットに対し異議を唱えています。

Future of Life Instituteにて取りまとめられた公開状の翻訳がこちら(原文はこちら):

自律型兵器は人の介入なく標的を選び攻撃をします。例えば、プログラムされた判断基準をもとに対象を探し出し殺害を行なう武装化したクアッドコプターがそれにあたります。しかし、人が標的を選ぶところからすべての意思決定をし操縦を行なうミサイルやドローンは含みません。AI(人工知能)テクノロジーはそのようなシステムをあと数年で実現できるようになりました。銃、核兵器に続き自律型兵器は第三の革命を戦争にもたらすと言われています。

自律型兵器に反対する多くの議論がなされてきました。例えば人間の兵士をロボットに置き換えることで負傷者は減らせますが、そのことにより戦いに行くことの敷居を下げてしまいます。今日まさに人類に問われていることは、世界規模のAI兵器開発競争をはじめるのか、それともそれを避けるかです。もしも軍事大国がAI兵器開発を推し進めれれば、世界規模の開発競争は避けられなくなり、このテクノロジーの行き着く先は明らかです。自律型兵器は明日のカラシニコフとなるでしょう。核兵器と異なり、自律型兵器は高価であったり入手困難な原材料を必要としないため至る所に姿を現すようになり、安価に大量生産が可能な軍事大国にとって重要な存在となるでしょう。ブラックマーケットに出回りテロリストや、人口のコントロールを望む独裁者、そして民族浄化を望む将軍の手に渡るのも時間の問題でしょう。自律型兵器は暗殺、国家の不安定化、住民の鎮圧、特定の人種を選び殺害するといった仕事に適しています。よって私たちは軍事的なAI兵器開発競争が人類にとって有益ではないと信じています。殺人兵器を開発せずとも人類、特に市民にとって戦場をより安全にする術はたくさんあります。

ほとんどの科学者や生物学者が科学兵器や生物兵器を作ることに興味が無いように、ほとんどのAI研究者もAI兵器の開発に興味を持っていません。そして他の者が兵器の開発を行なうことでAIの社会的反対を煽り、今後の社会利益の妨げになることを望んでいません。事実として、ほとんどの物理学者が衛星攻撃核兵器や盲目化レーザー兵器の禁止を支持したように科学者や生物学者は国際的な化学兵器や生物兵器を禁止する公約を広く支持しています。

要約すると、AIは人類にとって多くの利益をもたらす可能性を秘めており、この分野における目標もそれを実現することにあるべきだと信じています。AI兵器開発競争をはじめることはよくない考えであり、人の意志を超えた自律型攻撃兵器を禁止にすることでそれを防ぐべきです。

しかし“戦争の輪"の定義によってはもう既に戦争は人々の手から離れ、多くの自律型殺戮ロボットが軍事利用され戦争の中枢をなしているといえるのかもしれません。また、現在私たちはどのような自律型テクノロジーが軍事利用されているのか知る由もありません。

この公開状は確かに自律型ロボットが戦争を行う未来について警告していますが、もしかするとそんな未来はすでに始まっているのではないのでしょうか。

Matt Novak - Gizmodo PALEOFUTURE[原文

(kazoomii)