Microsoftのサティア・ナデラCEOが考えるAIのルール

Microsoftのサティア・ナデラCEOが考えるAIのルール 1

安全な人工知能、とは。

ロボットの三原則といえば、1つ、人間に危害を加えてはならない。2つ、1つ目に反しない範囲で人間の命令に服従せねばならない。3つ、1つ目および2つ目に反しない範囲で自己を守らなければならない。ロボット、つまり、これは人工知能のルールです。いつかAIが人間に逆らい世界を征服するという世紀末がぼーんやりと不安視される今、さまざまな説やルールが唱えられていますが、たとえばMicrosoftのCEOであるサティア・ナデラ氏はこう考えます。

6月頭に、Googleのエンジニアが人工知能の安全ルール5カ条をレポートにまとめ発表しましたが、今回ナデラ氏がネタ元のSlateにまとめたのは、それをもうちょっと一般的に解説した6カ条です。

第1条:AIは人間のアシストをするために開発されねばならない。

もちろん、そうでしょう。

第2条:AIは、透明性がなければならない。

ナデラ氏いわく、テクノロジーは人を知らねばならないが、人間もマシンを知らねばならないと。

第3条:AIは、人間の尊厳を傷つけることがない範囲で、効率最大化されねばならない。

効率化が大切な一方で、文化や多様性は残すべきであり、テック業界が未来の価値や利点まで決めるべきではないと注釈をいれています。

第4条:AIは、知的プライバシーのために開発されねばならない。

知的プライバシーとは、さて? 個人やグループの情報を複雑な仕組みで保護することで、信頼が得られると説いています。

第5条:AIは、アルゴリズム的な責任がなければならない。これは、人間が意図せず危害を加えてしまった場合、それを撤回できるようにするためのものである。

いざというとき、取り消しができないと怖いもんね。

第6条:AIは、差別や偏見を防ぎ、適切で見本となる研究を保証せねばならない。

過去に、Googleのアルゴリズムが黒人をゴリラとタグ付けするなど、システムの欠陥、ミスが起きており、これを防止することがAIが差別の道具にしないために必要だという話。

活躍の場がどんどん広がり、知能もあがっていく人工知能。あなたは、人間にとって人工知能に定めるべきルールに何があると思いますか?

source: Slate via The Verge

Angela Chen - Gizmodo US[原文

(そうこ)