AIに対するGoogle(グーグル)の姿勢。
今年のGoogle I/Oの話題の中心は「AI」。しかし、安全性に関してはまだまだ注意すべきことがたくさんあります。
たとえば企業の極秘情報の流出につながったり、誤情報や偽情報をAIが答えてしまったりする可能性もあります。
AIの開発を行なっている企業は、それぞれポリシーを掲げてそのような危険性がないようにしています。今回のGoogleもそう。
今回のGoogle I/Oでも随所にAIに対する「7つの原則」をアナウンスしていました。ざっと紹介しましょう。
1.Be socially beneficial
AIは社会全体に有益でなければならない。
2.Avoid creating or reinforcing unfair bias
AIは公平・公正なものである。
3.Be built and tested for safety
AIは安全な設計をし、充分なテストを行なわなければならない。
4.Be accountable to people
AIは動作および発言内容について説明可能でなければならない。
5.Incorporate privacy design principles
AIは個人のプライバシーを尊重し保護する。
6.Uphold high standards of scientific excellence
AIの開発は科学に基づいて行なわなければならない。
7.Be made available for uses that accord with these principles
AIは以上の原則に従って利用されるべきものである。
Googleはこれらの原則を守り、日々AI開発を行なっているとのこと。まだ黎明期ともいえるジェネレーティブAIだけに、慎重な開発や運用が重要でしょう。
Googleさん、安全安心なAI開発、頼みましたよ!
Source: Google