だからAIさん教えて下さい(俺は俺をだますことなく生きてゆく)。
人工知能(AI)の進歩、目覚ましいです。大量のデータを元に自らパターンを見つけて学習するディープラーニングの登場で、AIができることが大幅に広がりました。
そんなAIの発展の凄まじさを実感させてくれるのが、Quartzが報じている、カリフォルニア大学バークレー校とマックス・プランク情報科学研究所によるこちらの研究。ディープラーニングによって画像認識を学習したAIが、「なぜその結論に達したか」を説明するアルゴリズムについての研究です。
アルゴリズムは回答を出すことはできても、理由を説明することはできません。しかし、ディープラーニングによる分析があまりに複雑なためAIがなぜ間違ったか/正解したか、人間にはわからないということが起きています。そのため、どういうプロセスで結論に至ったのかも説明してくれる仕組みが必要になってきていると...うーん人間が追い越されている感たっぷりです。

下段:「これは何のスポーツですか?」回答「野球」理由「選手がバットを振っている」
このアルゴリズムは質問に回答するプロセスを記録し、その回答に使われたデータを英語で説明してくれるとのこと。学習には画像が何を示しているか理解するためと、理由を説明するための2種類のデータセットが使われたそうです。
1つ目は、人間が動いている写真と、写真の説明(例:黒い服を着て青いジーンズをはいた男性が光を放つボールを握っている)、そしてその中で行なわれている特定の作業の説明(例:これはジャグリングである。なぜなら2つのボールが片手に握られていて、もう1つが宙に浮いているから)という組み合わせのデータセットでした。そのために使われたのはYouTubeから抽出した約1万6000枚の画像で、アクティビティーは367種類もあったそうです。
2つ目のデータセットでは、写真と、写真についての3つの質問(例:この人は泳いでいますか?)、そして各質問ごとに10の回答(例:いいえ、なぜなら水の近くにいないからです)が与えられました。
この大量のデータから学習した結果、自分の回答の理由を文章で説明できるAIが誕生したということです。もちろん、現時点では写真の中の人間の動きを判断する、という単純なものに留まっています。しかし上の例では「バットを握る」と「バットを振る」と言葉が使い分けられ、また画像の中のどの部分が判断材料となったのかも示されており、ちゃんと人間も理解できるかたちでアウトプットされているのが感心です。
AIができることがどんどんと複雑になっていく中、AIによってAIの考え方を説明してもらう必要性は今後ますます増えていくのではないでしょうか。
トップ棋士を次々と破る謎のネット棋士「マスター」…正体はGoogleの人工知能AlphaGoだった!
image by Cornell University Library
source: ornell University Library, Quartz
(塚本 紺)