米アップル、ユーザーのiPhoneをスキャンし児童性的虐待画像を検出する機能を開発。今年後半に実装

  • 6,679

米アップル、ユーザーのiPhoneをスキャンし児童性的虐待画像を検出する機能を開発。今年後半に実装
Image: Victoria Song - Gizmodo US

子どもの面白い裸写真を撮ってる親御さんも多いはず。それは問題あるのか、ないのか、大丈夫なの…?

米Apple(アップル)は、ユーザーのiPhoneに保存されている写真の中から、児童の性的搾取を特定するための新たなツールを導入するようです。iPhoneユーザーが画像をiCloudに保存するときに、「NeuralHash」と呼ばれるニューラルマッチング機能を用いて、児童性的虐待コンテンツ(Child Sexual Abuse Material=CSAM)に一致するかどうか検出するようになります。

アップルはTechCrunchに対して、この技術は今年後半にリリース予定のiOS 15とmacOS Montereyで展開されることを認め、この技術がどのように機能するのか技術的な仕様を公開し、暗号の専門家によるレビューも受けたとのこと。アップルはTechCrunchに対して、「CSAMの検出は、同社のサービスを使用する子どもたちをオンライン危害から守ることを目的とした新機能の一環」であるとコメントしています。

全米行方不明・被搾取児童センター(NCMEC)等から収集した児童性的虐待コンテンツデータベースと、iPhoneユーザーが保存しようとしている画像を比較する仕組みになります。

このニュースは、最初にセキュリティ専門家であるジョンズ・ホプキンス大学情報セキュリティ研究所のマシュー・グリーン准教授ツイートで明かされました(グリーン氏は長年にわたりアップルのプライバシー保護の手法等について米ギズモードに記事を提供するなど、情報源として信頼がある人物です)。

「アップルがCSAMスキャン用のクライアントサイドツールを明日(米国時間8月6日)にリリースすると、複数の人から独自に確認した。これは本当にバッドアイディアだ」「これらのツールによってアップルは、iPhoneの写真をスキャンして特定の知覚的ハッシュに一致する写真とマッチングさせることが可能になり、そして多くの写真が現れた場合においてアップルのサーバーにレポートされるようになる」とマシュー・グリーン氏は一連のスレッドでツイートしています。

この件が問題視されるポイントとして、アップルをはじめとするさまざまなテック企業が、自社のサービスや製品にエンド・ツー・エンド暗号化()を追加している一方で、各国政府がこれに反対している点にあります。これはなぜかというと、エンド・ツー・エンド暗号化は消費者のプライバシー保護には有効ですが、児童ポルノのような違法コンテンツを取り締まる法的機関にとっては難しくなるからです。

スマートフォンやPCなどひとつのデバイスでメッセージを暗号化し、送信先のデバイスでしか復号できないようにするやり方。

マシュー・グリーン氏は、この技術は崇高な目的のために開発されたものだが、広範囲に影響を及ぼす上に悪用される可能性があることを指摘しています。CSAMのデジタルフィンガープリント(電子メールや電子証明書などの同一性を確認するための値)は意図的に曖昧にされています。フィンガープリントが厳密すぎると、トリミングしたり、サイズを変更したりなど画像を編集することで、検出されないようにハックされてしまう可能性があるからです。しかし、悪意のある者によってまったく無害な画像でも、問題のある画像と「一致」させることが可能になります。例えば政治キャンペーン用のポスターを、権威主義の政府が活動家を弾圧するためにタグ付けして「一致」させることなどが考えられます。

BBCが報じた内容によれば、CSAMの疑いが検出されると1件1件手動で確認し、CSAMに一致するものがあるかを判断され、CSAMと認められればそのユーザーのアカウントを無効にし、法執行機関に報告するための措置を取るとのことです。

もうひとつの懸念は、アップル社による前例ができてしまうことです。一度開かれたドアはを閉じるのは難しいのです。

「アップルの長期的な計画がどのようなものであれ、同社は明確なシグナルを発している。ユーザーのスマートフォンをスキャンして禁止されているコンテンツを検出するシステムを作っても安全である、というのはアップルの(非常に影響力が強い)考え方である」「これは政府や競合サービス、中国、そしてあなたに送っている(アップルからの)メッセージだ」と、マシュー・グリーン氏は指摘しています。

アップルはユーザーのプライバシーに配慮しているとのことですが、この技術によって個人のiPhoneが監視されるんじゃないかという懸念もありそうです。

前述のように、子どもの面白い裸写真を撮ってしまった親御さんのiPhoneの写真が、不幸にも児童ポルノ画像とマッチしてしまったら、アップルの中の誰かに手動で写真をチェックされるってことですよね…?(ちなみに本件はとりあえずはアメリカ国内の話です)。

    あわせて読みたい