まだまだ模索中…。
世界中で使われているSNSと言えば、そう、Facebook。その巨大なネットワーク上でうその情報が拡散されてしまうことは、なかなかの由々しき事態です。もちろんFacebookはそれを阻止しようと奮闘してきましたが、実現させるためには間違った情報を是正する「うそだ!」というコメントが重要になってきます。その声をきちんと拾うことができるよう、Facebook側も実験と検証の積み重ねが必要になるというわけですが、まさにその実現に向けたテストが最近行なわれているのだとか。
@facebook why is EVERY single comment preview on my feed about fake stuff?! #facebook#fakepic.twitter.com/k9ttAmoFvC
— joanna barrett (@jobrigitte) 2017年10月23日
BBCの報告によると、Facebookは先月、「fake」というワードを含むコメントをコメント欄の一番上、投稿のすぐ下に表示させるという実験を一部のユーザーに対して実施したとのこと。そのため、New York Times、BBC、Guardianやその他の名だたるニュースメディアの投稿の下は常に「fake」のコメントが付いて回るようになりました。Facebook関係者はBBCに対して以下のように語っています。
私たちは我々のプラットフォーム上で間違った情報が拡散されるのを抑制できる方法は無いか模索してきました。そしてそれを実現できる新しい方法を見つけるため、いくつかのテストを実施しています。これはそのうちの小さなテストのひとつで、すでに完了しているものです。
もし、情報に信ぴょう性がないことを示す優先されるべきコメントがある場合、それを確認できるようにしたかったのです。私たちはこれからもFacebookのコミュニティーが、よりユーザーが読んでシェアすべきだと情報に基づいて判断できる手助けができるよう、新しい方法を模索し続けます。
Facebookがこのテストを初公開したのは3月のこと。そのときから、第三者の目で真偽を問われる形で、間違った情報を載せたニュースがわざとFacebook上でハイライトされるようになりました。このテストの特徴は、ユーザーが投稿を拡散するのを防ぐことはない一方で、記事の信ぴょう性を疑う専門家の意見があることを明示しているということです。でも、「fake」というワードが入っていればどのコメントでも投稿のすぐ下に表示させるのを正とする仕様では、Facebookのプラットフォーム上で意味のなさない情報を排除していくという目的に本当に合っているのだろうか…という疑問が残るのも確か。
もちろん、当のFacebookはユーザーに対して小さいテストを積み重ねてきました。2014年7月には、約7万のユーザーに対して、ニュースフィード上に表示される感情的なコンテンツはポジティブな内容、ネガティブな内容かによって気分に影響を与えるのかどうかを確かめるために(実際に影響があるという結果に)大改修を行ないました。さらに、選挙への投票に影響を与えるかどうかを見るために、数年間プラットフォーム上に「I Voted」ボタンを設置したことも。そして2012年には、Facebookのデータサイエンスチームが友だちが共有しているリンクを隠すというテストを行ない、「ユーザーは似たような情報元と興味関心を持っているものなので、どのくらいの頻度でユーザーが同じリンクを拡散しているのかを測定するため」だったとTechnology Reviewがレポートしています。
「fake」のワードを含むコメントを上のほうに表示させることが、ユーザーがその投稿が事実に基づいた正確なものだという判断材料になるだろうと、科学的に実証できているのかどうかを知るのは難しいことです。ひょっとしたら、単純に全く別のソーシャル実験の一環で、どのタイプのコメントがユーザーに影響を与えるのかを見ているのかもしれません。答えを知りたいのであれば、Facebookにコメントを求める投稿をして、もし返信が来たそのときにはどんなコメントが最初に表示されるかを確かめてみる、ってのも手かもしれませんね。
Image: Paul Marotta/Getty Images News/ゲッティ イメージズ
Source: BBC, Twitter
Melanie Ehrenkranz - Gizmodo US[原文]
(hana)