Wikipedia、記事の評価に人工知能を導入

Wikipedia、記事の評価に人工知能を導入 1

毎日50万件のレビュー作業を効率化。

Wikipediaを見ていると、ときどき「この記事には複数の問題があります」「要出典」みたいな注意書きが出てきますよね。あれって人手で記事をチェックしたうえで書かれているのですが、Wikipediaへの加筆修正は毎日約50万件もあるそうなんです。しかもWikipediaへの書き込みはどんな人でも可能なので、先日はWikipediaのあるミュージシャンの記事に加筆してそのミュージシャンの家族になりすます、なんて事案も発生しました。Wikipediaの中の人たちは、そんな完全なウソとか広告目的の記述、政治・宗教などがからんだ編集合戦、事実誤認や誤字脱字、そしてまっとうな事実の追記も含めて、玉石混交の編集行為を日々大量にチェックしていく必要があるんです。

そこで、膨大な作業に優先順位を付けるために人工知能を使った仕組みが新たに導入されました。「Objective Revision Evaluation Service(ORES)」(直訳:客観的修正評価サービス)なるそのシステムを使うと、Wikipediaの修正箇所の中で、どれがどのくらい問題がありそうか、つまり早くチェックしたほうがよさそうかがわかるんです。

仕組みはこうです。ORESの中には、機械学習によってできた「どんな加筆修正が有害/誠実そうか」のモデルがあります。そのモデルは、Wikipediaの中の人が、ランダムに抽出した加筆修正箇所を評価したデータに基づいています。なので、評価したい編集部分をORESに入力すると、どれくらい有害そうか、誠実そうかというスコアが出てくるんです。チェック作業をする人は、問題のありそうな部分から順に見ていけば、たとえば「僕がミュージシャンの家族です」みたいな加筆に対してすぐ疑問符を付けられるというわけです。

Wikimedia財団のブログでは「これによってエディターは、新たな編集箇所の洪水の中から問題のありそうな部分を取り出し、そこにより強い注意をもってレビューすることができる」と言っています。我々ユーザー側から見れば、このシステムによって中の人の負担が軽くなって作業が効率化されれば、Wikipediaの信頼性がより高まり、より安心して使えることが期待できます。

実はWikipediaでは、従来から人工知能を使った同様のツールを使ってはいました。ただ今までのものでは、新規にエディターになった人が加筆した場合の信頼度を自動的に低く判定していて、新しい人のやる気をそいでいました。新しいシステムではエディターの属性ではなく、編集内容のみに着目することでこの問題を解決しようとしています。

いつも当たり前のもののように使っているWikipediaですが、裏側には膨大な作業と、それをする人たちのスキルや知識や時間やモチベーション、それらを支える仕組みなどがあって成り立っているんですよね。Wikipediaの中の皆様、いつもありがとうございます。

source: Wikimedia Blog via BBC News

(miho)