フィルターバブル

189269_R

フィルターバブル(filter bubble)

フィルターバブル(filter bubble)とは、推薦などの個人化技術の普及によって、利用者が分からない形で、利用者の関心がある話題の情報のみにしか接しないようになり、情報の偏りや情報の範囲の縮小が生じ、利用者が自身の作り出す被膜(バブル)の中に閉じ込められたような状態になっていることを表す言葉です。2011年にイーライ・パリザー(Eli pariser)が著した同名の本「The Filter Bubble: What the Internet is Hiding from You,Elyse Cheney Literary Associates.」で主張したものです。ちなみに日本語訳版は、「閉じこもるインターネット」という邦題で翌年に出版されています。2016年に文庫本が出版され、文庫本では「フィルターバブル」となっています。

イーライ・パリザーの主張

2011年のTED で、Pariserは自信のフィルターバブルの体験を紹介しています。一つは、彼のFacebookで、保守派よりリベラル派の友達のリンクをクリックすることが多いため、個人化の機能により、ある日保守派の人が消えてしまったという事例です。党派的には進歩派だが、保守派の人とも交流しているし、保守派の考えを聞いたり、何にリンクしているか見たり、何か学びたいと思っているのに本人に相談もなく削除され驚いたと言っています。
もう一つは、2人の友人にGoogleで「エジプト」と検索してもらったところ、政変という重大な事件があったにもかかわらず、一人の友人にはエジプトのデモ関連の記事が全くなく、もう一人の友人のページには政変のニュースばかりであったというものです。
そして、こうしたアルゴリズムによるウェブの編集はGoogleやFacebookだけでなくウェブ全体で起こっており、その結果インターネットは、私たちが見る必要があるかどうかでなく、私たちが見たいものを予測して見せており、何のカスタマイズもされていないものを見ることは難しくなっていると述べています。
このように、Pariserはフィルターバブルによって、利用者が多様な経験をする機会が減少し、さらに社会での情報共有が困難になり、合意形成が難しくなると主張しています。また、新しい考えに接する機会が減ることで、創造性やイノベーションへの影響や自分の信じたいことへの確証を一方的に強めていく「確証バイアス」の危険性を指摘さする論調もあります。

確証バイアス

確証バイアス(Confirmation Bias)とは、人間は自分の考えが正しいか否かを検証する際に、自分の考えを肯定する証拠ばかりを集めようとして、自分に都合の悪い証拠(反証情報)を無視してしまう無意識の作用です。自分の考えが正しいという前提で物事を考える傾向のこととも言えます。
例えば、血液型と性格の関係でよくB型の人はマイペースで自己中心的であると言われると、実際には人の性格はひとつに決定されるものではなく、通常は様々な特徴を含んでいるものなのですが、マイペースで自己中心的なところにばかり目が行き、B型の人はそういう性格なんだと思い込んでしまうような場合などが確証バイアスに当たります。

Facebookの反論

fFilter_bubble_002_R

Facebookは2015年6月の「サイエンス」オンライン版で「Exposure to ideologically diverse news and opinion on Facebook(フェイスブックにおけるイデオロギー的多様性のあるニュースとオピニオンへの接触)」という論文を発表しています。 2014年7月から2015年1月までの半年間、リベラル派と保守派のユーザーが、反対の立場のニュースに接する割合を「ランダムで表示されるニュース」「友達によるシェアで表示されるニュース」「Facebookのアルゴリズムによってフィードに表示されたニュース」「表示されたリンクに対してユーザーが自発的にクリックしたニュース」に分けで分析したものです。

下図がその結果をグラフにしたものです。
「ランダムで表示されるニュース」の場合、リベラル派は表示されるニュースのうち、45%が反対派のニュース、保守派は40%が反対派のニュースになっています。このグラフを見ると、自身の立場と違うニュースを選択する割合が、「Facebookのアルゴリズムによってフィードに表示されたニュース」のリベラル派22%、保守派33%よりも、「表示されたリンクに対してユーザーが自発的にクリックしたニュース」のリベラル派20%、保守派29%の方が絞りこめれています。
このことからFacebookは、立場の違うコンテンツへの接触は、「友達」選びと「自己判断」の影響が大きく、アルゴリズムがフィルターバブルの直接的な原因ではないと結論付けているようです。

fFilter_bubble_001_R(Exposure toideologicallydiverse newsand opinion on Facebook http://education.biu.ac.il/files/education/shared/science-2015-bakshy-1130-2.pdf より)

醜いアヒル子の定理

個人化技術によって提供される情報が偏るというフィルターバブル問題に対して、あらゆる観点に対して絶対的な中立的な選択は存在しないし、膨大な情報が溢れる中で全ての情報を網羅することはできず、フィルタリング技術は必須であると言われています。そこで、フィルターバブル問題などへの対処を考慮した情報中立推薦システムの研究もなされています。

この中立性というときよく引き合いに出されるのが「醜いアヒル子の定理(ugly duckling theorem)」(※1)です。分類対象のある特定の側面や特徴を全て同等に扱って分類したとき、醜いアヒルも普通のアヒルも類似度は同じであり、両者を見分けられないというものです。逆に言えば、人は主観や目的をもって対象の特定の側面やルールを重視するからこそ醜いアヒルの子を選び出すことができるわけで、絶対的な中立性というものは不可能だというわけです。

(※1)NRIの数理の窓(2016年6月号)に「醜いアヒルの子見分け方」という小文が掲載されています。数式を使わずに「醜いアヒルの子の定理」が分かりやすく説明されています。(http://fis.nri.co.jp/ja-JP/publication/kinyu_itf/backnumber/2016/06/201606_10.html 参照)

 

コメントを残す

メールアドレスが公開されることはありません。 * が付いている欄は必須項目です