フィルターバブルに関する調査とFacebook上でのブロック機能を利用した実験steemCreated with Sketch.

in japanese •  7 years ago  (edited)

Investigation on filter bubble and experiment using block function on Facebook.
This post is written in Japanese.

UPDATE(4/1): The English version has been separated into other page. The English translation version (using Google Translate) is posted after the Japanese version.

はじめに

インターネット上のサービスは、利用者の興味関心にあわせて情報を提示するようになっていることが多くなった。つまり、SNSでまったく同じ友達をフォローしていたとしても、表示される情報は利用者ごとに異なるということだ。

一方、利用者自身の興味関心となる情報のみに囲まれてしまうことで害をなす「フィルターバブル」の危険性が懸念されている。

ここでは、フィルターバブルとその関連情報について調べ、実際に Facebook 上でのフィルタを意図的に変更して使ってみた感想を報告する。

フィルターバブル

最近のインターネット上のサービスでは、パーソナライゼーションが普及している。

パーソナライゼーションとは、利用者の過去の行動に基き、それぞれの利用者が興味があると思われるコンテンツを個別に提示することである。

一見するとこれはとてもよいことである。利用者にとっては、興味のあるコンテンツが次々と提示され楽しめる。運営者にとっても、利用者がサービスをより利用してもらうことで、運営者のビジネスモデルを経由して収益があがるようになる。

しかし、このパーソナライゼーションには次の問題点がある。

  1. 自分にとって都合のよい情報のみを見ることになり、都合の悪い情報に触れることがなくなる(確証バイアス)
  2. 興味のあることにだけ深く接することになり、新しいアイデアや情報が入らなくなる

これらをフィルターバブルといい、人々に対する情報が偏ることで、社会全体に害をなす危険性があるとされている。

デジタルゲリマンダ

フィルターバブルのうち、ソーシャルネットワーク等の運営者が政治的目的で利用者の情報をフィルタすることで行動を操作することをデジタルゲリマリンダという。情報処理学会の学会誌にも最近特集がとりあげられ注目されている。

このデジタルゲリマリンダという言葉が生まれた背景にあるのが、Facebook 社の実験だ。

それは、2010年11月にあった米大統領中間選挙の日に行われた。
利用者の一部に今日が投票日であることを表示し、さらに一部には「投票した」ボタンとそのボタンを既に押した友達を表示した。
その結果、間接的にではあるがFacebook上の投票に関する情報により投票率が上がることが示唆された。

この結果は、将来的にある問題が発生することが危惧された。それは、SNSの運営会社がある政治的信条に合致する利用者にのみこのような施策をすると、その政治的信条に合致する候補者あるいは政党が当選しやすくなるということだ。

アヘンで人は幸福になれるか?

ここでひとつ興味深い記事を紹介する。

アヘンで人は幸福になれるか?

この記事では、人間は欲望と現実のギャップに悩むのだが、アヘンを吸うと欲望の器が小さくなり、些細なことで幸せを感じられるようになる。ではアヘンが無料で手に入るくらい無限にあったなら人々は幸福なのだろうか?という内容だ。たしかに誰も苦しまない幸せな社会になる。

パーソナライズによって、インターネットは無料で欲を満たせるようになり、まさにアヘンになりつつあるように感じる。しかし、これはよいことなのだろうか。

著者は、最後このように締めくくっている

「もうすぐ、私たち全員シアワセになれる。もうすぐ、誰一人例外なく。」

私もそう思う。特にインターネットや仮想空間、脳科学、宇宙といった領域が発展し、交わることによって、誰もが世界の主人公となり悩みのない幸福な一生を歩める日は近いのではないかと思っている。

ただし、その先には、悩みがあるから楽しいのだと考える者が子孫を残していくのではないかと考えている。これは人類の精神的アップデートなのかもしれない、なんていうと主語が大きいと怒らるのでこの話はこの辺でやめておこう。

私の Facebook 上での実験

前述のとおり、過度なパーソナライゼーションによって、フィルターバブルやデジタルゲリマンダといった問題が発生する危険性があることがわかった。また一方で、利用者にとって興味のある情報のみが掲示されることは幸福なことなのではないかという指摘をした。

そこでひとつ疑問にあがるのが、情報のフィルタによってどの程度、生活やサービスに対する印象が変わるのかという点だ。今回、Facebook 上で明示的に興味関心を変更することによって、どの程度情報の内容が変わるのかを体験したので報告する。

ブロック機能

ブロック機能とは、ソーシャルネットワーク上で友達関係を維持しつつも、特定の友達の投稿や更新を表示しない機能である。ブロックしたことは相手には通知されることはない。

私は、これまで一度もブロック機能を利用したことはなかった。自分にとって都合の悪い情報に蓋をするという行為にメリットがないと感じていたからだ。

しかし、今回、あえてこのブロック機能を利用することで、Facebook 内の情報が変化し、擬似的にフィルターバブルにつながる状態を作ることができるのではないかと考えた。

ちなみにFacebook には「30日間フォローを外す」という機能がある。これをするとその人の発言は30日間一切表示されなくなるのだ。これであれば30日間後に得られる情報が元に戻るので都合がよく、この機能を利用することにした。

これまでの私のFacebookの状況

実験の前に、これまでの私のFacebookの状況についてひとつ特筆すべき事項があるので述べておく。それは、いつの日からか Facebook がどうも僕の意見と合わない情報が多く表示されるようになっていた。

キレイゴトを抜きにいうと、Facebook に流れてくる情報には、賛同できない情報があると思う。こういう情報が多く表示されるようになったのだ。

なぜ自分の意見と異なる情報が増えてきたのか少し考えてみた。私の考えが世間一般とかけ離れているのか?と思ったこともあったが、他のSNSやリアルな社会で話をしているとそうでもないようだ。そこで、これは Facebook によるフィルタなのではないかと推測した。

私は、多様性を支持する考えがある。ひとつの現象に対する解釈は複数あってもよいし、正解はひとつではないと思う。よって、異なる意見を持つ人であってもどういう背景でそのような意見を言っているのか理解しようとしてきた。そのせいもあって、Facebook 上で賛同しかねることを発言している人はどういう経験と立場なのかを無意識ながら調べていたのだと思う。

この行動が、Facebook からみれば私は「自分の考えと合わない情報に興味がある」と解釈されたのではないだろうか。

すると、この条件に合う情報が流れるようになってきて、私が見るFacebookは自分とは反対の意見を持つ者の発言が多く表示される場となった、と考えると一連の現象のつじつまが合うように思う。

実験

次に、意図的にフィルタを行い、その結果について主観的に述べる。実験方法はシンプルだ。自分と意見の合わない人のフォローを30日間停止し、その変化について感想を述べる。

予めここで、ブロックされたかもしれない友人のために誤解のないように一言断っておきたい。たとえ意見があわなくとも人間性は否定するものではないし、今後もぜひ投稿を拝見させていただきたい。また、実験後はブロック機能は使うことはないと考えている。なぜなら私は、自分の考えと合わない情報に興味があるからだ。

さて、ブロックをしていると、自分の意見に合う情報のみが流れてくるようになる。そうすると、なんというか居心地がよく心が穏やかである。大袈裟かもしれないが、自己肯定感が高まり、これまで以上に社会に属している感覚でてくる。実際に、不愉快な人にはブロックが効果的 という報告もある。

次に驚いたことが Facebook を普段更新していないと思っていた人が意外と更新していることに気づいたことだ。新たな情報に触れる機会が増えたと感じた。

以上のことから、この実験を通じて、情報フィルタによる情報の偏りは、想像以上に身近なものなのだと感じた。また、ブロック機能を利用することによる精神衛生面でのメリットも感じられた。

今回は、利用者が意図的にフィルタをしたものであるが、これがサービス側の何らかの意図があるとすればゲリマリンダのような情報操作は容易にできるだろうとも思う。

対策

さて、このようななかでどのような対策ができるのだろうか。国においては、「自己決定権」の確立や法律による規制も検討しているとのことである。

また、個人的に興味深いと思っているのは、「非中央集権」というキーワードである。

フィルターバブルは、情報を恣意的に操作できる存在(= 管理者)がいることが原因である。よって、なるべくパーソナライゼーションされた情報ではなく、生に近い情報を得ることがよい。しかし、これには課題がある。

  1. 生の情報は、情報が多すぎて取捨選択ができない(情報爆発、情報氾濫)
  2. すべての情報を表示ができないサービスが増えてきた(Facebook や Twitter などは新着順で表示されないし、すべての情報を表示できなくなった)

そこで、特定の管理者がいないネットワーク、つまり本来のインターネットの仕組みである「分散」(非中央集権)が注目されつつある。

フィルターバブルとは直接関係はないが、近年話題の仮想通貨やブロックチェーンなどもその関係しており、非中央集権というワードは今後さらに注目されていくのではないだろうか。これは話が長くなるので、また次の機会としたい。

まとめ

インターネット上では、利用者の興味関心にあわせて情報を提示されることが多くなった。これは便利な反面、運営者によって情報を恣意的に取捨選択され、情報操作される可能性を持っている。

そこで、その情報がどの程度変わるものか、Facebook のブロック機能を利用して、あえて自分の興味関心を変更し、意図的に情報をフィルタした。その結果、主観的ではあるが実験前とは異なる種類の情報が多々流れるようになり、サービスに関する印象やサービス利用による心理的変化があることがわかった。また、もしサービス提供者がパーソナライゼーションと称してフィルタを実施することがあればゲリマリンダのような情報操作は容易にできることが示唆された。

このような課題への対策として、非中央集権なサービスが注目している。詳しくはまた次回。

最後に、これまでの調査をふまえて、もし子供がソーシャルネットワークに触れる年齢になったら次のように助言したい。

  • 自分のタイムラインは自分に興味のある情報に偏っていることを認識すること
  • 同じ現象であっても、表現によって印象は変わるので、できる限り一次情報をみること
  • 情報を取捨選択するための力を磨くこと(芯となる専門分野、哲学・思想を持つこと、相談できる人的ネットワークを築くこと)

参考文献

Authors get paid when people like you upvote their post.
If you enjoyed what you read here, create your account today and start earning FREE STEEM!