経済学101は主に皆様の寄付によって賄われています。温かい支援をお待ちしています

アセモグル他「偽情報:戦略的シェア、類友、内生的エコーチャンバー」(2021年6月30日)

Daron Acemoğlu, Asuman Ozdaglar, James Siderius “Misinformation: Strategic sharing, homophily, and endogenous echo chambersVOXEU, 30 June 2021

偽情報(misinformation)はソーシャルメディアプラットフォームで急速に広がる。本稿では、オンラインにおけるコンテンツシェアのモデルを用い、コンテンツへのエンゲージメントを最大化したいと考えるソーシャルメディアプラットフォームは極端な記事を最も極端な利用者たちに広めることを示す。「フィルターバブル」は極端な考えを持つ人たち以外にそうしたコンテンツが広がることを妨げ、偽情報がぐるぐると流れるエコーチャンバーを作り出す。検閲とそれによるエンゲージメントの喪失の脅威によってプラットフォームが自らファクトチェックを行うよう圧力をかけることができる一方、彼らのアルゴリズムに対する規制もフィルターバブルによる効果を軽減することができる。


「バージニア州が高校の高等数学コースを廃止しようとしている」「ドナルド・トランプはマイク・ペンスを告発しようとした」「バイデン大統領は全アメリカ人に赤身肉の摂取を禁止する法律を通そうとしている」

こうしたヘッドラインは過去数か月にソーシャルメディアに流れた多くのもののうちの一部だ。いずれの記事も偽情報、すなわちミスリーディングな情報や主張で多くの場合一般の人たち(の一部分)に影響を及ぼすことを目論んでいるもの、を含んでいることが分かっている。偽情報を含む記事は最も伝播が速いコンテンツの一つで、「情報のあらゆるカテゴリにおいて、嘘は真実よりもずっと遠く、速く、深く、広く拡散する」のだ(Vosoughi et al. 2018)。ソーシャルメディア上で広められた偽情報が有権者をさらに分極化させ、民主的な議論を損なうとの懸念が高まっている。

なぜ偽情報は広まるのか

ソーシャルメディア上で偽情報が急速に拡散するのはなぜだろうか。ソーシャルメディアプラットフォームのアルゴリズムはそうした流れの中でどのような役割を果たしているだろうか。最近の研究(Acemoglu et al. 2021)において、私たちはこうした問題に取り組んでいる。

Pennycook et al. (2021)が実証的に示したとおり、ソーシャルメディア利用者は正確なオンラインコンテンツをシェアするよう気にかけている。偽情報をシェアし、それによって炎上することは、その利用者が無責任だったり無分別であるとの評判を生み、自身のソーシャルメディアでの地位を低くしかねない(Altay et al. 2020を参照)。それと同時に、オンライン利用者はいいねやリツイートといった形の社会的承認、ないし「仲間からの励まし」に価値を得ている(Eckles et al. 2016を参照)。

こうした選択をモデルで表現するにあたり、私たちは、記事をシェアするか、黙殺する(一切シェアしない)か、それが偽情報を含んでいないか調査(ファクトチェック)するかを利用者が決定できるようにした。シェアは直接的な便益をもたらすが、その記事が偽情報を含んでいることがそれを読んだ誰かによって暴かれると費用をもたらす。この選択のトレードオフに際し、利用者はふたつのことを考える必要がある。ひとつはその記事が偽情報を含む可能性が高いかどうかだ。利用者には事前の信念/イデオロギーがあるため、記事の真実性についてはその中身と自身の考えとの距離に基づいて評価し、イデオロギー的に自身の見解に沿った記事はシェアする可能性が高い。もうひとつは、シェアされた記事を利用者の界隈にいる受取り手がどのようにみなすかというものだ。これは利用者のフォロワーがファクトチェックを自分たちで行うかどうかに特に依存しており、それは翻って利用者の交流範囲が「類友(類は友を呼ぶ)」のレベル、つまり利用者の界隈が利用者と同じ考えを共有しているかどうかに依存する。ここで戦略的な計算が重要となることは明らかだ。受取り手がファクトチェックを行うと利用者が予想する場合、偽情報が発見される可能性が高く、それによって利用者がまずファクトチェックを行うよう促される。私たちの論文では、こうした戦略的考慮とそれが偽情報の拡散にどのように影響するかを検討している。

ある利用者のシェアネットワーク、そしてその中の類友レベルは、利用者のソーシャルネットワークとそのプラットフォームのおすすめアルゴリズムによって決定される。驚きはないと思うが、ソーシャルメディアの利用者は似たようなイデオロギー信念を持つ利用者にエンゲージ(「フォロー」や「友だち」など)する傾向にある(Bakshy et al. 2015)。別の言い方をすれば、保守はほかの保守と交流し、リベラルはほかのリベラルと交流する傾向にある。それによって類友レベルの高い外生的「エコーチャンバー」を形成し、それによって利用者たちは互いに意見が同調する他の利用者と関連付けられる。ソーシャルメディアプラットフォームのアルゴリズムは、似たような信念を持つ利用者たちを結び付け、反対の信念を持つ人たちを結び付けないことでこの類友を強化する。これによって内生的エコーチャンバー(あるいは「フィルターバブル」)が生み出される。

主な発見

私たちによる主な発見のひとつは、偽情報の拡散におけるエコーチャンバーの役割だ。エコーチャンバーと類友レベルが限定的な場合には、偽情報はそれほど遠くまでは届かない。ひとつのオンラインコンテンツは、それに同意せず、ファクトチェックを行って偽情報が含まれる場合にはそれを明らかにする利用者の下に届くまで流れる。このファクトチェックによって、ほかの利用者も記事をシェアする前に自身で調べるように訓練される。それと対照的に、類友レベルが高く、大規模な外生的ないし内生的エコーチャンバーが存在する場合、似たような信念を持つ利用者たちが強く関連付けられ、そしてそれが認識されることで、ファクトチェックは著しく少なくなる。その結果、偽情報が急速に拡散する。

私たちの分析によるもうひとつの主要な結論は、偽情報の伝播におけるプラットフォームの役割だ。クリックやサイト上でのシェアという形でのユーザーのエンゲージメントを最大化したいと考えるプラットフォームにとって、エコーチャンバーには大きな利点となりうる。あるコンテンツに同意を示す可能性が最も高い人たちに対して、プラットフォームがそのコンテンツをおすすめする場合、コンテンツは好意的に置けとめられる可能性が高まり、ファクトチェックを受けて(偽情報が含まれる場合に)無視される可能性を低め、エンゲージメントを増大させる。このエンゲージメント効果によって、Levy (2020)がFacebookについて確認したように、内生的エコーチャンバーがもたらされうる。

事実、極端なコンテンツが記事に含まれる場合にエコーチャンバーと偽情報の急速な拡散の可能性が高まることを私たちの研究結果は示している。結婚式の写真や料理動画といった政治色を帯びないコンテンツの場合、プラットフォームにはフィルターバブルを作る強いインセンティブはなく、自ら記事の真実性の調査や偽情報の削除を行うことすらある。プラットフォーム利用者が穏健なイデオロギー的信念を持っている場合も同じことだ。穏健なコンテンツの場合や穏健なイデオロギーの利用者の間での場合には、急速な拡散が起きることはあまり見込まれない。それとは対照的に、政治的に意見の割れるコンテンツやコミュニティ内の信念が強く分極化している場合、エンゲージメントを最大化するためにエコーチャンバーを作り出すことが有益であるとプラットフォームが考えるだけでなく、プラットフォームは記事の真実性を調べることなしにエコーチャンバーを作り出す。すなわち、プラットフォームの最適アルゴリズムは、最も極端な利用者たちに合った極端なコンテンツをおすすめしつつ、そうした利用者たちの集団の外にコンテンツが拡散することを防ぐためにフィルターバブルを採用するものになるのだ。プラットフォームにとっては有益であっても、こうした政治色を帯びたコンテンツに関する内生的エコーチャンバーは、偽情報の急速な拡散をもたらす。

規制は有用だ

内生的エコーチャンバーの効果を軽減するのには規制が有用だ。私たちの研究では効果があると思われる3種類の政策を示している。すなわち、記事のソース、検閲、アルゴリズム規制だ。まず、記事のソースについて透明性を高めることをプラットフォームに義務付ければ、それによって利用者たちが由来のあやしいコンテンツのファクトチェックを行うよう促すことになる。しかし、そうした政策は「暗黙の真実」効果によって逆効果になりうることも発見した。というのは、よく知られたソースによるコンテンツは(訳注;ソース元が○○なら大丈夫だろうと信頼してしまうことで)ファクトチェックの量を最適な水準よりも引き下げてしまうことがあるのだ。次に、極端な内容を含んだり偽情報を含む可能性のある少数の記事について検閲を行うと規制当局が脅すことで、プラットフォームはより責任ある行動をとるようにインセンティブ付けられる。特に、検閲とそれによるエンゲージメントの喪失の脅しは、類友レベルを下げ、検閲がなかったであればフィルターバブルを形成しただろう事例のファクトチェックを自主的に行うようにプラットフォームを仕向けるのに十分なものとなる。最後に、プラットフォームのアルゴリズムを直接規制する政策によってフィルターバブルの影響を軽減することができる。シェアネットワークにおけるエコーチャンバーを制限し、様々なイデオロギーのコンテンツをすべての利用者に提示するイデオロギー切り離し基準によって、責任あるプラットフォームアルゴリズムと利用者自身によるファクトチェックの両方をもたらすことができる。

参考文献

●Acemoglu, D, A Ozdaglar and J Siderius (2021), “Misinformation: Strategic Sharing, Homophily, and Endogenous Echo Chambers”, NBER Working Paper 28884.

●Altay, S, A-S Hacquin and H Mercier (2020), “Why do so few people share fake news? It hurts their reputation”, New Media & Society, 24 November.

●Bakshy, E, S Messing and L A Adamic (2015), “Exposure to ideologically diverse news and opinion on Facebook”, Science, 348: 1130–1132.

●Eckles, D, R F Kizilcec and E Bakshy (2016), “Estimating peer effects in networks with peer encouragement designs”, Proceedings of the National Academy of Sciences, 113: 7316–7322.

●Levy, R (2020), “Social Media, News Consumption, and Polarization: Evidence from a Field Experiment”, SSRN Scholarly Paper ID 3653388.

●Pennycook, G, Z Epstein, M Mosleh, A A Arechar, D Eckles and D Rand (2021), “Shifting attention to accuracy can reduce misinformation online”, Nature, 592: 590-595.

●Vosoughi, S, D Roy and S Aral (2018), “The spread of true and false news online”, Science, 359: 1146–1151.


コメントを残す

このサイトはスパムを低減するために Akismet を使っています。コメントデータの処理方法の詳細はこちらをご覧ください