[Most contents are written in Japanese Language] [Always under construction]

[チラシの裏]

笹原和俊(2018)『フェイクニュースを科学する --拡散するデマ、陰謀論、プロパガンダのしくみ』

著 笹原和俊
年 2018
表題 フェイクニュースを科学する --拡散するデマ、陰謀論、プロパガンダのしくみ
発行 化学同人 DOJIN選書079




[Table of Contents]

(感想、つぶやき)

自分用のメモということで、本書のどのへんに、 だいたいどんなことが 書かれてたかという切抜・覚書です (概要をまとめて よく見えるところに出しておかないと、 読んだ内容も、これを読んだことさえ 肝心なときに(あるのか? そんな時‥) 思い出さないことがありますので‥)。 ついでに簡単なコメントをつけてることも ありますが、 メモなのでコメントは非常に簡単なものに留めてます。 (コメントは随時追加していきます)


  • DOJIN選書版を読みましたので、ページ番号はそちら準拠です。文庫版とページ番号は合ってません、たぶん。
  • 2018年出版の本なので、トピックが2018年の段階までのものしかないんですけど。 4年たっても状況は変わってない‥というか、 反コロナワクチンの話とかQAnonの話とかを耳にすると状況は ますます悪化というか一般化というか大衆化というかしてる感じはありますね。(2023/3)
  • 教科書的な感じです。最近のトピックが整理されて体系的に語られている感じなので、 頭の中が整理されるようで非常に良かったです。勉強になりました。
  • エコーチェンバーの影響で社会的ネットワークが2つに分離したという pp.92-93 (口絵2,3) のところは 口絵を見てつい「おおっ。2個なのか! 2分されるのか!!」と声を出してしまいました:D (3分割でも4分割でもなく どれも2分割になってる!! という驚き)
  • 「集団極性化」と関連した言葉で「サイバーカスケード」という言葉もあります。これは法学系の先生による説なので、ちょっとジャンルが違う感じなんでしょか。
  • 最後のほうの「処方箋」がちょっと‥かなり弱いなー、とは思いましたが、そこがしっかりしてたらつまり 問題は解決してるはずですからね。そこは仕方ないか‥
[Table of Contents]

フェイクニュースとは何か

フェイクニュースは単なるニュースだけの問題ではなく、情報生態系の全体に関わるもの (クレア・ウォードル)(p.15)。 虚偽情報の種類と動機→7種類 (1)風刺・パロディ (2)誤った関連付け (3)ミスリーディングな内容 (4)偽の文脈 (5)偽装された内容 (6)操作された内容 (7)捏造された内容 (後ほど騙そうとする意図が大きい)(p.16)。虚偽情報の拡散はSNS(Facebook, Twitter など)という拡散装置(p.19)。

SNS経由のフェイクニュースの歴史。やはり2016年のアメリカ大統領選挙からか(p.24)。 「ローマ法王がトランプ支持」「クリントンを捜査中のFBI捜査官が死亡」などの パロディ記事がSNSで大拡散、トランプ支持者が案外とそれを信じた(p.27)。 2016ピザゲート事件。ワシントンDCが児童売春の拠点になっててそれにクリントンが 関与したというフェイクニュースを信じた男の発砲事件(p.28)。デマの情報源の中には マケドニアの若者が広告収入目当てに作ったサイトもあったが(p.29)、のちに 弁護士やアメリカ人も(政治的な意図で?)介入していたことも判明。いずれにせよ マケドニアの若者が小遣い稼ぎ目的で作ったサイトが、トランプ大統領誕生の契機の 一つになるなんて本人たちも予想しなかっただろう(p.30)。同じような偽ニュース、 あるいはサイバー攻撃による選挙介入はロシアのIRAという世論操作を目的とした 政府系組織も(p.31)→ロシアゲート。偽ニュース拡散にはSNSがよく使われるが、 これについてFacebookは当初「フェイスブックはプラットフォームにすぎず、 メディアではない。だからコンテンツにまで責任を負う必要はない」(p.33)だったが、 Facebook利用者の個人情報流出事件があって株価暴落。(p.36)

陰謀論と科学ニュースについて、それぞれの拡散を比較した研究。 科学ニュースは発信者が明確で、コンテンツも科学的に検証済のもの。 陰謀論は発信者が不明で、コンテンツには不確定要素が多いもの(p.39)。 2010〜2014のFacebookを用いた調査によると、両者は (1)科学ニュースを読む人は陰謀論を読まない。逆も同様。なので同じ集団内で情報は拡散する。 (2)コンテンツ公開から2時間後あたりが情報拡散のピーク。その後拡散は沈静化。 ‥これらの点で共通するが、拡散の規模に違いが。科学ニュースは拡散のピーク後は 割とすぐ沈静化したのに対し、陰謀論は情報拡散のピーク後も持続して拡散。陰謀論は 拡散しやすい。

これらの結果は、情報拡散は自分の考えや価値観に一致する情報の 場合に起こりやすいこ とや、反証する情報は拡散しないということを示しています。したがって、デマや陰謀論を なくすためには、それを信じる人々に科学的根拠を提示すればよいという単純な話ではない のです (p.40)
他の研究。偽ニュースは (1)時間とともに不自然な増減を繰り返すギザギザした拡散の仕方を するが、これは偽ニュースの発信者が所定の目的を達成するため人為的に投稿・共有するから? (p.42)。 (2)少数の人が大量に拡散する傾向、(3)「〇〇で聞いたけど」のような責任回避のあやふやな表現‥などの特徴。これらは情報の真偽を後から調査するための手がかりになるかもしれないが、 リアルタイムではちょっと無理(p.44)。 他の研究(2006〜2017)。誤情報はリツイートされやすく(連鎖数、人数、枝分かれ数ともに)、また6〜20倍速い。 誤情報のジャンルは政治(これが圧倒的)、都市伝説、ビジネス、テロ戦争‥の順に多い(p.46)。 誤情報は「驚き」「恐れ」「嫌悪」などの感情との関連が強く、 情報共有を求める傾向が強くなるのが理由か。

[Table of Contents]

見たいものだけ見る私たち

「認知バイアス(Cognitive Bias)」‥直感や先入観に基づいて注目すべき情報を限定し、過去にうまくいった 行動パターンを選択する→脳の情報処理の負荷を軽減→大抵うまくいく(p.52)。 認知バイアスを大雑把に分類 (1)情報過多:多すぎる情報への対処:自分に都合のよい情報しか見ない虞 (2)意味不明:データに意味を付与:情報を過度に単純化の虞(p.53) (3)時間不足:迅速に判断行動:短絡的・非合理的な反応の虞 (4)記憶容量不足:重要な情報を優先的に記憶:記憶を改変・過度の一般化の虞。 [関連情報]

(1)情報過多関係。 「確証バイアス(Confirmation Bias)」‥自分の意見・価値観に一致する情報ばかりを集め、他を無視する傾向。(p.54) 同じものを見ても、印象は人・立場ごとに案外違う。 「バックファイアー効果(Backfire Effect)」‥自分の世界観に合わない情報に対したとき、逆に自分の世界観に さらに固執する現象(p.56)。

偽ニュースを信じるのは誤解や知識不足のせいなので、真実を伝えれば問題が解決すると 思われがちです。しかし、これらの実験結果は、何かを深く信じる人々に対してその根拠と なる事実を提示することは、かえって逆効果になる可能性があることを示しています。(p.57)
「認知的不協和(Cognitive Dissonance)」‥自分の信念と矛盾する事実に出会ったときに不快感→この解決に 事実に対する認識を捻じ曲げてしまう→バックファイアー効果に結びつく(p.57)。

(2)意味不明関係。 「利用可能性ヒューリスティック(Availability Heuristic)」‥何度も見聞きする情報を正しいと認識する傾向。 「いいね」、リツイートの数が大きいと信じてしまいやすくなる傾向。 「バンドワゴン効果(Bandwagon Effect)」‥「みんなが選ぶものがいいもの」(p.58)→みんなが選んだものをみんなが選びがち。 「同調圧力(Peer Pressure)」‥少数派が暗黙のうちに(強制されずとも)多数派の意見に迎合する傾向→意見が偏る「集団極性化(Group Polarization)」へ至ることも(p.60)

「社会的影響(Social Influence)」‥周囲の人たちからの影響。自分と似た人たちから強く影響を受ける(p.64)。 ヒットチャートがあると(曲の良し悪しとは関係なく)そこにある曲ばかり注目され、他は無視されるという実験結果(p.66)。 「情動感染(Emotion Contagion)」‥これにより集団生活を円滑にできる。これはネットでも起こり、 ポジティブ・感動的・実用的なコンテンツは共有されやすく(p.68)、「怒り」の情報は伝播力が強い(次点は「喜び」)。 ポジティブな情報を目にする機会が減ると、ネガティブな投稿が増える実験結果(p.70)。 道徳感と関連した感情も伝播しやすいが、同じイデオロギーを持つ(共感しやすい?)人の中だけに止まる(p.72)。 「同類性(Homophily)」は友を呼ぶ(p.73)。高BMIは高BMIとつながりやすい調査結果(!)(p.74)。 同類性の高い人ほど社会的影響を受けやすい調査結果(p.75)。すなわち偽ニュースが伝わりやすい社会的ネットワークは 私たちが自分から作っているということ(p.76)。

噂研究の古典オルポート・ポストマン『デマの心理学』で紹介される「噂の公式」:

噂の流布量=話題の重要さ×状況の曖昧さ (p.78)
「状況の曖昧さ」がゼロのとき噂は拡散しない。2011東日本大震災のときに拡散したデマ訂正ツイートは、 デマツイートの半分程度の拡散がせいぜい(p.79)。

[Table of Contents]

見たいものしか見えない情報環境

「エコーチェンバー(Echo Chamber)」‥SNS時代になって大問題化。 自分と似た興味関心をもつ人ばかりフォロー、同じような情報ばかり流通する閉じた情報環境になりがち(p.82) →「利用可能性ヒューリスティック」「同調圧力」などにかかりやすい。 自分たち以外の意見・情報が排除され入ってこない→意見の対立・社会分断を生みやすい(p.83)。 政治系ブログは自分と同じ立場の記事しか引用しておらず、2つのグループに分断しているとの2004年の調査結果。 2010,2016年も同様の結果(p.85)。 「推移的トライアド(Transitive Triad)」‥同類グループの中に、一つの情報が複数の経路で届く (A→C、A→B→C)「チェンバー(Chamber)」が大量にできてしまう。確証バイアス・社会的影響・アンフォローが 全部揃うと社会全体の分極化・社会ネットワーク分断が起こるとの実験結果(しかも口絵2,3を見ると二極化)(p.92)。 現実社会ではアンフォロー「友達をやめる」ことは簡単にできないのでネットほどは分断しないのでは? (p.93) SNSの仕組と、人がもつ「確証バイアス」と「社会的影響」の相互作用により、 エコーチェンバーという虚偽拡散装置が自然かつ高速にできあがる(p.94)。

「フィルターバブル(Filter Bubble)」‥ユーザの個人情報を学習したアルゴリズム (「パーソナライゼーション(personalization)」)によって、 その人が興味関心をもちそうな情報ばかりやってくる情報環境。→自分と関係なさげな情報を自動で除去→ 自分と異なる意見や価値観が隠され、みんなが共通の現実を持てなくなる(p.99)。 また個々の情報を見せる・隠す根拠が誰にもよくわからないという問題(p.100)。 パーソナライゼーションは2009.12.4のGoogleが起源か(p.101)。 Facebookの「いいね」データだけからでもある程度の個人情報の推定が可能(男女、人種、LGBTか、政治傾向、宗教、薬物など)(p.104)。「いいね」10個で同僚、60〜70個で友人、100〜150個で家族、250〜300個で配偶者と同程度の推定(p.106)。 Tweetの分析でも性格などが予測可能(p.109)。SNS運営側からするとフィルターバブルはアルゴリズムのせいではなく、 あなたの友人たちの行動の結果である、と(p.111)。また敢えてユーザと違う価値観のニュースも表示する試みも(p.113)。

[Table of Contents]

無限の情報、有限の認知

「情報オーバーロード(Information Overload)」=「情報洪水」‥情報過多によって人間が認知的に処理できる許容量を超過し、物事を正しく判断して適切な意思決定が困難になること(p.119)。2016年段階でアメリカ成人の27%が感じている。 これがフィルターバブル、認知バイアス、エコーチェンバーなどの問題を生んでいて、偽ニュースが流行しやすい背景(p.120)。 情報の質そのものよりクリック数・シェア数などの広告収入に直結するものを重視する傾向もある(p.121)。 プラットフォーム側も不正アカウント削除(7億件!)など対策するが、あまり効果なし(p.122)。 ボット(Bot; Software Robot)の存在も厄介。2017の調査では、インターネットのトラフィックの42%がボットによるもので、うち22%が悪意をもったボットからのもの。すでにAIボットはチューリングテスト(Turing Test)を合格するレベルで機械とは判別不能(p.126)。2016年アメリカ大統領選ですでにトランプ支持ツイートの23%、クリントン支持ツイートの14%が 自動投稿で、自動投稿ツイートは人によるツイートと同程度リツイートされていた。他にイギリスのEU離脱(p.128)、ワクチン陰謀論などでソーシャルボットが使われていた(p.129)。

「深層学習(Deep Learning)」‥2012年にGoogle Xラボによる所謂「キャット・ペーパー」が契機となってその後主流となったAI技術の一つ。最近ではディープフェイク(Deepfake)と呼ばれる偽動画・偽画像の作成にも使われる。とくに偽ポルノが問題(p.131)。

「アテンション・エコノミー(注意の経済; Attention Economy)」‥情報洪水の中にいる我々は、ついついいろいろ気が散ってしまい集中できなくなっている(注意力を失っている)。情報過多世界では人間のアテンションこそが希少資源でありお金にかわって流通するという考え方(p.135)。→つまり情報は内容よりも「注目されるかどうか」が重要で、 嘘でもデマでも構わないということ。これは情報過多の負の側面で、偽ニュース拡散の一因(p.136)。 偽ニュースをアテンションを奪い合うミーム(meme)と仮定し、その生態を調査した結果、ミームは「裾の重い分布 (ヘビーテール分布)」、ほとんどのミームはすぐ消滅するが、ごく一部が桁外れに長寿命となる分布(p.140)。 またシミュレーションによって「注意の有限性」がヘビーテール分布を作ること(p.142)、 情報過多になるほどミーム(情報)の品質と共有される度合いの相関がなくなること(p.144)が確認された。 つまりインターネット上に出回っている偽ニュースは、たまたま目についたニュースが共有され、 内容の良し悪しとは関係なく拡散したものが結構あるということ(p.145)。

[Table of Contents]

フェイクニュースの処方箋

「メディアリテラシー(Media Literacy)」‥新聞やテレビやインターネットなどのメディアから得られる情報の読解力(p.148)

「ファクトチェック(Fact checking)」‥発信された情報が客観的事実に基づくものかを調査、情報の正確さを評価・公表(p.158)。ファクトチェックの自動化の動き(p.165)

法による規制。ネットワーク執行法(ドイツ)(p.171)、GDPR(EU)(p.172)など。ただこれは検閲との線引きが難しい(p.173)

[Table of Contents]

情報生態系の未来


関連(?)情報

[Total pages] [Prev][Next]