eternal-studentのブログ

様々な便利なWebツールや知的に面白いコンテンツを共有しています。

「説得不能」な人々:なぜ事実は人の心を変えられないのか、そして私たちに何ができるのか

「説得不能」な人々:なぜ事実は人の心を変えられないのか、そして私たちに何ができるのか

はじめに:事実が通用しない世界へのいらだち

友人や家族との会話で、どれだけ論理的に説明し、明白な証拠を提示しても、相手が頑なに考えを変えなかった経験はないだろうか。議論が平行線をたどった末、相手の口から飛び出すのは「それは捏造だ」「巨大な陰謀の一部だ」といった言葉。こちらの理屈や証拠は、相手の信念の前では無力と化し、深い徒労感と断絶だけが残る。

このような現象は、単なる意見の相違ではない。陰謀論の信奉、カルト宗教への傾倒、そして時にはテロリズムへとつながり、社会の安定を揺るがす深刻な問題の根源となっている [1]。これは一部の「変わった人々」の問題なのだろうか。あるいは、知性の欠如や性格の歪みが原因なのだろうか。

本稿では、この根深い問題の核心に迫る。最新の心理学と神経科学の知見を駆使し、なぜ一部の人々が自らの直感や信念を、反証する事実の前にさえ守り通そうとするのか、その心のメカニズムと脳の働きを徹底的に解き明かす。これは、彼らを断罪するためではない。むしろ、この現象が、かつては生存に不可欠だった人間の認知システムの自然な産物であることを理解するためである [2, 3]。

本稿の旅は4つのパートで構成される。まず第1部では、私たちの心に組み込まれた、信念を守るための「心理的な城壁」の設計図を明らかにする。第2部では、その城壁を支える脳内の生物学的基盤、つまり神経回路と化学物質の働きに迫る。第3部では、現代社会、特にテクノロジーが、いかにしてこれらの生来の傾向を増幅させ、社会的な分断を加速させているかを探る。そして最後に、第4部では、この「事実が通用しない」世界において、個人として、そして社会として、私たちに何ができるのか、具体的な、証拠に基づいた処方箋を提示する。この探求を通じて、私たちは単なるいらだちを超え、理解に基づいた戦略的な行動への道を切り開くことができるだろう。

第1部 心の城壁:頑なな信念を支える心理的構造

私たちの心が、客観的な真実を探求する精密機械ではなく、既存の信念を断固として守り抜く要塞のように機能することがある。このセクションでは、その要塞を構成する心理的な「ソフトウェア」を解き明かす。なぜ私たちは心地よい情報に惹かれ、耳の痛い真実から目を背けるのか。その背後には、効率性を追求する脳の巧みな、しかし時には危険なショートカットが存在する。

1.1 確証バイアス:脳の偏った検索エンジン

私たちの思考の根底には、確証バイアス(Confirmation Bias)と呼ばれる強力な認知バイアスが存在する。これは、自分がすでに持っている信念や仮説を支持する情報ばかりを無意識に探し、解釈し、記憶する一方で、それに反する情報を無視、軽視、あるいは排除してしまう傾向のことである [4, 5]。これは意思決定における非合理性の一因として、ダニエル・カーネマンらの研究でも広く知られている [4]。脳は、複雑で情報過多な世界を効率的に処理するために、精神的な近道(ヒューリスティック)を用いるが、確証バイアスはその代表例である [2, 5]。

このバイアスは、多段階のプロセスを通じて私たちの認識を形成し、強化していく [5]。

  1. 選択的接触(Selective Exposure):最初の段階は、自らの信念を裏付ける情報を積極的に探し求める行動である。例えば、ある特定の政治家を支持する人は、その政治家を称賛するニュースサイトやSNSアカウントを好んでフォローし、批判的な報道からは意図的に距離を置く傾向がある [5, 6]。
  2. 偏った解釈(Biased Interpretation):次に、情報に接した際に、たとえその情報が中立的、あるいは曖昧であっても、自分の信念に合致するように解釈する。スポーツの試合で審判が微妙な判定を下した時、自チームのファンは「不公平な判定だ」と憤慨する一方で、相手チームのファンは「妥当な判定だ」と受け取ることが多いのはこのためである [5]。
  3. 選択的想起(Selective Recall):最後に、時間が経つにつれて、自分の信念を支持する事実や経験は鮮明に記憶し、反する情報は忘れたり、歪めて記憶したりする。政治討論会を見た後、支持者は自分の応援する候補者が力強く見えた瞬間を思い出し、失言や弱点は軽視するか、記憶から消し去ってしまう [5]。

この確証バイアスに、より積極的な動機が加わったものが動機づけられた推論(Motivated Reasoning)である [7, 8]。これは単なる情報のフィルタリングではなく、自分の感情的に望ましい結論(例えば、自分の所属する集団の正当性を守る)に到達するために、推論能力そのものを駆使するプロセスである [7]。私たちは、真実を見つけるためではなく、自分の信じたいことを正当化するために「理屈」を使うのだ。

ここで、多くの人が抱くであろう疑問に直面する。「このような非合理的な思考は、知性が低い人々の問題ではないのか?」と。しかし、研究が示す現実はその逆である。知的能力や専門知識の高さは、これらのバイアスからの免疫を保証しない。むしろ、それを悪化させることさえある。イェール大学のダン・カハンらの研究によれば、科学リテラシーや数的処理能力が高い人々ほど、気候変動や銃規制といった政治的に対立する問題において、意見の二極化が激しいことが示されている [9]。なぜなら、知的能力が高い人々は、自分の立場を擁護するための巧妙な反論を構築し、相手の議論の(本質的でない)欠点を見つけ出し、自説に都合の良いデータをより洗練された形で解釈する能力に長けているからである [10]。問題は、推論能力の欠如ではない。問題は、その卓越した推論能力が、真実の探求ではなく、信念の防衛という目的に「動機づけられて」いる点にあるのだ。

1.2 矛盾の痛み:認知的不協和というエンジン

1957年、心理学者レオン・フェスティンガーは、人間の行動を理解する上で画期的な認知的不協和理論(Cognitive Dissonance Theory)を提唱した [11]。この理論によれば、人は自分の中に矛盾する二つの認知(考え、信念、態度)を抱えたり、自分の信念と矛盾する行動をとったりした際に、強い心理的ストレス、つまり「不協和」を感じる [12, 13]。

この不快な状態は、私たちにそれを解消しようとする強い動機を与える [14]。例えば、「タバコは健康に悪い」という認知と「タバコを吸う」という行動が矛盾すると、不協和が生じる。この不快感を解消するためには、いくつかの道がある。最も合理的なのは行動を変えること、つまり禁煙することだ。しかし、多くの場合、行動を変えることは難しい。そこで人は、より簡単な道、すなわち「認知」の方を歪めることを選ぶ [12, 15]。

  • 「ストレスを溜める方がよっぽど健康に悪い」と新しい理由を追加する(認知の追加)[15]。
  • 「タバコを吸っても長生きする人はいる」と、健康への害を過小評価する(認知の変更)[12]。
  • 「この一本を吸ったら、明日から禁煙しよう」と、矛盾を先延ばしにする [12]。

これらの「自己正当化」や「つじつま合わせ」は、日常生活の至る所で見られる。高価なバッグを衝動買いしてしまった後、「これは長く使えるから、結果的にコスパがいい」「仕事のモチベーションを上げるための投資だ」と自分に言い聞かせるのも、認知的不協和を解消するための心の働きである [11, 15]。劣悪な労働環境の会社を辞められない人が、「この経験は自分の成長につながる」「自分は社会に貢献する重要な仕事をしている」と信じ込もうとするのも、同様のメカニズムだ [12, 13, 15]。

この認知的不協和の解消メカニズムこそが、人々を陰謀論へと駆り立てる強力なエンジンとなる。想像してみてほしい。ある人物が「特定のワクチンは危険だ」という強い信念を持っているとする。そこに、科学的コンセンサスや公的機関のデータといった、自らの信念と真っ向から対立する圧倒的な証拠が突きつけられる。この時、その人物の心の中では、「自分の信念は正しい」という認知と、「信頼できるはずの全ての権威が、自分の信念は間違っていると言っている」という認知が激しく衝突し、耐え難いほどの認知的不協和が生じる。

この葛藤を解決するため、信念そのものを変えることは、自らのアイデンティティや世界観を否定することにつながるため、心理的に極めて苦痛である。そこで、より抵抗の少ない道が選ばれる。それは、突きつけられた証拠の方を否定し、再解釈することだ。

ここで陰謀論が、完璧な「解決策」として機能する。陰謀論は、単に反対証拠を「間違いだ」と退けるのではない。それを「意図的に仕組まれた偽りの証拠だ」と再定義する。つまり、「科学者や政府、メディアは巨大な陰謀に加担しており、人々を騙すために偽のデータを流している」という物語を受け入れることで、認知的不協和は劇的に解消される。対立していたはずの証拠は、今や「陰謀の存在を裏付ける、さらなる証拠」へと変貌を遂げるのだ。こうして、矛盾を解消しようとする心の働きが、皮肉にも人々をより深く、より確信に満ちた陰謀論の世界へと引きずり込んでいくのである。

1.3 バックファイア効果:火に油を注ぐ反論

確証バイアスや認知的不協和が信念を守る「盾」だとすれば、バックファイア効果(Backfire Effect)は、その盾を攻撃されることで、かえって信念が強化されるという、より攻撃的な現象である [16, 17]。この効果は、自分の信念に反する証拠や反論を提示された際に、それを受け入れずに、むしろ以前よりも強くその信念を信じ込むようになる心理的傾向を指す [18, 19]。文字通り、説得しようとする試みが「裏目に出る(backfire)」のである。

この概念を提唱したアメリカの政治学者ブレンダン・ナイハンとジェイソン・ライフラーが行った有名な実験がある。彼らは、イラク戦争の開戦理由とされた「大量破壊兵器の存在」について、ブッシュ大統領(当時)を支持する記事を被験者に見せた。一方のグループにはその記事だけを、もう一方のグループには、それに加えて「実際には大量破壊兵器は見つからなかった」というCIAの報告書も読ませた。その結果、驚くべきことに、反証であるCIA報告書を読んだグループの方が、「イラク大量破壊兵器保有していたが、発見される前に破棄した」という説をより強く支持する傾向が見られた [19]。反証に触れたことで、かえって元の信念を補強する理屈を探し出し、確信を深めてしまったのだ。

ただし、このバックファイア効果の普遍性については、近年の研究で議論がある点を指摘しておく必要がある。この効果は常に発生するわけではなく、特に政治的アイデンティティが強く関わる、感情的な対立が激しいテーマにおいて顕著に現れる可能性がある [19]。ファクトチェック団体のエイミー・シピット氏は、元の実験が小規模で、被験者がアメリカの学生という偏った集団であったことなどを理由に、この効果が「広く一般的に当てはまるものではない」と懐疑的な見解を示している [19]。

しかし、バックファイア効果が普遍的でないとしても、この現象が示す核心的な事実は極めて重要である。それは、信念への反論が、純粋な情報処理のプロセスではなく、感情的な防衛反応を引き起こすという点だ。神経科学者のアントニオ・ダマシオが指摘するように、「思考は知性からではなく感情から生じる」ことが多い [19]。反論が「正しい」と頭(知性)では理解できても、心(感情)がそれを受け入れることを拒否し、自己の思考を正当化しようとする。この感情的な反発こそが、論理的な説得を困難にし、時に人々をより頑なにする根本的な理由なのである。

1.4 究極の解決策:陰謀論が満たす心の渇望

なぜ、これほどまでに陰謀論は魅力的なのだろうか。それは、陰謀論が、これまで見てきたような人間の根源的な心理的欲求を満たす「完璧な物語」を提供するからである [20]。近年の心理学研究は、陰謀論への傾倒が主に3つの動機によって駆動されることを明らかにしている [21, 22]。

  1. 認識的動機(Epistemic Motives):確実性と理解への渇望
    世界は複雑で、曖昧で、しばしば無秩序に見える。大規模な災害や予測不可能な事件が起こると、私たちは混乱し、不安になる。陰謀論は、こうした混沌とした出来事に対して、シンプルで、包括的で、内部で一貫した「説明」を与えてくれる [20, 21]。それは、「偶然」や「複雑な要因の絡み合い」といった受け入れがたい説明に代わり、「すべては強力な誰かの計画通りだ」という明快な因果関係を提示する。これにより、信奉者は理解不能な世界を把握できたという感覚、すなわち主観的な確実性を手に入れることができる [22]。
  2. 実存的動機(Existential Motives):コントロールと安全への渇望
    社会の中で無力感や疎外感を抱えている人々にとって、陰謀論は一種の救いとなりうる [20, 23]. 自分の人生が思い通りにならない原因を、ランダムな不運や自身の力不足ではなく、「邪悪なエリート集団の陰謀」のせいにすることで、自尊心を保つことができる。さらに重要なのは、原因が特定されることで、無力感がコントロール感へと転換される点だ。敵が誰か分かれば、その敵と「戦う」という能動的な姿勢をとることが可能になる。これは、漠然とした不安の中にいるよりも、心理的に安全で、コントロールできているという感覚を与える [22, 24]。
  3. 社会的動機(Social Motives):所属と自尊心への渇望
    陰謀論を信じることは、社会的な欲求も満たす。それは、自分を「騙されている大衆」とは一線を画す、「真実に目覚めた特別な存在」として位置づけることを可能にする [20]。この「秘密の知識」を共有する仲間との間には、強い連帯感が生まれる。同じ信念を持つコミュニティに所属することは、孤独感を和らげ、自らのアイデンティティと自尊心を強化する上で極めて効果的である [21, 22].

しかし、ここには悲劇的な皮肉が潜んでいる。人々はこれらの心理的欲求を満たすことを「期待して」陰謀論に惹きつけられるが、研究によれば、陰謀論はその約束をほとんど果たさない。むしろ、状況を悪化させることさえある。ある研究では、「多くの人々にとって、陰謀論への信念は、満足させるというよりは、魅力的に見えるだけかもしれない」と結論づけている [21]。陰謀論を信じることでコントロール感を得ようとしても、実際には「投票などの政治参加を控える」など、自らのコントロール感をさらに損なう行動につながりかねない [20]。

結局のところ、陰謀論は、信奉者を永続的な不満のサイクルに閉じ込める。世界が悪意ある陰謀によって支配されているという信念は、さらなる無力感と不信感を生み出す。そして、その増大した不安を和らげるために、人はさらに深く陰謀論の世界にのめり込んでいく。それは、喉の渇きを塩水で癒そうとするような、決して満たされることのない、痛ましい心理的罠なのである。

第2部 信念の生物学:脳内への旅

なぜ信念はこれほどまでに強固で、感情的なものなのだろうか。その答えは、私たちの頭蓋骨の内側、脳の複雑な配線と化学的な信号伝達の中にある。このセクションでは、心理学的な現象の背後にある生物学的な基盤を探る。信念が形成され、強化され、そして時には理性を乗っ取る神経科学的なプロセスを解き明かし、私たちの「確信」がいかにして脳内で物理的に構築されるのかを見ていこう。

2.1 「正しい」という感覚:脳はいかにして信念を構築するか

神経科学の観点から見ると、信念とは抽象的な概念ではなく、脳の活動が生み出す物理的な産物である [25]。クレディション・モデル(credition model)と呼ばれる理論によれば、信念の形成は、外部からの情報を知覚し、それに個人的な意味や価値を割り当て、行動決定に結びつける一連の神経プロセスとして説明される [26, 27]。このプロセスは多くの場合、言語を介さずに無意識のうちに進行し、記憶として保存され、必要に応じて呼び出される [28]。

この信念構築プロセスの中核を担うのが、脳の最前部に位置する前頭前野(Prefrontal Cortex, PFC)、特にその内側部(medial PFC)である [27, 29]。この領域は、自己認識、価値判断、そして意思決定といった高次の認知機能を司り、私たちが世界をどのように理解し、自分自身をどう位置づけるかという「自己の物語」を構築する上で中心的な役割を果たしている [25, 30]。奈良先端科学技術大学院大学の研究では、被験者の「今どこにいると思っているか」という信念(確信度)が、この前部前頭前野の活動と強く相関していることを脳画像解析によって突き止めている [29]。信念とは、この領域で形成される、世界に対する私たちの「内部モデル」そのものなのである。

2.2 感情が理性を乗っ取る時:扁桃体前頭前野の攻防

私たちの脳には、大まかに言って二つの重要なシステムが存在する。一つは、脳の「最高経営責任者(CEO)」とも言える前頭前野(PFC)であり、合理的思考、計画、衝動の抑制といった実行機能を担当する、理性の座である [31, 32, 33]。もう一つは、より原始的な大脳辺縁系の一部である扁桃体(Amygdala)で、脳の「警報装置」として機能し、脅威を検知して恐怖や怒りといった情動反応を引き起こし、「闘争・逃走反応」を司る [31, 34]。

通常、これら二つの領域は協調して働くが、人が自らのアイデンティティの根幹に関わるような核心的信念への反論に直面した時、そのバランスは劇的に崩れる。心理学者のドリュー・ウェステンらによる研究が示すように、自分の信条と矛盾する情報を提示された時、脳はそれを中立的なデータとして処理しない。代わりに、それを自己の存在や世界観に対する「脅威」として認識するのだ [3]。

この「脅威」の認識は、扁桃体を即座に活性化させる。そして、活性化した扁桃体は、前頭前野の働きを抑制、あるいは「乗っ取る(ハイジャックする)」かのような効果を持つ [10, 35]。脳は、冷静に証拠を吟味する「好奇心旺盛な科学者」モード(PFC優位)から、自己防衛に徹する「脅威にさらされた兵士」モード(扁桃体優位)へと切り替わる。これが、感情的な議論の最中に論理的な説得が全く通用しなくなる神経科学的な理由である。理性を司る脳の部位が、感情を司る部位によって一時的に機能不全に陥らされているのだ [10]。

この感情と動機づけの影響は、私たちが思う以上に根深い。それは、意識的な推論が始まる前の、知覚という最も基本的なレベルにまで及ぶ。私たちは「百聞は一見に如かず」と言うが、その「見ること」自体が、すでに私たちの欲望によって歪められている可能性がある。

シカゴ大学の研究チームが行ったfMRI(機能的磁気共鳴画像法)実験は、この驚くべき事実を明らかにしている [36]。実験では、被験者に顔と風景を合成した曖昧な画像を見せ、どちらが見えるかを判断させた。ここで重要なのは、被験者に対し、「次に風景の画像が多く含まれていれば、より多くの報酬がもらえる」といった金銭的インセンティブを与え、特定のカテゴリーを「見たい」と動機づけたことである。

結果は衝撃的だった。動機づけは、被験者が何を報告するかに影響を与えただけでなく、脳内でのそのカテゴリーの神経表現そのものを強化した。そして、この知覚の偏りは、扁桃体の活動と直接的に相関していた。つまり、動機づけによって活性化した扁桃体は、脳が証拠を「積み上げる」プロセスにおけるゲートキーパーとして機能し、前頭前野が処理するために受け取るデータそのものを、望ましい結論に沿うように偏らせていたのである。これは、確証バイアスが単なる心理的な傾向ではなく、脳の知覚レベルで生じている物理的なプロセスであることを示唆している。私たちは、自分に都合の良い証拠を世界の中から探し出すだけではない。私たちの脳が、世界そのものを都合の良いように「見て」いるのだ。

2.3 「やっぱり!」のドーパミン報酬:信念の神経化学的強化

信念が一度形成されると、なぜそれを手放すのがこれほど難しいのか。その鍵を握るのが、ドーパミン(Dopamine)という神経伝達物質である。ドーパミンはしばしば「快感物質」と呼ばれるが、その本質はむしろ「学習物質」であり、行動を強化する上で中心的な役割を担う [37]。

神経科学における重要な理論の一つに、報酬予測誤差(Reward Prediction Error, RPE)仮説がある [38]。この仮説によれば、ドーパミン神経は、実際の結果が「予測よりも良かった」場合に活発に発火する。つまり、予期せぬ報酬を得た時にドーパミンが放出され、その報酬につながった直前の行動を「良いもの」として学習し、強化するのである [39]。

このメカニズムが、信念の強化にも直接的に関わっている。私たちが大切にしている信念を裏付ける情報に遭遇した時、それは脳にとって一種の「報酬」として機能する。特に、その情報が予期せぬものであったり、自分の考えが正しいと再確認させてくれるものであったりした場合、それは正の報酬予測誤差を生み出し、ドーパミンの放出を引き起こす [10]。この「やっぱり自分は正しかった!」という瞬間の快感は、単なる気分の問題ではなく、脳の報酬回路が物理的に活性化している証拠なのである [39]。

このドーパミンの放出は、その信念に関連する神経回路のシナプス結合を強化する、強力な「強化学習」の信号となる [37, 38]。信念が肯定されるたびに、その信念を司る神経ネットワークはより強固に、より速く、より効率的になる。

このプロセスは、一種の「正しさへの神経化学的な依存」とでも言うべき状態を生み出す。なぜ私たちが、自分と同じ意見ばかりが集まる「エコーチェンバー」を心地よく感じ、積極的に求めてしまうのか。それは、そこがドーパミンという報酬を容易に得られる場所だからだ。

  1. 脳は、報酬につながる行動を繰り返すように動機づけられる [37, 39]。
  2. 自分の信念が肯定されることは、脳によって報酬として処理される [3, 10]。
  3. したがって、脳は私たちに、信念を肯定してくれる行動(例:同じ意見のニュースサイトを読む、同じ考えの友人とだけ話す)をとるように促す。
  4. この行動がドーパミン放出につながり、その行動自体がさらに強化される。こうして、確証バイアスに浸る習慣が自己永続的なサイクルとして定着する。

逆に、自分の信念に反する情報に遭遇することは、神経化学的には「罰」として機能する。それは負の報酬予測誤差(予測より悪い結果)と見なされ、ドーパミンレベルの低下を引き起こし [37]、第1部で述べた認知的不協和の不快感を生み出す [12]。

このドーパミンによる「アメとムチ」のシステムは、私たちが自らの信念を変えることを、心理的に困難なだけでなく、生物学的にも報酬のない、骨の折れる作業にしてしまう。一度確立された信念の神経回路は、ドーパミンによって何度も舗装され、強化された高速道路のようなものだ。そこから外れて、新しい道を切り開くには、相当な精神的エネルギーと、報酬のない不快感に耐える覚悟が必要となるのである。

第3部 社会的エコー:私たちの世界がいかにして信念を固定化するか

個人の心と脳の内部で働くメカニズムは、物語の半分に過ぎない。私たちの信念は真空の中では形成されず、社会という複雑な生態系の中で育まれ、強化される。このセクションでは、私たちの視点を個人の内面から外部の世界へと移し、社会的、技術的な力が、いかにして私たちの生来の認知バイアスを増幅させ、信念を揺るぎないものにしているかを探る。

3.1 我が部族、我が真実:アイデンティティ保護認知の力

私たちは情報を純粋な個人として処理しているわけではない。私たちは常に、何らかの「集団」の一員として情報を処理している。そして、私たちの信念は、単なる事実に関する命題ではなく、しばしば集団への忠誠を示すシンボルとなる。この現象を巧みに説明するのが、イェール大学の法学者ダン・カハンが提唱するアイデンティティ保護認知(Identity-Protective Cognition)の理論である [9, 40]。

この理論の核心は、人々が、自分の所属する集団で優勢な信念を脅かすような証拠を、無意識のうちに退ける傾向があるという点にある [9]。カハンの研究は、気候変動や銃規制といった問題に対する人々のリスク認識が、その人の科学的知識よりも、その人がどのような文化的価値観を持つ集団(例えば、個人主義的か共同体主義的か、階層主義的か平等主義的か)に属しているかによって、より強く予測されることを示している [41, 42]。

なぜこのようなことが起こるのか。カハンは、人々が一種の社会的な費用便益分析を無意識に行っていると説明する [9]。考えてみてほしい。一個人が気候変動について間違った信念を持っていたとしても、その個人的なコストはほぼゼロである(その人の行動一つで地球の気候が変わるわけではない)。しかし、その人が所属するコミュニティ(例えば、特定の政党支持者や宗教団体)が共有する気候変動に関する見解に異を唱えた場合、その社会的なコストは計り知れない。仲間外れにされたり、信頼を失ったり、アイデンティティそのものを脅かされたりする可能性がある [9]。

この観点から見ると、客観的な事実よりも集団の信念に固執することは、「あまりにも合理的」な行動とさえ言える。それは、個人の社会的な生存にとって最適な戦略だからだ。この理論は、なぜ単に多くの事実を提示するだけでは人の心を変えられないのかを力強く説明する。問題の核心は事実の認識ではなく、アイデンティティの防衛にあるからだ。このダイナミクスを具体的に示すのが、リスク認知における「白人男性効果(white-male effect)」である。研究によれば、階層的かつ個人主義的な価値観を持つ白人男性は、他の集団に比べて様々なリスク(環境問題など)を低く見積もる傾向があるが、これは、商業や工業といった彼らの文化的アイデンティティに不可欠な活動が「有害だ」と批判されることに対する、アイデンティティ保護的な懐疑主義の表れだと分析されている [43, 44]。

3.2 アルゴリズムの牢獄:エコーチェンバーとフィルターバブル

私たちの生来のバイアスを増幅させる現代社会の最も強力な装置が、ソーシャルメディアである。その中心にあるのが、エコーチェンバーフィルターバブルという二つの概念だ。これらはしばしば混同されるが、厳密には異なる現象を指す。

  • エコーチェンバー(Echo Chamber):主に社会的な現象であり、閉鎖的な空間で、自分と似た意見が「エコー(反響)」のように繰り返されることで、特定の信念が強化される状態を指す。これは、私たちが自ら似た考えを持つ人々をフォローしたり、グループに参加したりする能動的な選択(同質性:homophily)によって形成される側面が大きい [45, 46, 47, 48]。
  • フィルターバブル(Filter Bubble):主に技術的な現象であり、インターネット活動家のイーライ・パリサーによって提唱された。これは、Googleの検索結果やFacebookのニュースフィードなどが、アルゴリズムによってユーザー一人ひとりに合わせてパーソナライズされ、本人の意識しないうちに、自分が見たい情報だけがフィルタリングされて届けられる状態を指す [49, 50, 51]。これは、私たちの受動的な情報消費の結果として、見えない壁(バブル)が作られる現象である [52, 53]。

この二つの現象は、現代のソーシャルメディアプラットフォーム上で相互に作用し、強力な増幅エンジンとなっている。プラットフォームのアルゴリズムは、ユーザーのエンゲージメント(滞在時間、クリック、いいね、シェア、コメント)を最大化するように設計されている [54, 55]。そして、人々は感情を刺激する、過激で、対立を煽るようなコンテンツに強く反応する傾向がある [56, 57]。その結果、アルゴリズムは意図せずして、より極端なコンテンツをユーザーに推薦し、人々をイデオロギーの「ウサギの穴」へと引きずり込む「アルゴリズミック・ラディカリゼーション(algorithmic radicalization)」を引き起こす [58, 59]。

ただし、これらの現象の現実世界における影響の大きさについては、学術的な議論が続いている点も重要である。パリサーやキャス・サンスティーンが描くような、誰もが完全に孤立したバブルの中にいるという見方に対して、より複雑な現実を指摘する研究も多い [60, 61]。大規模な調査によれば、ほとんどの人のメディア利用は依然として比較的多様であり、最も偏った情報環境にいる人々は、同時に多くのニュースに触れている熱心なニュース消費者であることが多いという [60, 62]。また、人々が積極的に反対意見を避けているという証拠は乏しいとする研究もある [60]。

これは、フィルターバブルやエコーチェンバーが問題ではないということではない。むしろ、問題の所在をより正確に捉える必要がある。これは、すべての人に等しく影響する普遍的な問題というよりは、特定の政治的に関心の高い層や、特定のトピック(例えば、COVID-19ワクチン)において、特に深刻な影響を及ぼす問題である [46]。そして、最も危険なのは、人間の心理(エコーチェンバーを求める傾向)とプラットフォームの構造(フィルターバブルを作り出すアルゴリズム)が相互に作用し、強力なフィードバックループを生み出す点なのである [45, 63]。特に、TikTokのような短尺動画プラットフォームは、その強力なアルゴリズムにより、若者などを極めて短時間で過激なコンテンツへと誘導する可能性が指摘されている [59, 64]。

3.3 偽情報のウイルス的性質:なぜ嘘は真実より速く広まるのか

この増幅された情報環境において、特に憂慮すべき事態が進行している。それは、嘘が真実よりもはるかに速く、広く、深く拡散するという事実である。この現象を決定的に示したのが、2018年に科学誌『Science』に掲載されたMITの研究チームによる画期的な研究である [65, 66]。

この研究は、2006年から2017年にかけてTwitter上で拡散した、6つの独立したファクトチェック機関によって真偽が検証された約12万6,000件のニュースカスケード(うわさの拡散連鎖)を分析したものである [65]。その結果は驚くべきものだった。

  • 偽情報は、真実に比べて「より遠くへ、より速く、より深く、より広く」拡散した [65, 66]。
  • 偽情報は、真実よりも70%リツイートされやすい傾向があった [65, 66]。
  • 真実の情報が1,500人に到達するのに、偽情報の約6倍の時間がかかった [66, 67]。

なぜこのような差が生まれるのか。研究チームが提唱したのが「新奇性仮説(Novelty Hypothesis)」である [65, 67]。分析の結果、偽情報は真実の情報よりも統計的に「新しい(novel)」と認識されることがわかった。人間は本能的に新奇な情報に惹きつけられ、それを他者と共有することで「自分は事情通だ」という社会的地位を得ようとする傾向がある [66, 67]。偽情報は、私たちの既成概念を覆すような驚くべき内容が多いため、この新奇性の基準を満たしやすいのだ。

この仮説は、拡散された情報に対する人々の感情的な反応からも裏付けられている。偽情報のリプライには「驚き」「恐怖」「嫌悪」といった感情が多く表明されていたのに対し、真実の情報には「悲しみ」「期待」「喜び」「信頼」といった感情が見られた [65, 68]。アルゴリズムが感情を喚起するコンテンツを増幅させることを考えれば、この感情的な特徴が偽情報の拡散をさらに加速させていることは明らかだ。

そして、この研究における最も重要な発見の一つは、人間の役割である。研究チームが、自動化されたプログラムである「ボット」を分析から除外しても、結果はほとんど変わらなかった。これは、「偽情報が真実よりも広まるのは、ボットではなく、人間がそれを広めやすいからである」という衝撃的な結論を導き出す [65, 68, 69]。

さらに、近年の別の研究では、偽情報を共有する人々の多くは、悪意からではなく、単なる「不注意」からそうしていることが示唆されている [70]。ソーシャルメディアを流し読みする中で、人々は情報の正確性を吟味することを怠り、感情的な反応や partisan な共感に基づいて、無意識のうちに共有ボタンを押してしまうのだ。

この一連の知見は、本稿の議論を原点へと引き戻す。問題の根源は、テクノロジーだけにあるのではない。テクノロジーは、第1部と第2部で詳述した、確証バイアス、認知的不協和、アイデンティティ防衛、そしてドーパミンによる報酬といった、私たちの心と脳に深く刻み込まれた生来の傾向を、前例のない規模で利用し、増幅させているに過ぎないのだ。

第4部 前進への道筋:「ポスト真実」時代の処方箋

これまで、頑なな信念が個人の心理と脳の構造、そして社会とテクノロジーによっていかに形成され、強化されるかを見てきた。この複雑で根深い問題に、単一の特効薬は存在しない。しかし、絶望する必要はない。問題の構造を理解することは、効果的な対策を講じるための第一歩である。この最終セクションでは、個人、対人関係、そして社会システムという3つのレベルで、私たちが取りうる具体的な、科学的根拠に基づいた戦略を提示する。

4.1 レベル1:個人と社会のレジリエンス構築(教育)

第一の防衛線は、私たち一人ひとりが情報の洪水に対して免疫力を高めること、すなわち教育である。特に重要なのが、クリティカルシンキング(批判的思考)メディアリテラシーの育成だ。

クリティカルシンキングとは、情報を鵜呑みにせず、その前提、論理、証拠を吟味し、多角的な視点から評価する能力である [71, 72]。メディアリテラシーは、その応用として、メディアから発信される情報(特にオンライン情報)の背後にある意図、構造、影響を理解し、その信頼性を批判的に評価する能力を指す [73, 74]。研究によれば、これらの能力を育成する教育プログラムは、偽情報を見抜く能力を高め、誤った情報の拡散を抑制する上で一定の効果があることが示されている [75, 76, 77, 78]。

しかし、これらの能力は抽象的で、習得が難しい側面もある。そこで、デジタルリテラシーの専門家であるマイク・コールフィールドが提唱した、より実践的で即効性のあるツールがSIFTメソッドである [79, 80]。これは、オンライン情報に遭遇した際に取るべき4つの具体的な行動を示したもので、プロのファクトチェッカーの思考法を簡略化したものである [81]。

  • S (Stop) - 立ち止まる:情報に触れたら、すぐに信じたり共有したりせず、一呼吸置く。自分がその情報源や主張について何を知っているか、感情的になっていないかを自問する [79, 82]。
  • I (Investigate the source) - 情報源を調べる:その記事や動画が誰によって、どのような意図で作成されたのかを調べる。そのサイトに留まるのではなく、ブラウザで新しいタブを開き、Wikipediaなどでその情報源(著者、組織、メディア名)の評判や専門性を確認する「ラテラル・リーディング(水平読み)」が有効である [81, 82]。
  • F (Find better coverage) - より良い情報源を探す:目の前の一つの情報源に固執せず、その主張について、より信頼性の高い報道機関や専門家の解説を探す。複数の情報源を比較検討し、専門家のコンセンサスがどこにあるかを確認する [79, 81]。
  • T (Trace claims to the original context) - 主張を元の文脈まで遡る:引用されている言葉やデータ、画像などが、元の文脈から切り取られていないか、元の情報源まで遡って確認する [79, 80]。

SIFTメソッドが効果的なのは、それが私たちの脳の欠陥のあるヒューリスティックに対抗するために設計された行動介入だからである。一つの情報源を深く読み進めてしまう「ウサギの穴」的な垂直読み(vertical reading)から、複数の情報源を横断的に比較する水平読み(lateral reading)へと行動を転換させることで、一つの説得力のある(しかし潜在的に誤った)物語の呪縛から私たちを解放してくれる [81, 83]。

4.2 レベル2:困難な対話(対人エンゲージメント)

事実や論理で相手を打ち負かそうとする伝統的な「ディベート」や「論破」は、多くの場合、逆効果である。それは相手の防衛本能(扁桃体の脅威反応)を刺激し、バックファイア効果やアイデンティティ保護認知を引き起こすだけだからだ [84, 85]。では、どうすればいいのか。研究は、対立ではなく共感をベースにした、二つの有望な対話アプローチを示している。

ストリート・エピステモロジー(Street Epistemology, SE)
これは、哲学者のソクラテス式問答法を応用した、非対立的な対話術である。SEの目的は、相手の信念の内容(「何を」信じているか)を攻撃することではない。相手がその信念を持つに至った理由の質(「どのようにして」それを知ったか)を、共同で探求することにある [84, 86]。対話者は、「その信念について、10段階でどれくらい確信していますか?」「その確信を持つに至った、一番の理由は何ですか?」「その理由を知る方法が、真実にたどり着くための信頼できる方法だと判断できるのはなぜですか?」といった穏やかな質問を投げかける。このプロセスを通じて、相手は自らの思考プロセスを客観的に見つめ直し、知的謙虚さ(intellectual humility)を育むきっかけを得ることができる [87, 88]。

ディープ・キャンバシング(Deep Canvassing, DC)
これは、政治キャンペーンの現場から生まれた、共感に基づく説得術である。DCは、有権者に政策のファクトを突きつけるのではなく、判断を挟まない傾聴と、対話者自身の個人的な物語の戦略的な共有を通じて、感情的なつながりを築くことに焦点を当てる [89, 90]。例えば、移民問題について対話する場合、キャンバサーはまず相手の懸念や経験をじっくりと聞き、その上で「私自身も、家族の安全について心配に思うことがあります」といった形で共感を示し、自身の経験を語る。このプロセスは、相手の脅威反応を回避し、共通の価値観や人間的な経験に訴えかけることで、心を開かせる [85, 91]。政治学者のデビッド・ブルックマンとジョシュア・カラによる一連の研究は、この手法が、トランスジェンダーへの偏見や移民問題など、非常に分裂的なテーマにおいて、測定可能で持続的な態度変容をもたらすことを実証している [89, 92]。

これらのアプローチの違いを明確にするために、以下の表にまとめる。

特徴 伝統的なディベート ストリート・エピステモロジー ディープ・キャンバシング
主目的 議論に勝ち、相手が間違っていることを証明する。 信念形成に用いた方法の信頼性を共同で探求する。 共感を通じて偏見を減らし、相互理解を構築する。
中心的手法 事実、証拠、反論の提示。 認識論に関するソクラテス的質問(「どうやってそれを知ったか?」)。 判断を挟まない傾聴と、個人的な物語の戦略的共有。
焦点 信念の内容(「何を」)。 信念形成のプロセス(「どのように」)。 信念の背後にある感情的経験(「なぜ」)。
期待される結果 しばしば相手の頑な化、バックファイア効果を招く。 信念への確信度の低下、知的謙虚さの促進につながる可能性がある。 偏見の持続的な減少と、新しい視点への開放性の向上につながる可能性がある。

4.3 レベル3:システム変革(公共空間の再設計)

個人の努力や対人関係の改善だけでは限界がある。問題の根源には、私たちの認知バイアスを悪用して利益を上げる情報エコシステムの構造的欠陥があるからだ。したがって、より広範なシステムレベルでの変革が不可欠である。

プラットフォームの責任と規制
世界的に、ソーシャルメディアプラットフォームに対する規制は、自主的な取り組みを促す段階から、法的拘束力を持つ枠組みへと移行しつつある [93, 94, 95]。その最も包括的なモデルが、EUデジタルサービス法(Digital Services Act, DSA)である [96, 97]。

DSAは、特に大規模なプラットフォームに対し、偽情報の拡散といったシステミック・リスクを評価し、軽減する義務を課している [98, 99]。具体的には、アルゴリズムやコンテンツモデレーションの透明性を高め、研究者がデータにアクセスできるようにし、ユーザーにパーソナライズされた推薦をオフにする選択肢を与えることなどを求めている [98, 100]。違反した場合、最大で全世界年間売上高の6%という巨額の制裁金が科される可能性がある [96, 98]。日本でも、プロバイダ責任制限法を改正した「情報流通プラットフォーム対処法」が施行されるなど、プラットフォーム事業者の説明責任と透明性を高める動きが進んでいる [101, 102, 103, 104]。これらの規制の目的は、特定の言論を検閲することではなく、プラットフォームのインセンティブ構造を変えることにある。単なるエンゲージメントの最大化から、社会的な危害の軽減へと責任の重心を移すことで、情報エコシステムをその源から健全化することを目指しているのだ。

熟議民主主義による分断の克服
規制が「守り」の策だとすれば、より積極的な「攻め」の策が熟議民主主義(Deliberative Democracy)の実践である [105, 106]。これは、社会の縮図となるように無作為抽出された市民が、専門家から多角的な情報を得た上で、特定の争点について敬意をもって対話し(熟議し)、政策提言をまとめるというプロセスである [106, 107]。

この最も成功した実例が、アイルランドの市民会議(Citizens' Assembly)である。アイルランドでは、同性婚や人工妊娠中絶といった、何十年も政治家が触れることを避けてきた、社会を二分する「解決不能な」問題があった [108, 109, 110]。政府は、これらの問題の解決を市民会議に委ねた。無作為に選ばれた99人の市民は、専門家の話を聞き、互いの意見に耳を傾け、数ヶ月にわたって熟議を重ねた。その結果、彼らは驚くほど大胆な改革案をまとめ、その提言は国民投票にかけられ、圧倒的多数で可決された [110, 111]。気候変動という、さらに複雑な問題についても、市民会議は急進的な提言を行い、政府の気候行動計画の基礎となった [107, 112]。

なぜ熟議民主主義は機能するのか。それは、このプロセスが、本稿で見てきた心理的・神経学的な障壁を乗り越えるための理想的な環境を提供するからだ。構造化され、敬意が払われ、情報に基づいた熟議の場は、参加者がアイデンティティ保護認知から脱却することを可能にする [113]。多様な背景を持つ他者との対話は共感を育み、感情的な分断(affective polarization)を和らげる [105, 113]。これにより、扁桃体の脅威反応にハイジャックされることなく、前頭前野の合理的な機能が十全に働く余地が生まれる。それは、ディープ・キャンバシングの原則を社会レベルで応用した、公共の理性を再構築するための強力なツールなのである。

結論:いらだちから行動へ

「説得不能」な人々との対峙がもたらすいらだちは、彼らが非論理的だからではなく、むしろ彼らが極めて人間的な認知システムに従っていることから生じる。確証バイアス、認知的不協和、そしてアイデンティティ防衛といった心の城壁は、扁桃体の脅威反応とドーパミンの報酬システムという生物学的な基盤によって支えられている。この生来の配線は、現代のエンゲージメント至上主義の情報エコシステムによって危険なほどに増幅され、私たちを社会的・感情的な部族へと分断している。

この根深い問題に立ち向かうためには、多層的なアプローチが不可欠である。それは、一つの魔法の弾丸を探すことではなく、異なるレベルで機能するツールキットを構築することに他ならない。

  1. 個人レベルでは、SIFTメソッドのような実践的なメディアリテラシーを身につけ、自らの認知バイアスを自覚することで、情報の洪水に対するレジリエンスを高める。
  2. 対人レベルでは、論破を目指すディベートから脱却し、ストリート・エピステモロジーやディープ・キャンバシングのような、知的謙虚さと共感を育む対話へと移行する。
  3. 社会レベルでは、DSAのような規制を通じてプラットフォームに説明責任を課し、アイルランドの市民会議が示すように、熟議民主主義という民主的イノベーションによって、分断された公共空間を再構築する。

この問題の根源を深く理解することは、私たちを無力ないらだちから、戦略的な行動へと導く。自らの思考に批判的になり、他者との対話に共感を持ち込み、そして私たちが生きるシステムの健全性に責任を持つこと。これらを通じて、私たちは少しずつ、しかし着実に、壊れかけた公共の言説を修復し、より理性的で、より強靭な、事実に基づいた社会を築き始めることができるだろう。

参考文献

  1. Sunstein, C. R., & Vermeule, A. (2009). Conspiracy Theories: Causes and Cures. Journal of Political Philosophy, 17(2), 202–227.
  2. Mercier, H., & Sperber, D. (2017). The Enigma of Reason. Harvard University Press.
  3. Westen, D., Blagov, P. S., Harenski, K., Kilts, C., & Hamann, S. (2006). Neural Bases of Motivated Reasoning: An fMRI Study of Emotional Constraints on Partisan Political Judgment in the 2004 U.S. Presidential Election. Journal of Cognitive Neuroscience, 18(11), 1947–1958.
  4. Kahneman, D. (2011). Thinking, Fast and Slow. Farrar, Straus and Giroux. (邦訳: ダニエル・カーネマン『ファスト&スロー』早川書房)
  5. Nickerson, R. S. (1998). Confirmation Bias: A Ubiquitous Phenomenon in Many Guises. Review of General Psychology, 2(2), 175–220.
  6. Iyengar, S., & Hahn, K. S. (2009). Red Media, Blue Media: Evidence of Ideological Selectivity in Media Use. Journal of Communication, 59(1), 19–39.
  7. Kunda, Z. (1990). The case for motivated reasoning. Psychological Bulletin, 108(3), 480–498.
  8. Taber, C. S., & Lodge, M. (2006). Motivated Skepticism in the Evaluation of Political Beliefs. American Journal of Political Science, 50(3), 755–769.
  9. Kahan, D. M. (2017). Misconceptions, Misinformation, and the Logic of Identity-Protective Cognition. Cultural Cognition Project Working Paper No. 164.
  10. McRaney, D. (2022). How Minds Change: The Surprising Science of Belief, Opinion, and Persuasion. Portfolio/Penguin.
  11. Festinger, L. (1957). A Theory of Cognitive Dissonance. Stanford University Press.
  12. Tavris, C., & Aronson, E. (2020). Mistakes Were Made (but Not by Me): Why We Justify Foolish Beliefs, Bad Decisions, and Hurtful Acts (Third Edition). Mariner Books.
  13. Harmon-Jones, E., & Mills, J. (Eds.). (2019). Cognitive Dissonance: Reexamining a Pivotal Theory in Psychology (2nd ed.). American Psychological Association.
  14. Cooper, J. (2007). Cognitive Dissonance: Fifty Years of a Classic Theory. Sage Publications.
  15. Aronson, E. (1969). The theory of cognitive dissonance: A current perspective. In L. Berkowitz (Ed.), Advances in experimental social psychology (Vol. 4, pp. 1–34). Academic Press.
  16. Nyhan, B., & Reifler, J. (2010). When Corrections Fail: The Persistence of Political Misperceptions. Political Behavior, 32(2), 303–330.
  17. Cook, J., & Lewandowsky, S. (2011). The Debunking Handbook. University of Queensland.
  18. Lewandowsky, S., Ecker, U. K. H., Seifert, C. M., Schwarz, N., & Cook, J. (2012). Misinformation and Its Correction: Continued Influence and Successful Debiasing. Psychological Science in the Public Interest, 13(3), 106–131.
  19. Cook, J., Lewandowsky, S., & Ecker, U. K. H. (2017). Neutralizing misinformation through inoculation: Exposing misleading argumentation techniques reduces their influence. PLOS ONE, 12(5), e0175799.
  20. Douglas, K. M., Uscinski, J. E., Sutton, R. M., Cichocka, A., Nefes, T., Ang, C. S., & Deravi, F. (2019). Understanding Conspiracy Theories. Political Psychology, 40(S1), 3–35.
  21. van Prooijen, J. W., & Douglas, K. M. (2018). Belief in conspiracy theories: A social psychological perspective. European Journal of Social Psychology, 48(7), 897–908.
  22. Marchlewska, M., Cichocka, A., & Kossowska, M. (2018). Addicted to answers: Need for cognitive closure and the endorsement of conspiracy beliefs. European Journal of Social Psychology, 48(2), 109–117.
  23. Goertzel, T. (1994). Belief in conspiracy theories. Political Psychology, 15(4), 731–742.
  24. Bruder, M., Haffke, P., Neave, N., Nouripanah, N., & Imhoff, R. (2013). Measuring individual differences in generic beliefs in conspiracy theories: Conspiracy Mentality Questionnaire. Frontiers in Psychology, 4, 225.
  25. Angel, H.-F. (2013). Neuro-culture: A new cultural-scientific research program for the study of religion. Theology and Science, 11(3), 234–253.
  26. Angel, H. F. (2012). Credition: The new monotheistic relation. Theology and Science, 10(4), 395–413.
  27. Angel, H. F., & Seitz, R. J. (2016). The role of the human medial prefrontal cortex in the manifestation of credition. Theology and Science, 14(3), 279–290.
  28. Seitz, R. J., & Angel, H. F. (2020). Processes of believing – A review and perspectives. Neuroscience & Biobehavioral Reviews, 117, 75–84.
  29. Katahira, K., et al. (2018). The neural correlates of belief and disbelief. Frontiers in Human Neuroscience, 12, 341.
  30. Harris, S., Sheth, S. A., & Cohen, M. S. (2008). Functional neuroimaging of belief, disbelief, and uncertainty. Annals of Neurology, 63(2), 141–147.
  31. LeDoux, J. E. (2012). Rethinking the emotional brain. Neuron, 73(4), 653–676.
  32. Arnsten, A. F. (2009). Stress signalling pathways that impair prefrontal cortex structure and function. Nature Reviews Neuroscience, 10(6), 410–422.
  33. Miller, E. K., & Cohen, J. D. (2001). An integrative theory of prefrontal cortex function. Annual Review of Neuroscience, 24, 167–202.
  34. Phelps, E. A., & LeDoux, J. E. (2005). Contributions of the amygdala to emotion processing: from animal models to human behavior. Neuron, 48(2), 175–187.
  35. Kaplan, J. T., Gimbel, S. I., & Harris, S. (2016). Neural correlates of maintaining one’s political beliefs in the face of counterevidence. Scientific Reports, 6(1), 39589.
  36. Leong, Y. C., Hughes, B. L., Wang, Y., & Zaki, J. (2019). Neurocomputational mechanisms of motivated seeing. Nature Human Behaviour, 3(9), 998–1008.
  37. Schultz, W. (2015). Neuronal reward and decision signals: from theories to data. Physiological Reviews, 95(3), 853–951.
  38. Schultz, W., Dayan, P., & Montague, P. R. (1997). A neural substrate of prediction and reward. Science, 275(5306), 1593–1599.
  39. Sharot, T., & Garrett, N. (2016). Forming beliefs: from objective reality to subjective good. Trends in Cognitive Sciences, 20(2), 147–156.
  40. Kahan, D. M. (2013). Ideology, motivated reasoning, and cognitive reflection. Judgment and Decision Making, 8(4), 407–424.
  41. Kahan, D. M., Peters, E., Wittlin, M., Slovic, P., Ouellette, L. L., Braman, D., & Mandel, G. (2012). The polarizing impact of science literacy and numeracy on perceived climate change risks. Nature Climate Change, 2(10), 732–735.
  42. Kahan, D. M., Jenkins-Smith, H., & Braman, D. (2011). Cultural cognition of scientific consensus. Journal of Risk Research, 14(2), 147–174.
  43. Flynn, J., Slovic, P., & Mertz, C. K. (1994). Gender, race, and perception of environmental health risks. Risk Analysis, 14(6), 1101–1108.
  44. Kahan, D. M., Braman, D., Gastil, J., Slovic, P., & Mertz, C. K. (2007). Culture and identity-protective cognition: Explaining the white-male effect in risk perception. Journal of Empirical Legal Studies, 4(3), 465–505.
  45. Quattrociocchi, W. (2017). The Spreading of Misinformation Online. In The Oxford Handbook of Computational Social Science. Oxford University Press.
  46. Cinelli, M., De Francisci Morales, G., Galeazzi, A., Quattrociocchi, W., & Starnini, M. (2021). The echo chamber effect on social media. Proceedings of the National Academy of Sciences, 118(9), e2023301118.
  47. Sunstein, C. R. (2017). #Republic: Divided Democracy in the Age of Social Media. Princeton University Press.
  48. Barberá, P., Jost, J. T., Nagler, J., Tucker, J. A., & Bonneau, R. (2015). Tweeting from left to right: Is online political communication more than an echo chamber? Psychological Science, 26(10), 1531–1542.
  49. Pariser, E. (2011). The Filter Bubble: What the Internet Is Hiding from You. Penguin UK.
  50. Bozdag, E. (2013). Bias in algorithmic filtering and personalization. Ethics and Information Technology, 15(3), 209–227.
  51. Haim, M., Graefe, A., & Brosius, H. B. (2018). Burst of the filter bubble? Effects of personalization on the diversity of online news. Digital Journalism, 6(3), 330–346.
  52. Zuiderveen Borgesius, F. J., Trilling, D., Möller, J., Bodó, B., de Vreese, C. H., & Helberger, N. (2016). Should we worry about filter bubbles? Internet Policy Review, 5(1).
  53. Flaxman, S., Goel, S., & Rao, J. M. (2016). Filter bubbles, echo chambers, and online news consumption. Public Opinion Quarterly, 80(S1), 298–320.
  54. Tufekci, Z. (2018, March 10). YouTube, the Great Radicalizer. The New York Times.
  55. Hao, K. (2021, October 5). How Facebook got addicted to spreading misinformation. MIT Technology Review.
  56. Brady, W. J., Wills, J. A., Jost, J. T., Tucker, J. A., & Van Bavel, J. J. (2017). Emotion shapes the diffusion of moralized content in social networks. Proceedings of the National Academy of Sciences, 114(28), 7313–7318.
  57. Rathje, S., Van Bavel, J. J., & van der Linden, S. (2021). Out-group animosity drives engagement on social media. Proceedings of the National Academy of Sciences, 118(26), e2024292118.
  58. Ledwich, M., & Zaitsev, A. (2020). Algorithmic extremism: Examining YouTube's rabbit hole of radicalization. First Monday, 25(3).
  59. Weimann, G., & Masri, N. (2020). Research Note: Spreading Hate on TikTok. Studies in Conflict & Terrorism, 46(5), 752–765.
  60. Guess, A. M. (2021). (Almost) everything in moderation: New evidence on Americans’ online media diets. American Journal of Political Science, 65(4), 1007–1022.
  61. Dubois, E., & Blank, G. (2018). The echo chamber is overstated: The moderating effect of political interest and diverse media. Information, Communication & Society, 21(5), 729–745.
  62. Gentzkow, M., & Shapiro, J. M. (2011). Ideological segregation online and offline. The Quarterly Journal of Economics, 126(4), 1799–1839.
  63. Bail, C. A., Argyle, L. P., Brown, T. W., Bumpus, J. P., Chen, H., Hunzaker, M. F., ... & Volfovsky, A. (2018). Exposure to opposing views on social media can increase political polarization. Proceedings of the National Academy of Sciences, 115(37), 9216–9221.
  64. Wang, Y., & Kozlowski, D. (2022). How TikTok’s algorithm is influencing the Russo-Ukrainian war. The Conversation.
  65. Vosoughi, S., Roy, D., & Aral, S. (2018). The spread of true and false news online. Science, 359(6380), 1146–1151.
  66. Aral, S. (2021). The Hype Machine: How Social Media Disrupts Our Elections, Our Economy, and Our Health--and How We Must Adapt. Currency.
  67. Lazer, D. M., Baum, M. A., Benkler, Y., Berinsky, A. J., Greenhill, K. M., Menczer, F., ... & Zittrain, J. L. (2018). The science of fake news. Science, 359(6380), 1094–1096.
  68. Grinberg, N., Joseph, K., Friedland, L., Swire-Thompson, B., & Lazer, D. (2019). Fake news on Twitter during the 2016 U.S. presidential election. Science, 363(6425), 374–378.
  69. Silverman, C. (2016, December 6). This analysis shows how viral fake election news stories outperformed real news on Facebook. BuzzFeed News.
  70. Pennycook, G., & Rand, D. G. (2021). The psychology of fake news. Trends in Cognitive Sciences, 25(5), 388–402.
  71. Ennis, R. H. (1987). A taxonomy of critical thinking dispositions and abilities. In J. B. Baron & R. J. Sternberg (Eds.), Teaching thinking skills: Theory and practice (pp. 9–26). W. H. Freeman.
  72. Facione, P. A. (1990). Critical Thinking: A Statement of Expert Consensus for Purposes of Educational Assessment and Instruction. Research Findings and Recommendations. American Philosophical Association.
  73. Livingstone, S. (2004). Media literacy and the challenge of new information and communication technologies. The Communication Review, 7(1), 3–14.
  74. Hobbs, R. (2010). Digital and media literacy: A plan of action. Aspen Institute.
  75. Roozenbeek, J., & van der Linden, S. (2019). Fake news game confers psychological resistance against online misinformation. Palgrave Communications, 5(1), 1–10.
  76. Guess, A. M., Nagler, J., & Tucker, J. (2019). Less than you think: Prevalence and predictors of fake news dissemination on Facebook. Science Advances, 5(1), eaau4586.
  77. Lewandowsky, S., & van der Linden, S. (2021). Countering misinformation and fake news through inoculation and prebunking. European Review of Social Psychology, 32(2), 348–384.
  78. Breakstone, J., Smith, M., Wineburg, S., Rapczynski, A., & Carle, J. (2021). Lateral Reading: College Students Learn to Critically Evaluate Online Information. Stanford History Education Group Working Paper.
  79. Caulfield, M. (2017). Web Literacy for Student Fact-Checkers.
  80. Caulfield, M. (2019). SIFT (The Four Moves). [Blog Post].
  81. Wineburg, S., & McGrew, S. (2017). Lateral reading: Reading less and learning more when evaluating digital information. Stanford History Education Group Working Paper No. 2017-A1.
  82. McGrew, S. (2020). Learning to evaluate: An intervention in civic online reasoning. Computers & Education, 145, 103711.
  83. Wineburg, S., Breakstone, J., & McGrew, S. (2021). Why Learn History (When It’s Already on Your Phone). University of Chicago Press.
  84. Boghossian, P. (2013). A Manual for Creating Atheists. Pitchstone Publishing.
  85. Broockman, D., & Kalla, J. (2020). Reducing exclusionary attitudes through interpersonal conversation: evidence from three field experiments. American Political Science Review, 114(2), 406–422.
  86. Boghossian, P. & Lindsay, J. (2019). How to Have Impossible Conversations: A Very Practical Guide. Lifelong Books.
  87. Porter, T., & Schumann, K. (2018). Intellectual humility and openness to the opposing view. Self and Identity, 17(2), 139–162.
  88. Kross, E., & Grossmann, I. (2012). Boosting wisdom: Distance from the self enhances wise reasoning, attitudes, and behavior. Journal of Experimental Psychology: General, 141(1), 43–48.
  89. Broockman, D., & Kalla, J. (2016). Durably reducing transphobia: A field experiment on door-to-door canvassing. Science, 352(6282), 220–224.
  90. Kalla, J., & Broockman, D. (2020). Reducing exclusionary attitudes through interpersonal conversation: evidence from three field experiments. American Political Science Review, 114(2), 406–422.
  91. Driscoll, A., & Druckman, J. N. (2018). What's it all about? The role of empathy in the context of deep canvassing. Research & Politics, 5(2).
  92. Kalla, J., & Broockman, D. (2023). Does deep canvassing work on immigration? The Journal of Politics, 85(1), 329–334.
  93. Fukuyama, F. (2018). Against Identity Politics: The New Tribalism and the Crisis of Democracy. Foreign Affairs, 97(5), 90–114.
  94. Persily, N., & Tucker, J. A. (Eds.). (2020). Social media and democracy: The state of the field, prospects for reform. Cambridge University Press.
  95. Keller, D. (2021). Regulating Digital Platforms: A New Wave of Challenges. European Journal of Risk Regulation, 12(1), 1–10.
  96. European Commission. (2022). The Digital Services Act: ensuring a safe and accountable online environment.
  97. Keller, D. (2023). The EU Digital Services Act. Journal of Democracy, 34(3), 144–158.
  98. Bunting, M. (2023, August 25). The EU’s new digital services act is a warning shot for big tech. The Guardian.
  99. Helberger, N. (2023). The Digital Services Act: A New Social Contract for the Digital Age? Internet Policy Review, 12(1).
  100. Milmo, D. (2023, April 25). What is the Digital Services Act and how will it affect Google, Facebook and other tech giants? The Guardian.
  101. 総務省. (2022). 特定電気通信役務提供者の損害賠償責任の制限及び発信者情報の開示に関する法律の一部を改正する法律(令和3年法律第27号)の概要.
  102. 情報法制研究所. (2024). 情報流通プラットフォーム対処法の解説.
  103. 曽我部真裕. (2023). プラットフォーム規制の現在地と展望. ジュリスト, (1580), 14–21.
  104. 生貝直人. (2023). デジタルサービス法(DSA)と日本のプラットフォーム規制. NBL, (1240), 4–12.
  105. Fishkin, J. S. (2018). Democracy When the People Are Thinking: Revitalizing Our Politics Through Public Deliberation. Oxford University Press.
  106. Dryzek, J. S., Bächtiger, A., Chambers, S., Cohen, J., Druckman, J. N., Felicetti, A., ... & Warren, M. E. (2019). The crisis of democracy and the science of deliberation. Science, 363(6432), 1144–1146.
  107. OECD. (2020). Innovative Citizen Participation and New Democratic Institutions: Catching the Deliberative Wave. OECD Publishing.
  108. Suiter, J., Farrell, D. M., & Harris, C. (2016). The Irish Constitutional Convention: A case of ‘bottom-up’ constitutional reform. Irish Political Studies, 31(3), 391–408.
  109. Farrell, D. M., & Suiter, J. (2019). Reimagining Democracy: Lessons in Deliberative Democracy from the Irish Front Line. Cornell University Press.
  110. Flanagan, C. (2019, May 25). How Ireland voted to repeal the eighth amendment. The Irish Times.
  111. Gallagher, M. (2019). The Irish abortion referendum of 2018. Irish Political Studies, 34(1), 126–140.
  112. Citizens' Assembly. (2018). Final Report on the Manner in which Referendums are held.
  113. Niemeyer, S. J. (2011). The emancipatory effect of deliberation: empirical lessons from mini-publics. Politics & Society, 39(1), 103–140.