eternal-studentのブログ

様々な便利なWebツールや知的に面白いコンテンツを共有しています。

民主主義とSNS

民主主義とSNS

Facebook(現Meta)やGoogleのように広告収入を主要なビジネスモデルとするITサービスは、利用者の興味や関心に合わせてコンテンツや広告を自動的に出し分けるアルゴリズムを備えています。この仕組みは便利な一方で、ネット空間の情報環境を大きく変え、世論形成や民主主義のプロセスに重大な影響を与えています。本稿では、主に米国の事例を中心に、広告ベースのSNSが民主主義にもたらす影響を、(1)情報の質と拡散傾向(2)広告プラットフォームの影響(3)民主主義への具体的な影響の観点から検討します。議論にあたっては、SNSの利用実態や統計データに加え、専門家の報告やケーススタディを参照します。

1. 情報の質と拡散傾向

1.1 有償記事と無償記事の拡散

新聞社やニュースサイトが購読料を徴収する「ペイウォール」を設ける一方で、ソーシャルメディアには誰でも無料で情報を発信できるプラットフォームが広がっています。テキサス大学のメディア倫理研究者による分析によると、無料で信頼性に欠ける情報源や集約サイトは、短時間で記事をウイルスのように拡散させることができるのに対し、裏付けのある高品質な記事はペイウォールの内側に留め置かれがちです。さらに、有料の報道を購読しているのは主に富裕層や高学歴層であり、ペイウォールによって経済力のない層が質の高い情報にアクセスできない「情報の非対称性」が拡大しているとも指摘されています。こうした構造は、民主主義に必要な公平な情報アクセスを損ないかねません。

1.2 フェイクニュースと偏向情報の拡散

SNS上では、偽情報や扇情的な内容が真実の情報よりも速く広範囲に拡散する現象が確認されています。米MITの大規模調査では、Twitter上の偽情報は真実のニュースよりも70%リツイートされやすく、1,500人に届くまでの時間は真実の約6倍の速さだったと報告されています。研究者は、偽情報の方が新奇性や驚きを引き起こしやすく、人々が積極的に共有する傾向があるためだと分析しています。

2016年米大統領選挙に関しては、スタンフォード大学の調査によると、選挙前3か月にFacebookで拡散した主要な偽ニュースのうち、トランプ候補に有利なものは合計3,000万回シェアされたのに対し、クリントン候補に有利なものは約800万回にとどまりました。同研究では、偽ニュースを見た有権者の約半数がその内容を信じていたことも報告されています。元論文では、115本の親トランプ偽記事がFacebookで合計3,000万回、41本の親クリントン偽記事が約760万回共有されたと記録されており、特定候補を利する偽情報が不均衡に拡散していた実態が裏付けられています。

コロナ禍やワクチン接種の文脈では、SNSを主要な情報源とする人々が誤情報を信じやすく、実際にワクチン接種率も低い傾向が示されています。de Beaumont財団の2021年の調査では、ソーシャルメディアがCOVID‑19認識に「大きな影響を与える」と答えた人は、そうでない人と比べてワクチン接種率が16%低く、10の誤った主張の平均63%に同意していました。このように、無料かつ即時性の高い情報環境は、真偽不明のコンテンツを大量に拡散させる土壌となっています。

2. 広告プラットフォームの影響

2.1 詐欺広告や低品質広告の氾濫

広告収入を基盤とするSNSでは、広告主の質が玉石混交であることが大きな問題です。2024年、英国の調査報道組織TBIJは、欧州選挙を控えたFacebook上でAI操作された動画や虚偽情報を含む8,000件超の詐欺広告を確認しました。これらは著名政治家の捏造映像や偽ニュース記事を利用してユーザーの関心を引き、実際には投資詐欺や健康詐欺に誘導するものでした。多くの広告が規則に違反しているにもかかわらず、Metaの審査は遅れがちで、一部広告は37日間も掲載され続けたと報じられています。

米国でも、ProPublicaとコロンビア大学の調査で、8つの広告ネットワークがFacebookInstagram上で計16万件以上の選挙・社会問題広告を配信し、延べ約9億回表示されていたことが判明しました。これらネットワークは340以上のFacebookページを運営し、広告費の累計は2,500万ドル超に上り、Metaの政治・社会広告主として第11位の支出規模でした。広告にはAI生成の音声や画像を使った偽の給付金誘導や保険詐欺が含まれ、個人情報を盗まれたり不正請求の被害に遭う利用者が続出したと報告されています。

検索広告でも問題は顕在化しています。Tech Transparency Projectの調査によれば、2020年の米選挙前に「不在者投票」や「期日前投票」などとGoogleで検索すると、悪質なブラウザハイジャッカーや低品質検索サイトへのリンクを含む70件以上の広告が表示されました。これらの広告はユーザーを広告だらけのサイトに誘導し、マルウェアをインストールさせる例もあり、有権者が正確な投票情報にたどり着くことを妨げていました。

2.2 アルゴリズムと収益構造

ソーシャルメディアアルゴリズムは、利用者の閲覧履歴や反応を学習して「エンゲージメント(滞在時間やリアクション)」を最大化するよう設計されています。NYU Sternセンターの報告によれば、Facebookのコンテンツランキングアルゴリズムは、利用者が反対意見に触れる機会を減らし、似た考えのコンテンツばかりを表示することで分極化を促進する可能性があると指摘されています。科学誌『Science』に掲載された研究でも、人気度ベースのアルゴリズムは利用者の怒りや恐怖を誘うコンテンツを優先するため、「ユーザーエンゲージメントを最大化する設計が分断を助長する」と結論づけています。

これら企業は「アルゴリズムが分断を意図的に生み出しているわけではない」と説明しますが、実際には収益構造が健全化を阻んでいるケースが報告されています。Facebookは内部研究で政治的憎悪や過激主張を含む投稿が利用者の反応を高めると認識していながら、エンゲージメント低下を恐れて抜本的な改善を見送ったとされています。2018年のアルゴリズム改定で怒りや憎悪の拡散が悪化した際も、恒久的な修正は実施されませんでした。このように、広告収入を最大化するビジネスモデルは、扇情的なコンテンツや低品質な広告を増幅するインセンティブと表裏一体です。

2.3 ダーク広告とターゲティング

近年の政治キャンペーンでは、プラットフォームが収集した行動履歴や属性データを用いて、ある特定のユーザー層にだけ表示されるパーソナライズ広告(いわゆる「ダーク広告」)が利用されています。QUTデジタルメディア研究センターは、AIによって大量生成が容易になった偽情報入りの政治広告が「透明性のない暗闇」で拡散しており、法制度の整備が追いついていないと警鐘を鳴らしています。同センターの分析によれば、現代の広告モデルはユーザーの信念や興味に訴えかける「連想型広告」に基づいており、表向きは環境保護を訴える候補者が裏では懐疑派にだけ「環境対策は経済に悪影響を及ぼす」と訴えるようなメッセージの使い分けが技術的に可能だと指摘します。特定コミュニティに対するネガティブキャンペーンが水面下で行われても、他の有権者には見えないため、内容の検証や反論が難しくなるのです。

さらに、広告プラットフォームのターゲティング機能とユーザーの行動は双方向に作用します。ユーザーがセンセーショナルな広告をクリックすると、アルゴリズムは類似の広告を優先的に表示するため、誤情報広告が自己増殖的に広がる危険があります。一方で、個人情報を利用したターゲティングの透明性は低く、MetaやGoogleの広告ライブラリなど既存の開示ツールは、広告がどのようなアルゴリズムで誰に届けられているかについて十分な情報を提供していません。

3. 民主主義への影響

3.1 選挙介入と政治的選択

広告ベースのSNSは、国内外のアクターによる選挙介入や世論操作の舞台となっています。Facebookは、ロシアのインターネット調査機関(IRA)に関連するアカウントが2015年から2017年にかけて約8万件の投稿を行い、最大1億2,600万人の米国人にリーチした可能性があると明らかにしました。Twitterも2,752の関連アカウントを確認し、Googleも数千ドル規模のロシア関連広告を検出しています。2016年の選挙では、プロトランプ偽ニュースが大量に共有されただけでなく、それらが人々の認知に影響を与えたことが報告されています。

こうしたデジタル選挙介入には、個人データを解析し心理プロファイルに応じた広告を配信する「マイクロターゲティング」も含まれます。Cambridge Analyticaスキャンダルでは、数千万件のFacebookユーザーデータが不正利用され、有権者の性格や嗜好に基づいてカスタマイズされた政治広告が配信されていたことが発覚しました。近年のProPublicaの調査でも、深層偽造(ディープフェイク)音声や動画を用いた広告ネットワークが、有権者の個人情報を収集し詐欺や誤情報拡散に悪用していたことが確認されています。

3.2 社会的分断と暴力

アルゴリズムが扇情的な情報を増幅することで、社会の分断や敵意も深まります。北西大学の研究者は、人間が本来持つ「著名人や仲間から学ぶ」「道徳的・感情的に刺激の強い情報を重視する」といった学習バイアスをソーシャルメディアアルゴリズムが利用し、極端で代表性のない情報でフィードを飽和させると指摘しています。この結果、ユーザーは自分の属する集団の意見を世間の多数意見と誤認しやすくなり、異なる意見や少数派への理解が損なわれます。

インドでは、右派インフルエンサーSNS上で偽情報やヘイト情報を組織的に拡散し、宗教少数派への憎悪やコミュナルな対立を煽っています。GGRの報告書によると、インドでは57%の国民がフェイクニュースや誤情報にさらされており、編集された動画や偽メッセージがWhatsAppやFacebookを通じて共有され、暴動やリンチ事件の引き金になった例もあります。こうした偽情報キャンペーンは、政治勢力による世論操作や選挙戦略の一環として利用されていると指摘されています。

3.3 科学的知識と政策への影響

誤情報の増幅は政治だけでなく、科学的知識や公共政策への理解にも影響します。前述のCOVID‑19の例に加え、気候変動分野でも同様の現象が見られます。Global WitnessがFacebookのユーザー行動を模擬したところ、わずか数回のクリックで「気候変動は存在しない」「環境対策は経済を破壊する」といったコンテンツがアルゴリズムにより次々と推薦されることが確認されました。これは科学者の99.9%が人為的気候変動の存在を認めているという研究結果と大きく乖離しており、アルゴリズムが文化戦争的な分断を助長している例といえます。誤情報に触れた人々は気候変動対策への支持が低くなる傾向があることも示されており、科学的コンセンサスが公共政策に反映されにくくなる恐れがあります。

おわりに—プラットフォーム規制と情報リテラシーの重要性

広告ベースのソーシャルメディアは、膨大なユーザーの行動データとエンゲージメント最優先のアルゴリズムにより、人々の認知や社会の在り方に深い影響を及ぼしています。ペイウォールによる情報格差、偽情報の爆発的拡散、詐欺広告の横行、ターゲティング広告の不透明さ、アルゴリズムが誘発する社会的分断——いずれも民主主義を健全に機能させる上で看過できない課題です。プラットフォーム企業は一時的な対策や情報ハブの設置を行っていますが、根本的な解決にはビジネスモデルそのものの見直しや、アルゴリズムの透明性向上、利用者への説明責任が求められます。

同時に、私たち利用者自身が情報リテラシーを高め、SNSで見かける情報や広告を鵜呑みにせず検証する姿勢を持つことが不可欠です。政府や規制当局も、プラットフォームへの規制や選挙広告の透明化法制の整備、フェイクニュース対策教育など、多面的な取り組みを進める必要があります。健全な民主主義を守るためには、情報環境の健全化と利用者の主体的な姿勢が両輪となることが求められるでしょう。

参考文献

  1. MIT Sloan School of Management, “Study: False news spreads faster than the truth.” mitsloan.mit.edu(偽情報は真実より70%リツイートされやすく、1,500人に届くまでの時間も6倍速いと報告)。
  2. Center for Media Engagement, “The Ethics of News Paywalls” (2021). mediaengagement.org(無料で信頼性に欠ける情報源は記事を瞬時に拡散でき、高品質な有料記事がペイウォールに閉じ込められる構造や、ペイウォールが情報格差を拡大することを指摘)。
  3. Stanford University, “Stanford study examines fake news and the 2016 presidential election” (2017). news.stanford.edu(2016年選挙前3か月にFacebookで拡散した偽ニュースのうち、トランプ候補に有利なものが3,000万回、クリントン候補に有利なものが約800万回共有されたこと、偽ニュースを見た有権者の約半数が内容を信じていたことを報告)。
  4. Hunt Allcott & Matthew Gentzkow, “Social Media and Fake News in the 2016 Election,” Journal of Economic Perspectives, vol. 31, no. 2 (2017). PDF(親トランプ偽記事115本がFacebookで合計3,000万回、親クリントン偽記事41本が約760万回共有されたと記録)。
  5. Paul Barrett et al., “How tech platforms fuel U.S. political polarization and what government can do about it” (Brookings Institution, 2021). brookings.eduFacebookのコンテンツランキングアルゴリズムが異なる視点への接触を減らし、人気度ベースのアルゴリズムが分断を助長する仕組みを説明)。
  6. 同上(Brookings報告)。プラットフォーム企業がエンゲージメント低下を恐れて過激コンテンツの恒久的抑制を避けていること、2018年のアルゴリズム改定が怒りや分断を増幅したことなどを報告。
  7. Northwestern University, “Social media algorithms exploit how we learn from our peers” (2023). news.northwestern.eduアルゴリズムがユーザーの学習バイアスを利用してPRIME情報—権威的・内集団的・道徳的・感情的な情報—を増幅し、極端な内容でフィードを飽和させる仕組みを説明)。
  8. Bureau of Investigative Journalism, “Facebook failed to block thousands of political ads peddling false information” (June 5 2024). thebureauinvestigates.com(AI操作された動画や偽ニュース記事を用いた約8,000件の詐欺広告がFacebookに掲載され、Metaの審査が追いついていない実態を報告)。
  9. Craig Silverman & Priyanjana Bengani, “Exploiting Meta’s Weaknesses, Deceptive Political Ads Thrived on Facebook and Instagram in Run-Up to Election” (ProPublica, Oct 31 2024). propublica.org(複数の広告ネットワークが340超のFacebookページで計16万件以上の選挙・社会広告を配信し、約9億回表示された。広告費は2,500万ドル超で、Metaの広告主として第11位)。
  10. Tech Transparency Project, “Google Fails to Stop Exploitative Ads Targeting American Voters” (Oct 5 2020). techtransparencyproject.org米大統領選前に「不在者投票」「期日前投票」などと検索すると、ブラウザハイジャッカーや低品質サイトを宣伝する70件以上の広告が表示されたことを報告)。
  11. QUT Digital Media Research Centre, “Dark ads challenge truth and our democracy” (Feb 26 2025). research.qut.edu.au(AIによる偽情報入り政治広告が暗闇で拡散し、連想型広告モデルによってユーザーごとに異なるメッセージを送る「ダーク広告」が情報格差と不透明性を生んでいることを論じる)。
  12. David Ingram, “Facebook says 126 million Americans may have seen Russia‑linked political posts” (Reuters, Oct 30 2017). reuters.com(ロシア関連アカウントがFacebookに約8万件の投稿を行い、最大1億2,600万人の米国人が閲覧した可能性があると報告)。
  13. de Beaumont Foundation & Morning Consult, “Study: Americans Who Get COVID-19 Information from Social Media More Likely to Believe Misinformation, Less Likely to Be Vaccinated” (Nov 4 2021). debeaumont.orgソーシャルメディアを主要な情報源とする人々はCOVID‑19に関する誤情報に同意する割合が高く、ワクチン接種率が16%低いことを報告)。
  14. Global Witness, “The climate divide: How Facebook’s algorithm amplifies climate disinformation” (Mar 28 2022). globalwitness.org(科学者の99.9%が人為的気候変動の存在を認めているにもかかわらず、Facebook上で気候変動懐疑論を入力すると数クリックで否定的なコンテンツが推薦され、文化戦争的な対立を煽ることを調査で示した)。
  15. Niranjan Sahoo, “偽情報は世界最大の民主主義国をいかに蝕むか” (一橋大学グローバル・ガバナンス研究センター, Mar 29 2024). ggr.hias.hit-u.ac.jp(インドでは57%の国民が偽情報にさらされており、編集された動画や偽メッセージがWhatsAppやFacebookで共有され暴動やリンチ事件を引き起こしていることを指摘)。