banner
Heim / Blog / Wie
Blog

Wie

Apr 19, 2024Apr 19, 2024

Nature Band 620, Seiten 137–144 (2023)Diesen Artikel zitieren

32.000 Zugriffe

2 Zitate

1599 Altmetrisch

Details zu den Metriken

Viele Kritiker äußern Bedenken hinsichtlich der Verbreitung von „Echokammern“ in den sozialen Medien und ihrer möglichen Rolle bei der zunehmenden politischen Polarisierung. Der Mangel an verfügbaren Daten und die Herausforderungen bei der Durchführung groß angelegter Feldexperimente haben es jedoch schwierig gemacht, das Ausmaß des Problems einzuschätzen1,2. Hier präsentieren wir Daten aus dem Jahr 2020 für die gesamte Population aktiver erwachsener Facebook-Nutzer in den USA, die zeigen, dass Inhalte aus „gleichgesinnten“ Quellen den Großteil dessen ausmachen, was Menschen auf der Plattform sehen, obwohl politische Informationen und Nachrichten nur einen kleinen Teil davon ausmachen diese Expositionen. Um eine mögliche Reaktion auf Bedenken hinsichtlich der Auswirkungen von Echokammern zu evaluieren, haben wir auf Facebook ein Multiwellen-Feldexperiment mit 23.377 Nutzern durchgeführt, bei denen wir den Kontakt mit Inhalten aus gleichgesinnten Quellen während der US-Präsidentschaftswahl 2020 um etwa ein Drittel reduziert haben . Wir fanden heraus, dass die Intervention ihren Kontakt mit Inhalten aus übergreifenden Quellen erhöhte und den Kontakt mit unhöflicher Sprache verringerte, jedoch keine messbaren Auswirkungen auf acht vorab registrierte Einstellungsmaßstäbe wie affektive Polarisierung, ideologische Extremität, Kandidatenbewertungen und Glaube an falsche Behauptungen hatte. Diese genau geschätzten Ergebnisse deuten darauf hin, dass die Auseinandersetzung mit Inhalten von gleichgesinnten Quellen in sozialen Medien zwar häufig vorkommt, die Verringerung ihrer Verbreitung während der US-Präsidentschaftswahl 2020 jedoch nicht entsprechend zu einer Verringerung der Polarisierung von Überzeugungen oder Einstellungen führte.

Die zunehmende parteiische Polarisierung und Feindseligkeit wird oft auf Online-Echokammern in den sozialen Medien zurückgeführt3,4,5,6,7, eine Sorge, die seit der US-Präsidentschaftswahl 2016 zugenommen hat8,9,10. Man geht davon aus, dass Plattformen wie Facebook Extremismus schüren, indem sie den Menschen immer wieder sympathische Inhalte aus gleichgesinnten Quellen zeigen und den Kontakt mit Gegenargumenten einschränken, die Mäßigung und Toleranz fördern könnten11,12,13. Ebenso könnte identitätsstärkende Kommunikation in sozialen Medien negative Einstellungen gegenüber Fremdgruppen stärken und die Bindung an Eigengruppen stärken14.

Um zu beurteilen, wie oft Menschen in sozialen Medien mit sympathischen Inhalten konfrontiert werden, verwenden wir Daten aller aktiven erwachsenen Facebook-Nutzer in den USA, um zu analysieren, wie viel von dem, was sie auf der Plattform sehen, aus Quellen stammt, die wir als ihre politischen Neigungen teilend einstufen (was wir bezeichnen Inhalte aus gleichgesinnten Quellen; siehe Methoden, „Experimentelles Design“). Mit einer Untergruppe einwilligender Teilnehmer bewerten wir dann eine mögliche Reaktion auf Bedenken hinsichtlich der Auswirkungen von Echokammern, indem wir ein groß angelegtes Feldexperiment durchführen, um die Exposition gegenüber Inhalten von gleichgesinnten Quellen auf Facebook zu reduzieren. Diese Forschung befasst sich mit drei großen Lücken in unserem Verständnis der Verbreitung und Auswirkungen der Exposition gegenüber sympathischen Inhalten in sozialen Medien.

Erstens verfügen wir über keine systematischen Messungen der Inhaltspräsenz auf Plattformen wie Facebook, die für Forscher weitgehend unzugänglich sind2. Web-Traffic-Daten deuten darauf hin, dass relativ wenige Amerikaner eine stark verzerrte Informationsdiät haben15,16,17,18, aber es ist weniger darüber bekannt, was sie in sozialen Medien sehen. Frühere Beobachtungsstudien zur Offenlegung von Informationen auf Plattformen konzentrieren sich auf Twitter, das nur von 23 % der Öffentlichkeit genutzt wird19,20,21,22, oder auf die Nachrichtendiät der kleinen Minderheit aktiver erwachsener Nutzer in den USA, die sich selbst als konservativ bezeichnet oder liberal auf Facebook in den Jahren 2014–201523. Ohne Zugang zu verhaltensbezogenen Expositionsmessungen müssen sich Studien stattdessen auf Selbstberichte aus Umfragen stützen, die anfällig für Messfehler sind24,25.

Zweitens: Obwohl in Umfragen Zusammenhänge zwischen polarisierten Einstellungen und dem gemeldeten Konsum gleichgesinnter Nachrichten festgestellt wurden26,27, liefern nur wenige Studien kausale Beweise dafür, dass der Konsum gleichgesinnter Inhalte zu einer dauerhaften Polarisierung führt. Diese beobachteten Korrelationen könnten falsch sein, da Menschen mit extremen politischen Ansichten eher dazu neigen, gleichgesinnte Inhalte zu konsumieren28,29. Obwohl gleichgesinnte Informationen polarisieren können30,31,32, sind die meisten experimentellen Tests von Theorien über mögliche Echokammereffekte kurz und verwenden simulierte Inhalte, was es schwierig macht, zu wissen, ob diese Ergebnisse auf reale Umgebungen übertragbar sind. Frühere experimentelle Arbeiten werfen auch die Frage auf, ob solche polarisierenden Effekte häufig vorkommen18,33, wie schnell sie nachlassen könnten18,33 und ob sie sich auf Menschen konzentrieren, die Nachrichten und politische Inhalte meiden28.

Schließlich führt die Verringerung der Exposition gegenüber gleichgesinnten Inhalten möglicherweise nicht zu einer entsprechenden Erhöhung der Exposition gegenüber Inhalten aus Quellen mit unterschiedlichen politischen Neigungen (die wir als bereichsübergreifend bezeichnen) und könnte auch unbeabsichtigte Folgen haben. Social-Media-Feeds beschränken sich in der Regel auf Inhalte von Konten, denen Benutzer bereits folgen, darunter einige übergreifende und viele unpolitische Inhalte22. Infolgedessen kann die Reduzierung des Kontakts mit gleichgesinnten Quellen die Verbreitung von Inhalten aus Quellen erhöhen, die politisch neutral und nicht abstoßend sind. Wenn Inhalte aus gleichgesinnten Quellen sich zudem systematisch unterscheiden (z. B. im Ton oder Thema), kann die Verringerung der Exposition gegenüber solchen Inhalten auch andere Auswirkungen auf die Zusammensetzung von Social-Media-Feeds haben. Die Reduzierung des Kontakts mit gleichgesinnten Inhalten könnte Menschen auch dazu veranlassen, solche Informationen anderswo im Internet zu suchen (d. h. nicht auf Facebook34).

In dieser Studie messen wir die Verbreitung von Inhalten aus politisch gleichgesinnten Quellen unter aktiven erwachsenen Facebook-Nutzern in den USA. Anschließend berichten wir über die Ergebnisse eines Experiments, bei dem die Auswirkungen einer Reduzierung der Exposition gegenüber Inhalten von politisch gleichgesinnten Freunden, Seiten und Gruppen unter einwilligenden Facebook-Nutzern (n = 23.377) über einen Zeitraum von drei Monaten (24. September bis 23. Dezember 2020) abgeschätzt wurden. Durch die Kombination von Verhaltensdaten auf der Plattform von Facebook mit Umfragemessungen zu Einstellungen, die vor und nach der US-Präsidentschaftswahl 2020 erhoben wurden, können wir feststellen, wie sich die Reduzierung der Exposition gegenüber Inhalten aus gleichgesinnten Quellen auf die Informationen verändert, die Menschen auf der Plattform sehen und mit denen sie interagieren Außerdem werden die Auswirkungen einer Verringerung der Exposition gegenüber diesen Quellen im Laufe der Zeit auf die Überzeugungen und Einstellungen der Benutzer getestet.

Dieses Projekt ist Teil der Facebook- und Instagram-Wahlstudie 2020 in den USA. Obwohl sowohl Meta-Forscher als auch Wissenschaftler Teil des Forschungsteams waren, hatten die führenden akademischen Autoren das letzte Wort über den Analyseplan, arbeiteten mit den Meta-Forschern am Code zur Umsetzung des Analyseplans zusammen und hatten Kontrollrechte über Datenanalyseentscheidungen und den Manuskripttext. Gemäß den Bedingungen der Zusammenarbeit konnte Meta die Veröffentlichung von Ergebnissen nicht blockieren. Die Wissenschaftler wurden nicht finanziell entschädigt und der Analyseplan wurde vor der Datenverfügbarkeit vorregistriert (https://osf.io/3sjy2); Weitere Einzelheiten finden Sie in den Zusatzinformationen, Abschnitt 4.8.

Wir berichten über mehrere wichtige Ergebnisse. Erstens stammt der Großteil der Inhalte, die aktive erwachsene Facebook-Nutzer in den USA sehen, von gleichgesinnten Freunden, Seiten und Gruppen, obwohl nur ein kleiner Teil dieser Inhalte als Nachrichten kategorisiert ist oder sich explizit mit Politik befasst. Zweitens stellen wir fest, dass eine experimentelle Intervention, die die Exposition gegenüber Inhalten aus gleichgesinnten Quellen um etwa ein Drittel reduziert, die Gesamtinteraktion mit diesen Inhalten verringert und die Exposition gegenüber als unhöflich eingestuften Inhalten und Inhalten aus Quellen, die wiederholt Fehlinformationen veröffentlichen, verringert. Allerdings erhöht die Intervention die Exposition gegenüber Inhalten aus bereichsübergreifenden Quellen nur geringfügig. Stattdessen beobachten wir eine stärkere Zunahme der Exposition gegenüber Inhalten aus Quellen, die weder gleichgesinnt noch bereichsübergreifend sind. Darüber hinaus nahm zwar die Gesamtinteraktion mit Inhalten aus gleichgesinnten Quellen ab, die Interaktionsrate stieg jedoch an (d. h. die Wahrscheinlichkeit, sich mit Inhalten aus gleichgesinnten Quellen zu beschäftigen, die die Teilnehmer tatsächlich sahen, war höher).

Darüber hinaus konnten wir trotz der Reduzierung der Exposition gegenüber Inhalten aus gleichgesinnten Quellen über einen Zeitraum von Wochen um etwa ein Drittel keine messbaren Auswirkungen auf acht vorab registrierte Einstellungsmaße feststellen, wie z. B. ideologische Extremität und Konsequenz, parteifreundliche Einstellungen und Bewertungen sowie affektive Polarisation. Wir können Auswirkungen von ±0,12 sd oder mehr auf jedes dieser Ergebnisse mit Sicherheit ausschließen. Diese genau geschätzten Auswirkungen variieren nicht wesentlich je nach politischer Ideologie (Richtung oder Extremität), politischer Raffinesse, digitaler Kompetenz oder Kontakt vor der Behandlung mit Inhalten, die politisch sind oder aus gleichgesinnten Quellen stammen.

Unsere Analyse der Plattformpräsenz und des Plattformverhaltens berücksichtigt die Population erwachsener Facebook-Nutzer in den USA (ab 18 Jahren). Wir konzentrieren uns in erster Linie auf diejenigen, die die Plattform mindestens einmal im Monat nutzen, die wir als monatlich aktive Benutzer bezeichnen. Die aggregierten Nutzungsniveaus werden für die Untergruppe der Erwachsenen in den USA gemessen, die in den 30 Tagen vor dem 17. August 2020 mindestens einmal auf Facebook zugegriffen haben (Einzelheiten siehe Ergänzende Informationen, Abschnitt 4.9.4). Im dritten und vierten Quartal 2020, das diesen Zeitraum sowie den Untersuchungszeitraum für das unten beschriebene Experiment umfasst, griffen in den USA jeden Monat 231 Millionen Nutzer auf Facebook zu.

Wir haben einen internen Facebook-Klassifikator verwendet, um die politische Einstellung erwachsener Facebook-Nutzer in den USA abzuschätzen (siehe Ergänzende Informationen, Abschnitt 2.1 zur Validierung und Abschnitt 1.3 für Klassifikatordetails; Erweiterte Daten Abb. 1 zeigt die Verteilung des vorhergesagten Ideologie-Scores nach selbst gemeldeter Ideologie. Parteiidentifikation und Zustimmung des ehemaligen Präsidenten Donald Trump). Der Klassifikator erzeugt Vorhersagen auf Benutzerebene im Bereich von 0 (linksgerichtet) bis 1 (rechtsorientiert). Benutzer mit vorhergesagten Werten über 0,5 wurden als konservativ und ansonsten als liberal eingestuft, sodass wir die gesamte Population aktiver erwachsener Facebook-Benutzer in den USA analysieren konnten. Die Punktzahl einer Seite ist die durchschnittliche Punktzahl der Benutzer, die der Seite folgen und/oder ihren Inhalt teilen; Die Punktzahl einer Gruppe ist die durchschnittliche Punktzahl der Gruppenmitglieder und/oder Benutzer, die deren Inhalte teilen. Wir haben Freunde, Seiten oder Gruppen als liberal eingestuft, wenn ihr vorhergesagter Wert 0,4 oder weniger betrug, und als konservativ, wenn er 0,6 oder mehr betrug. Dieser Ansatz ermöglicht es uns, Quellen zu identifizieren, die im Hinblick auf die Nutzer eindeutig gleichgesinnt oder bereichsübergreifend sind (Freunde, Seiten und Gruppen mit Werten zwischen 0,4 und 0,6 wurden weder als gleichgesinnt noch bereichsübergreifend behandelt).

Wir beginnen mit der Bewertung des Ausmaßes, in dem US-Facebook-Nutzer im Zeitraum vom 26. Juni bis 23. September 2020 Inhalten von politisch gleichgesinnten Nutzern, Seiten und Gruppen in ihrem Feed ausgesetzt sind (siehe Ergänzende Informationen, Abschnitt 4.2 für Messdetails). Wir präsentieren Schätzungen dieser Mengen unter Erwachsenen in den USA, die sich in den 30 Tagen vor dem 17. August 2020 mindestens einmal bei Facebook angemeldet haben.

Wir stellen fest, dass der durchschnittliche Facebook-Nutzer einen Großteil seiner Inhalte von gleichgesinnten Quellen erhielt – 50,4 % gegenüber 14,7 % von bereichsübergreifenden Quellen (der Rest stammt von Freunden, Seiten und Gruppen, die wir weder als gleichgesinnt noch bereichsübergreifend einstufen. Schneiden). Die Präsenz von Gleichgesinnten war bei Inhalten, die als „staatsbürgerlich“ (d. h. politisch) oder Nachrichten klassifiziert waren, ähnlich (Einzelheiten zu den in dieser Studie verwendeten Klassifikatoren finden Sie in Abschnitt 4.3 unter „Ergänzende Informationen“). Der mittlere Nutzer erhielt 55 % seines Kontakts mit zivilgesellschaftlichen Inhalten und 47 % seines Kontakts mit Nachrichteninhalten aus gleichgesinnten Quellen (genaue Zahlen finden Sie in der erweiterten Datentabelle 1 und in der ergänzenden Abbildung 3 für einen Vergleich mit unseren Versuchsteilnehmern). Bürger- und Nachrichteninhalte machen jedoch einen relativ geringen Anteil dessen aus, was Menschen auf Facebook sehen (Medianwerte von 6,9 % bzw. 6,7 %; Ergänzungstabelle 11).

Allerdings können die Expositionsmuster zwischen den Benutzern erheblich variieren. Abbildung 1 zeigt die Verteilung der Exposition gegenüber Quellen, die gleichgesinnt, bereichsübergreifend oder keines von beidem waren, für alle Inhalte, Bürgerinhalte und Nachrichteninhalte für Facebook-Nutzer.

a, Die Verteilung der Exposition monatlich aktiver erwachsener Facebook-Nutzer in den USA gegenüber Inhalten aus gleichgesinnten Quellen, bereichsübergreifenden Quellen und solchen, die in ihrem Facebook-Feed in keine der Kategorien fallen. Es werden Schätzungen für alle Inhalte vorgelegt, sowohl für Inhalte, die als staatsbürgerlich (d. h. politisch) eingestuft sind, als auch für Nachrichten. b, Kumulative Verteilungsfunktionen der Expositionsniveaus nach Quellentyp. Quellen- und Inhaltsklassifizierungen wurden mithilfe interner Facebook-Klassifikatoren erstellt (Ergänzende Informationen, Abschnitt 1.3).

Quelldaten

Trotz der Verbreitung gleichgesinnter Quellen in dem, was Menschen auf Facebook sehen, sind extreme Echokammer-Expositionsmuster selten. Nur 20,6 % der Facebook-Nutzer erhalten über 75 % ihrer Kontakte aus gleichgesinnten Quellen. Weitere 30,6 % beziehen 50–75 % ihrer Präsenz auf Facebook aus gleichgesinnten Quellen. Schließlich beziehen 25,6 % 25–50 % ihres Engagements aus gleichgesinnten Quellen und 23,1 % erhalten 0–25 % ihres Engagements aus gleichgesinnten Quellen. Diese Anteile sind für die Teilmengen von Bürger- und Nachrichteninhalten ähnlich (erweiterte Datentabelle 1). Beispielsweise sind gleichgesinnte Quellen für mehr als 75 % der Kontakte mit dieser Art von Inhalten bei 29 % bzw. 20,6 % der Nutzer verantwortlich.

Allerdings ist auch der Kontakt mit Inhalten aus übergreifenden Quellen bei Facebook-Nutzern relativ selten. Nur 32,2 % haben ein Viertel oder mehr ihrer Facebook-Feed-Präsenz aus bereichsübergreifenden Quellen (31,7 % bzw. 26,9 % für Bürger- und Nachrichteninhalte).

Diese Expositionsmuster sind bei den aktivsten Facebook-Nutzern ähnlich, einer Gruppe, von der man annehmen kann, dass sie häufiger als andere Gruppen Inhalte aus sympathischen Quellen konsumiert. Unter den Erwachsenen in den USA, die Facebook in den 30 Tagen vor dem 17. August 2020 mindestens einmal täglich nutzten, stammten 53 % der angesehenen Inhalte aus gleichgesinnten Quellen gegenüber 14 % aus bereichsübergreifenden Quellen, aber nur 21,1 % erhielten mehr als 75 % davon ihre Expositionen stammen aus gleichgesinnten Quellen (siehe Erweiterte Daten Abb. 2 und Erweiterte Daten Tabelle 2).

Diese Ergebnisse stimmen nicht mit den schlimmsten Befürchtungen über Echokammern überein. Selbst unter denjenigen, die auf der Plattform am aktivsten sind, ist nur eine Minderheit der Facebook-Nutzer mit sehr vielen Inhalten aus gleichgesinnten Quellen konfrontiert. Die Daten zeigen jedoch deutlich, dass Facebook-Nutzer mit größerer Wahrscheinlichkeit Inhalte aus gleichgesinnten Quellen sehen als Inhalte aus bereichsübergreifenden Quellen.

Um die Auswirkungen einer geringeren Exposition gegenüber Informationen aus gleichgesinnten Quellen zu untersuchen, führten wir ein Feldexperiment unter einwilligenden erwachsenen Facebook-Nutzern in den USA durch. Diese Studie kombiniert Daten zum Verhalten der Teilnehmer auf Facebook mit ihren Antworten auf eine mehrstufige Umfrage. Dieses Design ermöglicht es uns, die Auswirkungen der Behandlung auf die von den Teilnehmern gesehenen Informationen, ihr Verhalten auf der Plattform und ihre politischen Einstellungen abzuschätzen (Methoden). .

Die Teilnehmer der Behandlungs- und Kontrollgruppen wurden eingeladen, vor und nach der Präsidentschaftswahl 2020 fünf Umfragen auszufüllen, um ihre politischen Einstellungen und Verhaltensweisen zu bewerten. Vor der Behandlung wurden zwei Umfragen durchgeführt: Welle 1 (31. August bis 12. September) und Welle 2 (8. September bis 23. September). Die Behandlung dauerte vom 24. September bis 23. Dezember. Während des Behandlungszeitraums wurden drei weitere Umfragen durchgeführt: Welle 3 (9. Oktober bis 23. Oktober), Welle 4 (4. November bis 18. November) und Welle 5 (9. Dezember bis 23. Dezember). Alle Kovariaten wurden in den Wellen 1 und 2 gemessen und alle Umfrageergebnisse wurden nach der Wahl gemessen, während die Behandlung noch lief (d. h. in den Wellen 4 und/oder 5). Während des Experiments haben wir auch Daten zur Inhaltspräsenz und zum Engagement der Teilnehmer auf Facebook gesammelt.

Insgesamt besteht die Stichprobe für diese Studie aus 23.377 in den USA ansässigen erwachsenen Facebook-Nutzern, die über Umfrageeinladungen rekrutiert wurden, die im August und September 2020 oben in ihren Facebook-Feeds platziert wurden, eine informierte Einwilligung zur Teilnahme erteilten und mindestens eine Nachwahl absolvierten Befragungswelle (siehe Ergänzende Informationen, Abschnitte 4.5 und 4.9).

Für Teilnehmer, denen eine Behandlung zugewiesen wurde, haben wir alle Inhalte (einschließlich, aber nicht beschränkt auf Bürger- und Nachrichteninhalte) von Freunden, Gruppen und Seiten herabgestuft, von denen vorhergesagt wurde, dass sie die politische Einstellung des Teilnehmers teilen (z. B. alle Inhalte von konservativen Freunden und Gruppen usw.). Seiten mit konservativem Publikum wurden für als konservativ eingestufte Teilnehmer herabgestuft; siehe Ergänzende Informationen, Abschnitt 1.1).

Wir stellen drei wichtige Merkmale des Interventionsdesigns fest. Erstens bestand das einzige Ziel der Intervention darin, die Exposition gegenüber Inhalten aus gleichgesinnten Quellen zu verringern. Es war nicht dazu gedacht, andere Aspekte der Feeds der Teilnehmer direkt zu verändern. Inhalte aus gleichgesinnten Quellen wurden mit der größtmöglichen Herabstufungsstärke herabgestuft, von der ein Vortest gezeigt hat, dass sie die Sichtbarkeit verringert, ohne dass der Feed für einige Benutzer nahezu leer wird, was die Benutzerfreundlichkeit beeinträchtigt und somit unsere Ergebnisse verfälscht hätte; siehe Ergänzende Informationen, Abschnitt 1.1. Zweitens beschränkte unsere Behandlung den Zugang zu allen Inhalten aus gleichgesinnten Quellen, nicht nur zu Nachrichten und politischen Informationen. Da Social-Media-Plattformen soziale und politische Identitäten verwischen, können selbst Inhalte, die sich nicht explizit mit Politik befassen, dennoch relevante Hinweise vermitteln14,35. Da Politik und Nachrichten nur einen kleinen Teil der Online-Informationsdiäten der Menschen ausmachen18,36,37, würde die Beschränkung der Intervention auf politische und/oder Nachrichteninhalte nur minimale Änderungen an den Feeds einiger Menschen mit sich bringen. Drittens haben wir angesichts der in früheren Untersuchungen festgestellten Zusammenhänge zwischen polarisierten Einstellungen und dem Kontakt mit politisch sympathischen Inhalten bewusst eine Intervention entwickelt, die den Kontakt mit Inhalten aus gleichgesinnten Quellen eher reduziert als erhöht, um ethische Bedenken zu minimieren.

Die beobachteten Auswirkungen der Behandlung auf die Exposition gegenüber Inhalten aus gleichgesinnten Quellen bei den Teilnehmern sind in Abb. 2 dargestellt. Wie beabsichtigt reduzierte die Behandlung die Exposition gegenüber Inhalten aus gleichgesinnten Quellen im Vergleich zum Zeitraum vor der Behandlung erheblich. Während des Behandlungszeitraums vom 24. September bis 23. Dezember 2020 sank die durchschnittliche Exposition gegenüber Inhalten aus gleichgesinnten Quellen in der Behandlungsgruppe auf 36,2 %, während sie in der Kontrollgruppe stabil bei 53,7 % blieb (P < 0,01). Die Expositionsniveaus blieben während des Behandlungszeitraums in beiden Gruppen relativ stabil, mit Ausnahme eines kurzen Anstiegs der Exposition der Behandlungsgruppe gegenüber Inhalten aus gleichgesinnten Quellen am 2. und 3. November aufgrund eines technischen Problems bei den Produktionsservern, die die Behandlung implementierten ( Weitere Informationen finden Sie in Abschnitt 4.11 unter „Zusätzliche Informationen“.

Durchschnittlicher Tagesanteil der Ansichten der Befragten zu Inhalten aus gleichgesinnten Quellen nach Versuchsgruppe zwischen dem 1. Juli und dem 23. Dezember 2020. Quellen werden auf der Grundlage von Schätzungen eines internen Facebook-Klassifikators auf individueller Ebene für Benutzer und als gleichgesinnt klassifiziert Freunde und auf Zielgruppenebene für Seiten und Gruppen. W1–W5 kennzeichnen die Erhebungswellen 1 bis 5; Die Schattierung gibt die Wellendauer an. Erweiterte Daten Abb. 3 bietet ein vergleichbares Diagramm der Ansichten von Inhalten aus bereichsübergreifenden Quellen. Hinweis: Aufgrund eines technischen Problems stiegen die Expositionswerte am 2. und 3. November kurzzeitig an; Einzelheiten finden Sie in den Zusatzinformationen, Abschnitt 4.11.

Quelldaten

Unsere Kernergebnisse sind in Abb. 3 dargestellt. Sie zeigt die Auswirkungen der Behandlung auf die Exposition gegenüber verschiedenen Arten von Inhalten während des Behandlungszeitraums (Abb. 3a), die Gesamtzahl der Aktionen, die sich mit diesen Inhalten befassen (Abb. 3b), die Rate der Auseinandersetzung mit Inhalten abhängig von der Exposition gegenüber diesen (Abb. 3c) und Umfragemaße zu Einstellungen nach der Wahl (Abb. 3d; Erweiterte Datentabelle 3 enthält die entsprechenden Punktschätzungen aus Abb. 3; Ergänzende Informationen, Abschnitt 1.4 liefert Messungen Einzelheiten).

Durchschnittliche Behandlungseffekte einer Reduzierung der Exposition gegenüber gleichgesinnten Quellen im Facebook-Feed vom 24. September bis 23. Dezember 2020. a–c, Beispiel für durchschnittliche Behandlungseffekte (SATE) auf die Feed-Exposition und das Engagement. b, Gesamtengagement (für Inhalte die Gesamtzahl der Engagementaktionen). c, Engagement-Rate (die Wahrscheinlichkeit des Engagements abhängig von der Exposition). d, Ergebnisse von Umfragen zu Einstellungen, wobei die durchschnittlichen Behandlungseffekte der Bevölkerung (PATEs) mithilfe von Umfragegewichten geschätzt werden. Ergänzende Informationen 1.4 enthalten vollständige Beschreibungen aller Ergebnisvariablen. Nicht fett gedruckte Ergebnisse, die unter einer fett gedruckten Überschrift erscheinen, gehören zu dieser Kategorie. Beispielsweise erscheinen in d „Themenpositionen“, „Gruppenbewertungen“ und „Stimmenauswahl und Kandidatenbewertungen“ unter „ideologisch konsistente Ansichten“, was darauf hinweist, dass alle so gemessen werden, dass höhere Werte eine größere ideologische Konsistenz anzeigen. Bei den Messungen der Umfrageergebnisse handelt es sich um standardisierte Skalen, die über Umfragen gemittelt werden, die zwischen dem 4. November und dem 18. November 2020 und/oder dem 9. Dezember und dem 23. Dezember 2020 durchgeführt wurden. Punktschätzungen finden Sie in der erweiterten Datentabelle 3. Beispielhafte durchschnittliche Schätzungen der Behandlungseffekte zu Einstellungen finden Sie in der erweiterten Datenabbildung 4. Alle Effekte werden mithilfe der gewöhnlichen kleinsten Quadrate (OLS) mit robusten Standardfehlern geschätzt und folgen dem vorab registrierten Analyseplan. Mit Sternchen markierte Punkte geben Ergebnisse an, die signifikant sind (P < 0,05 nach Anpassung); Mit offenen Kreisen markierte Punkte zeigen P > 0,05 an (alle Tests sind zweiseitig). Die P-Werte sind um die False-Discovery-Rate (FDR) angepasst (Ergänzende Informationen, Abschnitt 1.5.4).

Quelldaten

Wie in Abb. 3a zu sehen ist, stellt die Verringerung der Exposition gegenüber Inhalten aus gleichgesinnten Quellen von 53,7 % auf 36,2 % einen Unterschied von 0,77 sd dar (95 %-Konfidenzintervall: −0,80, −0,75). Auch die Gesamtanzahl der Aufrufe pro Tag ging bei den behandelten Teilnehmern um 0,05 Standardabweichungen zurück (95 %-Konfidenzintervall: −0,08, −0,02). Im Wesentlichen hatte der durchschnittliche Teilnehmer der Kontrollgruppe an einem typischen Tag insgesamt 267 Inhaltsaufrufe, von denen 143 aus gleichgesinnten Quellen stammten. Im Vergleich dazu stammten an einem typischen Tag 92 von insgesamt 255 Inhaltsaufrufen für einen durchschnittlichen Teilnehmer in der Behandlungssituation von gleichgesinnten Quellen (Ergänzungstabellen 33 und 40).

Diese Verringerung der Exposition gegenüber Informationen aus gleichgesinnten Quellen führte jedoch nicht zu einem symmetrischen Anstieg der Exposition gegenüber Informationen aus bereichsübergreifenden Quellen, die von 20,7 % in der Kontrollgruppe auf 27,9 % in der Behandlungsgruppe anstieg, eine Veränderung von 0,43 sd (95 %-Konfidenzintervall: 0,40, 0,46). Vielmehr verzeichneten die Befragten in der Behandlungsgruppe einen größeren relativen Anstieg der Exposition gegenüber Inhalten aus Quellen, die weder als gleichgesinnt noch als bereichsübergreifend eingestuft wurden. Die Exposition gegenüber Inhalten aus diesen Quellen stieg von 25,6 % auf 35,9 %, eine Veränderung von 0,68 sd (95 %-Konfidenzintervall: 0,65, 0,71).

Abbildung 3a zeigt auch, dass die Verringerung der Exposition gegenüber Inhalten aus gleichgesinnten Quellen die Exposition gegenüber Inhalten, die als ein oder mehrere Schimpfwörter eingestuft wurden, um 0,04 sd (95 %-Konfidenzintervall: −0,06, −0,02) und als unhöflich eingestufte Inhalte um 0,15 sd verringerte ( 95 %-Konfidenzintervall: −0,18, −0,13) und Inhalte von Wiederholungstätern mit Fehlinformationen (Quellen, die von Facebook als wiederholt Fehlinformationen identifiziert wurden) um 0,10 sd (95 %-Konfidenzintervall: −0,13, −0,08). Im Wesentlichen sank der durchschnittliche Anteil der Expositionen von 0,034 % auf 0,030 % für Inhalte mit Schimpfwörtern (ein Rückgang um durchschnittlich 0,01 Aufrufe pro Tag) und von 3,15 % auf 2,81 % für unhöfliche Inhalte (ein Rückgang um durchschnittlich 1,24 Aufrufe pro Tag). ) und von 0,76 % auf 0,55 % für Inhalte, die von Wiederholungstätern mit Fehlinformationen stammen (ein Rückgang um durchschnittlich 0,62 Aufrufe pro Tag). Schließlich reduzierte die Behandlung die Exposition gegenüber staatsbürgerlichen Inhalten (–0,05 sd; 95 %-Konfidenzintervall: –0,08, –0,03) und erhöhte die Exposition gegenüber Nachrichteninhalten (0,05 sd, 95 %-Konfidenzintervall: 0,02, 0,07) (siehe Abschnitt „Ergänzende Informationen“) 1.3 für Einzelheiten darüber, wie unhöfliche Inhalte, Inhalte mit Schimpfwörtern und Fehlinformationen von Wiederholungstätern gemessen werden).

Als nächstes betrachten wir die Auswirkungen der Behandlung (Verringerung des Kontakts mit Inhalten aus gleichgesinnten Quellen) auf die Art und Weise, wie Teilnehmer mit Inhalten auf Facebook interagieren. Wir untersuchen das Content-Engagement auf zwei Arten, die wir „Gesamtengagement“ und „Engagementrate“ nennen. Abbildung 3b zeigt die Auswirkungen der Behandlung auf die Gesamtinteraktion mit Inhalten – die Gesamtzahl der durchgeführten Aktionen, die wir als „passive“ (Klicks, Reaktionen und Likes) oder „aktive“ (Kommentare und erneute Freigaben) Formen der Interaktion definieren. Abbildung 3c zeigt die Auswirkungen der Behandlung auf die Engagement-Rate, d. h. die Wahrscheinlichkeit, sich mit den Inhalten zu beschäftigen, die die Teilnehmer gesehen haben (d. h. Engagement abhängig von der Exposition). Diese beiden Kennzahlen gehen nicht unbedingt Hand in Hand: Wie wir unten berichten, beschäftigen sich die Teilnehmer der Behandlungsgruppe insgesamt weniger mit Inhalten aus gleichgesinnten Quellen (da sie von Natur aus viel weniger davon sehen), ihre Engagement-Rate ist jedoch höher höher als bei der Kontrollgruppe, was darauf hindeutet, dass sie häufiger mit den Inhalten von gleichgesinnten Quellen interagierten, denen sie ausgesetzt waren.

Abbildung 3b zeigt, dass die Intervention keinen signifikanten Einfluss auf die auf Facebook verbrachte Zeit hatte (−0,02 sd, 95 %-Konfidenzintervall: −0,050, 0,004), aber die Gesamtinteraktion mit Inhalten aus gleichgesinnten Quellen verringerte. Dieser Rückgang wurde sowohl für die passive als auch für die aktive Auseinandersetzung mit Inhalten aus gleichgesinnten Quellen beobachtet, die um 0,24 sd (95 %-Konfidenzintervall: −0,27, −0,22) und 0,12 sd (95 %-Konfidenzintervall: −0,15, −0,10) abnahmen. , jeweils. Umgekehrt beschäftigten sich Teilnehmer in der Behandlungsbedingung stärker mit bereichsübergreifenden Quellen – das passive und aktive Engagement stieg um 0,11 sd (95 %-Konfidenzintervall: 0,08, 0,14) bzw. 0,04 sd (95 %-Konfidenzintervall: 0,01, 0,07). Schließlich beobachten wir ein verringertes passives Engagement, aber keinen Rückgang des aktiven Engagements mit Inhalten von Wiederholungstätern mit Fehlinformationen (für passives Engagement –0,07 Standardabweichung, 95 %-Konfidenzintervall: –0,10, –0,04; für aktives Engagement –0,02 Standardabweichung, 95 %-Konfidenzintervall). Intervall: −0,05, 0,01).

Wenn die Teilnehmer der Behandlungsgruppe jedoch Inhalte von gleichgesinnten Quellen in ihrem Feed sahen, war ihre Engagementrate höher als in der Kontrollgruppe. Abbildung 3c zeigt, dass die passive und aktive Auseinandersetzung mit Inhalten aus gleichgesinnten Quellen abhängig von der Exposition um 0,04 sd (95 %-Konfidenzintervall: 0,02, 0,06) bzw. 0,13 sd (95 %-Konfidenzintervall: 0,08, 0,17) zunahm. Obwohl die behandelten Teilnehmer insgesamt mehr Inhalte aus übergreifenden Quellen sahen, war die Wahrscheinlichkeit geringer, dass sie sich mit den Inhalten beschäftigten, die sie sahen: Das passive Engagement verringerte sich um 0,06 SD (95 %-Konfidenzintervall: −0,07, −0,04) und das aktive Engagement um 0,02 sd verringert (95 %-Konfidenzintervall: −0,04, −0,01). Die Anzahl der Inhaltsaufrufe pro Tag, die auf der Plattform aktiv waren, ging ebenfalls leicht zurück (–0,05 sd, 95 %-Konfidenzintervall: –0,08, –0,02).

Abschließend untersuchen wir die kausalen Auswirkungen der Reduzierung des Kontakts mit gleichgesinnten Quellen auf Facebook auf eine Reihe von Einstellungsergebnissen, die in Umfragen nach der Wahl gemessen wurden (Abb. 3d). Wie vorab registriert, wenden wir Umfragegewichte an, um PATEs zu schätzen, und passen die P-Werte für diese Ergebnisse an, um die Falscherkennungsrate zu kontrollieren (Einzelheiten siehe Ergänzende Informationen, Abschnitte 1.5.4 und 4.7). Wir beobachten ein konsistentes Muster genau geschätzter Ergebnisse nahe Null (offene Kreise in Abb. 3d) für die von uns untersuchten Ergebnismaße: affektive Polarisation; ideologische Extremität; ideologisch konsistente Themenpositionen, Gruppenbewertungen und Wahlentscheidungen sowie Kandidatenbewertungen; und parteiisch-kongeniale Überzeugungen und Ansichten über Wahlfehlverhalten und -ergebnisse, Ansichten zum Wahlsystem und Respekt für Wahlnormen (Einzelheiten zur Messung finden Sie in Abschnitt 1.4 der Zusatzinformationen). Insgesamt stellen wir fest, dass 7 der 8 Punktschätzungen für unsere primären Ergebnismaße Werte von ±0,03 sd oder weniger haben und präzise geschätzt sind (exploratorische Äquivalenzgrenzen: ±0,1 sd; Ergänzungstabelle 60), was ein hohes Maß an beobachteter Aussagekraft widerspiegelt . Beispielsweise beträgt der minimal erkennbare Effekt in der Stichprobe für affektive Polarisation 0,019 sd. Das achte Ergebnis ist eine weniger präzise Null für ideologisch konsistente Wahlentscheidungen und Kandidatenbewertungen (0,056 sd, Äquivalenzgrenzen: 0,001, 0,111.)

Wir haben auch die Auswirkungen einer verringerten Exposition gegenüber Inhalten aus gleichgesinnten Quellen auf verschiedene Einstellungsmaßstäbe getestet, bei denen wir schwächere Erwartungen hatten. Mithilfe eines explorativen Äquivalenzgrenzentests können wir für diese vorregistrierten Forschungsfragen über 18 Ergebnisse hinweg, die in der erweiterten Datenabbildung 5 und der Ergänzungstabelle 47 aufgeführt sind, wiederum mit Sicherheit Effekte von ±0,18 sd ausschließen. Eine explorative Äquivalenzgrenzenanalyse schließt auch Folgendes aus: Veränderung des selbstberichteten Konsums von Medien außerhalb von Facebook, die wir als gleichgesinnt eingestuft haben, um ±0,07 Standardabweichungen (Ergänzungstabellen 59 und 67).

Abschließend untersuchen wir heterogene Behandlungseffekte auf die in Abb. 3d dargestellten Einstellungen und die Forschungsfragen anhand einer Reihe vorab registrierter Merkmale: politische Ideologie der Befragten (Richtung oder Extremität), politische Raffinesse, digitale Kompetenz, Kontakt mit Inhalten vor der Behandlung politische und vor der Behandlung erfolgte Exposition gegenüber Gleichgesinnten, sowohl als Anteil der Informationsdiät der Befragten als auch als Gesamtzahl der Expositionen (siehe Ergänzende Informationen, Abschnitt 3.9). Keine der 272 vorab registrierten Untergruppen-Behandlungseffektschätzungen für unsere primären Endpunkte ist nach Anpassung zur Kontrolle der Falscherkennungsrate statistisch signifikant. Ebenso findet eine explorative Analyse keine Hinweise auf heterogene Effekte nach Alter oder Anzahl der Jahre seit dem Beitritt zu Facebook (siehe Ergänzende Informationen, Abschnitt 3.9.5).

Viele Beobachter teilen die Ansicht, dass die Amerikaner in Online-Echokammern leben, die die politischen Meinungen polarisieren und die politischen Gräben vertiefen6,7. Einige argumentieren auch, dass Social-Media-Plattformen dieses Problem angehen können und sollten, indem sie die Exposition gegenüber politisch gleichgesinnten Inhalten reduzieren38. Allerdings basieren sowohl diese Bedenken als auch die vorgeschlagene Abhilfe auf weitgehend ungeprüften empirischen Annahmen.

Hier liefern wir systematische deskriptive Belege dafür, inwieweit Social-Media-Nutzer überproportional Inhalte aus politisch sympathischen Quellen konsumieren. Wir stellen fest, dass sich nur ein kleiner Teil der Inhalte, die Facebook-Nutzer sehen, explizit auf Politik oder Nachrichten beziehen und relativ wenige Nutzer extrem viel Kontakt mit gleichgesinnten Quellen haben. Allerdings stammt ein Großteil der Inhalte, die aktive erwachsene Facebook-Nutzer in den USA auf der Plattform sehen, von politisch gleichgesinnten Freunden oder von Seiten oder Gruppen mit gleichgesinntem Publikum (was Muster der Homophilie in realen Netzwerken widerspiegelt15,39). Dieser Inhalt hat das Potenzial, die parteiische Identität zu stärken, auch wenn er nicht explizit politisch ist14.

Unser Feldexperiment zeigt auch, dass Änderungen an Social-Media-Algorithmen deutliche Auswirkungen auf die Inhalte haben können, die Benutzer sehen. Durch die Intervention wurde die Gefährdung durch Inhalte aus gleichgesinnten Quellen erheblich reduziert, was auch zur Folge hatte, dass die Gefährdung durch als unhöflich eingestufte Inhalte und Inhalte aus Quellen, die wiederholt Fehlinformationen veröffentlichen, verringert wurde. Allerdings können die getesteten Änderungen an Social-Media-Algorithmen der Neigung der Nutzer, sympathische Informationen zu suchen und sich mit ihnen auseinanderzusetzen, nicht vollständig entgegenwirken. Die Teilnehmer der Behandlungsgruppe waren mit weniger Inhalten aus gleichgesinnten Quellen konfrontiert, waren aber eher bereit, sich mit solchen Inhalten zu beschäftigen, wenn sie darauf stießen.

Schließlich stellten wir fest, dass die Reduzierung des Kontakts mit Inhalten von gleichgesinnten Quellen auf Facebook keine messbaren Auswirkungen auf eine Reihe politischer Einstellungen hatte, einschließlich affektiver Polarisierung, ideologischer Extremität und Meinungen zu Themen; Unsere explorativen Äquivalenzgrenzenanalysen ermöglichen es uns, Effekte von ±0,12 sd sicher auszuschließen. Außerdem konnten wir die Nullhypothese in keinem unserer Tests für heterogene Behandlungseffekte bei vielen unterschiedlichen Untergruppen von Teilnehmern verwerfen.

Für dieses Muster von Nullergebnissen gibt es mehrere mögliche Erklärungen. Erstens machen sympathische politische Informationen und parteiische Nachrichten – die Arten von Inhalten, von denen angenommen wird, dass sie die Polarisierung vorantreiben – einen Bruchteil dessen aus, was die Leute auf Facebook sehen. Ebenso macht der Konsum sozialer Medien einen kleinen Teil der Informationsdiäten der meisten Menschen aus37, die Informationen aus vielen Quellen (z. B. Freunden, Fernsehen usw.) umfassen. Daher können selbst große Verschiebungen in der Präsenz auf Facebook im Verhältnis zu allen von Menschen konsumierten Informationen gering sein. Zweitens ist Überzeugungsarbeit einfach schwierig – die Auswirkungen von Informationen auf Überzeugungen und Meinungen sind oft gering und vorübergehend und können während einer umstrittenen Präsidentschaftswahl besonders schwer zu ändern sein33,40,41,42,43. Schließlich haben wir aus ethischen Gründen versucht, den Kontakt mit Informationen von Gleichgesinnten eher zu verringern als zu erhöhen. Obwohl die Ergebnisse darauf hindeuten, dass eine geringere Exposition gegenüber Informationen aus gleichgesinnten Quellen nur minimale Auswirkungen auf die Einstellungen hat, sind die Auswirkungen einer solchen Exposition möglicherweise nicht symmetrisch. Insbesondere verringert eine Verringerung der Exposition gegenüber gleichgesinnten Quellen die Polarisierung möglicherweise nicht so sehr, während eine zunehmende Exposition sie verschärfen würde.

Wir weisen auf mehrere weitere Bereiche für zukünftige Forschung hin. Erstens können wir nicht ausschließen, dass die Nutzung sozialer Medien die Überzeugungen und Einstellungen der Teilnehmer vor dem Experiment auf vielfältige Weise beeinflusst hat. Insbesondere kann unser Design die Auswirkungen einer früheren Facebook-Nutzung oder kumulative Effekte über Jahre hinweg nicht erfassen; Es sind Experimente erforderlich, die über längere Zeiträume und/oder unter neuen Nutzern durchgeführt werden (wir stellen jedoch fest, dass wir keine Hinweise auf heterogene Effekte nach Alter oder Jahren seit dem Beitritt zu Facebook finden). Zweitens: Obwohl heterogene Behandlungseffekte in unseren Daten nicht vorhanden und in Überzeugungsstudien im Allgemeinen selten sind44, weichen die Merkmale und das Verhalten der Stichprobe in mancher Hinsicht von der Facebook-Nutzerpopulation ab. Zukünftige Forschungen sollten Stichproben untersuchen, die Facebook-Nutzer besser widerspiegeln und/oder Untergruppen überbewerten, die möglicherweise besonders von gleichgesinnten Inhalten betroffen sind. Drittens besetzt nur eine Minderheit der Facebook-Nutzer Echokammern, dennoch ist die betreffende Gruppe aufgrund der Reichweite der Plattform in absoluten Zahlen groß. Zukünftige Forschungen sollten darauf abzielen, besser zu verstehen, warum manche Menschen großen Mengen gleichgesinnter Informationen ausgesetzt sind und welche Folgen dieser Kontakt hat. Viertens untersucht unsere Studie die Verbreitung von Echokammern anhand der geschätzten politischen Neigungen von Benutzern, Seiten und Gruppen, die Inhalte in sozialen Netzwerken teilen. Wir messen die Neigung der geteilten Inhalte nicht direkt; Dies wäre ein wertvoller Beitrag für die zukünftige Forschung. Schließlich werden Replikationen in anderen Ländern mit unterschiedlichen politischen Systemen und Informationsumgebungen von wesentlicher Bedeutung sein, um zu bestimmen, wie sich diese Ergebnisse verallgemeinern lassen.

Letztendlich stellen diese Ergebnisse die gängigen Narrative in Frage, die die Echokammern der sozialen Medien für die Probleme der zeitgenössischen amerikanischen Demokratie verantwortlich machen. Algorithmenänderungen, die den Kontakt mit gleichgesinnten Quellen verringern, scheinen keine einfache Lösung für diese Probleme zu bieten. Die Informationen, die wir in den sozialen Medien sehen, spiegeln möglicherweise eher unsere Identität wider als eine Quelle der von uns geäußerten Ansichten.

Die Teilnehmer an unserem Feldexperiment sind 73,3 % Weiße, 57,3 % Frauen, relativ gut ausgebildet (50,7 % haben einen Hochschulabschluss) und 54,1 % bezeichnen sich selbst als Demokraten oder schlanke Demokraten. Sie nutzen Facebook auch häufiger als die allgemeine Facebook-Bevölkerung und sind mehr Inhalten aus politisch gleichgesinnten Quellen ausgesetzt (das Phänomen des Interesses), einschließlich Bürger- und Nachrichteninhalten aus gleichgesinnten Quellen, als andere Facebook-Nutzer (Ergänzungstabellen 2). und 4–10). Unsere Behandlungseffektschätzungen zu Einstellungen wenden daher Umfragegewichte an, die erstellt wurden, um die Population erwachsener monatlich aktiver Facebook-Nutzer widerzuspiegeln, die für eine Rekrutierung in Frage kamen (siehe Ergänzende Informationen, Abschnitt 4.7). Die demografischen Merkmale der gewichteten Stichprobe ähneln denen der selbst gemeldeten Facebook-Nutzer in einer AmeriSpeak-Wahrscheinlichkeitsstichprobe (erweiterte Datentabelle 5).

Die Befragten wurden mittels Block-Randomisierung mit gleicher Wahrscheinlichkeit einer Behandlung oder einer Kontrolle zugeordnet (Einzelheiten finden Sie in Abschnitt 4.5 der Zusatzinformationen; die Teilnehmer waren für die Zuordnung blind). Das Futter der Teilnehmer an der Kontrollbedingung wurde nicht systematisch verändert. Aufgrund der Schwierigkeit, die politische Ausrichtung oder Neigung vieler verschiedener Arten von Inhalten in großem Maßstab zu messen, variierten wir stattdessen die Exposition gegenüber Inhalten basierend auf der geschätzten politischen Ausrichtung der Informationsquelle. Mithilfe eines Facebook-Klassifikators schätzen wir direkt die politische Einstellung anderer Benutzer (Einzelheiten siehe Ergänzende Informationen, Abschnitt 1.3). Aufbauend auf früheren Untersuchungen16,17,23,45,46 schätzen wir die politischen Neigungen von Seiten und Gruppen anhand der politischen Neigungen ihrer Zielgruppe (Gruppenmitglieder und Seiten-Follower). Wir klassifizieren alle Benutzer als liberal oder konservativ, indem wir einen binären Schwellenwert verwenden, um die statistische Aussagekraft zu maximieren. Die Ergebnisse sind jedoch konsistent, wenn wir Befragte mit Klassifizierungen zwischen 0,4 und 0,6 in einer explorativen Analyse ausschließen (siehe Ergänzende Informationen, Abschnitte 3.10 und 3.11).

Wir haben die Studie so konzipiert, dass sie statistische Aussagekraft bietet, um kleine Effekte zu erkennen. Unsere Power-Berechnungen zeigten beispielsweise, dass eine endgültige Stichprobengröße von 24.480 einen minimal nachweisbaren Effekt von 1,6 Prozentpunkten auf die Wahlentscheidung bei wahrscheinlichen Wählern erzeugen würde (siehe Ergänzende Informationen, Abschnitt 4.5).

Die Randomisierung war erfolgreich: Die Behandlungs- und Kontrollgruppe unterscheiden sich in ihren demografischen Merkmalen nicht stärker als zufällig zu erwarten wäre (siehe Ergänzungstabelle 5). Insgesamt haben 82,6 % der Versuchsteilnehmer mindestens eine Umfrage nach der Wahl abgeschlossen (23.377 gültige Abschlüsse von 28.296 teilnahmeberechtigten Teilnehmern; siehe Ergänzende Informationen, Abschnitt 2.1.3). Die endgültige Stichprobe besteht aus Befragten, die mindestens eine Umfrage nach der Wahl durchgeführt und ihr Konto nicht gelöscht oder sich von der Studie zurückgezogen haben, bevor die Daten anonymisiert wurden. Diejenigen, die die Studie vor Abschluss einer Umfrage nach der Wahl verlassen haben, unterscheiden sich nicht wesentlich von unserer endgültigen Stichprobe (siehe Ergänzende Informationen, Abschnitte 2.1 und 1.2).

Alle Analysen im Haupttext und in den Zusatzinformationen folgen der bei der Open Science Foundation eingereichten Vorregistrierung (https://osf.io/3sjy2; siehe Zusatzinformationen, Abschnitt 4.10, mit Ausnahme der in Zusatzinformationen, Abschnitt 4.11 gemeldeten Abweichungen). Schätzungen des Behandlungseffekts verwenden OLS mit robusten Standardfehlern und Kontrolle für Kovariaten, die mithilfe des kleinsten absoluten Schrumpfungs- und Auswahloperators47 ausgewählt wurden (siehe Ergänzende Informationen, Abschnitt 1.5.1). Wie vorab registriert, wenden unsere Tests zu Behandlungseffekten auf Einstellungen auch Umfragegewichte an, um PATEs zu schätzen (siehe Ergänzende Informationen, Abschnitt 4.7). Beispiele für durchschnittliche Behandlungseffekte, die sehr ähnlich sind, finden Sie in den ergänzenden Informationen in den Abschnitten 3.2–3.5.

Wir haben alle relevanten ethischen Vorschriften eingehalten. Das Gesamtprojekt wurde vom Institutional Review Board (IRB) des National Opinion Research Center (NORC) geprüft und genehmigt. Akademische Forscher arbeiteten mit den IRBs ihrer jeweiligen Universität zusammen, um die Einhaltung der Vorschriften für die Forschung an Menschen sicherzustellen, indem sie die von NORC und Meta gesammelten Daten analysierten und auf diesen Ergebnissen basierende Arbeiten verfassten. Das Forschungsteam erhielt auch ethische Beratung von Ethical Resolve, um die Studiendesigns zu informieren. Ausführlichere Informationen finden Sie in den Zusatzinformationen, Abschnitte 1.2 und 4.9.

Alle Versuchsteilnehmer gaben vor der Teilnahme eine Einverständniserklärung ab (siehe Ergänzende Informationen, Abschnitt 4.6 für Rekrutierungs- und Einwilligungsmaterialien). Den Teilnehmern wurde die Möglichkeit eingeräumt, sich während des laufenden Experiments von der Studie zurückzuziehen und ihre Daten jederzeit zurückzuziehen, bis ihre Umfrageantworten im Februar 2023 von jeglichen identifizierenden Informationen getrennt wurden. Wir haben außerdem eine Stoppregel implementiert, die von der Klinik inspiriert ist Studien, in denen festgestellt wurde, dass wir die Intervention vor der Wahl beenden würden, wenn wir feststellen würden, dass sie Veränderungen bei bestimmten Variablen im Zusammenhang mit dem individuellen Wohlergehen hervorruft, die viel größer sind als erwartet. Weitere Einzelheiten finden Sie in den Zusatzinformationen, Abschnitt 1.2.

Keiner der akademischen Forscher erhielt von Meta eine finanzielle Entschädigung für seine Teilnahme am Projekt. Die Analysen wurden bei der Open Science Foundation vorregistriert (https://osf.io/3sjy2). Die Hauptautoren hatten die alleinige Entscheidung über alles, was in diesem Artikel berichtet wird. Meta stimmte öffentlich zu, dass es auf der Grundlage ihrer Ergebnisse keine Vorabgenehmigung für die Veröffentlichung von Artikeln geben würde. Weitere Einzelheiten zur meta-akademischen Zusammenarbeit finden Sie in den Ergänzenden Informationen, Abschnitt 4.8.

Weitere Informationen zum Forschungsdesign finden Sie in der mit diesem Artikel verlinkten Nature Portfolio Reporting Summary.

Anonymisierte Daten aus diesem Projekt (Meta Platforms, Inc. Facebook Intervention Experiment Participants. Inter-university Consortium for Political and Social Research [Verteiler], 27.07.2023. https://doi.org/10.3886/9wct-2d24 ; Meta Platforms, Inc. Exposition gegenüber und Interaktion mit Facebook-Posts. Interuniversitäres Konsortium für Politik- und Sozialforschung [Vertriebspartner], 27.07.2023. https://doi.org/10.3886/9sqy-ny89; Meta Platforms, Inc. Ideologische Ausrichtung von Nutzern in Facebook-Netzwerken. Interuniversitäres Konsortium für Politik- und Sozialforschung [Vertriebspartner], 27.07.2023. https://doi.org/10.3886/nvh0-jh41; Meta Platforms, Inc. Facebook-Nutzer Attribute. Interuniversity Consortium for Political and Social Research [Verteiler], 27.07.2023. https://doi.org/10.3886/vecn-ze56; Stroud, Natalie J., Tucker, Joshua A., NORC am University of Chicago und Meta Platforms, Inc. US 2020 FIES NORC-Datendateien. Interuniversitäres Konsortium für politische und soziale Forschung [Vertriebspartner], 27.07.2023. https://doi.org/10.3886/0d26-d856) sind unter kontrolliertem Zugriff im Social Media Archive (SOMAR) des Inter-university Consortium for Political and Social Research (ICPSR) der University of Michigan verfügbar. Auf die Daten kann über die virtuelle Datenenklave von ICPSR zugegriffen werden, um universitäre, vom IRB genehmigte Forschungsarbeiten zu Wahlen durchzuführen oder die Ergebnisse dieser Studie zu validieren. ICPSR akzeptiert und prüft alle Anträge auf Datenzugriff. Der Datenzugriff wird kontrolliert, um die Privatsphäre der Studienteilnehmer zu schützen und im Einklang mit der von den Studienteilnehmern unterzeichneten Einverständniserklärung zu stehen, in der ihnen mitgeteilt wurde, dass ihre Daten für „zukünftige Wahlforschung, zur Validierung der Ergebnisse dieser Studie oder“ verwendet würden wenn dies gesetzlich für eine IRB-Anfrage erforderlich ist.“ Datenanfragen können über SOMAR (https://socialmediaarchive.org/) gestellt werden; Anfragen können an SOMAR-Mitarbeiter unter [email protected] gerichtet werden. Die ICPSR-Mitarbeiter antworten auf Datenanfragen innerhalb von 2 bis 4 Wochen nach der Einreichung. Um auf die Daten zugreifen zu können, muss die Heimatinstitution des Wissenschaftlers, der die Anfrage gestellt hat, die ICPSR-Vereinbarung zu eingeschränkten Daten abschließen. Quelldaten werden mit diesem Dokument bereitgestellt.

Analysecode aus dieser Studie (Meta Platforms, Inc. Replication Code for US 2020 Facebook and Instagram Election Study. Inter-university Consortium for Political and Social Research [Distributor], 27.07.2023. https://doi.org/10.3886 /spb3-g558) wird bei SOMAR, ICPSR (https://socialmediaarchive.org) archiviert und in der virtuellen Datenenklave ICPSR für universitäre, vom IRB genehmigte Wahlforschung oder zur Validierung der Ergebnisse dieser Studie gemäß der Datenverfügbarkeitserklärung zur Verfügung gestellt über. Die Daten in dieser Studie wurden mit R (Version 4.1.1) analysiert, das über R-Notebooks auf JupyterLab (3.2.3) ausgeführt wurde. Der Analysecode importiert mehrere auf CRAN verfügbare R-Pakete, darunter dplyr (1.0.10), ggplot2 (3.4.0), xtable (1.8-4), aws.s3 (0.3.22), glmnet (4.1.2), SuperLearner (2,0-28), Margen (0,3,26) und Schätzung (1,0,0).

Lazer, DMJ et al. Computational Social Science: Hindernisse und Chancen. Science 369, 1060–1062 (2020).

Artikel ADS CAS PubMed Google Scholar

de Vreese, C. & Tromble, R. Der Datenabgrund: Wie mangelnder Datenzugang Forschung und Gesellschaft im Dunkeln tappen lässt. Politische Komm. 40, 356–360 (2023).

Artikel Google Scholar

Newport, F. & Dugan, A. Die parteipolitischen Differenzen nehmen in einer Reihe von Themen zu. Gallup https://news.gallup.com/opinion/polling-matters/215210/partisan-differences-growing-number-issues.aspx (2017).

Iyengar, S., Lelkes, Y., Levendusky, M., Malhotra, N. & Westwood, SJ Die Ursprünge und Folgen der affektiven Polarisierung in den Vereinigten Staaten. Annu. Rev. Politische Wissenschaft. 22, 129–146 (2019).

Artikel Google Scholar

Finkel, EJ et al. Politischer Sektierertum in Amerika. Wissenschaft 370, 533–536 (2020).

Artikel CAS PubMed Google Scholar

Sunstein, CR Republic.com 2.0 (Princeton Univ. Press, 2009).

Pariser, E. Die Filterblase: Was das Internet vor Ihnen verbirgt (Penguin, 2011).

Hosanagar, K. Schuld ist die Echokammer auf Facebook. aber beschuldige dich auch selbst. Wired https://www.wired.com/2016/11/facebook-echo-chamber/ (25. November 2016).

Knight, M. Erklärer: Wie Facebook zur größten Echokammer der Welt geworden ist. Das Gespräch https://theconversation.com/explainer-how-facebook-has-become-the-worlds-largest-echo-chamber-91024 (5. Februar 2018).

Johnson, SL, Kitchens, B. & Gray, P. Facebook dient als Echokammer, insbesondere für Konservative. Geben Sie dem Algorithmus die Schuld. Washington Post https://www.washingtonpost.com/opinions/2020/10/26/facebook-algorithm-conservative-liberal-extremes/ (26. Oktober 2020).

Helberger, N. Expositionsvielfalt als politisches Ziel. J. Media Law 4, 65–92 (2012).

Artikel Google Scholar

Stroud, NJ Polarisation und parteiselektive Exposition. J. Commun. 60, 556–576 (2010).

Artikel Google Scholar

Mutz, DC Querschnittsübergreifende soziale Netzwerke: Demokratietheorie in der Praxis testen. Bin politische Wissenschaft. Rev. 96, 111–126 (2002).

Artikel Google Scholar

Settle, JE Frenemies: Wie soziale Medien Amerika polarisieren (Cambridge Univ. Press, 2018).

Gentzkow, M. & Shapiro, JM Ideologische Segregation online und offline. QJ Econ. 126, 1799–1839 (2011).

Artikel Google Scholar

Flaxman, S., Goel, S. & Rao, JM Filterblasen, Echokammern und Online-Nachrichtenkonsum. Öffentliche Meinung. Q. 80, 298–320 (2016).

Artikel Google Scholar

Guess, AM (Fast) alles in Maßen: Neue Erkenntnisse über die Online-Medien-Diät der Amerikaner. Politische Wissenschaft. 65, 1007–1022 (2021).

Artikel Google Scholar

Wojcieszak, M. et al. Keine Polarisierung durch parteiische Nachrichten. Int. J. Presse/Politik https://doi.org/10.1177/1940161221104 (2021).

Barberá, P., Jost, JT, Nagler, J., Tucker, JA & Bonneau, R. Tweeten von links nach rechts: Ist politische Online-Kommunikation mehr als eine Echokammer? Psychol. Wissenschaft. 26, 1531–1542 (2015).

Artikel PubMed Google Scholar

Eady, G., Nagler, J., Guess, A., Zilinsky, J. & Tucker, JA Wie viele Menschen leben in politischen Blasen in den sozialen Medien? Belege aus verknüpften Umfrage- und Twitter-Daten. SAGE Open 9, 2158244019832705 (2019).

Artikel Google Scholar

Auxier, B. & Anderson, M. Nutzung sozialer Medien im Jahr 2021. https://www.pewresearch.org/internet/2021/04/07/social-media-use-in-2021/ (Pew Research Center, 2021) .

Wojcieszak, M., Casas, A., Yu, X., Nagler, J. & Tucker, JA Die meisten Nutzer folgen nicht den politischen Eliten auf Twitter; diejenigen, die es tun, zeigen eine überwältigende Präferenz für ideologische Kongruenz. Wissenschaft. Adv. 8, eabn9418 (2022).

Artikel PubMed PubMed Central Google Scholar

Bakshy, E., Messing, S. & Adamic, LA Kontakt mit ideologisch unterschiedlichen Nachrichten und Meinungen auf Facebook. Wissenschaft 348, 1130–1132 (2015).

Artikel ADS MathSciNet CAS PubMed MATH Google Scholar

Prior, M. Das immens überhöhte Nachrichtenpublikum: Bewertung der Voreingenommenheit bei der selbstberichteten Nachrichtenpräsenz. Öffentliche Meinung. Q. 73, 130–143 (2009).

Artikel Google Scholar

Konitzer, T. et al. Vergleich von Schätzungen des Nachrichtenkonsums aus Umfragen und passiv gesammelten Verhaltensdaten. Öffentliche Meinung. Q. 85, 347–370 (2021).

Artikel Google Scholar

Garrett, RK et al. Auswirkungen der Offenlegung pro- und kontereingestellter Informationen auf die affektive Polarisierung: Partisanen-Medienexposition und affektive Polarisierung. Summen. Komm. Res. 40, 309–332 (2014).

Artikel Google Scholar

Lu, Y. & Lee, JaeKook Partisaneninformationsquellen und affektive Polarisierung: Panelanalyse der vermittelnden Rolle von Wut und Angst. Tagebuch. Massenkommun. Q 96, 767–783 (2019).

Artikel Google Scholar

Arceneaux, K. & Johnson, M. Meinung ändern oder Kanäle wechseln?: Partisanennachrichten im Zeitalter der Wahl (Univ. Chicago Press, 2013).

Levendusky, M. Wie parteiische Medien Amerika polarisieren (Univ. of Chicago Press, 2013).

Levendusky, MS Warum polarisieren parteiische Medien die Zuschauer? Bin. J. Politische Wissenschaft. 57, 611–623 (2013).

Artikel Google Scholar

Levendusky, M. Partisanenmedienpräsenz und Einstellungen gegenüber der Opposition. Politische Komm. 30, 565–581 (2013).

Artikel Google Scholar

Hasell, A. & Weeks, BE Partisanenprovokation: Die Rolle der parteiischen Nachrichtennutzung und emotionalen Reaktionen beim politischen Informationsaustausch in sozialen Medien. Summen. Komm. Res. 42, 641–661 (2016).

Artikel Google Scholar

Guess, AM, Barbera, P., Munzert, S. & Yang, JH Die Folgen parteiischer Online-Medien. Proz. Natl Acad. Wissenschaft. USA 118, e2013464118 (2021).

Artikel CAS PubMed PubMed Central Google Scholar

Hobbs, WR & Roberts, ME Wie plötzliche Zensur den Zugang zu Informationen verbessern kann. Bin. Pol. Wissenschaft. Rev. 112, 621–636 (2018).

Artikel Google Scholar

DellaPosta, D., Shi, Y. & Macy, M. Warum trinken Liberale Latte Macchiato? Bin. J. Sociol. 120, 1473–1511 (2015).

Artikel Google Scholar

Wells, C. & Thorson, K. Kombination von Big Data und Umfragetechniken zur Modellierung der Auswirkungen politischer Content-Flüsse auf Facebook. Soc. Wissenschaft. Berechnen. Rev. 35, 33–52 (2017).

Artikel Google Scholar

Allen, J., Howland, B., Mobius, M., Rothschild, D. & Watts, DJ Bewertung des Fake-News-Problems auf der Ebene des Informationsökosystems. Wissenschaft. Adv. 6, eaay3539 (2020).

Artikel ADS PubMed PubMed Central Google Scholar

Farr, C. Jack Dorsey: „Twitter trägt dazu bei, Blasen zu filtern“ und „wir müssen das beheben“. CNBC https://www.cnbc.com/2018/10/15/twitter-ceo-jack-dorsey-twitter-does-contribute-to-filter-bubbles.html (15. Oktober 2018).

McPherson, M., Smith-Lovin, L. & Cook, JM Gleichgesinnte: Homophilie in sozialen Netzwerken. Annu. Rev. Sociol. 27, 415–444 (2001).

Artikel Google Scholar

Gerber, AS, Gimpel, JG, Green, DP & Shaw, DR Wie groß und nachhaltig ist die Überzeugungswirkung von im Fernsehen übertragener Kampagnenwerbung? Ergebnisse eines randomisierten Feldversuchs. Bin. Politische Wissenschaft. Rev. 105, 135–150 (2011).

Artikel Google Scholar

Hill, SJ, Lo, J., Vavreck, L. & Zaller, J. Wie schnell wir vergessen: Die Dauer der Überzeugungseffekte durch Massenkommunikation. Politische Komm. 30, 521–547 (2013).

Artikel Google Scholar

Coppock, A., Hill, SJ & Vavreck, L. Die kleinen Auswirkungen politischer Werbung sind gering, unabhängig von Kontext, Botschaft, Absender oder Empfänger: Belege aus 59 randomisierten Echtzeitexperimenten. Wissenschaft. Adv. 6, eabc4046 (2020).

Artikel ADS PubMed PubMed Central Google Scholar

Carey, JM et al. Die flüchtigen Auswirkungen von Faktenchecks auf die Fehleinschätzungen von COVID-19 in den Vereinigten Staaten, Großbritannien und Kanada. Nat. Summen. Verhalten. 6, 236–243 (2022).

Artikel PubMed Google Scholar

Coppock, A. Persuasion in Parallel: How Information Changes Minds about Politics (Univ. Chicago Press, 2022).

Golbeck, J. & Hansen, D. Eine Methode zur Berechnung der politischen Präferenz unter Twitter-Followern. Soziales Netzwerk 36, 177–184 (2014).

Artikel Google Scholar

Eady, G., Bonneau, R., Tucker, JA & Nagler, J. Nachrichtenaustausch in sozialen Medien: Kartierung der Ideologie von Nachrichtenmedieninhalten, Bürgern und Politikern. Vorabdruck unter https://doi.org/10.31219/osf.io/ch8gj (2020).

Bloniarz, A., Liu, H., Zhang, Cun-Hui, Sekhon, JS & Yu, B. Lasso-Anpassungen von Behandlungseffektschätzungen in randomisierten Experimenten. Proz. Natl Acad. Wissenschaft. USA 113, 7383–7390 (2016).

Artikel ADS MathSciNet CAS PubMed PubMed Central MATH Google Scholar

Referenzen herunterladen

Das Team von Facebook Open Research and Transparency (FORT) leistete maßgebliche Unterstützung bei der Durchführung des Gesamtprojekts. Wir sind dankbar für die Unterstützung in verschiedenen Aspekten des Projektmanagements von C. Nayak, S. Zahedi, I. Rosenn, L. Ahmad, A. Bhalla, C. Chan, A. Gruen, B. Hillenbrand, D. Li, P. McLeod, D. Rice und N. Shah; Ingenieurwissenschaften von Y. Chen, S. Chen, J. Dai, T. Lohman, R. Moodithaya, R. Pyke, Y. Wan und F. Yan; Datentechnik von B. Xiong, S. Chintha, J. Cronin, D. Desai, Y. Kiraly, T. Li, X. Liu, S. Pellakuru und C. Xie; Datenwissenschaft und Forschung von H. Connolly-Sporing, S. Tan und T. Wynter; akademische Partnerschaften von R. Mersey, M. Zoorob, L. Harrison, S. Aisiks, Y. Rubinstein und C. Qiao; Datenschutz und rechtliche Bewertung von K. Benzina, F. Fatigato, J. Hassett, S. Iyengar, P. Mohassel, A. Muzaffar, A. Raghunathan und A. Sun; und Content-Design von C. Bernard, J. Breneman, D. Leto und S. Raj. NORC an der University of Chicago arbeitete bei diesem Projekt mit Meta zusammen, um die Feldforschung mit den Umfrageteilnehmern durchzuführen und die Umfragedaten mit Web-Tracking-Daten für einwilligende Teilnehmer in vorab festgelegten aggregierten Formen zu koppeln. Wir sind besonders dankbar für die Partnerschaft zwischen NORC-Hauptforscher JM Dennis und NORC-Projektleiter M. Montgomery. Die mit der Forschung verbundenen Kosten (wie Teilnehmergebühren, Rekrutierung und Datenerfassung) wurden von Meta übernommen. Zusätzliche Unterstützung (z. B. Forschungsassistenten und Kursübernahmen) wurde von Wissenschaftlern des Democracy Fund, der Guggenheim Foundation, der John S. and James L. Knight Foundation, der Charles Koch Foundation, der Hewlett Foundation und der Alfred P. Sloan bereitgestellt Foundation, dem Hopewell Fund, der University of Texas at Austin, der New York University, der Stanford University, dem Stanford Institute for Economic Policy Research und der University of Wisconsin-Madison.

Drew Dimmery

Aktuelle Adresse: Forschungsnetzwerk Data Science, Universität Wien, Wien, Österreich

Diese Autoren haben gleichermaßen beigetragen: Brendan Nyhan, Jaime Settle, Emily Thorson, Magdalena Wojcieszak, Pablo Barberá

Diese Autoren haben diese Arbeit gemeinsam betreut: Chad Kiewiet de Jonge, Annie Franco, Winter Mason, Natalie Jomini Stroud, Joshua A. Tucker

Regierungsministerium, Dartmouth College, Hanover, NH, USA

Brendan Nyhan

Ministerium für Regierung und Datenwissenschaft, William und Mary, Williamsburg, VA, USA

Jaime Settle

Maxwell School of Citizenship and Public Affairs, Syracuse University, Syracuse, NY, USA

Emily Thorson

Abteilung für Kommunikation, University of California, Davis, CA, USA

Magdalena Wojcieszak

Amsterdam School of Communication Research, Universität Amsterdam, Amsterdam, Niederlande

Magdalena Wojcieszak

Meta, Menlo Park, CA, USA

Pablo Barberá, Taylor Brown, Adriana Crespo-Tenorio, Drew Dimmery, Devra Moehler, Daniel Robert Thomas, Carlos Velasco Rivera, Arjun Wilkins, Beixian Xiong, Chad Kiewiet de Jonge, Annie Franco und Winter Mason

CUNY Institute for State and Local Governance, New York, NY, USA

Annie Y. Chen

Analysezentrum für Umwelt- und Energiepolitik, Stanford University, Stanford, CA, USA

Hunt Allcott

Annenberg School for Communication, University of Pennsylvania, Philadelphia, PA, USA

Deen Freelon und Sandra González-Bailón

Fakultät für Wirtschaftswissenschaften, Stanford University, Stanford, CA, USA

Matthew Gentzkow

Abteilung für Politik, Princeton University, Princeton, NJ, USA

Andrew M. Vermutung

School of Public and International Affairs, Princeton University, Princeton, NJ, USA

Andrew M. Vermutung

Abteilung für Statistik und Datenwissenschaft, Carnegie Mellon University, Pittsburgh, PA, USA

Edward Kennedy

Schule für Journalismus und Massenkommunikation, University of Wisconsin-Madison, Madison, WI, USA

Junge Mie Kim

Network Science Institute, Northeastern University, Boston, MA, USA

David Lazer

Graduate School of Business, Stanford University, Stanford, Kalifornien, USA

Neil Malhotra

Abteilung für Kommunikation, Stanford University, Stanford, CA, USA

Jennifer Pan

School of Media and Public Affairs, The George Washington University, Washington, DC, USA

Rebekah Tromble

Institut für Daten, Demokratie und Politik, George Washington University, Washington, DC, USA

Rebekah Tromble

Moody College of Communication, University of Texas at Austin, Austin, TX, USA

Natalie Jomini Stroud

Zentrum für Medienengagement, University of Texas at Austin, Austin, TX, USA

Natalie Jomini Stroud

Wilf Family, Fakultät für Politik, New York University, New York, NY, USA

Joshua A. Tucker

Zentrum für soziale Medien und Politik, New York University, New York, NY, USA

Joshua A. Tucker

Sie können diesen Autor auch in PubMed Google Scholar suchen

Sie können diesen Autor auch in PubMed Google Scholar suchen

Sie können diesen Autor auch in PubMed Google Scholar suchen

Sie können diesen Autor auch in PubMed Google Scholar suchen

Sie können diesen Autor auch in PubMed Google Scholar suchen

Sie können diesen Autor auch in PubMed Google Scholar suchen

Sie können diesen Autor auch in PubMed Google Scholar suchen

Sie können diesen Autor auch in PubMed Google Scholar suchen

Sie können diesen Autor auch in PubMed Google Scholar suchen

Sie können diesen Autor auch in PubMed Google Scholar suchen

Sie können diesen Autor auch in PubMed Google Scholar suchen

Sie können diesen Autor auch in PubMed Google Scholar suchen

Sie können diesen Autor auch in PubMed Google Scholar suchen

Sie können diesen Autor auch in PubMed Google Scholar suchen

Sie können diesen Autor auch in PubMed Google Scholar suchen

Sie können diesen Autor auch in PubMed Google Scholar suchen

Sie können diesen Autor auch in PubMed Google Scholar suchen

Sie können diesen Autor auch in PubMed Google Scholar suchen

Sie können diesen Autor auch in PubMed Google Scholar suchen

Sie können diesen Autor auch in PubMed Google Scholar suchen

Sie können diesen Autor auch in PubMed Google Scholar suchen

Sie können diesen Autor auch in PubMed Google Scholar suchen

Sie können diesen Autor auch in PubMed Google Scholar suchen

Sie können diesen Autor auch in PubMed Google Scholar suchen

Sie können diesen Autor auch in PubMed Google Scholar suchen

Sie können diesen Autor auch in PubMed Google Scholar suchen

Sie können diesen Autor auch in PubMed Google Scholar suchen

Sie können diesen Autor auch in PubMed Google Scholar suchen

Sie können diesen Autor auch in PubMed Google Scholar suchen

Sie können diesen Autor auch in PubMed Google Scholar suchen

BN, JS, ET, MW und PB überwachten alle Analysen, analysierten Daten und verfassten die Arbeit. Als wissenschaftliche Hauptautoren hatten BN, JS, ET und MW die endgültigen Kontrollrechte. PB war der Hauptautor bei Meta. BN, JS, ET, MW, DM und PB haben die Studie entworfen. PB, DD, DF, EK, YMK, NM, DM, BN, ET, RT, CVR, AW und MW steuerten Studienmaterialien bei (z. B. Fragebögen, Klassifikatoren und Software). HA, PB, AC-T., AF, DF, MG, SG-B., AMG, CKdJ, YMK, DL, NM, WM, DM, BN, JP, CVR, JS, NJS, ET, RT, JAT, AW und MW trugen zur Gestaltung des Projekts bei. PB, TB, AC-T., AF, WM, DRT, CVR, AW und BX koordinierten die Umsetzung der experimentellen Intervention und sammelten und kuratierten alle Plattformdaten. AYC und PB haben die Zahlen und Tabellen beigesteuert. EK und DD trugen zur Analyse heterogener Effekte bei. HA, MG, SG-B., DL, NM, NJS und JAT gaben Feedback zum Manuskript. NJS und JAT waren gemeinsame Hauptforscher für die akademische Beteiligung an diesem Projekt und verantwortlich für Management und Koordination. CKdJ, AF und WM leiteten Metas Beteiligung an diesem Projekt und waren für das Management und die Koordination verantwortlich.

Korrespondenz mit Brendan Nyhan.

Keiner der akademischen Forscher oder ihrer Institutionen erhielt von Meta eine finanzielle Entschädigung für ihre Teilnahme am Projekt. Einige Autoren sind oder waren bei Meta angestellt: PB, TB, AC-T., DD, DM, DRT, CVR, AW, BX, AF, CKdJ und WMDD und CVR sind ehemalige Mitarbeiter von Meta. Ihre gesamte Arbeit an der Studie wurde während ihrer Anstellung bei Meta durchgeführt. Die folgenden akademischen Autoren hatten eine oder mehrere der folgenden Finanzierungen oder persönlichen finanziellen Beziehungen zu Meta (bezahlte Beratungstätigkeit, erhielten direkte Zuschüsse, erhielten ein Honorar oder Honorar, fungierten als externer Experte oder besaßen Meta-Aktien): MG, AMG , BN, JP, JS, NJS, RT, JAT und MW Weitere Informationen zu den oben genannten Offenlegungen sowie eine Übersicht über die zum Schutz der Integrität der Forschung ergriffenen Maßnahmen finden Sie in den Ergänzenden Informationen, Abschnitt 4.8.

Nature dankt den anonymen Gutachtern für ihren Beitrag zum Peer-Review dieser Arbeit. Peer-Review-Berichte sind verfügbar.

Anmerkung des Herausgebers Springer Nature bleibt hinsichtlich der Zuständigkeitsansprüche in veröffentlichten Karten und institutionellen Zugehörigkeiten neutral.

Jedes Histogramm zeigt die Verteilung des vorhergesagten Ideologie-Scores der Befragten gemäß Metas Klassifikator für erwachsene Facebook-Benutzer in den USA (siehe Ergänzende Informationen, Abschnitt 1.3) nach Teilmengen, die durch ihre selbst gemeldeten politischen Merkmale definiert sind. Die Histogramme haben Abschnitte mit einer Breite von 0,10.

Quelldaten

Vorbehandlungsverteilung der Facebook-Feed-Präsenz mit Inhalten aus gleichgesinnten Quellen (linke Spalte), übergreifenden Quellen (mittlere Spalte) und solchen, die in keine der Kategorien fallen (rechte Spalte). Schätzungen für alle Inhalte (obere Reihe) und für Inhalte, die als bürgerlich (d. h. politisch; mittlere Reihe) und Nachrichten (untere Reihe) klassifiziert sind. Quellen- und Inhaltsklassifizierungen wurden mithilfe interner Facebook-Klassifikatoren erstellt (siehe Ergänzende Informationen, Abschnitt 1.3). Die Grafik enthält die Verteilung der Exposition sowohl für Studienteilnehmer als auch für die Facebook-Population von Nutzern ab 18 Jahren, die sich im Monat vor dem 17. August 2020, als der Stichprobenrahmen der Studie erstellt wurde, jeden Tag bei Facebook angemeldet haben.

Quelldaten

Durchschnittlicher Tagesanteil der Aufrufe von Inhalten aus übergreifenden Quellen durch die Befragten nach Versuchsgruppe vom 1. Juli bis 23. Dezember 2020. Als bereichsübergreifend eingestufte Quellen basierend auf Schätzungen eines internen Facebook-Klassifizierers auf individueller Ebene für Benutzer und Freunde und bei die Zielgruppenebene für Seiten und Gruppen (siehe Ergänzende Informationen, Abschnitt 1.3). W1–W5 geben die Erhebungswellen 1–5 an; Die Schattierung gibt die Wellendauer an. (Hinweis: Aufgrund eines technischen Problems gingen die Expositionswerte am 2. und 3. November kurzzeitig zurück; Einzelheiten siehe Ergänzende Informationen, Abschnitt 4.11).

Quelldaten

Durchschnittliche Behandlungseffekte durch Reduzierung der Exposition gegenüber gleichgesinnten Quellen im Facebook-Feed vom 24. September bis 23. Dezember 2020. Die Abbildung zeigt OLS-Schätzungen der durchschnittlichen Behandlungseffekte der Stichprobe (SATE) sowie des durchschnittlichen Behandlungseffekts der Bevölkerung (PATE) unter Verwendung von Umfragegewichten und HC2 robuste Standardfehler. Die Messgrößen für die Expositions- und Engagement-Ergebnisse wurden anhand des Feed-Verhaltens der Teilnehmer gemessen. Bei den Umfrageergebnismaßen handelt es sich um standardisierte Skalen, die über Umfragen gemittelt werden, die vom 4. bis 18. November 2020 und/oder vom 9. bis 23. Dezember 2020 durchgeführt wurden. Die Stichprobengröße und die P-Werte für jede Schätzung sind in der Ergänzungstabelle 47 aufgeführt.

Quelldaten

Durchschnittliche Behandlungseffekte durch Reduzierung der Exposition gegenüber gleichgesinnten Quellen im Facebook-Feed vom 24. September bis 23. Dezember 2020. Die Abbildung zeigt OLS-Schätzungen der durchschnittlichen Behandlungseffekte der Stichprobe (SATE) sowie des durchschnittlichen Behandlungseffekts der Bevölkerung (PATE) unter Verwendung von Umfragegewichten und HC2 robuste Standardfehler. Die Ergebnisse des Engagements wurden anhand des Feed-Verhaltens der Teilnehmer gemessen. Sofern nicht anders angegeben, handelt es sich bei den Umfrageergebnissen um standardisierte Skalen, die über Umfragen gemittelt werden, die vom 4. bis 18. November 2020 und/oder vom 9. bis 23. Dezember 2020 durchgeführt wurden. Stichprobengröße und P-Werte für jede Schätzung sind in der Ergänzungstabelle 47 aufgeführt.

Quelldaten

Diese Datei enthält ergänzende Methoden (einschließlich weiterer Details zur experimentellen Implementierung und den verwendeten Klassifikatoren), ergänzende Tabellen und Abbildungen (einschließlich deskriptiver Statistiken und Analysen in separaten Abschnitten) und ergänzende Anmerkungen (einschließlich des Voranalyseplans und der Umfragefragebögen).

Open Access Dieser Artikel ist unter einer Creative Commons Attribution 4.0 International License lizenziert, die die Nutzung, Weitergabe, Anpassung, Verbreitung und Reproduktion in jedem Medium oder Format erlaubt, sofern Sie den/die ursprünglichen Autor(en) und die Quelle angemessen angeben. Geben Sie einen Link zur Creative Commons-Lizenz an und geben Sie an, ob Änderungen vorgenommen wurden. Die Bilder oder anderes Material Dritter in diesem Artikel sind in der Creative-Commons-Lizenz des Artikels enthalten, sofern in der Quellenangabe für das Material nichts anderes angegeben ist. Wenn Material nicht in der Creative-Commons-Lizenz des Artikels enthalten ist und Ihre beabsichtigte Nutzung nicht gesetzlich zulässig ist oder über die zulässige Nutzung hinausgeht, müssen Sie die Genehmigung direkt vom Urheberrechtsinhaber einholen. Um eine Kopie dieser Lizenz anzuzeigen, besuchen Sie http://creativecommons.org/licenses/by/4.0/.

Nachdrucke und Genehmigungen

Nyhan, B., Settle, J., Thorson, E. et al. Gleichgesinnte Quellen auf Facebook sind weit verbreitet, polarisieren jedoch nicht. Natur 620, 137–144 (2023). https://doi.org/10.1038/s41586-023-06297-w

Zitat herunterladen

Eingegangen: 21. Dezember 2022

Angenommen: 07. Juni 2023

Veröffentlicht: 27. Juli 2023

Ausgabedatum: 03. August 2023

DOI: https://doi.org/10.1038/s41586-023-06297-w

Jeder, mit dem Sie den folgenden Link teilen, kann diesen Inhalt lesen:

Leider ist für diesen Artikel derzeit kein Link zum Teilen verfügbar.

Bereitgestellt von der Content-Sharing-Initiative Springer Nature SharedIt

Natur (2023)

Durch das Absenden eines Kommentars erklären Sie sich damit einverstanden, unsere Nutzungsbedingungen und Community-Richtlinien einzuhalten. Wenn Sie etwas als missbräuchlich empfinden oder etwas nicht unseren Bedingungen oder Richtlinien entspricht, kennzeichnen Sie es bitte als unangemessen.