aktuelle Forschungsstand – knapp, mit belastbaren Quellen – zu (1) Wirkung von YouTube-Videos & vor allem Kommentaren, (2) Algorithmus-Effekten, (3) automatisiert/koordiniert verbreiteten Kommentaren und (4) möglichem Bezug zu AfD ≈ 25 %.
1) Kommentare beeinflussen messbar die Wahrnehmung
- Experimente zeigen: Valenz der YouTube-Kommentare (viel Zustimmung vs. Ablehnung) verändert Identifikation mit Creator, Video-Gefallen und Urteile über Inhalte. Positives Kommentar-Klima erhöht Wirkung, negatives senkt sie. PMC
- Politische Kommentarspalten können Vertrauen in Quellen untergraben: Angriffs-Kommentare senken perceived credibility wissenschaftlicher Aussagen. PMC
- Große Feldexperimente zu Herd-/Bandwagon-Effekten belegen, dass frühe (auch künstliche) Upvotes/Kommentare nachfolgende Bewertungen verschieben (asymmetrisch stark bei positiven Signalen). Nicht YouTube-spezifisch, aber Mechanismus identisch. Wissenschaft
- Ergänzend zeigt ein Lab-Experiment auf einer YouTube-ähnlichen Plattform: Reihenfolge/Set der Videos kann Meinungen und Wahlpräferenzen spürbar verschieben (starkes, aber simuliertes Setting). PLOS
2) Algorithmus & “Rabbit Hole”: gemischte Evidenz
- PNAS 2021 & Folgearbeiten: Nutzung und Empfehlungen sind stark von Vorselektion/Präferenzen geprägt; breite Nutzermehrheit wird nicht automatisch in Extremismus geleitet. PNASBrookings
- Andere Audits finden asymmetrische Effekte bzw. stärkere Extrem-Empfehlungen vor allem für bereits rechtsneigende Nutzer. (Methoden unterscheiden sich, Befundlage ist nicht einheitlich.) ucdavis.eduPMC
3) Automatisierte/koordinierte Kommentare & Netze (Astroturfing)
- Google/YouTube entfernt fortlaufend koordinierte Einfluss-Netze; Q4 / 2024 wurden u. a. deutschsprachige Kampagnen und sogar ein in Deutschland ansässiger Akteur (“unterstützend für eine bestimmte deutsche Partei”) sanktioniert. Q1 / 2025 erneut Maßnahmen zu deutschen Wahlen. (Das zeigt Existenz & Reichweite solcher Versuche – nicht automatisch deren Erfolg.) blog.google+1
- Weitere Bulletins belegen zehntausende gelöschte IO-Kanäle (PRC, Russland u. a.) – ein permanentes Ökosystem aus Bots, Sockenpuppen und Kommentar-Spam. blog.google
4) Deutschland/AfD: Was wissen wir?
- Reichweite: Analysen zeigen, dass die AfD auf TikTok & YouTube überproportional sichtbar/reichweitenstark ist; Potsdam-Studie und ZDF-Auswertung beschreiben die Strategie & Dominanz. uni-potsdam.deZDFheute
- Plattform-Push (plattformübergreifend): 2025 fand Global Witness für X und TikTok eine deutliche pro-AfD-Schieflage bei algorithmisch gepushtem Content an angeblich unparteiische Nutzer; Medienanalysen fassten das zusammen. (Kein YouTube-Audit, aber Hinweis auf systemische Risiken.) Global WitnessNieman Lab
- Verhaltenseffekte: Für Deutschland ist kausale Evidenz stark v. a. zu Facebook: Mehr Social-Media-Nutzung korrelierte kausal mit mehr Anti-Geflüchteten-Gewalt (Outage-Design). Das bestätigt, dass soziale Plattformen offline Wirkung entfalten können. SSRN
- 25 % AfD? Ja, aktuell belegt: z. B. INSA 29.08.2025 weist AfD = 25 % aus. DAWUM
Kurzfazit zur „25 % wegen YouTube-Videos/Kommentaren?“-Frage
- Gesichert: (a) Kommentar-Valenz & frühe Signale verschieben Wahrnehmung und Bewertung; (b) es gibt koordinierte/automatisierte Kommentar- & Kanal-Netze, teils mit Deutschland-Bezug; (c) AfD ist außergewöhnlich sichtbar auf Kurzvideo/Video-Plattformen. PMCWissenschaft blog.google+1uni-potsdam.de
- Wahrscheinlich: Diese Mechanismen tragen zur Meinungsklimatisierung (Bandwagon, Schweigespirale-Effekte) und zur Agenda-Setting/Mobilisierung bei – zusammen mit Offline-Faktoren. Direkte Kausalzuordnung “Automatisierte YouTube-Kommentare ⇒ AfD 25 %” ist (noch) nicht wissenschaftlich gezeigt.
- Plausible Kette: Reichweite/Agenda-Setting → Kommentar-Klima (real + astroturfed) → Wahrnehmung von “Mehrheitsmeinung” → Mobilisierung/Normalisierung → Beiträge zu Stimmenanteilen. (Beobachtbar, aber schwer zu isolieren.)