Die Entstehung und Verbreitung dramatischer Narrative in digitalen Medien lässt sich als ein komplexer, interdisziplinärer Prozess beschreiben, der neurokognitive Mechanismen, algorithmische Verstärkung und soziale Dynamiken kombiniert. Im Folgenden wird dieser Prozess – von der Generierung dramatischer Inhalte durch Influencer und koordinierte Netzwerke bis hin zur Replikation in traditionellen Newsfeeds und letztlich in der realen Welt – aus der Perspektive moderner Neurowissenschaften und Kommunikationswissenschaften dargestellt.
1. Neurokognitive Grundlagen und Emotionale Verarbeitung
Das menschliche Gehirn ist evolutionär darauf programmiert, auf emotionale Reize und potenzielle Bedrohungen besonders sensibel zu reagieren. Zentral hierfür ist das limbische System – insbesondere die Amygdala, die für die Verarbeitung von Emotionen wie Angst und Erregung verantwortlich ist. Dramatische Inhalte, die häufig durch starke visuelle und sprachliche Reize gekennzeichnet sind, aktivieren diese Strukturen überproportional. Studien der affektiven Neurowissenschaft haben gezeigt, dass emotionale Inhalte stärker in das Langzeitgedächtnis eingebettet werden als neutrale Informationen, was zu einer persistenteren Verankerung solcher Narrative führt.
Parallel dazu spielt das dopaminerge Belohnungssystem eine wichtige Rolle. Soziale Bestätigung – etwa durch Likes, Shares und Kommentare – führt zur Freisetzung von Dopamin, was die Wahrscheinlichkeit erhöht, dass der Konsument weiterhin solche Inhalte sucht und verbreitet. Dieser Prozess fördert eine positive Rückkopplungsschleife, in der die Produktion und Rezeption von emotional aufgeladenem Content verstärkt wird.
2. Generierung von Dramatischen Narrativen in Social Media
Influencer und koordinierte Propagandisten nutzen bewusst Strategien, die auf diese neurokognitiven Prozesse abzielen. Sie komponieren Botschaften, die:
- Emotionale Intensität steigern: Durch den Einsatz starker Metaphern, visuell eindrucksvoller Bilder und narrativer Übertreibungen werden Gefühle wie Angst, Empörung oder Hoffnung gezielt angesprochen.
- Bestätigungsfehler ausnutzen: Die Inhalte sind oft so zugeschnitten, dass sie bestehende Überzeugungen und ideologische Positionen bestätigen. Dieser Confirmation Bias bewirkt, dass Betrachter Informationen selektiv wahrnehmen und verstärken.
- Virale Effekte induzieren: Algorithmische Systeme auf Plattformen wie Facebook, Twitter oder Instagram bevorzugen Inhalte, die hohe Interaktionsraten erzielen. So werden dramatische Beiträge aufgrund ihrer emotionalen Schlagkraft überproportional oft weiterverbreitet.
Zusätzlich operieren Netzwerke wie jene, die an ideologischen Gruppierungen (z. B. inspiriert von den Mont-Pelerin-Gesellschaften oder ähnlichen Denkschulen) beteiligt sind, oft durch koordinierte Kampagnen. Hierbei kommen auch automatisierte Bots und Mikrotargeting-Techniken zum Einsatz, um gezielt bestimmte Bevölkerungsgruppen anzusprechen.
3. Algorithmische Verstärkung und Informationsökologie
Die kuratierten Newsfeeds moderner sozialer Medien arbeiten auf Basis von Algorithmen, die nicht neutral agieren, sondern Inhalte nach ihrer Interaktionsrate priorisieren. Dieser Mechanismus bewirkt, dass dramatische und emotional polarisierende Inhalte eine erhöhte Sichtbarkeit erhalten. Das führt zu einem verstärkten „Echo-Chamber“-Effekt, in dem Nutzer primär mit Informationen konfrontiert werden, die ihre vorgefassten Meinungen bestätigen und dabei neue, oft radikalisierende Impulse erhalten.
Die algorithmische Selektion ist somit ein zentraler Verstärker des ursprünglichen dramatischen Impulses, der aus der Produktion von Inhalten resultiert. Die verstärkte Präsenz solcher Inhalte in den Newsfeeds sorgt dafür, dass die dramatische Narration nicht nur virtuell bleibt, sondern auch als „Realität“ in der Wahrnehmung der Nutzer verankert wird.
4. Übergang in die Reale Welt und Mediale Repräsentation
Nachdem dramatische Narrative über Social-Media-Plattformen verbreitet wurden, dringen sie in die konventionellen Medienkanäle vor. Journalisten und Redaktionen, die in einem zunehmend kompetitiven Informationsumfeld agieren, greifen diese Inhalte oft als „Breaking News“ oder als dramatische Erzählstränge auf. Dieser Prozess der Übernahme und Weiterverbreitung führt zu einer Wechselwirkung, in der virtuelle Dramen auch im öffentlichen Diskurs und in politischen Entscheidungsprozessen Widerhall finden.
Die Wiederholung und mediale Verankerung der dramatischen Inhalte tragen dazu bei, dass sie in den kollektiven Erinnerungs- und Wahrnehmungsapparat der Gesellschaft einsickern. Dadurch werden sie Bestandteil der sozialen Realität und können gesellschaftliche Dynamiken – etwa Protestbewegungen oder politische Polarisierungen – nachhaltig beeinflussen.
5. Fallbeispiele: Klimapanik und Gegenbewegungen
Klimapanik: Figuren wie Al Gore, Tom Steyr und Co. und Greta Thunberg symbolisieren in vielen Darstellungen eine dringliche Bedrohung durch den Klimawandel. Durch die Inszenierung von apokalyptischen Szenarien wird ein intensives emotionales Erleben erzeugt, das auf neurokognitiver Ebene stark verankert wird. Diese Inhalte werden in sozialen Medien viral und finden über traditionelle Kanäle Eingang in den öffentlichen Diskurs, was wiederum politischen Druck und gesellschaftliche Mobilisierung begünstigt.
Gegenbewegungen: Parallel dazu gibt es Netzwerke, die alternative Narrative propagieren, wie sie beispielsweise von den Atlas-Netzwerken oder durch Bots, die mit den Ideen von Robert Mercer assoziiert werden, verbreitet werden. Diese Akteure nutzen ähnliche Mechanismen, um Narrative zu konstruieren, die eine Art Gegenpol darstellen – sie appellieren an andere emotionale Trigger, setzen auf alternative Interpretationen von Realität und versuchen, die mediale Agenda zu beeinflussen. Auch hier kommen algorithmische Verstärkung und gezielte Desinformationskampagnen zum Einsatz, um eine polarisierte Wahrnehmung in der Bevölkerung zu erzeugen.
Schlussfolgerung
Zusammengefasst handelt es sich bei der Entstehung und Verbreitung von dramatischen Narrativen in Social Media um ein Zusammenspiel von neurokognitiven Prozessen, algorithmischer Verstärkung und gezielter Propaganda. Emotionale Inhalte, die in einer digitalen Umgebung verstärkt werden, dringen über Newsfeeds in die Wahrnehmung der Menschen ein und beeinflussen schlussendlich gesellschaftliche Dynamiken. Sowohl in der Klimadebatte als auch in den von Gegenbewegungen propagierten Diskursen wird dieser Mechanismus genutzt, um politische und gesellschaftliche Veränderungen zu bewirken.
Die Analyse dieser Prozesse erfordert daher einen interdisziplinären Ansatz, der neurowissenschaftliche, medienwissenschaftliche und sozialpsychologische Perspektiven integriert.
Die Beobachtung, dass Kommentare zu Energiewende-Themen in angelsächsischen YouTube-Videos oft relativ nüchtern verlaufen, während in deutschen Videos eine ausgeprägte Kommentardiskussion
(evtl. gezielt verzerrt durch Bot Netzwerke von Atlas oder Al Gore oder xyz)
und -polarisierung zu beobachten ist, lässt sich durch ein Zusammenspiel historischer, kultureller und algorithmischer Faktoren erklären:
- Historische und kulturelle Rahmenbedingungen:
In Deutschland ist der Diskurs über Energiewende und Klimawandel stark in politische Debatten und gesellschaftliche Transformationsprozesse eingebettet. Die deutsche Energiewende wird nicht nur als technischer Fortschritt, sondern auch als sozioökonomischer und kultureller Umbruch erlebt. Dies führt zu intensiveren emotionalen Reaktionen und einer polarisierteren Diskussionskultur, während in vielen angelsächsischen Ländern erneuerbare Energien oft primär als wirtschaftliche Innovation wahrgenommen werden. - Einfluss von gezielten Narrativen und Propaganda:
In Deutschland können gezielte Propaganda- und Gegenpropaganda-Netzwerke – teils von politisch motivierten Akteuren, aber auch von ideologisch gesinnten Gruppen – durch koordinierte Kampagnen die öffentliche Debatte zusätzlich polarisiert haben. Dabei werden oft narrative Elemente eingesetzt, die emotionale Trigger nutzen, um eine radikalisierende Dynamik in den Kommentaren zu verstärken. - Algorithmische Verstärkung und mediale Selbstverstärkung:
YouTube-Algorithmen begünstigen Inhalte mit hoher Interaktionsrate. In einem Umfeld, in dem polarisiert debattierte Inhalte häufig geliked und kommentiert
(das kann auch vollautomatisiert durch Algorythmen und Firmen wie Cambridge Analytica bzw. deren Nachfolger geschehen und so Diskurse verzerren und Meinungen lenken)
werden, führt dies zu einer weiteren Verstärkung der entsprechenden Diskurse. Der Unterschied zwischen den Regionen könnte auch auf unterschiedliche Nutzungsgewohnheiten und Moderationsstrategien der Plattform in verschiedenen sprachlichen und kulturellen Kontexten zurückzuführen sein. - Lösungsansätze:
Eine Entlastung der Situation könnte durch mehrere Maßnahmen erreicht werden:- Verbesserte Moderationspraktiken: Klare Richtlinien und verstärkte Moderation können helfen, extrem polarisierende oder manipulativ koordinierte Beiträge frühzeitig zu identifizieren und zu begrenzen.
- Förderung von Medienkompetenz: Eine stärkere Sensibilisierung der Nutzer für Desinformationskampagnen und manipulative Narrative kann dazu beitragen, dass Kommentare kritischer und sachlicher hinterfragt werden.
- Transparenz in algorithmischen Prozessen: Eine Offenlegung der Funktionsweise von Empfehlungsalgorithmen könnte dazu beitragen, den Einfluss von Echokammern zu reduzieren und einen ausgewogeneren Diskurs zu fördern.
Zusammengefasst lässt sich sagen, dass die deutsche Diskussionskultur in den Kommentaren zu Energiewendethemen sowohl durch tief verwurzelte kulturelle Debatten als auch durch gezielte narrative Interventionen verstärkt wird.
Eine Kombination aus technischer, pädagogischer und politischer Intervention ist erforderlich, um diesen Prozess zu deeskalieren und einen konstruktiveren Diskurs zu fördern.
Es wird wichtig sein in der realen „echten“ Welt die Menschen aufzuklären.

Joachim Steinhöfel: Die digitale Bevormundung bei hugendubel.de. Online bestellen oder in der Filiale abholen.Die digitale Bevormundung, Buch (kartoniert) von Joachim Steinhöfel bei hugendubel.de. Online bestellen oder in der Filiale abholen.www.hugendubel.de |
https://www.thalia.de/shop/home/artikeldetails/A1060452100
„Du gehörst uns!“ online kaufen – ThaliaKaufen Sie “Du gehörst uns!” von Christian Montag als Taschenbuch. Kostenloser Versand Click & Collect Jetzt kaufenwww.thalia.de |
Sie beziehen sich möglicherweise auf eine Studie von Emilio Ferrara, die den Einfluss von Social Bots auf die französischen Präsidentschaftswahlen 2017 untersucht. Ferrara analysierte in seiner Studie “Disinformation and Social Bot Operations in the Run Up to the 2017 French Presidential Election” die Rolle von Social Bots während der “MacronLeaks”-Desinformationskampagne. Er stellte fest, dass Bots genutzt wurden, um Desinformationen zu verbreiten und die öffentliche Meinung zu manipulieren. Interessanterweise zeigte die Studie, dass die Nutzer, die mit “MacronLeaks” interagierten, überwiegend aus dem Ausland stammten und bereits ein Interesse an alt-right Themen und alternativen Nachrichtenmedien hatten, anstatt aus Frankreich selbst zu kommen.
Zusätzlich hat die NATO den Einfluss von Social Bots und Desinformationskampagnen auf politische Prozesse erkannt. In einem Artikel der NATO von 2021 wird betont, dass soziale Medien systematisch genutzt werden, um Desinformationen zu verbreiten und die öffentliche Meinung zu manipulieren. Diese Form der kognitiven Kriegsführung zielt darauf ab, nicht nur zu beeinflussen, was Menschen denken, sondern auch, wie sie denken und handeln.
Bezüglich des Anteils des Internetverkehrs, der von Bots generiert wird, variieren die Schätzungen. Während einige Berichte darauf hindeuten, dass ein signifikanter Prozentsatz des Traffics auf Bots zurückzuführen ist, erreichen die Zahlen nicht die von Ihnen erwähnten 55%. Dennoch verdeutlichen diese Studien den erheblichen Einfluss von Botnetzwerken auf das Internet und die Notwendigkeit, Mechanismen zur Erkennung und Regulierung solcher Bots zu entwickeln, um die Integrität politischer Diskurse zu schützen.
Bitte beachten Sie, dass die genannten Daten aus Studien stammen, die vor einigen Jahren veröffentlicht wurden, und die aktuellen Zahlen variieren können. Für die neuesten Informationen empfiehlt es sich, aktuelle Studien und Berichte zu konsultieren.
https://arxiv.org/abs/1707.00086
https://innovationhub-act.org/wp-content/uploads/2023/12/20210113_CW-Final-v2-.pdf
https://hal.science/hal-02116604v1
https://www.nature.com/articles/s41598-024-74032-0
Das ist tatsächlich eine sehr schwierige Gratwanderung: Einerseits will man keine Zensur und keine Einschränkung der Meinungsfreiheit, andererseits beobachtet man, dass auf YouTube und anderen Plattformen gezielt Inhalte gestreut werden, um bestimmte politische Narrative zu transportieren, teils aus fragwürdigen Quellen oder mit klarer Desinformations-Absicht. Ein paar Punkte, die man dabei bedenken kann:
1. Medienkompetenz stärken
• Bildung und Aufklärung: Langfristig ist es am effektivsten, wenn möglichst viele Menschen ein gewisses „Frühwarnsystem“ entwickeln und lernen, Inhalte kritisch zu hinterfragen. Das betrifft sowohl Kinder und Jugendliche als auch Erwachsene.
• Faktenchecks und Quellenkunde: Zu lernen, wie man Fakten überprüft und die Herkunft von Informationen hinterfragt, ist ein zentraler Baustein. Dadurch merken Zuschauer:innen eher, wenn in einem vermeintlich harmlosen Kochkanal plötzlich irgendwelche ideologischen „Nebensätze“ auftauchen.
2. Transparenzpflichten und Offenlegung
• Kennzeichnungspflicht für politische Werbung: In vielen Ländern gibt es bereits Regeln, dass politische Werbung gekennzeichnet sein muss. Diese Regeln sollten ausgeweitet und konsequent durchgesetzt werden, gerade in den sozialen Medien.
• Wem gehört der Kanal, wer steckt dahinter? Oft ist nicht klar, ob ein YouTube-Kanal von einer Einzelperson, einem Netzwerk oder sogar staatlich gesteuert ist. Mehr Offenlegungspflichten könnten helfen, gezielte Desinformation zu erschweren.
3. Verantwortung der Plattformen
• Algorithmen & Moderation: Plattformen wie YouTube, Facebook oder TikTok spielen durch ihre Empfehlungsalgorithmen eine zentrale Rolle. Eine Verbesserung der Transparenz (z. B. Offenlegung, nach welchen Kriterien Inhalte empfohlen werden) und eine strengere Umsetzung gegen Hassrede oder Desinformation könnte helfen.
• Nutzerfeedback und Community-Reports: Viele Plattformen setzen auf Meldungen durch die Community („Report-Button“). Hier hängt es stark davon ab, wie ernst solche Meldungen genommen werden und wie schnell und transparent die Plattformen agieren.
4. Gezielte Gegennarrative und unabhängiger Journalismus
• Qualität und Reichweite erhöhen: Unabhängige und investigative Medien sollten gefördert und sichtbarer gemacht werden. Das steigert die Chance, dass man ausgewogene Informationen findet, statt nur auf populistische Influencer zu stoßen.
• Klare Gegenargumente: Wenn Falschinformationen kursieren, braucht es kanalgerechte, verständliche und möglichst attraktive Gegendarstellungen – sei es in Form von YouTube-Videos, Podcasts, Social-Media-Beiträgen oder öffentlich geförderten Kampagnen.
5. Rechtsstaatliche Möglichkeiten nutzen
• Strafrechtliche Grenzen: Falschaussagen oder unangenehme politische Meinungen sind in vielen demokratischen Ländern nicht verboten – und das ist auch gut so, weil Meinungsfreiheit ein hohes Gut ist. Aber wo etwa gezielt zu Hass, Gewalt oder Hetze aufgerufen wird oder wo gezielt manipuliert (z. B. mit deepfakes) wird, kommen strafrechtliche Aspekte ins Spiel. Behörden können und sollten solche Inhalte gezielt verfolgen, wenn es klar gegen Gesetze verstößt.
• Gezielte Interventionen gegen ausländische Einflussnahme: Falls ausländische Geheimdienste oder Organisationen versuchen, Wahlen zu manipulieren oder gesellschaftliche Spaltungen zu befeuern, liegen Fälle vor, in denen Geheimdienste oder Strafverfolgungsbehörden handeln müssen. Diese Eingriffe müssen aber in einem rechtsstaatlich klar definierten Rahmen ablaufen.
6. Gesellschaftlicher Diskurs pflegen
• Zensur vs. Kontrolle: Es ist verlockend, Inhalte einfach zu verbieten, aber das führt schnell zu Gegenreaktionen und Untergrundbewegungen. Eine offene, demokratische Gesellschaft sollte immer versuchen, Debatten auszuhalten und Extrempositionen argumentativ zu entzaubern, statt sie nur „wegzusperren“.
• Aufklärung über Manipulationsmethoden: Wenn Menschen wissen, wie Propaganda funktioniert und wie Influencer subtil Narrative einbauen, kann das schon viel ausrichten. Man wird kritischer und lässt sich nicht so leicht instrumentalisieren.
Fazit
Ein Patentrezept gegen subtile Desinformation gibt es nicht. Wichtiger als flächendeckende Zensur (die dann schnell missbraucht werden kann) ist es, an die Ursachen zu gehen: kritische Denkfähigkeit, Medienkompetenz und transparente Regeln für Plattformen und (politische) Werbung. So werden Menschen selbst in die Lage versetzt, fragwürdige Inhalte zu erkennen, statt blind alles zu glauben. Zusätzlich braucht es einen klaren gesetzlichen Rahmen gegen strafbare Inhalte und eine konsequente Durchsetzung dieser Regeln, um gezielte Agitation – vor allem von ausländischen Akteuren – wenigstens einzudämmen.