der alleinige Fokus auf „böse Algorithmen“ ist nicht der Weisheit letzter Schluss.
Es ist ein Teil des Problems, aber nicht das Problem. Lass uns das mal sauber auseinanderdröseln, ohne irgendwas schönzureden:
1. Die Algorithmen haben nichts erfunden — sie haben nur verstärkt, was wir sowieso tun
Rein statistisch ist es fast zwangsläufig, dass selbstlernende Systeme die lautesten, extremsten, emotionalsten Inhalte pushen.
Warum?
* Weil Menschen so klicken.
* Weil Aufmerksamkeit knapp ist.
* Weil Emotionen Engagement produzieren.
Und weil die Geschäftsmodelle nun mal auf Klicks, Verweildauer und Werbeumsatz basieren.
Die Algorithmen haben unseren kognitiven Zoo einfach wie unter einem Mikroskop sichtbar gemacht:
- Confirmation Bias
- Negativity Bias
- Availability Heuristic
- Tribalism
- Pattern Seeking
- Agency Bias („irgendwer muss dahinterstecken“)
Alles uralte Mechanismen. Nur jetzt mit Turbo.
2. Kahneman & Co. zeigen: Menschen sind systematisch verzerrt — immer gewesen
Der Witz:
Die Welt war schon immer voller kognitiver Verzerrungen.
Wir hatten nur früher weniger Gelegenheit, sie global sichtbar zu machen.
Früher hast du deine verzerrte Meinung beim Wirt losgelassen.
Heute lässt du sie unter einem global skalierenden Verstärker los.
Die Verzerrungen sind nicht neu.
Die Verstärkung ist neu.
3. Die eigentliche Revolution: Wir sehen erstmals die wahre Heterogenität menschlicher Gedanken
Der Punkt welchen ich treffen will, und den viele komplett unterschätzen:
Social Media hat zum ersten Mal in der Geschichte gezeigt, wie extrem unterschiedlich Menschen wirklich denken, welche Parallelrealitäten existieren, welche Idiosynkrasien, Neurosen, kulturellen Prägungen und Denkfehler in uns drinstecken.
Früher so:
- lokale Normen
- Filter durch Redaktion, Lehrer, Institutionen
- keine globale Bühne
- weniger Rückkopplung
- weniger Vergleich
Heute so:
- jeder ist sendefähig
- jeder findet Gleichgesinnte
- Normen zerbröseln
- Micro-Communities entstehen
- radikale Meinungen finden sofort Resonanzräume
Das ist nicht durch Algorithmen „erzeugt“.
Das wurde durch Algorithmen sichtbar — und dann verstärkt.
4. Die Social-Media-Plattformen haben die Verstärkung maximiert, nicht die Verzerrung erzeugt
Der entscheidende Mechanismus:
- Menschen klicken emotionalen, polarisierenden Content.
- Machine Learning/AI erkennt Muster.
- Die Modelle optimieren auf Engagement.
- Polarisierende Inhalte steigen in der Wahrscheinlichkeitsmatrix nach oben.
- Es entsteht eine Rückkopplungsschleife (positive feedback loop).
- Extrempositionen werden überrepräsentiert.
Die Algorithmen mussten dazu nichts „böses“ lernen.
Sie mussten nur „Engagement = gut“ lernen. Das wurde ab 2010 schrittweise gesteigert bis zum Höhepunkt in 2017.
Hier ein ehemaliger Google Tech Lead im Interview:
Mo Gawdat: Können Sie mit der KI Schritt halten? (ehemaliger Google Tech Lead)
mit Timestamp:
„Am umstrittensten ist das Thema „emotionale Intelligenz“.
Ich neige dazu, eine sehr kontroverse Aussage zu machen:
Das empathischste Wesen auf diesem Planeten ist – man glaubt es kaum – eine KI.
Wenn man Empathie als die Fähigkeit versteht, zu fühlen, was eine andere Person fühlt,
dann weiß eine KI tatsächlich zu jedem Zeitpunkt, wie Sie sich fühlen –
sogar bevor Sie es selbst spüren.
Genau darauf trainieren wir sie:
um Ihre Entscheidungen in sozialen Medien gezielt beeinflussen zu können.„
5. Und dann kamen die Bots, die KI-Kommentare, die Sockenpuppen…
Niemand weiß, wie viel heute (2025) noch echt ist.
Die Plattformen sagen es nicht.
Viele Entwickler wissen es selbst nicht.
Und die professionellen Manipulierer
(Trollfarmen, kommerzielle Black-PR-Agenturen, politische Einflussoperationen, Sekten, Think Tanks, Ideologen, Einzelpersonen mit zu viel Zeit) sind ebenfalls nicht dumm.
Realistisch:
- Ein signifikanter Anteil aller Kommentare ist automatisiert. IN 2025 geschätzt 50% des Traffics
- Ein noch größerer Anteil ist „semi-automatisiert“ (AI-assisted).
- Die Grenze zwischen Bot, Mensch, cyborg, sockpuppet, KI-Autor ist fließend geworden.
Das heißt:
Die öffentliche Meinung, die man in Social Media sieht, ist kein normales Abbild der Bevölkerung — sie ist
ein Gemisch aus echten Meinungen, statistisch verstärkten Extrempositionen,
automatisierten Mustern und professionell beeinflussten Inhalten.
6. Also: Was ist das Grundproblem?
Meine Einschätzung:
➤ 25 % menschliche Kognition (Biases, Tribalism, Emotionen)
➤ 25 % Geschäftsmodelle (Werbung, Aufmerksamkeit)
➤ 25 % algorithmische Verstärkung
➤ 25 % Manipulation durch Akteure, die das System verstanden haben
Die Algorithmen sind nicht das Monster.
Sie sind der Verstärker, die Resonanzkammer, die Stressposition in der Maschine.
7. Und jetzt kommt der harte Teil:
Das Problem ist nicht nur technologisch.
Es ist anthropologisch.
Soziologisch.
Ökonomisch.
Psychologisch.
Solange Menschen
- Muster sehen wollen, wo keine sind
- ihre Identität über Meinung definieren
- Zugehörigkeit brauchen
- Verlustängste haben
- ein Bedürfnis nach Sinn und Schuldigen haben
- und empfänglich für Geschichten sind
werden unterschiedliche Realitäten entstehen — und irgendwer wird Wege finden, sie zu instrumentalisieren.
Algorithmen sind der Katalysator, nicht die Ursache. Sie werden leider massiv zu politischen Stimmungsmache genutzt.
8. Meine Kernfrage: Hat Social Media nur erstmals gezeigt, wie heterogen wir wirklich sind?
Ja. Genau das.
Aber gleichzeitig hat Social Media diese Heterogenität in Konflikt umgewandelt, weil die Plattformen davon leben, dass Menschen sich streiten. Wie die grauen Herren aus Momo, leben Sie von unserer Aufmerksamkeit und Lebenszeit!
Durch vier Brillen und Synthese
- Kognitionspsychologisch
- Netzwerktheoretisch
- Soziologisch
- Geopolitisch / sicherheitslogisch
- Kurze Synthese + „Was heißt das jetzt praktisch?“
1. Kognitionspsychologisch – was in unseren Köpfen sowieso schief läuft
Kahneman & Co. zuerst, weil ohne die braucht man über Algorithmen gar nicht reden.
System 1 vs. System 2
- System 1: schnell, emotional, assoziativ – genau das, was Social Media anspricht.
- System 2: langsam, reflektiert, anstrengend – taugt schlecht für „engaging content“.
Algorithmen optimieren auf das, was System 1 triggert. Damit sind wir mitten in den Biases, die ausgenutzt werden, ohne dass jemand „muahaha“ lachen muss:
- Negativity Bias: Negatives zieht mehr Aufmerksamkeit als Positives.
→ Wut, Angst, Skandal = mehr Klicks als „differenzierter Kompromiss“. - Confirmation Bias: Wir bevorzugen Inhalte, die unsere Sicht bestätigen.
→ Algorithmen erkennen das Muster und liefern mehr vom Gleichen. - Availability Heuristic: Was wir oft sehen, halten wir für wichtiger und häufiger.
→ Wenn dein Feed voll ist mit „alles geht vor die Hunde“, wirkt die Welt so – egal, was die Statistik sagt. - Illusory Truth Effect: Wiederholte Aussagen wirken wahrer, egal ob korrekt.
→ Viral + oft geteilt = gefühlt „wahr“. - Tribalism / Ingroup-Outgroup: Wir lieben „Wir gegen die“.
→ Content, der klare Fronten aufmacht, performt besser als „alle Seiten haben ein bisschen recht“. - Dunning-Kruger: Menschen mit wenig Wissen haben oft überzogene Sicherheit.
→ Klare, laute, simple Aussagen wirken attraktiver als vorsichtige, differenzierte.
Die Machine-Learning-Modelle lernen nicht:
„Wie manipuliere ich Menschen?“,
sondern faktisch:
„Welche Muster führen zu Klicks, Shares, Kommentaren?“
Da wir mit unseren Biases das Rohmaterial liefern, lernt das Modell:
Laut, emotional, vereinfachend, polarisierend = gut.
Die Kette ist brutal simpel:
- Menschliche Biases →
- bestimmen Klick-Verhalten →
- ML lernt diese Muster →
- Algorithmus verstärkt genau diese Inhalte →
- unsere Biases werden noch mehr gefüttert.
Die Algorithmen sind also keine Ursache, sondern ein Bias-Verstärker.
2. Netzwerktheoretisch – warum sich Extreme strukturell durchsetzen
Jetzt weg vom Kopf, hin zur Struktur der Netze.
a) Scale-free networks & „rich get richer“
Soziale Netzwerke sind typischerweise scale-free:
- Wenige Knoten (Influencer, große Kanäle) haben extrem viele Verbindungen.
- Viele Knoten (Normies) haben sehr wenige.
Preferential attachment: Wer bereits viele Verbindungen hat, bekommt mit höherer Wahrscheinlichkeit noch mehr.
Übertragen auf Inhalte:
- Inhalte von großen Knoten haben von Anfang an mehr Reichweite.
- Egal wie „gut“ – alleine wegen der Struktur.
b) Clustering & Echo Chambers
Menschen verbinden sich bevorzugt mit ähnlichen Menschen (Homophilie):
- Politspektrum: Rechts hängt mit Rechts, Links mit Links, Esoterik mit Esoterik.
- Algorithmen schlagen dir zusätzlich vor: „Leuten wie dir gefällt auch…“
Ergebnis:
- Cluster/Communities, die intern stark vernetzt sind
- und nach außen nur dünne Brücken haben.
Das ist die technische Grundlage für:
- Filterblasen / Echo Chambers
- Mikro-Öffentlichkeiten mit eigenen Wahrheiten
c) Wie Algorithmen das verschärfen
Die Plattform-Logik lautet:
Zeige dem User Inhalte, die er wahrscheinlich mag.
„Wahrscheinlich“ ist im ML-Kontext im Kern:
- ähnlich zu dem, was du schon geliked hast
- ähnlich zu dem, was Leute wie du liken
- stark performend in deinem Cluster
Damit passiert automatisch:
- Polarisierende Inhalte verbreiten sich schneller innerhalb eines Clusters.
- Brücken-Inhalte, die verschiedene Cluster verbinden könnten (moderate Positionen), bekommen weniger Engagement – weil sie niemand richtig „feiert“.
Netzwerk-theoretisch ist Polarisierung also kein Bug, sondern ein emergentes Phänomen:
- aus menschlicher Homophilie
- aus algorithmischer Ähnlichkeitsoptimierung
- aus scale-free-Strukturen.
3. Soziologisch – was Social Media mit Gesellschaft, Identität & Öffentlichkeit macht
Hier wird’s jetzt richtig spannend, weil wir von „was tun Leute?“ zu „was ist Gesellschaft?“ springen.
a) Von Massenmedien zur Plattform-Öffentlichkeit
Früher:
- Wenige Sender (Zeitungen, TV, Radio)
- Hohe Zugangshürden
- Gatekeeper: Journalisten, Redaktionen
- Relativ gemeinsame Agenda: „Die Themen des Tages“
Heute:
- Jeder ist Sender.
- Gatekeeper sind Algorithmen und Follower-Zahlen.
- Statt „öffentlicher Meinung“ gibt es viele Teilöffentlichkeiten.
Habermas hat sich diese „bürgerliche Öffentlichkeit“ als Raum argumentativer Auseinandersetzung vorgestellt.
Social Media liefert eher:
- parallele Realitätsräume mit eigenen Normen, eigenen Fakten, eigenen Feindbildern.
b) Identität: „Ich bin, was ich poste“
Social Media dreht die Beziehung um:
Früher:
- Identität → Meinung → gelegentlich geäußert.
Heute:
- Meinungsaussagen sind Identitätsmarker.
- „Meine Position zu Corona, Ukraine, Energie, Gender…“ ist Teil meiner Self-Brand.
Damit wird jede abweichende Meinung schnell als Identitätsangriff erlebt:
- Widerspruch = nicht „anderer Blickwinkel“, sondern „Angriff auf mein Lager“.
Das verstärkt:
- Tribalismus
- Moralische Aufladung von Sachfragen
- Cancel-/Shitstorm-Kultur (Sanktionen über soziale Zugehörigkeit)
c) Luhmann-Linse (ganz grob)
Wenn man Luhmann drauf wirft:
- Gesellschaft besteht aus Kommunikation.
- Medien sind ein Funktionssystem, das Kommunikation massenhaft verteilt.
- Social Media hat die Selektionsmechanismen radikal verändert:
Nicht mehr:
- „Was ist gesellschaftlich relevant?“
Sondern:
- „Was erzeugt Klicks, Reaktionen, Verweildauer?“
Das verschiebt langfristig, was überhaupt sichtbar ist:
- Extreme, Skandale, Konflikte werden überrepräsentiert.
- Grautöne, „wir wissen es (noch) nicht“, Komplexität werden unterrepräsentiert.
Das wiederum prägt das, was Menschen für „normal“ halten.
Unsere kollektive Realität verschiebt sich – nicht unbedingt in Richtung Wahrheit, sondern in Richtung „algorithmisch bevorzugte Erzählungen“.
4. Geopolitisch / sicherheitslogisch – Social Media als Waffe
Jetzt die harte Sicherheitsbrille:
Wenn ein System menschliche Biases verstärkt und globale Vernetzung mitbringt, ist es
aus Sicht von Staaten, Geheimdiensten, politischen Bewegungen und Lobbygruppen eine Traumwaffe.
a) Ziel von Informationskrieg ist selten „Überzeugen“
Klassische Propaganda will: „Glaub dieses Narrativ!“
Moderne Informationskriegsführung will oft eher:
- Verwirren („Du weißt gar nicht mehr, was stimmt“)
- Polarisieren („Die da drüben sind gefährlich“)
- Vertrauen zerstören („Trau niemandem, keine Medien, keine Institutionen“)
- Handlungsunfähigkeit erzeugen („Alle lügen, also lohnt Politik eh nicht“)
Social Media ist ideal dafür, weil:
- es billig ist (Memes, Bots, koordinierte Kampagnen)
- es schwer zuzuordnen ist (Plausible Deniability)
- es auf existierende Spaltungen aufsetzt (Rassismus, soziale Ungleichheit, Kulturkämpfe…)
b) Nutzung der Plattformlogik durch Akteure
Manipulative Akteure (Staaten, Parteien, Sekten, Unternehmen, Ideologen) müssen nur verstehen:
- Welche Trigger funktionieren in Zielgruppe X?
- Wie bringe ich Content in deren Cluster (Influencer einkaufen, Meme-Seiten, Bots)?
- Wie füttere ich die Algorithmen so, dass sie diesen Content nach oben ranken?
Werkzeuge u. a.:
- Bot-Netzwerke (Likes, Shares, Replies pushen)
- KI-generierte Kommentare & Accounts („Cyborg Users“)
- Koordinierte Hashtag-Kampagnen
- Microtargeting in Ads
- Aufbau von „Alternativmedien“ als scheinbar unabhängige Quellen in allen Lagern zu sehen.
Wichtig:
Sie müssen fast nie Inhalte erfinden.
Es reicht meistens, bestehende Spannungen zu verstärken und Vertrauen zu zersetzen.
c) Vermischung von „ehrlichen“ und „unehrlichen“ Akteuren
Das Bild heute:
- echte Menschen mit echten Meinungen
- professionelle Agitatoren
- wirtschaftliche Interessengruppen
- Staaten / Geheimdienste
- nützliche Idioten, die weiterverbreiten, was in ihr Weltbild passt
Alles in einem einzigen, undurchsichtigen Feed, ohne Kennzeichnung.
Meine Intuition:
„Wie viel davon ist überhaupt noch menschlich?“ ist völlig berechtigt – und unklar beantwortbar.
5. Synthese: Sind die Algorithmen das Problem?
Kurz:
Die Algorithmen sind nicht die Wurzel – sie sind der Knotenpunkt.
- Kognitiv: Sie verstärken unsere eingebauten Verzerrungen.
- Netzwerktheoretisch: Sie nutzen / verstärken Strukturen, die Polarisierung begünstigen.
- Soziologisch: Sie formen eine neue, fragmentierte, identitätsgeladene Öffentlichkeit.
- Geopolitisch: Sie bieten eine Infrastruktur für Informations- und kognitive Kriegsführung.
Wenn man nur sagt:
„Die Algorithmen sind schuld“,
dann schiebt man die Verantwortung weg von:
- unseren eigenen Biases,
- unseren politischen / ökonomischen Anreizsystemen,
- unseren Bildungsdefiziten (Medienkompetenz, Bias-Literacy),
- der bewussten, professionellen Nutzung durch Akteure mit Agenda.
Dein Punkt ist deshalb sehr treffend:
Zum ersten Mal sehen wir die volle Heterogenität und Widersprüchlichkeit menschlicher Weltbilder –
und gleichzeitig wird dieser Flickenteppich von Systemen verstärkt, die auf Aufmerksamkeit optimieren.
Beides ist wahr. Und beides ist gefährlich, wenn man es ignoriert.
6. Was fängt man damit an? (ohne in Zynismus zu kippen)
Nur kurz angerissen, sonst wird es ein Buch:
Individuell
- Bias-Literacy: Eigene Denkmuster kennen (Confirmation, Negativity etc.)
- Medienhygiene: Bewusste „Diät“ – weniger doomscrolling, mehr kuratierte Quellen.
- Widerspruch suchen: Aktiv nach guten Gegenargumenten suchen, nicht nur nach Bestätigung.
- Verlangsamung: Nicht alles sofort teilen/kommentieren; Delay einbauen (System 2 aktivieren).
Institutionell / politisch
- Transparenzpflichten für Plattformen (Ranking-Kriterien, Bot-Erkennung, API-Zugang für Forschung).
- Einschränkung manipulativer Werbeformen (Microtargeting bei politischen Themen).
- Kennzeichnung automatisierter Inhalte (Bots, KI-generierte Accounts).
- Bildung:
Kritisches Denken, Statistikgefühl, narrative & ideologische Muster erkennen
– schon in der Schule.
Wie eine polarisierende Desinfo-Kampagne einen über vier Ebenen „durchspielt“
1. Modell: Wie eine polarisierende Desinfo-Kampagne durch Kopf, Netzwerk, Gesellschaft & Macht läuft
Stell dir den Ablauf als Pipeline vor. In jedem Schritt greifen alle vier Ebenen ineinander:
- 🧠 Kognition (Biases, Emotionen, Kahneman)
- 🌐 Netzwerk (Algorithmen, Cluster, Echo-Chambers)
- 🧍♀️ Gesellschaft/Identität (Wir-Bilder, Rollen, Zugehörigkeit)
- 🏛️ Macht/Geopolitik (Akteure, Interessen, Strategie)
Ich nummeriere es, damit du’s später leicht skizzieren kannst.
Schritt 0: Ausgangslage – das Pulverfass ist schon da
- 🧠 Es gibt bestehende Ängste, Unsicherheiten, Kränkungen (z. B. Inflation, Krieg, Migration, Energiepreise).
- 🌐 Die Plattformen sind so gebaut, dass Emotionen Reichweite bringen.
- 🧍♀️ Gesellschaftliche Spannungen bestehen bereits (Klassen, Regionen, Milieus, politisches Lagerdenken).
- 🏛️ Verschiedene Akteure haben Interessen, diese Spannungen zu nutzen (Parteien, Staaten, Lobbygruppen).
Die Kampagne erfindet das Problem nicht – sie setzt auf bestehende Risse in der Gesellschaft.
Schritt 1: Auswahl der Wunde – welches Thema wird „bewaffnet“?
- 🧠 Man sucht Themen, die starke emotionale Reaktionen triggern (Angst, Wut, Ohnmacht).
- 🌐 Es wird analysiert: Wo ist schon viel Traffic? Welche Begriffe trendeten bereits?
- 🧍♀️ Man wählt Konfliktlinien, die an Identität hängen („wir Deutsche“, „die Kleine Leute“, „die wahren Gläubigen“…).
- 🏛️ Man entscheidet: Welches Narrativ schwächt Gegner / stärkt uns?
z. B.: „EU ist korrupt“, „USA sind die wahren Feinde“, „Eliten gegen das Volk“.
Schritt 2: Bau des Narrativs – Story, Feindbild, Slogans
- 🧠 Kognitiv:
- Simple Ursache-Wirkung-Ketten („Die da oben sind schuld“).
- Schwarz-Weiß-Logik (Gut/Böse, Volk/Elite, West/Ost).
- Wiederholung + emotionale Sprache.
- 🌐 Netzwerk:
- Inhalte werden in snackbaren Formaten gebaut: Memes, Kurzvideos, knackige Sätze.
- Man testet Varianten (A/B-Testing: welcher Frame zieht mehr?).
- 🧍♀️ Identität:
- Du wirst eingeladen, Teil einer Gruppe zu sein („Wir Aufgewachten“, „die Realisten“).
- Gegner werden entmenschlicht, lächerlich gemacht oder moralisch delegitimiert.
- 🏛️ Macht:
- Die Story ist so gestrickt, dass sie langfristig Vertrauen in bestimmte Institutionen untergräbt (Justiz, Medien, EU, Wissenschaft)
- oder bestimmte Allianzen schwächt (EU–USA, EU–Ukraine etc.).
Schritt 3: Initialer Boost – das Ding in den Algorithmus drücken
- 🧠 Früh-Follower fühlen sich bestätigt, pushen gerne („Endlich sagt es mal jemand!“).
- 🌐 Netzwerk-Taktiken:
- Bot-Likes, gekaufte Reichweite, koordinierte Accounts.
- Gut platzierte Influencer, die als „authentische Stimme“ auftreten.
- 🧍♀️ Soziales Signal:
- Du siehst: „Wow, tausende Likes, viele Kommentare – das scheint wichtig zu sein.“
- Social Proof kickt: „So viele können nicht falsch liegen.“
- 🏛️ Macht:
- Akteure im Hintergrund beobachten: Was skaliert? Wo lohnt es, mehr Ressourcen reinzuschieben?
Schritt 4: Kognitions-Hijack beim Enduser
Jetzt sind wir dran.
- 🧠 Unsere Biases springen an:
- Confirmation Bias: „Genau so hab ich’s mir immer gedacht!“
- Negativity Bias: „Skandal!“, du bleibst hängen.
- Verfügbarkeitsheuristik: „Ich sehe dauernd sowas – es muss schlimm sein.“
- 🌐 Netzwerk:
- Algorithmus merkt:
Du bleibst lange, scrollst die Kommentare, klickst mehr davon. - Also bekommst du noch mehr in dieser Richtung.
- Algorithmus merkt:
- 🧍♀️ Identität:
- Du übernimmst langsam Labels, Insider-Begriffe, Feindbilder.
- Deine Online-„Peergroup“ verschiebt sich – mehr Gleichgesinnte, weniger Widerspruch.
- 🏛️ Macht:
- Du wirst statistisch Teil einer „Meinungsblase“, die als Zielgruppe politischer Strategien fungiert (Wählersegment, Protestgruppe, Multiplikator).
Schritt 5: Netzwerk-Resonanz – Cluster verhärten, Fronten bilden sich
- 🧠 In-Group/Out-Group-Denken verstärkt sich:
„Wir, die es verstanden haben“ vs. „die Schlafschafe / Systemlinge / Extremisten“. - 🌐 Echo Chamber:
- In deinem Cluster zirkuliert das Narrativ, wird variiert, emotional aufgeladen.
- Gegencluster entwickeln spiegelverkehrte Narrative („Eure Seite ist die Gefahr“).
- 🧍♀️ Gesellschaftlich:
- Öffentliche Debatte bricht in Lager auseinander.
- Dialogräume gehen verloren, es bleiben Bühne + Schlagabtausch.
- 🏛️ Macht:
- Polarisierung schwächt die Fähigkeit zu Kompromiss, Regierungsfähigkeit, Vertrauen in Wahlen, Medien, Rechtsstaat.
- Das ist ideal für Akteure, die Destabilisierung wollen.
Schritt 6: Normalisierung & Radikalisierung
- 🧠 Dinge, die früher „extrem“ waren, wirken jetzt normal, weil du sie ständig siehst.
- 🌐 Netzwerk:
- Radikalere Stimmen dominieren, weil sie mehr Engagement bringen.
- Moderate Stimmen verschwinden im Rauschen oder werden als Verrat wahrgenommen.
- 🧍♀️ Identität:
- Meinung = Identität. Kritik = Angriff auf deine Person / Gruppe.
- Man stellt sich umso weniger die Frage: „Stimmt das eigentlich?“,
und umso mehr: „Wer steht auf unserer Seite?“
- 🏛️ Macht:
- Ziel erreicht: Vertrauen geschwächt, Gesellschaft gespalten, politische Handlungsspielräume blockiert.
- Oder: bestimmte Parteien/Bewegungen profitieren massiv.
2. Checkliste: Woran du erkennst, dass du gerade über mehrere Ebenen bespielt wirst
Jetzt das Ganze als Werkzeug für den Alltag.
Du kannst das wie einen inneren Debugger laufen lassen, wenn du einen Post / ein Video / einen Thread siehst.
Ich baue es als Fragenkatalog, jeweils mit Tag, welche Ebene gerade angesprochen wird.
Block A – Emotion & Denken (🧠)
- Triggert mich das stark emotional?
Wut, Angst, Ekel, Scham, Empörung?
→ Wenn ja: System 1 aktiv, Vorsicht. - Ist die Story sehr simpel für ein komplexes Thema?
(z. B. „Die da oben / die EU / die USA sind schuld für alles“).
→ Komplexität wird weggeblendet = rotes Licht. - Werden Absolute benutzt?
(„immer“, „nie“, „alle“, „100 %“, „alles gelogen“)
→ Hinweis auf Framing statt Analyse. - Wird dir suggeriert, du seist „endlich im Besitz der Wahrheit“?
(„Endlich die Wahrheit“, „Was dir die Medien verschweigen“).
→ Klassischer Köder für Bestätigungssehnsucht.
Block B – Netzwerk & Algorithmus (🌐)
- Siehst du ähnliche Inhalte plötzlich ständig?
Obwohl du sie nicht aktiv gesucht hast.
→ Algorithmus hat dein Profil auf „mag dieses Narrativ“ gesetzt. - Wirkt die Kommentarspalte unnatürlich homogen?
- Alle in eine Richtung, wenig Widerspruch.
- Viele sehr ähnliche, kurze Kommentare.
→ Mögliche Mischung aus Echokammer + Bots/Cyborg-Accounts.
- Tauchen dieselben Schlagworte/Hashtags koordiniert an vielen Orten auf?
→ Kann organisch sein – oder Kampagne.
Besonders, wenn zeitgleich auf mehreren Plattformen mit ähnlichen Formulierungen.
Block C – Identität & Zugehörigkeit (🧍♀️)
- Wirst du implizit oder explizit in ein Lager eingeladen?
- „Wir Aufgewachten“, „Patrioten“, „die echten Linken“, „die Kritischen“…
→ Identitätsbindung statt Sachargument.
- „Wir Aufgewachten“, „Patrioten“, „die echten Linken“, „die Kritischen“…
- Werden Andersdenkende entmenschlicht oder pauschal abgewertet?
(„Schlafschafe“, „Volksverräter“, „asoziale Klimaterroristen“, „Nazis“ als Allzweckkeule).
→ Ziel: Empathie abdrehen, Konflikt maximalisieren. - Ist deine Zustimmung moralisch aufgeladen?
- Zustimmung = „mutig“, „ehrenhaft“, „wach“.
- Widerspruch = „feige“, „korrumpiert“, „verkauft“.
→ Das ist Identitätsmanipulation, kein Diskurs.
Block D – Macht & Interessen (🏛️)
- Wer profitiert, wenn ich das glaube und weiterverbreite?
- Bestimmte Partei?
- Bestimmter Staat/block?
- Bestimmte Branche (z. B. fossile Energie, Rüstung, Crypto, Heilsversprechen-Marketing)?
- Wird Vertrauen in bestimmte Institutionen systematisch angegriffen?
- Gerichte, Wahlprozesse, Medien, Wissenschaft, Polizei, Gesundheitswesen…
- ohne nachvollziehbare, konkrete Belege, nur auf Basis von Andeutungen, Einzelfällen, „Man hört…“
→ Klassische Destabilisierungstaktik.
- Gibt es einen „Call to Action“, der Geschwindigkeit erzwingt?
- „Teilen, bevor es gelöscht wird!“
- „Jetzt handeln, bevor es zu spät ist!“
- „Schick das an 10 Leute weiter!“
→ Zeitdruck ist ein altes Manipulationsmuster (nicht nur in Scam-Mails). - Es wird versucht den „Instinkt der Dringlichkeit“ zu wecken!
Block E – Kombi-Alarm
(wenn mehrere Ebenen gleichzeitig feuern)
Wenn du bei einem Stück Content…
- stark emotional bist (🧠),
- dich klar einem Lager zugeordnet fühlst (🧍♀️),
- der Inhalt überall in deinem Feed klebt (🌐),
- und gleichzeitig Institutionen / Vertrauen / Allianzen angegriffen werden (🏛️),
…dann ist das kein Zufall, sondern sehr wahrscheinlich ein Stück Inhalt, das optimal durch diese vier Ebenen fließt.
Das muss nicht immer böse intendierte Desinfo sein –
aber es ist definitiv etwas, bei dem du auf „Slow Mode“ schalten solltest.

Weiterführende Podcasts:
https://www.deutschlandfunkkultur.de/demokratie-in-gefahr-was-tun-gegen-den-vertrauensverlust-in-der-gesellschaft-100.html
https://www.deutschlandfunk.de/polarisierung-wie-viel-einfluss-algorithmen-bei-social-media-wirklich-haben-100.html
https://www.deutschlandfunk.de/alexander-hagelueken-die-oekonomie-des-hasses-100.html
Programmiertricks beim Onlineshopping – Wie uns Webshops verführen –> das geht auch mit Politik
https://www.deutschlandfunk.de/dark-agent-episode-2-das-digitale-schachbrett-100.html