Bots vor der Bundestagswahl 2025

Eine allgemein verfügbare, aktuelle „offizielle“ Zahl dazu, wie hoch der Bot-Anteil in den Diskussionen rund um das Migrationsthema und die Bundestagswahl 2025 ist, gibt es – zumindest öffentlich einsehbar – nicht. Weder staatliche Dienste wie der Verfassungsschutz noch unabhängige Analysestellen wie CeMAS veröffentlichen in Echtzeit detaillierte Statistiken zu jedem laufenden Wahlkampf. Allerdings kann man auf frühere Untersuchungen und die bisher vorliegenden Forschungsergebnisse zurückgreifen, um zumindest Anhaltspunkte zu erhalten.

1. Rückblick auf frühere Analysen

• CeMAS und andere Watchdog-Initiativen: Das 2021 gegründete „Center für Monitoring, Analyse und Strategie“ (CeMAS) hat in den letzten Jahren vor allem Desinformation und Verschwörungsideologien im deutschsprachigen Raum untersucht. Ihre Berichte zeigen, dass (semi-)automatisierte Accounts und Trolle auf Twitter (bzw. X) und Telegram durchaus eine Rolle in migrations- oder regierungsfeindlichen Debatten spielen können. Allerdings wird selten eine konkrete Prozentzahl „Bot-Anteil“ kommuniziert, da die Abgrenzung zwischen automatisierten und menschlich gesteuerten Accounts oft schwierig ist.

• Forschungen aus früheren Wahlkämpfen: Schon zur Bundestagswahl 2017 und 2021 gab es Studien, die versuchten, den Einfluss von Twitter-Bots in parteipolitischen Diskussionen zu messen. Oft kam man auf niedrige bis mittlere einstellige Prozentwerte – bei bestimmten Hashtags konnten es aber auch deutlich mehr sein. Diese Zahlen variierten je nach Methode und Datenset stark.

2. Methodische Schwierigkeiten bei der Bot-Erkennung

• Automatische vs. koordinierte menschliche Accounts: „Bots“ erkennt man meistens durch Auffälligkeiten im Posting-Verhalten (Frequenz, Uhrzeiten, Copy-Paste-Inhalte etc.). Allerdings gibt es auch Accounts, die zwar offiziell menschlich sind, aber koordiniert Inhalte streuen und stark mit Copy-Paste arbeiten („Troll-Farmen“). Solche Accounts sind in Statistiken oft schwerer klar als Bots zu identifizieren.

• Hochprofessionelle Desinformationskampagnen: Gegnerische oder auch parteinahe Netzwerke nutzen immer stärker künstliche Intelligenz und Chatbots, um menschliche Interaktion vorzutäuschen. Damit nähern sich echte und gefälschte Profile an, und die klassischen Erkennungsmerkmale werden weniger eindeutig.

• Kein umfassender Zugriff: Externe Organisationen haben meist nur eingeschränkten Zugriff auf Plattform-Daten (v. a. YouTube). Echt zuverlässige Zahlen bräuchten tiefe Einblicke in Plattform-APIs oder -Hintergrunddaten.

3. Beobachtbare Tendenzen

• Verzerrtes Stimmungsbild in Kommentarspalten: Häufig berichten Journalist:innen und Forscher:innen, dass gerade in Kommentarbereichen (YouTube, Facebook, Telegram) radikalere Sichtweisen überproportional laut erscheinen. Das liegt zum einen an möglichen Bot- und Troll-Aktivitäten, zum anderen daran, dass lautere/extremere Positionen tendenziell häufiger kommentieren und weiterverbreiten.

• Verstärkungseffekt durch Social-Media-Logik: Selbst wenn nur wenige Accounts viel posten (ob botgesteuert oder nicht), sorgen die Algorithmen vieler Plattformen durch Likes, Shares und Kommentare dennoch für hohe Sichtbarkeit.

4. Was sagen die Dienste bzw. Analyst:innen aktuell?

• Öffentliche Stellungnahmen: Sowohl das Bundesamt für Sicherheit in der Informationstechnik (BSI) als auch das Bundesamt für Verfassungsschutz veröffentlichen vor Wahlen regelmäßig Hinweise zu Desinformationskampagnen. Konkrete Zahlen, etwa „x % Bots“ für Themen wie Migration, werden dabei jedoch nicht öffentlich genannt.

• CeMAS-Berichte: Bislang (Stand Ende 2024/Anfang 2025) hat CeMAS keine detaillierte Statistik zum Bot-Anteil in Wahlkampfkontexten veröffentlicht. Sie weisen allerdings immer wieder auf „maschinell oder koordiniert wirkende Accounts“ hin, insbesondere in rechtspopulistischen Debatten.

• EU-Initiativen: Die EU setzt vor Wahlen auf Aufklärung über Desinformation (z. B. via EUvsDisinfo), veröffentlicht aber keine länderspezifischen Bot-Quoten.

5. Fazit und vorsichtige Einschätzung

1. Keine offiziellen Prozentzahlen: Es gibt keine jederzeit aktuelle, verlässliche Statistik, die sagt „x% der migrationskritischen Postings stammen von Bots“ – schon gar nicht öffentlich einsehbar.

2. Subjektiv verzerrte Wahrnehmung: Die Kommentarbereiche können stark „gekapert“ oder intensiv von einer kleinen lauten Gruppe genutzt sein. Dieses Phänomen gibt es schon länger und kann sich durch Bot- oder Troll-Einsatz weiter verschärfen.

3. Realistischer Rahmen: Erfahrungen aus den letzten Jahren deuten an, dass zwar kein „Großteil“ aller User-Postings automatisiert ist, aber – je nach Plattform und Thema – ein signifikanter Kern an orchestrierter oder automatisierter Aktivität denkbar ist. Insbesondere rechtspopulistische Kampagnen werden oft von Netzwerken unterstützt, die teils maschinelle Accounts einsetzen.

4. Fortlaufende Analysen: Organisationen wie CeMAS, Daten-Forensik-Firmen und Universitäten forschen daran kontinuierlich weiter. Falls in den nächsten Wochen oder Monaten (bis zur Wahl) große Bot-Kampagnen auffallen, wird das vermutlich in den Medien und in Berichten dieser Organisationen thematisiert werden.

Praktischer Tipp: Wer das Gefühl hat, eine Diskussion ist „gekünstelt“, kann auf bekannte Erkennungsmerkmale schauen: extrem monotone Textbausteine, hohes Posting-Tempo, dieselben Inhalte in kurzen Zeitabständen auf vielen Kanälen, fremde (oft generische) Profilbilder usw. Ein kritischer Blick und das Vergleichen mit seriösen Quellen helfen, den Eindruck aus Kommentarspalten realistisch einzuordnen.

Insgesamt lässt sich sagen: Ein gewisser Anteil an Bots und koordinierten Troll-Accounts ist in fast jeder heiß geführten Debatte zu erwarten – jedoch sind diese Zahlen nur schwer exakt zu bestimmen. Es ist also durchaus plausibel, dass die starke Präsenz migrationskritischer Kommentare in bestimmten Social-Media-Bereichen zum Teil von (halb-)automatisierten oder koordinierten Aktionen beeinflusst wird. Einen gesicherten, exakten Wert dafür gibt es allerdings nicht öffentlich.