„
Doch sie schwitzen im grellen Licht der Bühne im Dienste eines einzigen
Ziels – dass wir die Antworten nicht bemerken oder, noch besser, dass wir vergessen, die Fragen zu stellen:
Wer weiß? Wer entscheidet? Wer entscheidet, wer entscheidet?
„
–> Buchempfehlung Ed Snowden Permanent Record Meine Geschichte
–> Die Dienste sind das eine, die Privatwirtschaft der Tech Milliardäre das andere….
Ausschnitte aus Zuboffs Buch:
Letztlich geht es darum, eine Balance zu finden zwischen der Fähigkeit, Nutzer und ihren Überschuss auf die Site zu ziehen, und dem Risiko sie abzustoßen.
Das ist eine Rechnung auf der Basis radikaler Indifferenz; mit der Einschätzung der Wahrheit oder Respekt für die Reziprozitäten mit dem Nutzer hat das nichts zu tun.
Dieses Spannungsfeld hilft uns bei der Erklärung, warum Desinformation keine Priorität ist.
Ein investigativer Bericht zitiert einen Facebook-Insider:
»Die haben absolut die Tools, Fake-News abzustellen, total …«
Dass radikale Indifferenz für Äquivalenz ohne Gleichheit sorgt, wirkt sich auch auf die hohe Wissenschaft zielgerichteter Werbung aus. So haben zum Beispiel die Journalistin Julia Angwin und ihre Kollegen von ProPublica entdeckt, dass
Facebook »Werbekunden ermöglichte, ihre Angebote auf die Newsfeeds von fast 2 300 Personen zu dirigieren, die ein Interesse an den
Themen ›Judenhasser‹, ›wie man Juden verbrennt‹ oder ›warum die Juden die Welt ruinieren‹ zum Ausdruck brachten«.
Dazu die Erklärung der Journalisten:
»Facebook handelte lange nach dem Prinzip, sich bei der Werbung nicht einzumischen … Facebook generiert seine Werbekategorien automatisch auf der Basis sowohl dessen, was Nutzer explizit auf Facebook mit anderen teilen, und was sie implizit durch ihre Online-Aktivität vermitteln«.
Ähnlich stellten Reporter von BuzzFeed fest, dass es
Google seinen Werbekunden ermöglicht, gezielt Personen anzusprechen, die rassistische Begriffe in die Suchleiste eingeben, und sogar bestimmte Werbung neben Suchen wie »böse Juden« und »jüdische Kontrolle über die Banken« zu platzieren«.
Diese Entwicklungen bringen uns eine tiefere Wahrheit zu Bewusstsein:
So wie der Kapitalismus roh nicht genießbar ist, so kommen Menschen auch ohne die zumindest gefühlte Möglichkeit einer Heimkehr nicht aus.
Hannah Arendt erforschte dieses Gebiet vor über sechzig Jahren in Elemente und Ursprünge totaler Herrschaft, wo sie den Weg von der frustrierten Individualität hin zur totalisierenden Ideologie nachzeichnete.
Ihr zufolge war es die
Erfahrung von Bedeutungslosigkeit, Verzichtbarkeit, politischer Isolation und Verlassenheit, die die Feuer totalitären Terrors schürte.
Solche Ideologien, so schreibt Arendt, erscheinen in einer Welt, in der
»jeder von jedem verlassen und auf nichts mehr Verlaß ist … als ein letzter Halt«.
Jahre später schrieb der Philosoph Theodor W. Adorno in seinem bewegenden Essay »Erziehung nach Auschwitz«,
dass »der Faschismus und das Entsetzen, das er bereitete, damit zusammenhängen, dass die alten, etablierten Autoritäten … zerfallen, gestürzt waren,
nicht aber die Menschen psychologisch schon bereit, sich selbst zu bestimmen.
Sie zeigten der Freiheit, die ihnen in den Schoß fiel, nicht sich gewachsen.«
Anmerkung und Zitat „FJS“:
„Kampf um Begriffe, im Kampf um die Sprache […]
der Kampf um die Sprache eine der wesentlichen Voraussetzungen für die geistige Selbstbehauptung.„
„So wie vor hundert Jahren die Arbeiter sich zum
kollektiven Handeln organisiert haben, um für ausgewogenere Machtverhältnisse zu sorgen,
so müssen heute die »User« auf eine Art mobil machen, die die spezifischen »Existenzbedingungen« des 21. Jahrhunderts reflektiert.
Wir brauchen synthetische Deklarationen, institutionalisiert
in neuen
Zentren demokratischer Macht, wo man sich mit Sachkenntnis besagten Asymmetrien stellt.
Diese Art von kollektiver Aktion ist unabdingbar, wollen wir die Gesetzlosigkeit
durch Gesetze ersetzen, die das Recht auf Freistatt als wesentlich für ein effektives
Leben ebenso geltend machen wie das Recht auf die Zukunft.
(wieso „neue“ Zentren? Es würde doch reichen die Institutionen sauber auf den Pfad der Tugend zu lenken und alles wieder in geordnete Bahnen zu lenken“)
Die ersten Anzeichen für ein neues Erwachen kollektiven Handelns sind, zumindest im Bereich von Datenschutz und Privatsphäre, bereits zu sehen.
Ein Beispiel dafür ist None of Your Business (noyb), eine gemeinnützige Organisation unter der Leitung des Datenschutzaktivisten Max Schrems.
Nach Jahren rechtlichen Tauziehens
machte der österreichische Jurist 2015 Geschichte, als er nach einem eher erfolglosen Kampf gegen Facebook den Europäischen Gerichtshof dazu bewegte, die Praxis des Datentransfers aus der EU in die USA im Rahmen des Safe-Harbor-Abkommens für rechtswidrig und das Abkommen selbst für ungültig zu erklären.
Im November 2017 startete er schließlich noyb, um das »Recht auf Datenschutz kollektiv durchzusetzen«, damit »Datenschutz endlich auch beim Nutzer« ankommt. Die Grundidee ist, dass die Aufsichtsbehörden die Lücke zwischen dem Buchstaben der Verordnung und den Datenschutzpraktiken privater Unternehmen schließen, nicht zuletzt dadurch, dass man sich die empfindlichen Strafen zunutze macht, mit denen die DSGVO droht.
Verhaltensterminkontrakte!
Nur die Zeit kann zeigen, ob die DSGVO wird, was wir uns von ihr erhoffen:
Katalysator einer neuen Phase im Kampf um die Zähmung eines illegitimen Markts für Verhaltensterminkontrakte, die Datenoperationen, die sie beliefern, und die instrumentäre Gesellschaft, auf die sie abzielen. Ohne eine neue, von kollektivem Handeln getragene synthetische Deklaration freilich ist es gut möglich, dass uns eine Enttäuschung ins Haus steht ob der Unerschütterlichkeit des Status quo.
Sollte sich die Vergangenheit als Auftakt erweisen, werden Privatsphäre, Datenschutz und das Kartellrecht kaum genügen, um den Überwachungskapitalismus zu bremsen.
Die Gründe, die wir bei der Beantwortung der Frage »Wie kamen sie damit durch?« zusammengetragen haben, lassen darauf schließen, dass es für die immensen und verwickelten Strukturen des Überwachungskapitalismus und seiner Imperative eine direktere Kampfansage braucht.
Das wäre zumindest ein Schluss, der sich aus der Entwicklung des letzten Jahrzehnts ziehen lässt. Trotz der im Vergleich zu den USA strengeren Gesetze hinsichtlich Privatsphäre und Datenschutz in der EU, florieren Google und Facebook auch in Europa. Auch die striktere Durchsetzung des Kartellrechts ändert daran nichts.[…]
Das neoliberale Biotop
Mitte der 1970er Jahre brachten Stagnation, Inflation und ein drastischer Wachstumsrückgang die Wirtschaftsordnung der Nachkriegszeit in arge Bedrängnis, besonders in Großbritannien und den USA.
Es entstand so ein bis dato unbekannter Druck auf die politische Ordnung:
Individuen der Zweiten Moderne – allen voran Studenten, junge Arbeiter, Afroamerikaner, Frauen, Latinos und andere an den Rand gedrängte Gruppen – machten unter dem Banner von Gleichberechtigung, Mitsprache und Teilhabe mobil. In den USA war der Vietnamkrieg Brennpunkt sozialer Unruhen, und die durch Watergate aufgedeckte Korruption löste in der Bevölkerung den Ruf nach Reformen aus.
Im Vereinigten Königreich hatte die Inflation die Beziehungen zwischen den Tarifparteien bis über die Grenzen der Belastbarkeit hinaus gespannt. In beiden Ländern zeitigte das Schreckgespenst eines unerbittlichen ökonomischen Niedergangs gepaart mit lautstarken neuen Ansprüchen an den demokratischen Gesellschaftsvertrag Verwirrung, Angst, ja Panik unter gewählten Volksvertretern, die schlicht nicht verstehen konnten, warum das einst so zuverlässige keynesianische Instrumentarium diese Entwicklung nicht umzukehren vermochte.
Das war die Chance, auf die neoliberale Ökonomen gewartet hatten, und ihre Ideen strömten denn auch sofort in das »wirtschaftspolitische Vakuum«, das den beiden
Regierungen so zu schaffen machte.
Die Köpfe dieser Bewegung waren der österreichische Ökonom und frischgebackene Nobelpreisträger
(1974) Friedrich Hayek und sein amerikanischer Gesinnungsgenosse Milton Friedman,
der den Nobelpreis zwei Jahre später bekam. Die ganze Nachkriegszeit über hatten sie,
im Schatten von Keynes und praktisch am Rande ihres Berufsstands, an ihrer Theorie
einer radikal freien Marktwirtschaft gefeilt, mitsamt einer passenden politischen
Ideologie zu deren Umsetzung. Jetzt war ihre Zeit gekommen.
(Anmerkung: So einfach sind Hayeks Aussagen und Theorien nicht zu interpretieren, das was F.A.v.H. heute untergeschoben wird ist nicht ganz so einfach, allerdings wollte W. Lippmann der Vater moderner Propaganda mit den beiden nichts zu tun haben…
Hayek wollte auf keinen Fall den Staat oder Institutionen abschaffen oder Schwächen, so einfach ist das ganze nicht!)
Das Credo vom freien Markt hatte sich in Europa gegen die Bedrohung kollektivistischer Ideologien von Links und Rechts entwickelt.
(Anmerkung: In Deutschland und EU hat sich das Credo „sozialer Marktwirtschaft“ durchgesetzt was richtig ist, das ist also wieder so eine false Flag Aktion oder Trojanisches Gedankenpferd!)
Es zielte auf die Durchsetzung der Idee eines selbst regulierenden Markts als natürlicher Kraft von solcher Komplexität und Vollkommenheit, dass es die radikale Freiheit von allen Formen staatlicher Aufsicht verlangte.
Hayek erklärte die Notwendigkeit einer absoluten individuellen wie kollektiven Unterordnung unter die strenge Disziplin des Markts als unfassliche »erweiterte Ordnung«, die über der dem Staat übertragenen legitimen politischen Autorität stehen sollte.
Die moderne Wirtschaftstheorie«, so argumentierte Hayek, erklärt,
wie solch eine erweiterte Ordnung entstehen kann und selbst einen Informationssammlungsprozeß darstellt, in dem weit verstreute Information abgerufen und genutzt werden kann, die keine zentrale Planungsbehörde, geschweige denn ein einzelner, als Ganzes besitzen oder überblicken könnte.
Hayek und seine Brüder im Geiste vertreten einen auf seinen Kern beschränkten Kapitalismus, der von keiner anderen Kraft gebremst wird und gefeit ist gegen jede Art von externer Autorität. (Anmerkung: exakt das ist nachweislich Falsch! Dafür muss man sich aber mit den Schriften und Aussagen F.A.H. auseinandersetzen, hier wird ein billiges Feindbild INSZENIERT!)
Die Ungleichheit von Wohlstand und Rechten wurde als unabdingbares Merkmal
eines erfolgreichen Marktsystems und fortschrittliche Kraft akzeptiert, ja gepriesen.
Hayeks Ideologie lieferte den intellektuellen Überbau für eine neue Theorie des Unternehmertums, die zu einem wesentlichen Vorläufer des überwachungskapitalistischen Unternehmens wurde:
Sie nahm sowohl seine Struktur vorweg als auch seinen moralischen Gehalt und seine Beziehung zur Gesellschaft. Die Ökonomen Michael Jensen und William Meckling brachten die neue Auffassung auf den Punkt. Mit starkem Bezug auf Hayeks Werk gingen die beiden Wissenschaftler die prosozialen Prinzipien der Unternehmung des 20. Jahrhunderts mit der Axt an;
– eine Axt, die als »Shareholder-Value-Bewegung« bekannt wurde.
(Anmerkung: Na ja, das kann man so interpretieren, aber sehe ich sehr Kritisch, weil Hayeks Theorien anders lauten und er nicht so wie die radikalen marktradikalen und Libertären agieren wollte und das so auch nicht vertrat, er war viel viel Differenzierter, wem dient dieser Aufbau des Feindbildes?)
Eine dritte Moderne
Ziel: Lebensstandard der Massen erhöht, und zwar nicht durch einen bloßen Zufall, sondern kraft seines Mechanismus.
Der fundamentale Antrieb, der die kapitalistische Maschine in Bewegung setzt und hält, kommt von den neuen Konsumgütern, den neuen Produktions- oder Transportmethoden, den neuen Märkten, den neuen Formen der industriellen Organisation, welche die kapitalistische Unternehmung schafft.
(Anmerkung: Das ist das übliche linke moralisierende Gewäsch, als ob Konsum etwas negatives wäre, als ob alle Leute nur Quatsch kaufen den Sie niemals bräuchten…) Strauß hierzu aus seinem Buch; zur Lage:

Man beachte, dass Schumpeter von »schaffen«, nicht von »zerstören« spricht.
Als Beispiele für solche Mutationen nennt Schumpeter die »Eröffnung neuer, fremder oder einheimischer Märkte und die organisatorische Entwicklung vom Handwerksbetrieb und der Fabrik zu solchen Konzernen wie dem U. S.-Steel«.
Für Schumpeter war die schöpferische Zerstörung eine bedauerliche Nebenerscheinung eines langen und komplexen Prozesses nachhaltigen schöpferischen Wandels. »Kapitalismus«, so schreibt er, »schafft und zerstört.«
Er war in diesem Punkt eisern: »Die schöpferische Antwort formt den gesamten Verlauf nachfolgender Ereignisse und deren ›langfristiges‹
Resultat …
Die schöpferische Antwort verändert soziale wie ökonomische Situationen auf immer …
Deshalb ist die schöpferische Antwort wesentliches Element im historischen Prozess: Dagegen hilft auch kein deterministischer Glaube.«
Und schließlich redet Schumpeter, entgegen aller Rhetorik und Tempohörigkeit im Silicon Valley, der Geduld das Wort:
»Da wir uns mit einem Problem befassen, von dem jedes Element beträchtlich Zeit braucht, um seine wahren Eigenschaften und seine endgültigen Wirkungen zu enthüllen, so hat es keinen Sinn, die Leistung dieses Prozesses ex visu eines gegebenen Zeitpunktes zu würdigen;
wir müssen seine Leistung über eine längere Zeitspanne hin beurteilen, wie sie sich während Jahrzehnten oder Jahrhunderten entfaltet.
Die Signifikanz einer »Mutation« in Schumpeters System impliziert eine hohe Schwelle, die mit der Zeit durch die ernsthafte Arbeit des Erfindens neuer institutioneller, in die neuen Bedürfnisse neuer Menschen eingebetteter Formen überschritten wird. Zerstörung an sich ist relativ selten schöpferisch, zumal wenn es an einer robusten Doppelbewegung fehlt.
Schumpeter illustriert das am Beispiel der United States Steel Corporation, die von einigen der skrupellosesten Kapitalisten ihrer Zeit, unter anderen Andrew Carnegie und J. P. Morgan, gegründet wurde. Unter dem Druck einer immer drängenderen Doppelbewegung gewährte US Steel schließlich faire Arbeitsbedingungen in Form von Gewerkschaften und Tarifverhandlungen sowie betrieblichen Arbeitsmärkten, Aufstiegsmöglichkeiten, berufliche Hierarchien, Arbeitsplatzsicherheit, Aus- und Fortbildung bei gleichzeitiger Umsetzung seiner technischen Fortschritte bei der Massenproduktion.
Die Mutation ist kein Märchen; sie ist vielmehr rationaler, durch demokratische Institutionen im Wechselspiel mit seiner Bevölkerung eingebundener Kapitalismus.
Mutationen sorgen für grundlegende Veränderungen im Wesen des Kapitalismus, indem sie ihn in Richtung derer lenken, denen er dienen soll. Eine solche Einstellung ist nicht annähernd so sexy oder aufregend wie der »Jungs-und-ihr-Spielzeug«-Ansatz, aber es ist nun mal das, was den Lauf der Wirtschaftsgeschichte bestimmt.
(Diese von Think Tanks und linken Ideologen inszenierten Veränderungen, sind das Mutationen????)
Wer weiß?
Dieses Buch begann mit der Erinnerung an eine dringliche Frage, die mir der junge Manager einer Papierfabrik in einer kleinen Stadt im Süden der USA gestellt hat:
Arbeiten wir dann künftig alle für eine intelligente Maschine, oder haben wir intelligente Menschen um die Maschine herum?
In den Jahren nach jenem verregneten Abend verfolgte ich die Digitalisierung seiner Papierfabrik.
Wie in meinem Buch In the Age of the Smart Machine beschrieben, verwandelte der Wechsel zur Informationstechnologie die Fabrik in einen »elektronischen Text«, dem – vor allem anderen – die Aufmerksamkeit der Angestellten dort galt.
Statt der physischen Arbeit, die man mit Rohstoffen und Maschinen verbinden würde, bedeutete
»seine Arbeit machen« zunehmend die Überwachung von Daten auf Monitoren sowie die Fähigkeit, den Vorgaben dieses »elektronischen Textes« gemäß zu handeln und von ihm zu lernen.
Was uns heute völlig normal erscheint, war damals außergewöhnlich.
Diese offensichtlichen Veränderungen, so mein Argument seinerzeit, waren Zeichen eines ebenso tiefgreifenden wie bedeutsamen Wandels.
Das Ordnungsprinzip des Arbeitsplatzes hatte eine Wandlung erfahren von einer Arbeitsteilung hin zu einer Wissensteilung.
Ich schrieb über die vielen Frauen und Männer, die sich selbst und ihre Vorgesetzten überraschten, als sie neue intellektuelle Fertigkeiten zu meistern und in diesem informationsreichen Umfeld zu wachsen lernten.
Auf der anderen Seite dokumentierte ich auch die bitteren Konflikte im Gefolge dieser Leistungen, die sich als dreierlei Dilemmas kategorisieren ließen: von Wissen, Autorität und Macht.
Jede nähere Betrachtung der Wissensteilung hat zuerst diese Dilemmas zu lösen, die sich in drei wesentlichen Fragen ausdrücken lassen.
– Deren erste lautet: »Wer weiß?«
Es ist dies die Frage nach der Verteilung von Wissen und ob man in die Möglichkeit zu lernen, etwas zu erfahren, eingeschlossen wird oder von ihr ausgeschlossen bleibt.
– Die zweite Frage lautete: »Wer entscheidet?«
Dies ist eine Frage der Autorität: welche Menschen, Institutionen oder Prozesse entscheiden, wer lernen, wer etwas erfahren darf, was er lernt, was er erfahren und was er mit seinem Wissen anstellen darf? Wie legitimiert sich diese Autorität?
– Die dritte Frage lautet: »Wer entscheidet, wer entscheidet?«
Das ist nun eine Frage der Macht. Worin besteht die Quelle der Macht, auf die sich die Autorität über Teilhabe an und Ausschluss von Wissen stützt?
Besagter junger Manager und ich sollten die Antworten letztendlich bekommen – nur fielen sie nicht so aus, wie wir uns das erhofft hatten. Ungeachtet der Mühe, die die Angestellten in der Papierfabrik sich gaben, ungeachtet all ihrer Triumphe dabei, fasste damals auf höchster politischer Ebene Hayeks Weltsicht Fuß, während die Wall Street sich begeistert Jensens Strategien verschrieb.
(Was wird hier den unterstellt, ein Unternehmen das nicht Wirtschaftlich und Konkurrenzfähig ist, kann nicht existieren, sonst haben wir einen Sozialismus…, das irritiert mich immer, einerseits wird gut Beschrieben was z.b. Dienste und die Techfirmen tun, andererseits wird dann irgendeine Ideologie mit transportiert die nicht nötig ist, es ist doch nicht die Idee von einem Mann gewesen. die Börsen existieren seit 100en von Jahren und haben einfach den Sinn von Kapitalbeschaffung, das dort viele Betrüger ums Geld turnen, ja klar, aber das was hier dargestellt wird passt so nicht!)
Und Letztere lernte im Handumdrehen, diese den Aktiengesellschaften aufzuzwingen. Folge davon war ein auf Kostensenkung getrimmtes Geschäftsmodell, dem ausschließlich am Applaus des Wall-Street-Publikums lag.
Entsprechend bestand es auf Automatisierung und der Auslagerung von Arbeitsplätzen ins Ausland – anstatt in die digitalen Fertigkeiten und Möglichkeiten des amerikanischen Arbeiters zu investieren.
(Das ist das Problem der USA, mag sein, allerdings ist z.b. in DE durch die Marktlogik eine Effizienzsteigerung etc… vorhanden, und wer ist den heute das Wallstreet Publikum, ich, Opa, Frau, Kinder etc… ich frage mich in welcher Welt sind diese Menschen stecken geblieben? Willkommen in 2025)
So sollte denn
die Antwort 1 auf das Wer weiß? lauten:
die Maschine – sie und ein Elitekader, das mit den analytischen Tools für Troubleshooting und für die Extraktion von Wert aus Informationen vertraut war.
Die Antwort 2 auf das Wer-entscheidet? lautete:
eine beschränkte Marktform und ihre Geschäftsmodelle.
Und mangels einer signifikanten Doppelbewegung, wie wir sie im 19. Jahrhundert hatten, lautete
die Antwort 3 auf das Wer entscheidet, wer entscheidet? automatisch:
Finanzkapital, das einzig dem Prinzip der Maximierung des Aktienwerts Rechenschaft schuldig war.
(Da muss man sich fragen ob die Dame jemals irgendwo in einem Wirtschaftlichen Betrieb arbeiten musste, es zeug von absoluter Unkenntnis der Lage, Die Betrüger und Hochfrequenzhändler und Turbo Kapitalisten sind das Problem, nicht der kleine Mann etc der sich an einer AG beteiligt und für sein Geld erwartet Dividende etc zu bekommen)
Es überrascht denn auch nicht weiter, dass sich laut einem Bericht des Brookings Institute fast vierzig Jahre später Millionen amerikanischer Arbeitnehmer infolge der
»rasanten Digitalisierung« von der Chance »auf eine anständig qualifizierte Stelle« ausgeschlossen sehen.
(es kann sich doch jeder selbst beibringen und Fortbilden was ist das?? Und es gibt ja auch genügend andere Arbeitsstellen…)
»Vor dem Hintergrund der Tatsache, dass digitale Kompetenz wesentlich zur Produktivitätssteigerung beiträgt«, legt der Bericht Unternehmen dringend die
»Investition in Fortbildungsstrategien im IT-Bereich für jetzige Belegschaften« nahe.
Womöglich sähe unsere Gesellschaft heute ganz anders aus, hätten sich amerikanische Unternehmen dazu entschlossen, nicht nur in Maschinen, sondern auch in Menschen zu investieren. Hmmm… (wer hat den die mächtigsten Tech Unternehmen der Welt? FANGG?)
Die meisten Unternehmen zogen die intelligente Maschine dem intelligenten Menschen vor, was in einer ganzen Reihe von Jobs zu einem bestens dokumentierten Muster führte, Menschen durch Maschinen und ihre Algorithmen zu ersetzen.
Mittlerweile fallen darunter jedoch auch zahlreiche Berufe fernab der Werkshalle.
(Das es zumindest jetzt in Europa/DE Zeit wird, wegen Demographie… das ist unklar?)
Das führt zu einem Trend, den Wirtschaftler als »Job-Polarisierung« bezeichnen:
die Aufspaltung in hochqualifizierte Arbeitsplätze am oberen Pol und unqualifizierte Jobs am unteren, während die Automatisierung die Stellen, die früher »in der Mitte« waren, verschwinden lässt.
Und während einige Wirtschaftskapitäne, Ökonomen und Technologen in dieser Entwicklung eine notwendige und unvermeidliche Folge rechnergestützter Technologien sehen, zeigen Studien, dass die Wissensteilung im wirtschaftlichen Bereich die Macht neoliberaler ideologischer, politischer, kultureller und institutioneller Muster reflektiert.
So wird zum Beispiel in Europa, wo Schlüsselelemente der alten Doppelbewegung in der einen oder anderen Form überlebt haben, die
Job-Polarisierung durch erhebliche Investitionen in die Weiterbildung der Beschäftigten gebremst, was sowohl zu einer integrativeren Wissensteilung als auch zu qualitativ hochwertigen innovativen Produkten und Dienstleistungen führt.
(Anmerkung: das ist mal interessant, wenn man sonst so die Debatten über die „sch…. EU“ etc hört in _De…)
Besonders kritisch für unser Thema ist, dass wir uns jetzt in einer zweiten historischen Phase dieses Konflikts sehen. So kritisch die Wissensteilung in den Wirtschaftsbereichen Produktion und Beschäftigung ist, ist sie nur der Anfang eines neuen Ringens um die gar noch größere Frage der Wissensteilung in der Gesellschaft.
Die Dilemmas des Wissens, der Autorität und der Macht haben die Grenzen des Arbeitsplatzes durchbrochen, um unseren Alltag zu erobern. In dem Maße, in dem man Menschen, Prozesse und Dinge in Informationen verwandelt, wird die Wissensteilung in der Gesellschaft zum dominanten Prinzip gesellschaftlicher Ordnung unserer Zeit.
Eine ganz und gar neue Art von elektronischem Text entwickelt sich weit über die Grenzen von Fabrik und Büro hinaus.
Dank unserer Computer, Kreditkarten, Smartphones und der Kameras und Sensoren, die sich in öffentlichen und privaten Räumen ausbreiten, ist
heute praktisch bei allem, was wir tun, ein Computer im Spiel, der alle Einzelheiten unseres Alltags in einer Größenordnung erfasst und kodifiziert, die vor wenigen Jahren noch unvorstellbar gewesen wäre.
Wir haben den Punkt erreicht, an dem es kaum noch etwas gibt, was außen vor bliebe beim unablässigen Anwachsen dieses neuen elektronischen Texts. In späteren Kapiteln werden wir uns eine ganze Reihe von Beispielen für den neuen elektronischen Text
Was die Big TECH Plattformen und ihre Entscheider wollen
Der Vorhersageimperativ lässt Grenzen und Einschränkungen schlicht nicht zu; entsprechend werden Überwachungskapitalisten fast alles tun, um sie zu eliminieren.
(Anmerkung: Deswegen erscheint mir der Glaube Europa müsse nur etwas mehr in Social Media investieren geradezu naiv! Die etablierten FB/Google etc. werden die User nicht kampflos ziehen lassen)
Diese Bestrebungen verwandeln das »Verbundensein« in einen kommerziellen Imperativ und definieren
die Autonomie des Individuums damit zwangsläufig als Gefahr für die Überwachungserträge.
Menschen, die sich bewusst einer bestimmten Vorgehensweise oder einem Satz von Prinzipien verschreiben, werden sich nicht so leicht zu etwas überreden lassen, was gegen dieses Engagement verstößt
Wie wir gesehen haben, stellt die „Demokratie eine Gefahr für Überwachungserträge“ dar. Facebooks Praktiken legen einen nicht weniger beunruhigenden Schluss nahe, dass nämlich das menschliche Bewusstsein an sich eine Gefahr für die Überwachungserträge darstellt, insofern Bewusstheit das breitere Projekt der „Verhaltensmodifikation“ gefährden muss.
Philosophen erkennen »Selbstregulierung«, »Selbstbestimmung« und »Autonomie« als »Willensfreiheit«.
Das Wort Autonomie kommt aus dem Griechischen, setzt sich zusammen aus autós (selbst) und nómos (Gesetz) und bezeichnet damit buchstäblich den Umstand, dass man sich selbst reguliert. Der Begriff steht damit im Gegensatz zur Heteronomie, die auf eine »Fremdgesetzlichkeit« verweist, bei der man sich von anderen reguliert sieht.
Die wettbewerbsbedingten Aktionsvorteile haben zur Folge, dass Überwachungskapitalisten alle zu Gebote stehenden Mittel einsetzen müssen, um autonomes durch heteronomes Handeln zu ersetzen.
Auf der einen Seite braucht es nicht weiter zu überraschen, dass Kapitalisten an Individuen gelegen sein sollte, die auf eine Art und Weise arbeiten und konsumieren, die dem Kapital besonders förderlich ist.
Wir brauchen nur an die Verheerungen der »Subprime-Mortgage«-Geschäfte zurückzudenken, die mitverantwortlich für die Finanzkrise von 2008 waren, oder an den täglichen Affront gegen unsere Autonomie seitens Fluglinien oder Versicherungen, um Belege dafür zu sehen.
Es wäre jedoch gefährlich, den heutigen Überwachungskapitalismus für nichts weiter als einen Aufguss dieser Praktiken zu halten.
Die strukturellen Erfordernisse von Aktionsvorteilen machen Verhaltensmodifikationsmittel zum Wachstumsmotor.
Nie zuvor in der Geschichte standen reichen, mächtigen Privatunternehmen so etwas wie Aktionsvorteile zur freien Verfügung, durch eine weltumspannende Architektur ubiquitärer und allwissender rechnergestützter Kontrolle gesichert, aufrechterhalten durch jede Art von wissenschaftlichem Know-how, das für Geld nur zu haben ist.
Besonders bezeichnend ist, dass aus Facebooks Anspruch auf »experimentelle Hoheit« das Vorrecht der Überwachungskapitalisten auf die Zukunft von anderer Menschen Verhalten spricht. Indem er sich das Recht zuspricht, menschliches Verhalten insgeheim und aus Profitgründen modifizieren zu können, exiliert uns der Überwachungskapitalismus effektiv aus unserem eigenen Verhalten und verschiebt den Lokus der Kontrolle über das Futur vom »ich werde« zum »du wirst«.
Mag sein, dass jeder von uns einen anderen Weg geht, aber wie immer der aussieht, seinen Verlauf bestimmen die Aktionsvorteile und damit die ökonomischen Imperative einer überwachungskapitalistischen Ökonomie. Das Ringen um Macht und Kontrolle in der Gesellschaft ist damit nicht länger bestimmt durch versteckte Fakten von Klasse und deren Beziehungen zu den Produktionsmitteln, sondern vielmehr von den versteckten Fakten einer automatisierten Verhaltensmodifikation.
War Macht früher mit dem Besitz der Produktionsmittel gleichzusetzen, so definiert sie sich heute durch den Besitz der Mittel zur Verhaltensmodifikation.
(Anmerkung:
diese weltverengende Linke Sicht kritisierte Strauß schon, den so dumm sind die Menschen nicht, Bevormundung ist nichts, aber Aufklärung tut not.)
Im April 2016 traf sich eine »handverlesene Gruppe führender Persönlichkeiten« aus den Bereichen Technologie, Medien und Finanzwesen im Manhattaner Yale Club, um Sidewalks CEO Dan Doctoroff unter dem Motto »Google City:
Wie der Technologie-Gigant die neue Stadt überdenkt – Schneller als Sie denken« sprechen zu hören.
Seine Ansprache liefert eine offene Einschätzung von »Googles Stadt« als vom Vorhersageimperativ geformte Marktoperation.
Er artikulierte Sidewalk Labs’ Ansatz als Übersetzung von Googles Online-Welt auf die Realität der Stadt. Er hätte dabei nicht direkter sein können:
Im Endeffekt reproduzieren wir die digitale Erfahrung in den physischen Raum …
Mit anderen Worten, totale Vernetzung, unglaubliche Rechenleistung in Verbindung mit künstlicher Intelligenz und Maschinenlernen, die Möglichkeit Daten darzustellen, Sensoren, Kameras, Standortdaten und andere spezialisierte Sensoren …
Wir finanzieren alles … über ein neues Werbemodell … Wir können dann tatsächlich gezielte Werbung direkt an Leute in nächster Nähe richten – und sie dann ganz offensichtlich über Funkchips und GPS-Dienste und dergleichen, aber auch über ihre Browseraktivitäten tracken.
Noch im selben Jahr gab Sidewalk die Zusammenarbeit mit sechzehn weiteren Städten bekannt; eine wirtschaftlich rentable Größe würde es dem Unternehmen ermöglichen, seine auf Flow basierenden Softwareprodukte zu verbessern.
Doctoroff bezeichnete die Zusammenarbeit mit diesen Städten als »unvermeidlich«.
Die ebenso massive wie vielfältige Kampagne, die da an verschiedenen Schauplätzen im Gange ist, macht den Vorhersageimperativ zur konkreten Aktion.
Auf der Jagd nach Diversifikationsvorteilen wird derzeit eine ganze Sturzflut von Maschinenprozessen für Extraktion und Umwandlung von Menschen und Dingen in Verhaltensdaten vorbereitet.
Zur Erreichung von Aktionsvorteilen lernt der Apparat, den Fluss persönlicher Erfahrung zu unterbrechen, um unser Verhalten zu beeinflussen, zu modifizieren und schließlich zu steuern.
(Call me Verschwörungstheoretiker: Aber das könnte halt einfach der Perfekte Moment gewesen sein um mal zu testen….)
Dahinter stehen Pläne und Interessen eigenmächtiger kommerzieller Akteure und der florierende Markt, an dem sie partizipieren. In nahezu jedem Fall präsentieren die Handlanger der Institutionalisierung ihre neuen Praktiken als etwas, was sie in Wirklichkeit gar nicht sind. Die
Realpolitik kommerzieller Überwachungsoperationen bleibt hinter den Kulissen versteckt, während der Chor der Schauspieler, der da im Rampenlicht tanzt und singt, unsere Aufmerksamkeit beansprucht, uns manchmal sogar begeistert.
Doch sie schwitzen im grellen Licht der Bühne im Dienste eines einzigen Ziels –
dass wir die Antworten nicht bemerken oder, noch besser, dass wir vergessen, die Fragen zu stellen:
Wer weiß? Wer entscheidet? Wer entscheidet, wer entscheidet?
[…]So einige waren da ganz anderer Meinung, etwa eine Gruppe von Kritikern, zu der schließlich auch die Bundeshandelskommission gehören sollte.
Der 2010 als Kommunikationstool im Netzwerk der Facebook-Freunde eingeführte
»Like«-Button war rasch entlarvt, als ein holländischer Forscher ihn als Instrument zur Übertragung von Verhaltensüberschuss outete, der seinen Dienst auch dann tut, wenn er nicht angeklickt wird – ein Umstand, den Facebook leugnete.
2011 spitzte der Extraktionsimperativ ein weiteres Mal aus dem rhetorischen Nebel, als ein australischer Blogger den Beweis führte, dass Facebook seine Nutzer auch trackte, wenn sie ausgeloggt waren.
Am 25. September jenes Jahres versicherte Facebook, an der Behebung des »Fehlers« zu arbeiten, obwohl das Unternehmen drei Tage zuvor erst eines seiner Schlüsselpatente eingereicht hatte, mit dem es genau das zu erreichen beabsichtigte, was es bestritt: Kommunikation von Informationen über Aktivitäten aus einer anderen Domäne in einem sozialen Netzwerksystem.
Die neuen Methoden ermöglichten Facebook das Tracking von Nutzern in anderen Lebensbereichen und damit das Erstellen von Profilen dieser Nutzer und ihrer sozialen Netzwerke sowie das Empfangen von Berichten unbeteiligter Dritter über jede Aktivität des Facebook-Nutzers. All das wurde im System gespeichert, um es mit nutzerspezifischem Werbematerial zu korrelieren.
Aber selbst am 27. September noch leugnete Facebook der New York Times gegenüber sowohl das Tracking seiner Nutzer als auch die zielgerichtete Werbung. Rückblickend sehen wir, dass diese Taktik der Irreführung und der Verschleierung dem Unternehmen zwei Jahre allmählicher Gewöhnung eintrug.
2011 trat Facebook die dritte Phase des Enteignungszyklus – die Anpassung – los, als man sich mit der FTC hinsichtlich des Vorwurfs einigte, seine Kunden systematisch betrogen zu haben, »indem man ihnen versicherte, sie könnten ihre Informationen auf Facebook sehr wohl für sich behalten, um sie dann doch wiederholt zu veröffentlichen und mit anderen zu teilen«.
Zu den belegten Vertrauensbrüchen gehörten einseitige Änderungen an der Website, die private Informationen der Öffentlichkeit zugänglich machten; der Zugang zu persönlichen Daten durch unbeteiligte Dritte;
das Leaking persönlicher Daten an Apps von Fremdanbietern; »verifizierte Apps«, an denen nichts verifiziert war; der Zugang zu persönlichen Daten durch Werbetreibende; der Zugang zu persönlichen Daten selbst nach Löschung des Accounts sowie Verstöße gegen das Safe Harbor Framework, das Datentransfers mit der Europäischen Union reguliert. Im Paralleluniversum des Überwachungskapitalismus erfüllte jeder dieser Verstöße den Extraktionsimperativ mit der Bestnote.
Die FTC untersagte dem Unternehmen weitere unrichtige Darstellungen hinsichtlich seiner Datenschutzpolitik, verlangte die ausdrückliche Zustimmung des Nutzers zu neuen einschlägigen Regeln und ordnete ein umfassendes Datenschutzprogramm an, das die nächsten zwanzig Jahre über alle zwei Jahre einem Audit unterliegen sollte. Vorgebracht hatte die Beschwerde gegen Facebook das Electronic Privacy Information Center (EPIC) und ein Bündnis anderer Datenschutzaktivisten.
»Facebooks Innovation«, so der Vorsitzende der FTC Jon Liebowitz, »muss nicht zwangsläufig auf Kosten der Privatsphäre seiner Nutzer gehen.«
Nur war Mr. Liebowitz’ Kontrahent kein Unternehmen; er hatte es mit einer neuen Marktform mit ebenso eigenen wie unbeugsamen Imperativen zu tun, deren Anforderungen ausschließlich auf Kosten der Privatsphäre des Nutzers zu erfüllen sind. Womöglich ahnte Marc Rotenberg, Executive Director von EPIC, den langen Weg der Enteignung und die vielen Einsprüche, die unterwegs nötig sein würden, als er die Weisungen der FTC lobte, aber gleichzeitig auch anmerkte, dass Einigungen mit einzelnen Firmen letztlich nichts daran änderten, dass hier der Gesetzgeber auf Bundesebene gefordert sei.
Die Neuorientierung folgte auf dem Fuß. 2012 gab das Unternehmen bekannt, man würde sich bei der zielgerichteten Werbung künftig am Einsatz mobiler Apps orientieren. Im selben Jahr berichtete die Financial Times, Facebook arbeite mit Datalogix, einer mit dem Sammeln von Verbraucherdaten befassten Firma in Chicago, um festzustellen, wann Online-Werbung zu Käufen in der realen Welt führt, was das Erfassen persönlicher Nutzerinformationen aus Kunden-Accounts unabdingbar machte.
Als Beispiel nannte man E-Mail-Adressen. 2012 ermöglichte Facebook darüber hinaus Werbetreibenden Zugang zu Daten für das Targeting, darunter E-Mail-Adressen, Telefonnummern und Angaben über von Nutzern besuchte Websites. Das Unternehmen räumte ein, dass sein System private Messages von Nutzern auf Links zu Websites Dritter scanne und derart verlinkten Webseiten automatisch »Likes« zuordne.
2014 schließlich räumte man das Tracking von Nutzern über das ganze Web hinweg ein; unter anderem diene der »Like«-Button zur Erstellung detaillierter Profile für die personalisierte Einblendung von Werbeanzeigen. Facebooks »umfassendes Datenschutzprogramm« wies den Nutzer auf diese neue Tracking-Politik mit einigen Zeilen in seinen ebenso unverständlichen wie endlosen Nutzungsbestimmungen hin. Eine Möglichkeit, die Zustimmung zu verweigern, bot man dem Nutzer nicht.
Google behauptete derweilen, sich an eine Zusage an die FTC zu halten, die 2001 deren kritische Vorbedingung gewesen war, Google die Erlaubnis für den Erwerb des Ad-Tracking-Riesen DoubleClick zu erteilen. In Ermangelung einer Möglichkeit zur expliziten Einwilligung des Nutzers hatte das Unternehmen sich damals bereit erklärt, Daten aus dem Tracking-Netzwerk nicht mit anderen eindeutig personenbezogenen Informationen zu korrelieren. In diesem Fall erlaubte Google Facebook, die überwachungskapitalistische Grenze zu erweitern, und sorgte so dafür, dass Zuckerbergs Unternehmen die Hauptlast von Übergriff und Gewöhnung trug.
Im Sommer 2016 überschritt Google selbst diese Grenze mit der Ankündigung, den von DoubleClick erfassten Browserverlauf eines Nutzers »möglicherweise« mit eindeutigen personenbezogenen Informationen aus Gmail und anderen Google-Diensten zu kombinieren. Die versprochene Einwilligungsfunktion für diesen neuen Tracking-Level präsentierte man unter der Überschrift »Einige neue Features für Ihr Google-Konto«. Ein Datenschutzexperte bezeichnete diesen Schritt als Todesstoß für den letzten »winzigen Anschein« von Datenschutz im Web.
Ein Bündnis von Datenschutzgruppen legte dagegen erneut Beschwerde bei der FTC ein; wie aus deren Formulierung hervorgeht, hatte man implizit die Logik des Enteignungszyklus erkannt:
»Google betreibt schrittweise und insgeheim, was auf einmal erledigt eindeutig illegal wäre.«
Zu weithin publik gewordenen Schnitzern kam es 2012 bei Facebooks Börsengang, als Abwärtskorrekturen seiner Umsatzprognosen zu einigen fragwürdigen Geschäften zwischen seinen Investmentbankern und deren Kunden führten.
Bedingt hatte diese Korrekturen die rapide Zuwendung zu Mobilgeräten, aber auch auf seinem Weg hin zu mobiler Werbung hatte das Team von Zuckerberg und Sandberg die Feinheiten des Enteignungszyklus rasch im Griff. Im Handumdrehen gingen sie bei der Jagd nach Verhaltensüberschuss so geschickt wie skrupellos vor, erfassten Verhaltensüberschuss in den erforderlichen Mengen, umgingen Gesetze, wehrten sich gegen andere und rüsteten ihre Produktionsmittel auf.
Alles, was zählte, war die Verbesserung ihrer Vorhersageprodukte.
Die Überwachungserträge flossen in Strömen; die Aktionäre des Unternehmens sahen sich üppig belohnt. 2017 pries die Financial Times den Umsatzzuwachs von 71 % mit der Schlagzeile »Facebook:
Das Zeichen wahrer Größe«. Mit zwei Milliarden aktiven Nutzern monatlich stieg der Börsenwert des Unternehmens auf knapp unter 500 Milliarden Dollar. Im ersten Quartal 2017 stand Facebook auf Platz sieben einer maßgeblichen Rangliste der 100 Topunternehmen der Welt – im Jahr zuvor hatte es noch gar nicht auf der Liste gestanden.
Im zweiten Quartal 2017 kam nahezu jeder eingenommene Dollar aus der Werbung, insbesondere der mobilen Werbung, die 9,2 von insgesamt 9,3 Milliarden ausmachte, was einem Zuwachs von 47 % gegenüber dem Vorjahr entsprach.
Dem englischen Guardian zufolge kassierten Google und Facebook 2016 ein Fünftel der weltweiten Werbeausgaben, fast doppelt so viel wie 2012. Einer anderen Rechnung zufolge zeichneten Google und Facebook 2016 für fast 90 % des Wachstums bei den Ausgaben für Werbung verantwortlich. Und sie verdankten ihre anscheinend unanfechtbare Position dem Überwachungskapitalismus.
Von den drei nächstgrößten Internetunternehmen – Microsoft, Apple und Amazon – war es Microsoft, das sich als Nächstes und entschiedener als die anderen dem Überwachungskapitalismus zuwandte, um seine Führungsposition auf dem Hightech-Sektor wiederherzustellen.
Im Februar 2014 ernannte man zu diesem Zweck Satya Nadella zum CEO. Wie allseits bekannt, hatte Microsoft beim Wettbewerb um die Websuche und bei der Entwicklung seiner zielgerichteten Werbung einige entscheidende Gelegenheiten versäumt.
Bereits 2009, als Nadella noch Senior Vice President und Manager von Microsofts Suchbusiness war, kritisierte er öffentlich das Versäumnis des Unternehmens, die finanziellen Möglichkeiten dieser ersten Phase des Überwachungskapitalismus zu erkennen.
»Im Rückblick«, klagte er, »war es eine furchtbare Entscheidung«, die Werbung bei der Suche einzustellen. »Keiner von uns sah das Paid-Search-Modell in all seiner Pracht.« Nadella erkannte damals, dass Microsofts Suchmaschine Bing nicht mit Google konkurrieren konnte, weil es bei der Erfassung von Verhaltensüberschuss an Masse fehlte, die nun mal der kritische Faktor bei der Fabrikation qualitativ hochwertiger Vorhersageprodukte ist: »Wenn Sie sich die Suche ansehen … dann ist Masse dabei alles. Wir haben eindeutig nicht genügend Masse, und das beeinträchtigt … die Qualität der Ad-Relevanz, was vielleicht das größte Problem ist, das wir heute haben.«
Kaum drei Monate nach Antritt seines Amts gab Nadella seine Absicht bekannt, Microsoft direkt auf diese Masse zuzusteuern. Im April 2014 lagen die Ergebnisse einer Studie vor, die das Unternehmen bei IDC, einem internationalen Marktforschungsunternehmen, in Auftrag gegeben hatte.
Diese war zu dem Schluss gekommen, dass »Unternehmen, die ihre Daten nutzen, potenziell ihre Erträge um 1,6 Billionen Dollar steigern können im Gegensatz zu Unternehmen, die das nicht tun«. Entsprechend war Nadella fest entschlossen, sein Glück an den fernen Gestaden dieser reichen neuen Welt zu versuchen. Microsoft wollte die Vorteile seiner eigenen Datenschätze ernten; außerdem wollte sich das Unternehmen darauf spezialisieren, seine Kundschaft dazu zu »befähigen«, dasselbe zu tun. Nadella signalisierte die neue Richtung auf dem offiziellen Microsoft-Blog:
»Die Chancen dieser neuen Welt bestehen darin, eine Möglichkeit zur Katalyse dieser Datenabgase aus dem allgegenwärtigen Einsatz von Rechnern zu finden und diese in Brennstoff für Umgebungsintelligenz zu verwandeln.«
Einem Video zufolge, das diese neue »Datenvision« erklärt, »sind Daten, die einst ungenutzt blieben, jetzt Aktiva«.
Viele von Nadellas Initiativen zielten darauf ab, verlorene Zeit nachzuholen, indem man robuste Nachschubrouten für Verhaltensüberschuss aufbaute und die Produktionsmittel des Unternehmens auf den neusten Stand brachte. Das bei Bing für die Suche zuständige Entwicklerteam baute sein eigenes Modell der digitalen und physischen Welt; die digitale Technologie, die sie dabei einsetzten, bekam den Namen
Satori: ein selbstlernendes System, das Tag für Tag um das Datenvolumen von 28 000 DVDs wächst.
»Es ist schlicht umwerfend«, sagte der Projektleiter, »wie viele Daten wir in den letzten paar Jahren erfasst haben. Aneinandergereiht würden die bis zur Venus reichen, und Sie hätten immer noch 7 Billionen Pixel übrig.«
Jedes einzelne dieser Pixel wurde gewinnbringend eingesetzt.
Beim Earnings-Call im Oktober 2015 gab das Unternehmen bekannt, man habe mit Bing dank der Milliarde Dollar aus dem Quartal zuvor zum ersten Mal schwarze Zahlen geschrieben.
Eine weitere Strategie zur Verbesserung von Bings Zugang zu Verhaltensüberschuss war Microsofts »cloudbasierte digitale Assistentin« Cortana, der Nutzer drei Monate nach dem Start bereits über eine Milliarde Fragen gestellt hatten.
»Vier von fünf Suchanfragen«, so erklärt ein Executive von Microsoft, »gehen über den Browser an Google. In der Taskleiste [von Windows 10, über die Cortana aufgerufen wird] gehen fünf von fünf Anfragen an Bing … Damit machen wir ernst mit dem Thema Suche. Suche ist die Schlüsselkomponente unserer Monetarisierungsstrategie«.
(Anmerkung: Jetzt verlieren sie allen an OpenAi und die KI Suchmaschinen, das ist doch alles ein komplett normaler Wirtschaftlicher Vorgang…)
Cortana generiert mehr als Suchtraffic. »Cortana«, so erläutert es Microsofts Datenschutzerklärung, »funktioniert am besten, wenn Sie sich anmelden und Cortana Daten von Ihrem Gerät sowie aus Ihrem persönlichen Microsoft-Konto und anderen Microsoft-Diensten (sowie von Ihnen ausgewählten Angeboten Dritter) nutzen kann.«
Wie Larry Pages »Automagie« soll Cortana zur ehrfurchtsvollen und dankbaren Kapitulation animieren. Ein Executive von Microsoft formuliert Cortanas Message folgendermaßen: » ›Ich weiß so viel über dich. Ich kann dir besser helfen, als du ahnst. Ich sehe Muster, die du nicht siehst.‹
Darin liegt ihr Zauber.« (Anmerkung: Ein verführerischer gefährlicher Zauber dem man sich nur zu Leicht hingibt)
Nichtsdestoweniger war das Unternehmen klug genug, seinen Nutzern das wahre Ausmaß von Cortanas Wissen zu verschweigen.
Cortana will alles über Sie wissen, aber sie will nicht, dass Sie wissen, wie viel sie weiß oder dass alle ihre Operationen darauf abgestimmt sind, fortwährend mehr zu erfahren.
Stattdessen ist der »Bot« darauf programmiert, Sie um Erlaubnis und Bestätigung zu fragen. Laut dem zuständigen Projektmanager ist der Gedanke dahinter, die Öffentlichkeit nicht kopfscheu zu machen, indem man Cortanas Intelligenz als »autonom« outet, also stellt man sie lieber als »progressiv« dar.
Es wäre zu viel für die Leute, wenn sie wüssten, wie viel ihre Smartphones bereits für sie übernehmen:
»Wir haben uns bewusst entschlossen, ein bisschen weniger ›magisch‹ und ein bisschen transparenter zu sein.«
Nadella stellt sich eine neue »Gesprächsplattform« vor, die Nutzer mit Bots interagieren lässt, die sie dazu bewegen, die Einzelheiten ihres Alltags nicht nur freiwillig, sondern gerne herauszugeben.
Die Plattform verspricht Erlebnisse wie »Conversational Commerce«, ein Verkaufsgespräch mit einem Bot, der »weiß, welche Schuhe Sie letzte Woche gekauft haben, der Ihre Vorlieben aus Ihren bislang getätigten Einkäufen kennt, der Ihr Profil hat und ein Empfehlungsmodell aufrufen kann, um zu entscheiden, nach welchem Produkt Ihnen ist … Kraft Daten und Analytik kann der Bot mit Empfehlungen aufwarten, die er für besonders relevant hält. Außerdem kann er andere aus Ihrem sozialen Netzwerk darum bitten, Ihnen bei Ihrer Entscheidung zu helfen. Haben Sie Ihre Wahl getroffen, weiß er, welche Größe Sie haben, wohin die Ware geschickt werden soll, kennt Ihre Zahlungsinformationen und veranlasst die Zusendung Ihres Kleids.«
Das Erscheinen von Microsofts neuem Betriebssystem Windows 10 im Juli 2015 machte klar, wie ernst es dem Unternehmen damit war, Nachschubrouten für Verhaltensüberschuss aufzubauen und zu sichern.
Ein Softwareingenieur bezeichnete es in einem Artikel für Slate.com als »Datenschutzmorast, der dringend der Reform bedarf«, als er detailliert beschrieb, wie das System »sich das Recht zugesteht, Ihre Daten tonnenweise auf Microsofts Server zu schippen, Ihre Breitbandleitung für Microsofts eigene Zwecke nutzt und ein Profil Ihrer Verwendung von Windows erstellt.«
Wie so einige Experten rasch herausfanden, drängte das System den Nutzer dazu, die »Expressinstallation« vorzunehmen, bei der die Voreinstellung den maximalen Fluss persönlicher Informationen an die Server des Unternehmens erlaubt. Eine technische Prüfung der Tech-Website Ars Technica enthüllte, dass selbst nach Rücknahme dieser Einstellungen und Abschalten wesentlicher Dienste wie Cortana das System weiterhin Verbindung mit dem Internet aufnahm und Informationen an Microsoft weitergab. In einigen Fällen schienen darunter auch persönliche Informationen zu sein wie die Gerätekennung, Nutzerinhalte und Standortdaten.
Einer Analyse der Electronic Frontier Foundation (EFF) zufolge mussten selbst Nutzer, die Cortana bewusst deaktiviert hatten, eine Informationserfassung von »beispiellosem« Umfang hinnehmen, so etwa Text-, Stimmen- und Touch-Eingaben, Webtracking sowie Telemetriedaten über die allgemeine Verwendung des Geräts, welche Programme man benutzt und wie lange und dergleichen mehr. Die EFF stellte darüber hinaus fest, dass das Unternehmen sich dafür entschied, bestimmte Sicherheitsfunktionen untrennbar mit dem Fluss personenbezogener Daten zu koppeln. Man begründete das damit, dass Sicherheitsupdates nicht richtig funktionieren würden, falls Nutzer es vorzogen, Angaben über ihren Standort auf ein Minimum zu beschränken.
2016 erwarb Microsoft für 26,2 Milliarden Dollar das soziale Netzwerk für Fachkräfte LinkedIn. Ziel ist es, sich zuverlässige Nachschubrouten für Verhaltensüberschuss im Kontext sozialer Netzwerke zu sichern. Bewerkstelligt wird das über den sogenannten »Social Graph«, einer Art digitalen Karte unseres Online-Ichs, das heißt unserer Persönlichkeit und unserer Beziehungen. Diese aussagekräftigen neuen Ströme an Sozialüberschuss von 450 Millionen Nutzern125 können erheblich zur Verbesserung von Microsofts Vorhersageprodukten beitragen, ein Schlüsselfaktor, den Nadella in seiner Ankündigung des Erwerbs von LinkedIn heraushob: »Das kann Targeting und Relevanz auf den nächsten Level bringen.«
Nadella sprach Investoren gegenüber von der Möglichkeit einer »beschleunigten Monetarisierung durch private und Firmenabonnements sowie durch zielgerichtete Werbung«. Zu den relevanten Schlüsselfaktoren gehörten neben Microsofts umfassendem Wissen über jeden einzelnen seiner Nutzer konsolidierte Profile über das ganze Spektrum von Diensten, Geräten und Kanälen hinweg: »Heute weiß Cortana über Sie Bescheid, über Ihr Unternehmen und über die Welt.
Künftig wird Cortana auch alles über Ihr berufliches Netzwerk wissen und sich für Sie ein Bild machen. Damit sind Sie immer einen Schritt voraus.«
Auch diesmal sahen sich Microsoft und Nadella für ihre Wende zu Überwachungserträgen vom Markt reich belohnt. Als Nadella im Februar 2014 zum CEO befördert wurde, handelte man die Papiere des Unternehmens mit etwa 34 Dollar und sein Marktwert belief sich auf 315 Milliarden Dollar. Drei Jahre später, im Januar 2017, überstieg die Marktkapitalisierung zum ersten Mal seit 2000 die 500-Milliarden-Dollar-Grenze und seine Aktien stiegen auf 65,64 Dollar, den Höchststand in der Geschichte des Unternehmens.
Der Sirenengesang der Überwachungserträge
Der beispiellose Erfolg von Google, Facebook und schließlich Microsoft übten eine schier greifbare Anziehungskraft auf die globale Wirtschaft aus, vor allem in den USA, wo die Politik der Gesetzlosigkeit fester als sonst wo verwurzelt ist. Im Handumdrehen demonstrierten auch Unternehmen aus etablierten Wirtschaftszweigen, Unternehmen, die an sich mit dem Silicon Valley nichts zu tun hatten, ihre Entschlossenheit, in den Wettbewerb um Überwachungserträge einzusteigen. Zu den Ersten in dieser zweiten Welle gehörten die Telekommunikations- und Kabelunternehmen, die für den Internetzugang von Millionen von Menschen verantwortlich sind. Obwohl nach wie vor offen ist, ob diese Unternehmen eine reelle Chance gegen die etablierten Internetriesen haben, deutet alles darauf hin, dass die Internetanbieter es auf einen Versuch ankommen lassen wollen. »Gewappnet mit einem umfassenden Überblick über das gesamte Web, befinden sich Internetanbieter womöglich sogar in einer Position, selbst Facebook oder Google zu übertrumpfen«, hieß es dazu in der Washington Post.
Die größten amerikanischen Unternehmen auf diesem Sektor – Verizon, AT&T und Comsat – tätigten strategische Ankäufe, die eine Abwendung von ihren etablierten Gebührenmodellen hin zur Monetarisierung von Verhaltensüberschuss signalisieren. Ihre taktischen Manöver demonstrieren die Generalisierbarkeit sowohl der grundlegenden überwachungskapitalistischen Mechanismen als auch der operativen Voraussetzungen. Darüber hinaus belegen sie, dass diese neue Logik der Akkumulation ein ganz neues Territorium breitangelegter Marktanstrengungen definiert.
Der dem Marktwert nach größte Telekommunikationskonzern der Welt Verizon machte seine Hinwendung zu Überwachungserträgen im Frühjahr 2014 publik. Ein Artikel in der Fachpublikation Advertising Age verkündete den Eintritt des Unternehmens in die Mobilwerbung. Die Möglichkeiten dieser Art von Werbung, so der bei Verizon für das Datenmarketing zuständige Vice President, sei bis dato durch ihre »Adressierbarkeit« eingeschränkt gewesen, durch »die zunehmende Schwierigkeit,
1 . Die Logik
Man bezeichnet Google und andere Überwachungsplattformen zuweilen als »zweiseitige« oder »mehrseitige« Märkte, aber die Mechanismen des Überwachungskapitalismus weisen auf etwas anderes.
Google hat eine Möglichkeit entdeckt, seine nicht-marktlichen Interaktionen mit seinen Nutzern in Rohstoffüberschuss zur Fabrikation von Produkten zu verwandeln, die auf genuine Markttransaktionen mit den tatsächlichen Kunden abzielen: den Werbetreibenden.
Diese Übertragung von Verhaltensüberschuss von außerhalb des Markts in diesen ermöglichte es Google, Investitionen in Erträge umzuwandeln. Das Unternehmen schuf so aus dem Nichts und zu null Grenzkosten eine Aktiva-Klasse aus Rohstoffen, die aus dem nicht-marktlichen Online-Verhalten seiner User gewonnen wurden. Zunächst hatte man diese Rohstoffe einfach nur »gefunden«, sie waren ein Nebenprodukt der Websuche. Später machte man dann aggressivst Jagd auf diese Aktiva und beschaffte sie sich größtenteils durch Überwachung. Gleichzeitig schuf das Unternehmen eine neue Art von Marktplatz, um die aus diesen Rohstoffen fabrizierten proprietären »Vorhersageprodukte« zu handeln.
Zusammenfassend lässt sich über diese Entwicklungen sagen, dass wir den Verhaltensüberschuss, auf den Googles Geschicke beruhen, als Überwachungsaktiva sehen können; diese Aktiva sind kritische Rohstoffe beim Streben nach Überwachungserträgen und deren Umwandlung in Überwachungskapital. Die gesamte Logik dieser Kapitalakkumulation umreißen wir am präzisesten mit dem Begriff Überwachungskapitalismus, der Fundament und Rahmen für eine auf Überwachung fußende Wirtschaftsordnung bildet: die Überwachungsökonomie. Das übergeordnete Muster hier ist eines von Unterordnung und Hierarchie, wobei die ursprünglichen Wechselbeziehungen zwischen dem Unternehmen und seinen Nutzern dem abgeleiteten Projekt untergeordnet werden, unseren Verhaltensüberschuss für die Ziele Dritter zu erfassen. Wir sind damit weder die Subjekte der Wertrealisation noch sind wir, wie man immer wieder behauptet, das von Google verkaufte »Produkt«. Wir sind vielmehr die Objekte, aus denen Google unrechtlich den Rohstoff für seine Vorhersagefabriken bezieht. Und eben diese fertigen Googles Produkte: Vorhersagen über unser Verhalten, die Google nicht an uns, sondern an seine eigentliche Kundschaft verkauft. Wir sind die Mittel zu anderer Leute Zweck. (Anmerkung: Das finde ich geht zu weit, das unterstellt weltweite Medieninkompetenz!)
Wandelte der Industriekapitalismus die Rohstoffe der Natur in Wirtschaftsgüter um, beansprucht der Überwachungskapitalismus die menschliche Natur für ein neu erfundenes Wirtschaftsgut, das Marktprojekt eines neuen Jahrhunderts. Es ist nachgerade unanständig, den damit angerichteten Schaden auf den augenfälligen Umstand zu reduzieren, dass die Nutzer kein Entgelt für den von ihnen gelieferten Rohstoff bekommen. Diese Kritik ist ein Meisterstück der Irreführung durch jene, die gern einen Preismechanismus eingeführt sähen, um die Extraktion menschlichen Verhaltens zu Fabrikations- und Verkaufszwecken zu institutionalisieren und damit zu legitimieren. Sie ignoriert den ausschlaggebenden Punkt, dass nämlich das Wesen der Ausbeutung in diesem Fall in der Umwandlung unseres Lebens in Verhaltensdaten besteht, die anderen eine bessere Kontrolle über uns an die Hand geben soll. Die wesentlichen Fragen hier drehen sich um die folgenden Tatsachen: dass unser Leben überhaupt in Verhaltensdaten umgewandelt wird; dass eine Bedingung für diese allgegenwärtige Verdatung die Unwissenheit ist; dass Entscheidungsrechte verschwinden, bevor man überhaupt weiß, dass es etwas zu entscheiden gibt; dass dieses Dahinschwinden unserer Rechte Folgen hat, die wir weder absehen noch vorhersagen können; dass es keinen Ausweg gibt, keine Stimme, keine Loyalität, sondern nur Hilflosigkeit, Resignation und psychische Abstumpfung; dass die Verschlüsselung die einzige positive Maßnahme ist, die es noch zu diskutieren gibt, wenn wir uns in kleiner Runde Gedanken machen, wie wir uns vor den Kräften verstecken können, die sich vor uns verstecken.
2. Die Produktionsmittel
Googles digitaler Fabrikationsprozess ist eine kritische Komponente des Beispiellosen. Seine spezifischen Technologien und Techniken, die ich hier als »Maschinenintelligenz« zusammenfasse, sind in ständiger Entwicklung begriffen. Ihre Komplexität ist beängstigend. Schon der Begriff kann, was immer er heute bedeuten mag, in einem oder fünf Jahren eine ganz andere Bedeutung haben. So heißt es zum Beispiel, Google sei bereits seit 2003 mit der Entwicklung von »künstlicher Intelligenz« befasst und setze sie ein, aber der Begriff an sich ist ein bewegliches Ziel. Die Möglichkeiten der künstlichen Intelligenz haben sich entwickelt: von primitiven Programmen, mit denen sich Tic-Tac-Toe spielen lässt, bis hin zu Systemen, die ganze Flotten von fahrerlosen Fahrzeugen dirigieren.
Googles Fähigkeiten in Sachen Maschinenintelligenz nähren sich von Verhaltensüberschuss, und je mehr Überschuss sie konsumieren, desto akkurater werden die Vorhersageprodukte, die daraus resultieren. Kevin Kelly, Mitgründer des Magazins Wired, hat vor Jahren schon darauf hingewiesen, dass es zwar so aussehen mag, als entwickle Google seine AI-Fähigkeiten zur Verbesserung von Search, dass Google aber aller Wahrscheinlichkeit nach die Entwicklung von Search vorantreibe, um damit seine AI-Fähigkeiten zu trainieren.98 Das ist das Wesen des Maschinenintelligenz-Projekts. Die Intelligenz einer Maschine richtet sich danach, wie viele Daten sie frisst. In dieser wichtigen Hinsicht unterscheiden sich die neuen Produktionsmittel fundamental vom industriellen Modell, bei dem eine Spannung herrscht zwischen Quantität und Qualität. Maschinenintelligenz ist die Synthese dieser Spannung, da sie erst bei Annäherung an die Totalität ihr volles Qualitätspotenzial erreicht.
Da immer mehr Unternehmen sich nach Googles Vorbild auf die Jagd nach Überwachungsprofiten machen, beschäftigt sich ein beträchtlicher Teil der weltweit arbeitenden Datenwissenschaft und sämtlicher damit verwandten Gebiete mit der Fabrikation von Vorhersageprodukten, die für den Anstieg der Klickraten zielgerichteter Werbung sorgen sollen. So haben zum Beispiel mit der Arbeit an Bing befasste Wissenschaftler von Microsoft in Peking 2017 einen Durchbruch bekanntgegeben: »Die akkurate Schätzung von Klickraten bei Werbeanzeigen hat eine entscheidende Auswirkung auf die Erträge eines Suchgeschäfts; schon eine Verbesserung der Genauigkeit von 0,1 % bei unserer Produktion würde Hunderte von Millionen Dollar an zusätzlichen Erträgen generieren«, schrieben sie. Dann führen sie eine neue Applikation fortgeschrittener neuraler Netzwerke vor, die eine einschlägige Verbesserung von 0,9 % und »beträchtliche Zugewinne bei der Klickrate im Online-Traffic« verspricht.99 Ähnlich führte ein Forscherteam von Google ein neues tiefes neurales Netzwerkmodell ein – alles zur Erfassung von »Interaktionen prädiktiver Features« und die Produktion von »Performance auf dem Stand der Technik« zur Verbesserung der Klickraten.100 Tausende von Beiträgen wie diese, die einen inkrementell, die anderen große Sprünge, ergeben zusammen ein teures, hochentwickeltes, undurchsichtiges und exklusives »Produktionsmittel« des 21. Jahrhunderts.
3. Die Produkte
Maschinenintelligenz verarbeitet Verhaltensüberschuss zu Vorhersageprodukten, die prognostizieren sollen, was wir jetzt, bald und irgendwann fühlen, denken und tun. Diesen Methodiken gehörten zu Googles bestgehüteten Geheimnissen. Das Wesen dieser Produkte erklärt, wieso Google wiederholt behauptet, ja beteuert hat, keine persönlichen Daten zu verkaufen. Googles Chefetage pocht gern auf ihre Unbescholtenheit in Sachen Privatsphäre, weil sie ihren Rohstoff nicht verkauft; das Unternehmen verkauft die Vorhersagen, die zu fabrizieren es aus seinem in der Weltgeschichte einmaligen Hort von Verhaltensüberschuss allein in der Lage ist.
Vorhersageprodukte reduzieren das Risiko für Werbekunden, indem sie ihnen raten, wo und wann sie ihre Wetten abschließen sollen. Qualität und Wettbewerbsfähigkeit des Produkts sind eine Funktion seiner Annäherung an die Gewissheit: je vorhersagekräftiger das Produkt, desto geringer ist das Risiko für den Käufer und desto größer der Absatz. Google hat seine Rolle als datenbasierter Wahrsager gelernt. Das Unternehmen ersetzt Intuition durch aufskalierte Wissenschaft, um unsere Geschicke profitabel zu verkaufen – das heißt seiner Kundschaft, nicht uns. Praktisch von Anfang an zielten Googles Vorhersageprodukte größtenteils auf den Verkauf zielgerichteter Werbung. Aber wie wir noch sehen werden, war Werbung nur der Beginn des Überwachungsprojekts, nicht das Ziel.
4. Der Marktplatz
Vorhersageprodukte werden auf einer neuen Art von Markt verkauft, auf dem allein mit künftigem Verhalten gehandelt wird. Die Profite des Überwachungskapitalismus kommen hauptsächlich aus diesen Verhaltensterminkontrakten. Und auch wenn Werbekunden die beherrschenden Player in der ersten Phase dieses neuen Marktplatzes waren, gibt es keinen Grund, solche Märkte auf diese Kundengruppe zu beschränken. Und so wie es bei Fords neuem System eher zufällig um Autos ging, geht es bei diesen neuen Vorhersagesystemen eher zufällig um Werbung. In beiden Fällen sind die Systeme auf eine ganze Reihe anderer Domänen übertragbar. Der bereits sichtbare Trend ist, wie wir in den kommenden Kapiteln sehen werden, dass jeder Akteur mit einem Interesse am Ankauf probabilistischer Informationen über unser Verhalten und /oder dessen Beeinflussung diese auch kaufen kann. Er braucht sich dazu nur auf den Märkten umzusehen, auf dem Verhaltensgeschicke von Individuen, Gruppen, Körperschaften und auch Gegenständen gehandelt werden (siehe Abb. 2).

Lass Sie Tanzen
Aber vernehmt, wie gekränkt der Morgen, und auch warum er weint:
geschleift sind Mauern und Seelen; dem Willen der Ungerechten
hat nie die Maschine gefehlt; indessen verzichten die Fürsten
nicht auf die echt-edle alles vereinende Lüge.
– W. H. Auden, Sonette aus China, XI
Aktions- beziehungsweise Handlungsvorteile
»Die neue Macht liegt in der Aktion«, sagte mir ein leitender Softwareingenieur. »Die Intelligenz des Internets der Dinge bedeutet, dass Sensoren gleichzeitig auch Aktoren sein können.« Erklärend fügt der Chef der Softwareabteilung eines wichtigen Players im »Internet der Dinge« hinzu: »Es geht nicht mehr nur einfach nur um ubiquitäres Computing. Heute heißt das Ziel ubiquitäre Intervention, Aktion und Kontrolle. Die wahre Macht liegt heute darin, Echtzeithandeln in der realen Welt zu modifizieren. Vernetzte smarte Sensoren sind in der Lage, jede Art von Verhalten zu registrieren und zu analysieren und dann tatsächlich auszurechnen, wie es zu verändern ist. So werden Echtzeit-Analytics zu Echtzeit-Aktion.« Die Wissenschaftler und Softwareentwickler, die ich interviewt habe, bezeichnen diese neue Fähigkeit als »Aktuation«. Sie ist für sie der kritische, wenn auch kaum diskutierte Wendepunkt in der Evolution des Ubiquitätsapparats.
Diese Aktuationsfähigkeit definiert eine neue Phase des Vorhersageimperativs, die ich unter dem Begriff Aktions- bzw. Handlungsvorteile zusammenfasse. Sie komplettiert die neuen Verhaltensmodifikationsmittel und ist damit ein ebenso entscheidender wie notwendiger Schritt in der Entwicklung der überwachungskapitalistischen »Produktionsmittel« hin zu einem iterativen, immer komplexeren und leistungsfähigeren System. Es ist dies eine Wegmarke im Wettlauf um garantierte Ergebnisse. Im Überwachungskapitalismus werden die Ziele und Operationen der automatisierten Verhaltensmodifikation von Unternehmen im Sinne ihrer Ertrags- und Wachstumsziele entworfen und kontrolliert. Ein leitender Softwareingenieur sagte mir dazu:
Sensoren lassen sich so gut zur Modifikation menschlichen Verhaltens einsetzen wie zur Modifikation von Geräteverhalten. Mit dem Internet der Dinge lässt sich eine Menge großartiger Sachen bewerkstelligen, wie etwa die Wärme in allen Häusern an Ihrer Straße senken, um einen Transformator vor der Überlastung zu schützen. Auf einer individuellen Ebene bedeutet das aber auch, dass die Macht über solche Schritte eben Vorrang hat vor dem, was Sie gerade machen, oder Sie sogar auf einen Weg lenken kann, den Sie sich nicht ausgesucht haben.
Die von mir
interviewten Wissenschaftler und Ingenieure identifizierten drei Schlüsselansätze zur Erreichung von Aktionsvorteilen, und alle drei haben sie die Verhaltensmodifikation zum Ziel.
Die ersten beiden bezeichne ich als »Tuning« (das Abstimmen auf das System) und »Herding« (das Abrichten zur Masse);
der dritte ist uns bereits unter dem Begriff
»Konditionierung« (das Abrichten auf reflexauslösende Reize) aus der Verhaltenspsychologie bekannt. Die einzelnen Strategien, die zu den gewünschten Aktionsvorteilen führen, variieren je nach dem Grad der Kombination dieser Ansätze und je nachdem, welchen von ihnen man in den Vordergrund rückt.
Das »Tuning« erfolgt auf unterschiedliche Weise, so etwa durch den Einsatz unterschwelliger Auslösereize zur subtilen Ausformung des Verhaltensflusses zu bestimmten Zeitpunkten an bestimmten Orten um einer maximalen Effizienz willen.
Eine andere Art von Tuning bedient sich eines psychischen Stupses, den die Verhaltensökonomen Richard Thaler und Cass Sunstein als »Nudge« bezeichnen;
sie verstehen darunter »alle Maßnahmen, mit denen Entscheidungsarchitekten das Verhalten von Menschen in vorhersagbarer Weise verändern können«.
Verhaltensökonomen arbeiten auf der Basis einer Weltsicht, der zufolge unser Denken, oberflächlich und unzulänglich wie es ihrer Ansicht nach ist, irrationale Entscheidungen ohne eine angemessene Betrachtung möglicher Alternativen bedingt.
Sie berufen sich auf »Entscheidungsarchitekturen« zur Beschreibung der Art und Weise, in denen Situationen vor strukturiert sind, um Aufmerksamkeit zu lenken und unter Umgehung von Bewusstsein und Willen Einfluss auf unser Handeln zu nehmen. In einigen Fällen sind diese Architekturen ganz bewusst darauf ausgerichtet, ein bestimmtes Verhalten hervorzurufen – nehmen Sie nur ein Klassenzimmer, in dem alle Stühle auf den Lehrer ausgerichtet sind, oder eine Website, die von uns verlangt, uns durch eine ganze Reihe obskurer Seiten zu klicken, wollen wir uns des Setzens von Tracking-Cookies erwehren. Der Einsatz dieses Begriffs ist nichts weiter als eine behavioristische Umschreibung dafür, dass soziale Situationen von Haus aus im Sinne eines Tunings gestaltet sind, dessen Maßnahmen sich unserer Kenntnis größtenteils entziehen.
Den Überwachungskapitalisten dienen so einige Grundsätze der Verhaltensökonomie zur Legitimierung ihres Bekenntnisses zur kommerziell motivierten Modifikation von Verhalten. Der Dreh besteht darin, dass Nudges Entscheidungen anstoßen, die nicht dem Einzelnen, sondern ihrem Architekten in die Hände spielen. Folge davon sind auf Aktionsvorteile konditionierte Datenwissenschaftler, die es für völlig normal halten, die Kunst des »digitalen Stupsens« um der kommerziellen Interessen ihrer Unternehmen willen zu meistern. So beschreibt etwa der Datenchef einer amerikanischen Drogeriekette, wie das Unternehmen automatisch seine digitalen Nudges so designt, dass sie die Kunden in Richtung eines bestimmten, vom Unternehmen bevorzugten Verhaltens dirigieren: »Sie können mit dieser Technologie die Leute dazu bekommen, etwas Bestimmtes zu tun. Selbst wenn das nur bei 5 % der Leute klappt, dann haben Sie 5 % der Leute zu etwas veranlasst, was sie sonst nicht getan hätten. Wir können also in einem gewissen Maß von einem Verlust der Selbstkontrolle des Nutzers sprechen.«
»Herding« ist ein zweiter Ansatz, der sich in dem Bemühen um eine stärkere und überzeugendere Entscheidungsarchitektur im Wesentlichen auf die Kontrolle von Schlüsselelementen im unmittelbaren Kontext der Betroffenen stützt. Ein Beispiel für so eine Herding-Technik ist der Unvertrag. Das ferngesteuerte Abstellen des Motors sorgt für eine irreversible Veränderung im unmittelbaren Kontext der Autofahrerin, insofern er sie aus dem Fahrzeug »treibt«. Herding ermöglicht das Orchestrieren einer Situation aus der Ferne, insofern es den Betroffenen bestimmte Aktionen verwehrt und ihr Verhalten so auf einen Weg größerer Wahrscheinlichkeit und damit höherer Gewissheit im Sinne einer bestimmten Vorhersage führt. »Wir lernen, die Musik zu schreiben, und sorgen dann dafür, dass sie die Leute tanzen lässt«, erklärt ein mit dem Internet der Dinge befasster Softwareentwickler.
Wir können den Kontext um ein bestimmtes Verhalten organisieren und so eine Veränderung erzwingen. Kontextsensitive Daten erlauben uns, Ihre Emotionen mit Ihren kognitiven Funktionen und Ihren Vitalparametern etc. etc. zu bündeln. Wir können wissen, dass Sie nicht fahren wollten, und Ihnen einfach den Motor abstellen. Wir können dem Kühlschrank sagen: »Hey, sperr ab, der Typ sollte nichts essen«, oder wir sagen dem Fernseher, Schluss zu machen, damit Sie endlich etwas Schlaf kriegen, oder dem Sessel, er soll zu rütteln anfangen, weil Sie nicht so lange sitzen sollen, oder dem Wasserhahn, sich zu öffnen, weil Sie mehr Wasser trinken sollen.
»Konditionierung« ist ein allseits bekannter Ansatz, erwünschtes Verhalten abzurufen. Wir verbinden den Begriff vor allem mit dem berühmten Behavioristen B. F. Skinner. Ihm zufolge sollte eine Verhaltensmodifikation den Evolutionsprozess imitieren, bei dem Umweltbedingungen für die »Auslese« von besonders erfolgreichem Verhalten sorgen. Statt des älteren und einfacheren Stimulus-Reaktions-Modells, das man mit Watson und Pawlow verbindet, fügte Skinner mit der »Verstärkung« eine dritte Variable hinzu. Bei seiner Laborarbeit mit Mäusen und Tauben beobachtete Skinner an seinen Versuchstieren zunächst eine Reihe natürlich vorkommender Verhaltensweisen und »verstärkte« dann eine – den »Operanten« –, die er häufiger reproduziert sehen wollte. Nach dieser Methode erarbeitete er komplizierte »Verstärkungspläne«, mit denen sich verlässlich bestimmte Verhaltensroutinen erzielen ließen.
Skinner bezeichnete die Anwendung der Verstärkung zur Ausbildung bestimmter Verhaltensweisen als »operante Konditionierung«. Sein Projekt wurde unter den Schlagworten »Behavioral-Engineering« bzw. »Verhaltensmodifikation« oder »behavioristische Konditionierung« weltbekannt. Grundsatz ist stets die fortwährende Ausformung bestimmter Verhaltensweisen auf Kosten anderer. So lernt die Taube zum Beispiel, zweimal auf einen Knopf zu picken, um ein Getreidekorn zu bekommen; die Maus lernt, sich durch einen komplexen Irrgarten zu bewegen und wieder zurück.
Skinner stellte sich eine umfassende »Verhaltenstechnologie« zur Anwendung solcher Methoden auf ganze menschliche Populationen vor.
»Konditionierung in einer wirtschaftlich rentablen Größe«, so erfahre ich vom Chef-Datenwissenschaftler eines vielbewunderten Bildungsunternehmens aus dem Silicon Valley, »ist von grundlegender Bedeutung für diese neue mit der massiven Konditionierung menschlichen Verhaltens befassten Wissenschaft.« Seiner Ansicht nach erlauben Smartphones, anziehbare Geräte und breiter angelegte Always-on-Netze seinem Unternehmen, das Verhalten eines erheblichen Teils seiner Nutzer zu modifizieren und zu verwalten. Mit dem digitalen Monitoring und Tracking des Tagesablaufs einzelner Nutzer lernt das Unternehmen allmählich die Verstärkungspläne zu beherrschen; Belohnung, Anerkennung und Lob können zuverlässig dafür sorgen, dass sich ein vom Unternehmen auserkorenes Nutzerverhalten durchsetzen wird:
Ziel von allem, was wir hier machen, ist, das menschliche Verhalten in einer wirtschaftlichen Größenordnung zu verändern. Wir versuchen dahinterzukommen, wie sich ein Apparat zur Verhaltensmodifikation aufbauen lässt, und dann wollen wir Einfluss auf die tagtäglichen Entscheidungen der Menschen nehmen. Wenn die Leute unsere App benutzen, können wir ihre Verhaltensweisen erfassen und die guten und schlechten identifizieren. Dann entwickeln wir »Behandlungsmethoden« oder »Datenpillen«, die gutes Verhalten auswählen. Wir können testen, wie nützlich unsere Auslösereize für sie sind und wie profitabel bestimmte Verhaltensweisen für uns sind.
Auch wenn es nach wie vor möglich ist, sich eine automatisierte Verhaltensmodifikation ohne den Überwachungskapitalismus vorzustellen, so ist es unmöglich, sich den Überwachungskapitalismus ohne die innige Verbindung der Verhaltensmodifikation mit den technologischen Mitteln vorzustellen, die ihren Einsatz automatisieren. Diese Verbindung ist für Aktionsvorteile unabdingbar. So kann man sich zum Beispiel Fitness-Tracker, Autos und Kühlschränke vorstellen, deren Daten und operative Kontrolle ausschließlich ihren Besitzern zum Beispiel dabei helfen, sich öfter zu bewegen, sicherer zu fahren und gesünder zu essen. Aber wie wir schon in so vielen Bereichen gesehen haben, hat der Überwachungskapitalismus ein für alle Mal Schluss gemacht mit der Idee einer einfachen Kopplungsschleife im Sinne des Verhaltenswert-Reinvestitionszyklus. Letztendlich geht es eben nicht um die Geräte, es geht um Max Webers »ökonomische Orientierung«, und diese wird heute vom Überwachungskapitalismus bestimmt.
Hinter der ständig zunehmenden Anhäufung immer aussagekräftigerer Formen von Verhaltensüberschuss steht der Reiz der Überwachungserträge. Und die aussagekräftigste Form überhaupt ist zwangsläufig Verhalten, das man bereits im Vorfeld im Sinne garantierter Ergebnisse modifiziert. Die Verschmelzung neuer digitaler Modifikationsmittel und neuer ökonomischer Ziele sorgt für ein breites Spektrum neuer Techniken sowohl zur Erzeugung dieser neuen
Überschussarten als auch zur monopolistischen Kontrolle darüber. Aufschlussreich ist da eine Studie mit dem Titel »Behavior Change Techniques Implemented in Electronic Lifestyle Activity Monitors«.
Wissenschaftler zweier Universitäten in Texas und Florida, die dreizehn solcher Applikationen zur Überwachung »lifestylebedingter« Aktivitäten unter die Lupe nahmen, stellten fest, dass diese Geräte »ein breites Spektrum verhaltensverändernder Techniken«, enthielten, die »üblicherweise bei Verhaltensinterventionen im klinischen Umfeld Verwendung finden«.
Die Wissenschaftler kamen zu dem Schluss, dass verhaltensverändernde Operationen infolge ihrer Migration auf digitale Geräte mit Internetanbindung nachgerade grassieren.
Wie sie feststellen, scheint die Möglichkeit einer simplen, vom Verbraucher für den Verbraucher designten Kopplungsschleife ein Ding der Unmöglichkeit – Apps zur Verhaltensänderung böten sich nun mal »zu diversen Arten von Überwachung« an, und »offizielle Methoden«, Daten einfach nur sicher zu übertragen, »scheint es gegenwärtig in diesen Apps nicht zu geben«.2
Erinnern Sie sich an Hal Varians Lobeshymne auf die »neuen Einsatzmöglichkeiten« von Big Data, die aus diesen allgegenwärtigen rechnergestützten Transaktionen zu beziehen sind? Zu diesen gehörte nach Ansicht von Googles Chefökonom auch das »fortwährende Experimentieren«. Varian sprach davon, dass Googles Entwicklungs- und Datenteams ständig Tausende von »A / B-Experimenten« durchführen, um die Nutzerreaktionen auf Hunderte unterschiedlicher Seitencharakteristika zu testen – vom Layout über Buttons bis hin zu Schriftarten. Varian unterstützte, ja pries diese Art selbstherrlichen Experimentierens und wies darauf hin, dass sämtliche Daten der Welt »nur Korrelationen messen können, aber keine Kausalität«.3 Anders ausgedrückt, Daten sagen einem, was passiert ist, aber nicht, warum es passiert ist. Mangels Kenntnis kausaler Zusammenhänge sind selbst die besten Vorhersagen nichts weiter als extrapolierte Vergangenheit.
Folge dieses Problems ist, dass das letzte kritische Element bei der Fabrikation qualitativ hochwertiger Vorhersageprodukte – das heißt solcher, die sich garantierten Ergebnissen nähern – auf das Wissen um kausale Zusammenhänge angewiesen ist. »Wenn man Kausalität wirklich verstehen will«, so Varian, »muss man experimentieren. Und wenn man fortwährend experimentiert, lässt sich auch das System fortwährend verbessern.«4 Und da das »System« Vorhersagen liefern soll, bedeutet »das System fortwährend verbessern«, die Lücke zwischen Vorhersage und Beobachtung zu schließen, um sich der Gewissheit anzunähern. In einer analogen Welt wären derartige Ambitionen viel zu teuer, um praktikabel zu sein, aber in der Sphäre des Internets, so Varian, »lässt sich das Experimentieren ganz und gar automatisieren«.
Nicht nur spricht Varian die privilegierte Rolle des Experimentators den Überwachungskapitalisten zu, er präsentiert dies auch ganz beiläufig als vollendete Tatsache. Was denn auch genau genommen die letzte kritische Karte des Blatts an Rechten reflektiert, das sich die Überwachungskapitalisten so selbstherrlich zugespielt haben. Der Vorhersageimperativ zwingt die Überwachungskapitalisten zur Erklärung ihres Rechts darauf, anderer Leute Verhalten aus Profitgründen mit Methoden zu ändern, die deren Bewusstsein, Willensäußerung, ja den ganzen Komplex von Eigenverantwortlichkeit umgehen, den wir unter Begriffen wie Autonomie und Selbstbestimmung subsumieren.
Lassen Sie mich als Nächstes drei unterschiedliche Narrative des Überwachungskapitalisten als »Experimentator« in Sachen Verhaltensmodifikation ausführen, der seine Asymmetrien an Wissen einsetzt, um seinen Willen den arglosen menschlichen Versuchskaninchen aufzuzwingen, als die er seine Nutzer sieht. Die Erkenntnisse aus diesen Experimenten, die Überwachungskapitalisten hinter ihren venezianischen Spiegeln anhäufen, sind kritisch für Aufbau, Feinabstimmung und Erforschung der Fähigkeiten zur kommerziellen Verhaltensmodifikation ihrer Unternehmen. Als Beispiele dienen uns Facebooks Nutzer-Experimente, das Augmented-Reality-Game Pokémon Go (das bei Google konzipiert und ausgebrütet wurde) sowie die bahnbrechenden Überwachungsambitionen des amerikanischen Sportartikelherstellers Under Armour. Alle kombinieren sie in beunruhigend neuer Art und Weise Techniken des Tunings, Herdings und der Konditionierung, die uns die
tief im Bauch des trojanischen Pferdes versteckten Griechen enthüllen:
die ökonomische Orientierung hinter dem Schleier des Digitalen.
[…]
Ausgelöst hatte die Untersuchung des Senats die wachsende Sorge in der Bevölkerung über die Ausbreitung psychologischer Techniken zur Verhaltenskontrolle.
Gründe dafür gab es viele, ausschlaggebend jedoch waren der Kalte Krieg und die Vielzahl psychologischer Techniken und Programme zur Verhaltensmodifikation, für die er verantwortlich war.
Während des Koreakriegs waren die Zeitungen voll gewesen von Meldungen über die »Gehirnwäsche« der Kommunisten.
Laut Allen Dulles, damals gerade zum Direktor der CIA ernannt, hatte man amerikanische Kriegsgefangene mit solchen Techniken auf einen Zustand roboterhafter Passivität reduziert. Der Verstand des Opfers, so sagte er, würde »dabei zu einer Schallplatte, über die er, von einem fremden Genius auf die Spindel gelegt, keine Kontrolle hat«.
Amerikas Feinde schienen kurz davor, Kunst und Wissenschaft der »Gedankenkontrolle« mit psychologischen und pharmakologischen Mitteln zu meistern, die dem eigenen Militär unbekannt waren. Man las von Fortschritten bei der Veränderung mentaler Fähigkeiten aus der Ferne und von der Ausschaltung des »freien Willens« in China und in der Sowjetunion.
Kurz nach Amtsantritt sorgte Dulles bei der CIA für ein Programm zur Erforschung und Entwicklung von Fähigkeiten zur »Gedankenkontrolle«, vom »Depatterning« und »Rewiring« des Einzelnen bis hin zur Veränderung von Einstellung und Verhaltensweisen eines kompletten Staats.
Damit begann ein auf morbide Weise durchaus faszinierendes und oft bizarres Kapitel in der Geschichte der amerikanischen Spionage.
Ein Gutteil der neuen Arbeit leistete man im Rahmen des streng geheimen
MKUltra-Projekts, dessen Aufgabe in der »Erforschung und Entwicklung chemischer, biologischer und radiologischer Materialien zur Anwendung bei geheimen Operationen zur Kontrolle menschlichen Verhaltens« bestand.
Nach Aussagen vor einem Senatsausschuss, der sich 1975 mit geheimen militärischen und Auslandsoperationen der CIA befasste, kam ein Bericht des zuständigen Generalinspekteurs aus dem Jahre 1963 zutage, der mehrere Gründe für die Geheimhaltung des Programms nannte – allen voran der, dass man in der Veränderung menschlichen Verhaltens etwas Unrechtmäßiges sah.
»Forschung im Bereich der Manipulation menschlichen Verhaltens ist nach Ansicht zahlreicher Autoritäten in der Medizin und verwandten Gebieten mit dem Berufsethos unvereinbar«, begann der Bericht.
»Mitwirkende am MKUltra-Programm setzen somit gelegentlich ihre berufliche Reputation aufs Spiel.« Außerdem weist man ausdrücklich darauf hin, dass zahlreiche Aktivitäten des Programms illegal seien, den Rechten und Interessen amerikanischer Bürger zuwiderliefen und in der Öffentlichkeit für Befremdung sorgten.
Uns interessieren hier in erster Linie Wachstum und Entwicklung der Verhaltensmodifikation als Erweiterung politischer Macht.
So führte die »Nachfrage« seitens der CIA zu immer dreisterer Forschung zur Verhaltensveränderung und deren praktischer Anwendbarkeit seitens der Universitätspsychologie. Mediziner und Psychologen machten sich an die Entmystifizierung chinesischer Gehirnwäschetechniken und sorgten für deren Neuinterpretation im Rahmen etablierter Verhaltensforschung.
»Gedankenkontrolle«, so die Schlussfolgerung ihrer Arbeit, verstehe sich eher als systematische Konditionierung auf der Basis unberechenbarer Verstärkungsmuster, was ganz im Sinne von B. F. Skinners bahnbrechender Entdeckung einer operanten Konditionierung war.
Der Historikerin Rebecca Lemov zufolge hatte die Forschung im Bereich der »Gedankenkontrolle« eine immense Wirkung auf die CIA und andere Zweige des Militärs. Die Vorstellung, »menschliches Material« sei zu verändern – anders gesagt Persönlichkeit, Identität, Bewusstsein und die Fähigkeit zu selbstbestimmendem Verhalten ließen sich unterdrücken, eliminieren und durch eine externe Kontrolle ersetzen –, löste eine Welle panischer Ängste, ein ganz neues Gefühl der Verwundbarkeit aus:
»Wenn die Welt tatsächlich voller Gefahren für den inneren wie den äußeren Menschen war, dann brauchte es mehr denn je Fachleute auf diesem Gebiet.
Viele gute und an sich wohlmeinende Professoren – Leute, die sich als »Anthropotechniker« sahen oder das de facto auch waren – beteiligten sich an CIA-Projekten, die auf die Veränderung von menschlichem Denken und Verhalten gerichtet waren.
Als sich 1971 die Senatoren des verfassungsrechtlichen Unterausschusses zusammenfanden, war die Migration von Praktiken zur Verhaltensmodifikation aus dem militärischen in den zivilen Bereich nicht mehr aufzuhalten. Techniken zur Verhaltensveränderung hatten über staatlich finanzierte (meist von der CIA geleitete) Psychologielabors und militärische PSYOPS (Psychological Operations) hinaus eine Reihe institutioneller Anwendungen gefunden, denen eines gemeinsam war:
das Anliegen, defekte Persönlichkeiten »festgesetzter« Individuen zu korrigieren, vorzugsweise in einer Umgebung, die »totale Kontrolle« bot oder einer solchen zumindest nahekam:
Gefängnis, geschlossene Anstalt, Schule, Fabrik.
Besonderer Handlungsbedarf erwuchs dem Ausschuss, als die Besorgnis unter der Bevölkerung ob der Verbreitung dieser Verhaltensmodifikationsprogramme im Alltag in öffentliche Entrüstung umschlug. Wie die kanadische Psychologin Alexandra Rutherford bei psychologiehistorischen Arbeiten feststellte, fanden Skinners Praktiken zur Verhaltensmodifikation in den 1960er- und 70er-Jahren aufgrund ihrer »bemerkenswerten Erfolge« in rasantem Tempo Verbreitung, wodurch ihre Vertreter sich freilich auch dem
viele, ausschlaggebend jedoch waren der Kalte Krieg und die Vielzahl psychologischer Techniken und Programme zur Verhaltensmodifikation, für die er verantwortlich war. Während des Koreakriegs waren die Zeitungen voll gewesen von Meldungen über die »Gehirnwäsche« der Kommunisten. Laut Allen Dulles, damals gerade zum Direktor der CIA ernannt, hatte man amerikanische Kriegsgefangene mit solchen Techniken auf einen Zustand roboterhafter Passivität reduziert. Der Verstand des Opfers, so sagte er, würde »dabei zu einer Schallplatte, über die er, von einem fremden Genius auf die Spindel gelegt, keine Kontrolle hat«.81 Amerikas Feinde schienen kurz davor, Kunst und Wissenschaft der »Gedankenkontrolle« mit psychologischen und pharmakologischen Mitteln zu meistern, die dem eigenen Militär unbekannt waren. Man las von Fortschritten bei der Veränderung mentaler Fähigkeiten aus der Ferne und von der Ausschaltung des »freien Willens« in China und in der Sowjetunion.82 Kurz nach Amtsantritt sorgte Dulles bei der CIA für ein Programm zur Erforschung und Entwicklung von Fähigkeiten zur »Gedankenkontrolle«, vom »Depatterning« und »Rewiring« des Einzelnen bis hin zur Veränderung von Einstellung und Verhaltensweisen eines kompletten Staats.83
Damit begann ein auf morbide Weise durchaus faszinierendes und oft bizarres Kapitel in der Geschichte der amerikanischen Spionage.84 Ein Gutteil der neuen Arbeit leistete man im Rahmen des streng geheimen MKUltra-Projekts, dessen Aufgabe in der »Erforschung und Entwicklung chemischer, biologischer und radiologischer Materialien zur Anwendung bei geheimen Operationen zur Kontrolle menschlichen Verhaltens« bestand. Nach Aussagen vor einem Senatsausschuss, der sich 1975 mit geheimen militärischen und Auslandsoperationen der CIA befasste, kam ein Bericht des zuständigen Generalinspekteurs aus dem Jahre 1963 zutage, der mehrere Gründe für die Geheimhaltung des Programms nannte – allen voran der, dass man in der Veränderung menschlichen Verhaltens etwas Unrechtmäßiges sah. »Forschung im Bereich der Manipulation menschlichen Verhaltens ist nach Ansicht zahlreicher Autoritäten in der Medizin und verwandten Gebieten mit dem Berufsethos unvereinbar«, begann der Bericht. »Mitwirkende am MKUltra-Programm setzen somit gelegentlich ihre berufliche Reputation aufs Spiel.« Außerdem weist man ausdrücklich darauf hin, dass zahlreiche Aktivitäten des Programms illegal seien, den Rechten und Interessen amerikanischer Bürger zuwiderliefen und in der Öffentlichkeit für Befremdung sorgten.85
Uns interessieren hier in erster Linie Wachstum und Entwicklung der Verhaltensmodifikation als Erweiterung politischer Macht. So führte die »Nachfrage« seitens der CIA zu immer dreisterer Forschung zur Verhaltensveränderung und deren praktischer Anwendbarkeit seitens der Universitätspsychologie. Mediziner und Psychologen machten sich an die Entmystifizierung chinesischer Gehirnwäschetechniken und sorgten für deren Neuinterpretation im Rahmen etablierter Verhaltensforschung.
»Gedankenkontrolle«, so die Schlussfolgerung ihrer Arbeit, verstehe sich eher als systematische Konditionierung auf der Basis unberechenbarer Verstärkungsmuster, was ganz im Sinne von B. F. Skinners bahnbrechender Entdeckung einer operanten Konditionierung war. Der Historikerin Rebecca Lemov zufolge hatte die Forschung im Bereich der »Gedankenkontrolle« eine immense Wirkung auf die CIA und andere Zweige des Militärs. Die Vorstellung, »menschliches Material« sei zu verändern – anders gesagt Persönlichkeit, Identität, Bewusstsein und die Fähigkeit zu selbstbestimmendem Verhalten ließen sich unterdrücken, eliminieren und durch eine externe Kontrolle ersetzen –, löste eine Welle panischer Ängste, ein ganz neues Gefühl der Verwundbarkeit aus: »Wenn die Welt tatsächlich voller Gefahren für den inneren wie den äußeren Menschen war, dann brauchte es mehr denn je Fachleute auf diesem Gebiet. Viele gute und an sich wohlmeinende Professoren – Leute, die sich als »Anthropotechniker« sahen oder das de facto auch waren – beteiligten sich an CIA-Projekten, die auf die Veränderung von menschlichem Denken und Verhalten gerichtet waren.86
Als sich 1971 die Senatoren des verfassungsrechtlichen Unterausschusses zusammenfanden, war die Migration von Praktiken zur Verhaltensmodifikation aus dem militärischen in den zivilen Bereich nicht mehr aufzuhalten. Techniken zur Verhaltensveränderung hatten über staatlich finanzierte (meist von der CIA geleitete) Psychologielabors und militärische PSYOPS (Psychological Operations) hinaus eine Reihe institutioneller Anwendungen gefunden, denen eines gemeinsam war: das Anliegen, defekte Persönlichkeiten »festgesetzter« Individuen zu korrigieren, vorzugsweise in einer Umgebung, die »totale Kontrolle« bot oder einer solchen zumindest nahekam: Gefängnis, geschlossene Anstalt, Schule, Fabrik.
Besonderer Handlungsbedarf erwuchs dem Ausschuss, als die Besorgnis unter der Bevölkerung ob der Verbreitung dieser Verhaltensmodifikationsprogramme im Alltag in öffentliche Entrüstung umschlug. Wie die kanadische Psychologin Alexandra Rutherford bei psychologiehistorischen Arbeiten feststellte, fanden Skinners Praktiken zur Verhaltensmodifikation in den 1960er- und 70er-Jahren aufgrund ihrer »bemerkenswerten Erfolge« in rasantem Tempo Verbreitung, wodurch ihre Vertreter sich freilich auch dem kritischen Blick einer nicht selten feindseligen Öffentlichkeit ausgesetzt sahen.
Eine ganze Reihe journalistischer Arbeiten schlug Alarm ob des Eifers, mit dem man Techniken zur Verhaltensmodifikation anwenden wollte. Aus allen sprach die Ansicht, sie demütigten ihre Objekte, seien ethisch bedenklich und verstießen gegen grundlegende bürgerliche Freiheiten.87
Weiteren Zündstoff lieferte die Veröffentlichung von B. F. Skinners gesellschaftskritischem Essay Jenseits von Freiheit und Würde,88 in dem der Experimentalpsychologe eine Zukunft auf der Basis der Verhaltenskontrolle propagierte, die Freiheit (mitsamt dem Grundsatz einer liberalen Gesellschaft) an sich verwarf und die Vorstellung der Menschenwürde als Zufallsprodukt eines auf den eigenen Vorteil bedachten Narzissmus abtat.
Skinner schwebte eine umfassende »Verhaltenstechnologie« vor, die eines Tages die Anwendung verhaltensverändernder Methoden auf ganze Populationen ermöglichen würde.
Die stürmischen Kontroversen um das Buch machten Jenseits von Freiheit und Würde zum internationalen Bestseller.
»Geistlos, wie sie ist, spricht Skinners Wissenschaft des menschlichen Verhaltens den Libertären nicht weniger an als den Faschisten«, schrieb Noam Chomsky in einer vielgelesenen Rezension des Buches.
»Es wäre nicht absurd, es wäre grotesk, aus der Tatsache, dass sich Umstände arrangieren lassen, unter denen Verhalten durchaus vorhersagbar ist – wie zum Beispiel in einem Gefängnis oder … einem Konzentrationslager … –, darauf zu schließen, man brauche sich deshalb keine Sorge um die Freiheit und Würde des ›autonomen Menschen‹ zu machen.«89
1974 veröffentlichte der Senatsunterausschuss seinen von Senator Sam Ervin verfassten Bericht. Schon nach den ersten Zeilen sollte auch dem letzten Insassen unseres überwachungskapitalistischen Gefängnisses klar sein, dass die amerikanische Gesellschaft einen tieferen sozialen Umbruch hinter sich hat, als die bloße Zahl der seither ins Land gegangenen Jahrzehnte vermuten ließe. Es ist die Mühe wert, Ervins Worte genau zu lesen, allein schon um die Leidenschaft zu begreifen, mit der er die Arbeit seines Ausschusses im Sinne eines Plädoyers für liberale Ideale wie Freiheit und Würde ins Zentrum eines mit der Aufklärung beginnenden Prozesses stellt:
Als die Gründerväter unser konstitutionelles Regierungssystem einrichteten, bauten sie es auf das Fundament ihres Glaubens an die Unverletzlichkeit des Individuums … Sie verstanden die Selbstbestimmung als Quelle der Individualität und diese Individualität als tragende Säule der Freiheit …
In jüngster Zeit jedoch hat die Technik mit der Entwicklung neuer Methoden der Verhaltenskontrolle begonnen, die in der Lage sind, nicht nur die Handlungsweise des Einzelnen zu verändern, sondern seine Persönlichkeit und seine Denkart an sich … die Verhaltenstechnologie, wie man sie heute in den Vereinigten Staaten entwickelt, rührt an die grundlegenden Quellen der Individualität und an den Kern persönlicher Freiheit … die größte Gefahr … ist die Macht, die diese Technologie einem Einzelnen in die Hand gibt, seine Weltsicht und seine Werte einem anderen aufzuzwingen …
Begriffe von Freiheit, Privatsphäre und Selbstbestimmung stehen ihrem Wesen nach im Konflikt mit Programmen, die darauf abzielen, nicht nur die physische Freiheit zu kontrollieren, sondern die Quelle freien Denkens an sich …
Noch akuter wird diese Frage, wenn man diese Programme, wie das heute der Fall ist, in Abwesenheit strikter Kontrollen durchführt. So beunruhigend die Verhaltensmodifikation in theoretischer Hinsicht sein mag, bietet die unkontrollierte Ausbreitung der praktischen Techniken zur Verhaltenskontrolle gar noch größeren Anlass zur Sorge.90
Die Kritik von Ervins Bericht an der Verhaltensmodifikation hat eine einzigartige Relevanz für unsere Zeit. Sie beginnt mit einer Frage, die auch wir uns stellen müssen: »Wie konnte man damit durchkommen?« Der Bericht beruft sich bei der Antwort auf den zeitbedingten »Ausnahmezustand«. So wie der Überwachungskapitalismus ursprünglich unter dem Schutz eines sogenannten Kriegs gegen den Terror und des daraus resultierenden zwanghaften Bedürfnisses nach Gewissheit Wurzeln fassen und dann florieren konnte, so migrierten Mitte des 20. Jahrhunderts die Verhaltensmodifikationsmittel unter dem Schutz der Ängste des Kalten Kriegs aus dem Labor hinaus in die Welt.
Später dann, in den 1960er- und 70er-Jahren, rief eine Gesellschaft nach bangen Jahren städtischer Unruhen, politischer Proteste und steigender Verbrechensquoten die Verhaltensprofis in die zivile Praxis.
Den Senatoren zufolge hatte nicht zuletzt der Ruf nach »Law and Order« zur Suche nach »unmittelbaren und effizienten Mitteln zur Kontrolle von Gewalt und anderen Formen antisozialen Verhaltens geführt.
Das Interesse, die Gewalt in den Griff zu bekommen, ersetzte zeitaufwändigere Versuche, die Ursachen dieser Gewalt zu verstehen.«
Angesichts der großen Zahl von Unfreiwilligen, die man in Gefängnissen und psychiatrischen Einrichtungen Programmen zur Verhaltensänderung aussetzte, erkannten die Senatoren, dass diese als eine Art von staatlicher Macht zu sehen sei. Aber gab die Verfassung dem Staat das Recht, Verhalten und Denken seiner Bürger zu kontrollieren?
Mit Hinsicht auf Bundesbehörden befand der Ausschuss, dass »gegenwärtig in den Vereinigten Staaten unter der Ägide der Bundesregierung … ein breites Spektrum von Techniken zur Verhaltensveränderung zum Einsatz« komme
Facebook macht die Musik
2012 schreckte Facebook die Welt mit einer Studie auf. Sie erschien unter dem provozierenden Titel
»A 61-Million-Person Experiment in Social Influence and Political Mobilization« in dem renommierten Wissenschaftsjournal Nature.
In dieser randomisierten kontrollierten Studie, die im Vorfeld der amerikanischen Kongresswahlen 2010 entstand, manipulierte man den persönlichen wie den Informationsgehalt wahlbezogener Nachrichten in den Feeds von fast 61 Millionen Facebook-Nutzern; darüber hinaus sorgte man für eine Kontrollgruppe.
Der einen Gruppe präsentierte man ein Statement in der Überschrift ihres News-Feed, das die Nutzer zum Gang an die Urne aufforderte. Dazu gab es einen Link mit näheren Informationen zu Wahllokalen und einen klickbaren Button mit der Aufschrift »Ich habe gewählt!«. An einem Zähler war abzulesen, wie viele andere Facebook-Nutzer ihren Angaben zufolge bereits gewählt hatten; dazu bekam der Nutzer noch bis zu sechs Profile von Facebook-Freunden, die den »Ich-habe-gewählt!«-Button angeklickt hatten. Eine zweite Gruppe erhielt dieselben Informationen, aber ohne die Fotos von Freunden. Eine dritte Kontrollgruppe bekam überhaupt keine spezielle Message angezeigt.
Wie die Ergebnisse zeigen, klickten die Nutzer, denen man die »Social Message« gezeigt hatte, mit einer etwa um 2 % höheren Wahrscheinlichkeit auf den »Ich-habe-gewählt!«-Button als die anderen, die nur Informationen an sich bekommen hatten; außerdem klickten sie mit um 0,26 % höherer Wahrscheinlichkeit auf den Link zu den Informationen über die Wahllokale. Die Facebook-Experimentatoren kamen zu dem Schluss, dass Social-Messaging ein effektives Mittel zur Verhaltenssteuerung im großen Stil sei, nehme es doch »direkten Einfluss auf politische Selbstentfaltung, Informationssuche und das reale Wahlverhalten von Millionen von Menschen«. »Die Einblendung vertrauter Gesichter«, so der Schluss der Facebook-Forscher, »kann die Effektivität einer Mobilisierungsmessage dramatisch erhöhen«.
Wie das Team errechnete, mobilisierten die manipulierten Social-Messages bei den Zwischenwahlen 2010 60 000 zusätzliche Wähler; darüber hinaus gaben weitere 280 000 ihre Stimme infolge eines »sozialen Ansteckungseffekts« ab, womit man zusammen auf 340 000 zusätzliche Stimmen kam. In ihren Schlussbemerkungen behaupteten die Facebook-Forscher: »Wir zeigen die Bedeutung sozialer Einflüsse für die Erzielung von Verhaltensänderungen auf …Das Ergebnis legt nahe, dass Online-Messages eine Reihe von Offline-Verhaltensweisen beeinflussen und dass das wiederum Implikationen für unser Verständnis der gesellschaftlichen Rolle sozialer Online-Medien hat«.6
Der Erfolg dieses Experiments besteht darin, dass es soziale Auslösereize lieferte, die die Nutzer, insofern es sie eine Reihe von den »Experimentatoren« vorherbestimmten Handlungen ausführen ließ, auf eine Art und Weise beeinflussten, die auf ein Tuning ihres Verhaltens in der realen Welt hinauslief. Bei solchen Experimenten lassen sich Aktionsvorteile entdecken, verfeinern und schließlich institutionalisieren; Letzteres geschieht über Software und ihre Algorithmen, die automatisch, unablässig, allgegenwärtig und allumfassend sind. Ziel all dessen ist das Erreichen von Aktionsvorteilen. Facebooks Verhaltensüberschuss zielt auf die Lösung eines einzigen Problems: wie und wann man in den »Stand der Dinge« unseres Alltags eingreifen muss, um unser Verhalten so zu modifizieren, dass sich die Vorhersagbarkeit einer jetzigen, baldigen oder späteren Handlung drastisch erhöht. Die Herausforderung für die Überwachungskapitalisten besteht darin, zu erfahren, wie sich das effektiv und ökonomisch, das heißt automatisch, bewerkstelligen lässt, wie Facebooks ehemaliger Produktmanager schreibt:
Experimente stellen wir mit jedem User irgendwann während seiner Zeit auf der Website an. Sei es, dass man ihm Werbetexte unterschiedlicher Größe zeigt oder unterschiedliche Marketing-Messages oder unterschiedliche Call-to-Action-Buttons oder dass man seine Feeds von unterschiedlichen Ranking-Algorithmen generieren lässt … Die meisten Leute, die bei Facebook mit Daten arbeiten, tun das in der Hauptsache, um auf Stimmung und Verhalten der Leute zu wirken. Das machen sie ständig, damit Artikel mehr »Likes« bekommen, damit auf mehr Werbung geklickt wird, damit man mehr Zeit auf der Site verbringt. So funktioniert eine Website nun mal, alle machen das und alle wissen, dass es alle machen.7
Die Veröffentlichung der Facebook-Studie löste eine heftige Debatte aus, als Fachleuten und der breiteren Öffentlichkeit endlich Facebooks – und nicht nur Facebooks – beispiellose Macht, zu überreden, zu beeinflussen und letztlich Verhalten zu fabrizieren, zu dämmern begann. Jonathan Zittrain, Spezialist für internationales Recht an der Harvard University, räumt ein, er könnte sich mittlerweile durchaus vorstellen, dass Facebook still und leise eine Wahl manipuliert, und das mit Mitteln, die seine Nutzer weder entdecken noch kontrollieren könnten. Er bezeichnete das Facebook-Experiment als eine Herausforderung an die »kollektiven Rechte«; seiner Ansicht nach könnte so etwas das Recht der Bürger unterminieren, »in den Genuss demokratischer Prozesse zu kommen«.8
Die Bedenken der Öffentlichkeit vermochten an Facebooks selbstherrlichen Praktiken zur Verhaltensänderung im großen Stil nicht zu kratzen. Noch während man 2012 das Experiment zur sozialen Einflussnahme öffentlich diskutierte, arbeitete einer von Facebooks Datenwissenschaftlern bereits zusammen mit Universitätsleuten an einer neuen Studie mit dem Titel »Experimental Evidence of Massive-Scale Emotional Contagion Through Social Networks«, die man 2013 der renommierten Fachzeitschrift Proceedings of the National Academy of Science vorlegte, wo die bekannte Princetoner Sozialpsychologin Susan Fiske die Redaktion besorgte; er erschien im Juni 2014.
Diesmal manipulierten die Experimentatoren »das Ausmaß, in dem Nutzer (N = 689 003) in ihrem Newsfeed emotionalen Äußerungen ausgesetzt wurden«.9 Strukturiert war das Experiment wie einer der angeblich so harmlosen A / B-Tests. In diesem Fall setzte man die eine Gruppe in ihrem Newsfeed überwiegend positiven, die andere überwiegend negativen Nachrichten aus. Man wollte damit prüfen, ob selbst eine unterschwellige Begegnung mit emotionsgeladenem Content jemanden dazu veranlassen könnte, sein Posting-Verhalten dahingehend zu ändern, dass es diesen Content reflektiert. Was es denn auch tat. Ob die Nutzer danach nun fröhlicher oder trauriger waren – der Ton ihrer Äußerungen änderte sich und reflektierte den ihres Newsfeeds.
Die Ergebnisse des Experiments ließen keinen Zweifel daran, dass Facebooks sorgfältig konzipierte Auslöseanreize über den Bildschirm hinaus auf das Leben Hunderttausender argloser Nutzer wirkten. Wie von Stuart Mackay für Schildkröten und Elche konzipiert, löste man jetzt mit außerhalb des Bewusstseins ihrer menschlichen Zielobjekte operierenden Prozessen vorhersehbare Formen emotionalen Ausdrucks aus. »Emotionale Befindlichkeiten lassen sich durch emotionale Ansteckung auf andere transferieren, sodass Menschen dieselben Emotionen erfahren, ohne sich ihrer bewusst zu sein«, gaben die Forscher bekannt. »Online-Messages beeinflussen unsere Erfahrung von Emotionen, was sich auch offline auf eine Reihe von Verhaltensweisen auswirken kann.« Das Team bezeichnete seine Arbeit als »mit die ersten experimentell erbrachten Nachweise zur Stützung kontroverser Behauptungen, dass Emotionen sich durch ein Netzwerk ausbreiten können«. Außerdem machte man sich Gedanken darüber, dass selbst diese relativ geringfügige Manipulation einen kleinen, aber messbaren Effekt hatte.10
Was Facebooks Forschergruppe in beiden Experimenten zu erwähnen vergaß, ist, dass unsere Empfänglichkeit für unterschwellige Auslösereize wie unsere Anfälligkeit für eine emotionale »Ansteckung« größtenteils eine Frage der Empathie ist, der Fähigkeit, seine Mitmenschen zu verstehen, sich in sie einzufühlen und ihren Standpunkt zu teilen; zuweilen unterscheidet man auch eigens zwischen »affektiver« und »kognitiver« Empathie. Psychologen haben herausgefunden, dass der Grad, in dem man sich in die Gefühle eines anderen hineinzufühlen und seine Perspektive zu übernehmen vermag, auch die Wahrscheinlichkeit bestimmt, sich durch unterschwellige Auslöseanreize – auch durch Hypnose – beeinflussen zu lassen. Empathie richtet Menschen auf andere Menschen aus. Sie gestattet einem, in der emotionalen Erfahrung aufzugehen und sich auf die Erfahrungen anderer einzuschwingen – bis hin zum unbewussten Nachahmen von anderer Leute Mimik und Körpersprache. Ansteckendes Lachen, ja selbst ansteckendes Gähnen sind Beispiele für dieses Einschwingen auf den anderen.11
Empathie gilt als wesentliches Element für soziale Bindungsfähigkeit und emotionale Verbundenheit, sie kann jedoch auch dafür sorgen, dass man die Nöte Leidender noch aus der Ferne mitempfindet. Für einige Psychologen ist sie deshalb eine durchaus riskante Fähigkeit, weil sie uns eben nicht nur für das Glück, sondern auch für das Leid anderer empfänglich macht.12 Der Erfolg von Facebooks Tuning-Experimenten ist demnach das Ergebnis der wirksamen Ausbeutung der natürlichen Empathie bei der Population seiner Nutzer.
Facebooks Forscher behaupten, ihre Resultate ließen zwei Schlüsse zu: Erstens, dass bei einer so riesigen und engagierten Population wie den Facebook-Nutzern selbst kleine Effekte »aggregiert große Konsequenzen haben können«; zweitens forderten die Autoren ihre Leser auf, sich vorzustellen, was sich mit tiefergreifenden Manipulationen in Experimenten mit noch größeren Populationen erreichen ließe, und wiesen auf die Bedeutung ihrer Erkenntnisse für die »Volksgesundheit« hin.
Die Öffentlichkeit war einmal mehr entrüstet. »Wenn Facebook Emotionen zu frisieren vermag«, so fragte der britische Guardian, »wozu ist das Unternehmen sonst noch imstande?« Das Nachrichtenmagazin Atlantic zitierte Susan Fiske, die die Studie trotz persönlicher Bedenken für die Veröffentlichung editiert hatte.13 Sie sagte dem Magazin gegenüber, dass ein privates Unternehmen wie Facebook sich nicht an dieselben gesetzlichen Vorgaben zu halten habe wie die akademische oder staatliche Forschung.
Die gesetzlichen Vorgaben, die in den USA die Forschung an Menschen regeln, sind zusammengefasst in der Federal Policy for the Protection of Human Research Subjects, kurz »Common Rule«. Um zu verhindern, dass Experimentatoren ihre Macht missbrauchen, ist jegliche vom Bund finanzierte Forschung verpflichtet, sich an diese Vorgaben zu halten. So verlangt die Common Rule unter anderem eine Einverständniserklärung der Betroffenen, ihren Schutz vor Schäden und Transparenz; außerdem hat eine Nachbesprechung zu erfolgen. Durchgesetzt wird die Common Rule von »Internal Review Boards«, mit Wissenschaftlern besetzten internen Begutachtungskommissionen, die es in jedem Forschungsinstitut zu geben hat. Fiske bestätigte, von Facebooks Argument überzeugt worden zu sein, es handle sich bei dieser Art von experimenteller Manipulation nur um eine unbedeutende Erweiterung der üblichen nutzerbezogenen Bearbeitung seiner Newsfeeds. »Nach allem, was ich erfahren habe«, so Fiske, »manipuliert Facebook diese Newsfeeds offensichtlich ständig … Wer weiß, was die sonst noch für Forschung betreiben.«14 Fiske sah mit anderen Worten, dass es sich bei dem Experiment nur um eine Erweiterung von Facebooks unsanktionierten Standardpraktiken zur Verhaltensmodifikation handelte.
Der Datenwissenschaftler Adam Kramer, Koordinator der Studie, sah sich derart mit Anfragen seitens der Medien überschwemmt, dass er sich zu dem Hinweis genötigt sah, dem Unternehmen sei seine emotionale Wirkung »keineswegs egal«. Einer seiner Co-Autoren, Jeffrey Hancock von der Cornell University, sagte der New York Times gegenüber, es sei ihm nie zu Bewusstsein gekommen, dass selbst eine so geringfügige Manipulation von Newsfeeds die Nutzer derart verletzen könnte.15 Dem Wall Street Journal zufolge hatten Facebooks Datenwissenschaftler seit der Einsetzung des Teams 2007 über 1 000 Experimente veranstaltet. Auflagen hätten sie dabei kaum gehabt und mit Sicherheit keine interne Prüfungskommission. Der Psychologe Chris Chambers schrieb im Guardian, »die Facebook-Studie zeichnet das Bild einer dystopischen Zukunft, in der akademische Forscher ethischen Zwängen dadurch entgehen, dass sie sich für Tests zunehmend gefährlicher, ja schädlicher Eingriffe mit privaten Unternehmen zusammentun.«16
Einen Monat nach Erscheinen der Studie über emotionale Ansteckung äußerte Inder M. Verma, Chefredakteurin der PNAS, im Namen der Herausgeber ihre Sorge die Facebook-Studie betreffend. Zwar sei Facebook formaljuristisch tatsächlich von der »Common Rule« ausgenommen. Allerdings, so meint er: »Es besteht dennoch Anlass zur Sorge, dass beim Sammeln von Daten bei Facebook Praktiken involviert waren, die sich nicht hundertprozentig mit den Prinzipien des Informed Consent decken. Die Teilnehmer hatten keine Möglichkeit zu einer Willenserklärung.«17
Facebooks folgenreichste Innovation in Sachen Verhaltenstechnologie ist der »Like«-Button, der 2009 ins Spiel kam. Zeitgenössischen Blogeinträgen des langjährigen Facebook-Managers Andrew Bosworth zufolge hatte man den »Like«-Button intern über anderthalb Jahre lang diskutiert, bevor Zuckerberg sich schließlich zur Implementierung entschied. Er hatte die Idee mehrmals verworfen, weil er befürchtete, der »Like«-Button könnte von anderen umsatzfördernden Features – wie etwa Beacon – ablenken. Bezeichnenderweise freundete sich der Gründer mit dem Button erst an, als neue Daten ihn als potente Quelle für Verhaltensüberschuss auswiesen, die der Anziehungskraft von Facebooks Newsfeed auf die Sprünge half, wie aus der schieren Menge der Kommentare hervorging.34
Überhaupt scheint Facebooks Führungsriege erst allmählich erkannt zu haben, dass der Button die Plattform von einem »Buch« in ein Reich der Spiegel verwandelte, von einem passiven Medium in ein tosendes Meer gegenseitiger Reflexionen, die die Nutzer an ihre Newsfeeds fesselten. Auf der Angebotsseite war der
»Like«-Button ein weltumspannender Einwegspiegel, der für einen exponentiell wachsenden Nachschub an Rohstoff sorgen konnte. Je mehr eine Nutzerin »likte«, desto mehr gab sie Facebook über sich preis, was es dem Unternehmen ermöglichte, die Zwangsjacke Zug um Zug enger zu schnüren und den Vorhersagewert ihrer Signale zu erhöhen.
Der dem Marktwert nach größte Telekommunikationskonzern der Welt Verizon machte seine Hinwendung zu Überwachungserträgen im Frühjahr 2014 publik. Ein Artikel in der Fachpublikation Advertising Age verkündete den Eintritt des Unternehmens in die Mobilwerbung.130 Die Möglichkeiten dieser Art von Werbung, so der bei Verizon für das Datenmarketing zuständige Vice President, sei bis dato durch ihre »Adressierbarkeit« eingeschränkt gewesen, durch »die zunehmende Schwierigkeit, Verbrauchern über wechselnde Geräte hinweg zu folgen«. Ein anderer Marketingexperte hatte diese Klage so formuliert: »Es gibt keine übergreifende Identität, anhand derer sich Nutzer mobiler Applikationen und ihr mobiler Browser unter einen Hut bringen lassen.«
Der Artikel sprach von Verizons Entwicklung einer »Alternative zum Cookie für einen Werberaum, der am Fehlen von Cookies krankt«.
Verizons Ansatz zielte darauf ab, das Tracking-Problem der Werbetreibenden dadurch zu lösen, dass man jedem Verizon-Nutzer eine sogenannte »PrecisionID«, eine versteckte und nicht löschbare Tracking-Nummer, zuwies.
Genau genommen hatte Verizon seinen Übergriff bereits 2012, also zwei Jahre früher eingeleitet, der Öffentlichkeit aber wohlweislich davon nichts gesagt.
Was vermutlich daran lag, dass diese PrecisionID es dem Unternehmen ermöglicht, das Verhalten von Personen an Smartphones und Tablets zu identifizieren und zu überwachen.
Man generierte so Verhaltensüberschuss, ohne dass der Nutzer das mitbekam. Der Tracker ist weder abzuschalten noch mit Browsereinstellungen oder Datenschutztools zu umgehen. Egal ob ein Verizon-Nutzer eine Website oder ein Mobilgerät anwählt, das Unternehmen und seine Partner nutzen diese versteckte Identnummer zur Erfassung und Bündelung von Verhaltensdaten – und das alles ohne Wissen des Kunden.
Verizons unentrinnbare Tracking-Fähigkeiten brachten dem Unternehmen einen entscheidenden Vorteil beim zunehmenden Wettbewerb um Verhaltensüberschuss. Werbetreibende, die es darauf angelegt haben, Ihren Spaziergang im Park zur Gelegenheit für eine Werbebotschaft zu deklarieren, können anhand dieser Nummer Ihr Handy damit treffgenau mit Anzeigen bombardieren. Außerdem ging Verizon eine Partnerschaft mit Turn ein, einer Firma für Werbetechnologie, die es bereits mit der Erfindung eines ungewöhnlichen »Zombie-« bzw. »Perma-Cookie« zu einem zweifelhaften Ruf gebracht hatte. Diese Cookies erzeugen automatisch Kopien, wenn ein Nutzer sich dem Ad-Tracking zu entziehen oder die Cookies zu löschen versucht. Als Partner von Verizon verquickte Turns Zombie-Cookie sich mit Verizons geheimer Tracking-ID, was zusätzlich Schutz vor Entdeckung und kritischer Prüfung bot. Turns »Chefdatenschützer« sagte dazu: »Wir versuchen es mit der hartnäckigsten Kennung, die wir kriegen können, um zu tun, was wir tun.«133
Im Herbst 2014 outete Jacob Hoffman-Andrews, ein Technologe bei der Electronic Frontier Foundation, Verizons heimlichen neuen Anspruch auf kostenlose Rohstoffe. Sein Artikel in Wired analysierte jedoch nicht nur Verizons Überwachungsprogramm, er nannte mit AT&T noch einen zweiten Schuldigen, der sich einer ähnlichen Tracking-ID bediente. »Es gibt keine Möglichkeit, das abzustellen«, zitierte er einen Sprecher von Verizon.134 Selbst wenn Kunden sich aus Verizons zielgerichteter Werbung ausklinken, so Hoffman-Andrews, die Tracking-ID bleibe bestehen, da sich das Unternehmen über alle gegenteiligen Signale des Nutzers hinwegsetze. Auch andere Einstellungen wie »Do not Track«, Incognito und andere Private-Browsing-Modi änderten daran nichts. Die Identnummer werde jeder »unverschlüsselten Website« übermittelt, »die ein Verizon-Kunde von seinem Mobilgerät aus anwählt. Das gestattet es Werbetreibenden und Websites, eingehende und permanente Profile der Browsing-Gepflogenheiten von Nutzern zu erstellen – ohne deren Zustimmung.«135 Von der Gefahr neuer Konkurrenz aufgeschreckt, warf Google sich zum Datenschützer auf und startete eine Kampagne für ein neues Internet-Protokoll, das »Header-Injections« wie die von Verizons PrecisionID unmöglich machte.136
Die Journalistin und Datenschutzexpertin Julia Angwin und ihre Kollegen bei ProPublica berichteten, dass ähnliche Tracking-IDs sich in der Telekommunikationsbranche zum Standard entwickelten. Was einen Manager aus der Werbebranche in Begeisterung ausbrechen ließ: »Was wir spannend finden, das ist die Kennung auf Netzbetreiberlevel, bei der die Erkennung auf einem höheren Level ansetzt, was uns mit hundertprozentiger Sicherheit tracken lässt …« Hoffman-Andrews bezeichnete Verizons Taktiken als »spektakuläre Verletzung der Privatsphäre seiner Kunden«.137 Die taktischen Operationen des Unternehmens freilich weisen auf eine Entwicklung, die noch viel weiter geht.
Verizon hatte nicht die Absicht, den einmal gewonnenen Boden wieder preiszugeben; die versteckte Nummer sollte bleiben. Seinen Kunden versicherte man, es sei »unwahrscheinlich, dass Sites und Werbetreibende versuchen werden, ein Kundenprofil zu erstellen«.138 Experten brauchten freilich nicht lang, um herauszufinden, dass Twitters Mobilwerbung sich längst auf Verizons Identnummer verließ, um das Verhalten von Twitter-Nutzern zu tracken.139 Dann fand der Informatiker und Rechtswissenschaftler Jonathan Mayer heraus, dass Turns Zombie-Cookie mit mehr als dreißig Unternehmen kommunizierte, darunter Google, Facebook, Yahoo, Twitter, Walmart und WebMD. Mayer untersuchte die Datenschutzeinstellungen von Verizon und Turn, nur um festzustellen, dass es sich bei beiden um Mogelpackungen handelte. Verizons öffentliche Erklärungen zu Privatsphäre und Datenschutz seiner Tracking-ID, so seine Schlussfolgerung, sind allesamt falsch. »Für den normalen Nutzer«, schrieb er, »gibt es schlicht keinen Schutz.«140
Verizons massives überwachungskapitalistisches Engagement koppelte die Interessen des Unternehmens unauflösbar an den Extraktionsimperativ. Wir erkennen das daran, dass Verizon den Enteignungszyklus entdeckte und implementierte. Rasch arbeitete man sich durch die Folge taktischer Phasen vom Übergriff bis zur Neuausrichtung. Verizons ursprünglicher Übergriff trug dem Unternehmen drei Jahre interner Experimente und Entdeckungen ein. Als die Öffentlichkeit dem Unternehmen auf die Schliche kam, leitete es den allmählichen Prozess der öffentlichen Gewöhnung an seine neuen Praktiken ein. Waren seine Strategien erst einmal öffentlich, ließ es das Sperrfeuer kritischer Artikel und die prüfenden Blicke der Datenschützer über sich ergehen, erkaufte sich damit aber auch mehr Zeit, sich nach Ertragsmöglichkeiten und weiteren Nachschubrouten umzusehen. Die öffentliche Reaktion auf seinen Übergriff zwang das Unternehmen, die nächsten Phasen des Zyklus zu planen.
Der Druck der Öffentlichkeit triggerte Anfang 2015 die Adaptionsphase. Nur wenige Monate zuvor hatte die FCC der illegalen Tracking-Praktiken wegen gegen Verizon zu ermitteln begonnen. Das Electronic Privacy Information Center ließ im Januar eine Petition zirkulieren, in der man die FCC aufforderte, ein Bußgeld gegen das Unternehmen zu verhängen. Zum Monatsende veröffentlichte der Senatsausschuss für Handel, Wissenschaft und Transport ein Schreiben an Verizon, in dem man »tiefe Besorgnis« über die neuen Praktiken zum Ausdruck brachte.141 Der Ausschuss tadelte Verizon und Turn für die »allem Anschein nach« bewusste »Verletzung der Privatsphäre« und »die Umgehung der Entscheidung« ihrer Kunden.142 Binnen Tagesfrist gab Verizon folgende Erklärung ab: »Wir arbeiten daran, die hier als UIDH [unique identifier header] bezeichnete Identnummer in das Opt-out mit aufzunehmen, und gehen davon aus, dass das bald verfügbar sein wird.« Die New York Times sprach hinsichtlich Verizons Erklärung von einer »wesentlichen Revision seines Programms für zielgerichtete Mobilwerbung«.143
Die Times hatte nicht wissen können, dass die Neuorientierungsphase des Enteignungszyklus längst in Gang gesetzt war. Im Mai 2015 erklärte sich Verizon bereit, für 4,4 Milliarden Dollar AOL zu erwerben. Wie viele Analysten rasch merkten, war das eigentliche Zugpferd dieses Ankaufs AOLs CEO Tim Armstrong, der vor seiner Zeit bei AOL wesentlich am Aufbau von Googles AdSense beteiligt war. Er war bei Google Vertriebsleiter Werbung für Amerika gewesen, als er – wie Sheryl Sandberg vor ihm – 2009 zu AOL ging. Neben einem gründlichen Verständnis für die Rolle der Überwachungs-DNA bei AdWords brachte er die Entschlossenheit mit, AOLs Bilanz mit einer überwachungskapitalistischen Gentherapie zu retten. »Unser Hauptinteresse«, sagte Verizons Geschäftsführer für das operative Geschäft, »galt der phantastischen Ad-Tech-Plattform, die Tim Armstrong und sein Team aufgebaut hatten.«144 Forbes zufolge brauchte Armstrong Verizons Ressourcen, »um gegen das Duopol von Google und Facebook anzugehen«.145
Jede ernsthafte Kampfansage an die beiden Giganten des Überwachungskapitalismus musste mit Größenvorteilen bei der Beschaffung von Verhaltensüberschuss beginnen. Dazu leitete Verizon seine Nachschubwege auf der Stelle über AOLs Werbeplattformen. Binnen weniger Monate nach dem Erwerb von AOL postete Verizon auf seiner Website eher still und leise eine neue Datenschutzerklärung, die wohl kaum einer seiner 135 Millionen Mobilnetzkunden je lesen sollte. In den letzten Absatz waren einige Zeilen gerutscht, die alles sagen: PrecisionID war im Begriff umzuziehen.
Verizon und AOL würden ab sofort zusammenarbeiten. Um »Dienste anzubieten, die noch personalisierter und damit von noch größerem Nutzen für Sie sind … werden wir Verizons existierende Werbeprogramme in das Werbenetzwerk von AOL integrieren. Diese Kombination wird dazu beitragen, die Werbung, die Sie über die ganze Palette der von Ihnen genutzten Geräte und Dienste zu sehen bekommen, nützlicher zu machen«. Die neue Erklärung beteuerte, dass »uns die Privatsphäre unserer Kunden sehr wichtig ist« – freilich nicht wichtig genug, um den Extraktionsimperativ zu kompromittieren und den Rohstofflieferanten zu erlauben, das Enteignungsprogramm des Unternehmens anzufechten. Möglichkeiten zum Opt-out wurden angeboten, aber wie üblich waren sie komplex, schwer zu finden und zeitraubend. »Bitte nehmen Sie zur Kenntnis«, so schloss das Posting, »dass Eingriffe am Browser Ihrer Geräte, wie das Löschen von Cookies oder Ihres Browserverlaufs, keine effektive Möglichkeit für ein Opt-out aus den Werbeprogrammen von Verizon und AOL sind.«146
Die Einigung zwischen FCC und Verizon war ein weiterer düsterer Beleg dafür, dass eine öffentliche Einrichtung keine Chance hat gegen Tempo und Ressourcen eines entschlossenen Überwachungskapitalisten. Im März 2016, lange nach der Bekanntgabe von Verizons taktischer Neuausrichtung, einigte sich die FCC mit Verizon auf ein Bußgeld von 1,35 Millionen Dollar wegen der versteckten Verstöße gegen den Datenschutz. Verizon erklärte sich bereit, sein Cookie auf Opt-in-Basis zu relancieren. Allerdings erstreckte sich die Einigung nicht auf AOLs Werbenetzwerk – und genau dort spielte ab sofort die Musik. Verizons frische Versorgungsrouten standen nie zur Debatte.147 Noch im selben Monat sollte sich Tim Armstrong mit Werbekunden treffen, ein Rendezvous, das dem Wall Street Journal als »seine erste richtige Chance« galt, »den Leuten klarzumachen, dass AOL – eben von Verizon Communications Inc. eingekauft – die Absicht hatte, Facebook Inc. und Google ernsthaft Konkurrenz zu machen …«148
Durkheim Arbeitsteilige Welt
Es gibt wichtige Parallelen mit dem späten 19. und frühen 20. Jahrhundert, als die Arbeitsteilung sich als wesentliches Prinzip der sozialen Organisation der jungen Industriegesellschaften Europas und Nordamerikas herauszubilden begann. Diese älteren Erfahrungen können uns Richtlinien bieten und aufzeigen, was auf dem Spiel steht. Als zum Beispiel der junge Émile Durkheim seinen Klassiker Über soziale Arbeitsteilung schrieb, war schon der Titel umstritten. Arbeitsteilung verstand man bis dahin als kritisches Mittel zur Steigerung der Arbeitsproduktivität durch Spezialisierung. Adam Smith hatte dieses neue Prinzip industrieller Organisation besonders denkwürdig in seiner Schilderung einer Nadelfabrik beschrieben, und die Arbeitsteilung blieb das ganze 19. Jahrhundert hindurch Thema sowohl des ökonomischen Diskurses als auch von Kontroversen.
Durkheim erkannte die Arbeitsproduktivität als ökonomischen Imperativ des Industriekapitalismus, die die Arbeitsteilung ins Extrem treiben sollte, aber sie war nicht, was ihn eigentlich faszinierte.
Vielmehr richtete Durkheim seinen Blick auf den sozialen Wandel, der sich um ihn herum abzuzeichnen begann, und bemerkte, dass »Spezialisierung« auch in Politik, Verwaltung, Rechtswesen Wissenschaften und Künsten an »Einfluss« gewann. Er kam zu dem Schluss, dass die Arbeitsteilung sich nicht mehr nur auf den industriellen Arbeitsplatz beschränkte. Sie hatte vielmehr die Grenzen der Fabrik durchbrochen, um zum kritischen Organisationsprinzip der industriellen Gesellschaft an sich zu werden. Wir finden hier auch ein Beispiel für Edisons Einsicht, nach der die ursprünglich auf die Produktion abzielenden Prinzipien des Kapitalismus schließlich formend auf das breitere soziale und moralische Milieu wirken sollten. »Gleichviel«, schrieb Durkheim, »wie man die Arbeitsteilung beurteilt, jeder fühlt, daß sie eine Grundlage der sozialen Ordnung ist und immer mehr dazu wird.«
Wie vorherzusehen war, forderte der ökonomische Imperativ die Arbeitsteilung bei der Produktion. Wie aber verhielt es sich mit Sinn und Zweck hinter der Arbeitsteilung in der Gesellschaft? Diese Frage war der Motor von Durkheims Analyse, und seine nunmehr hundert Jahre alten Schlussfolgerungen sind gerade heute für uns relevant. Seiner Argumentation zufolge erklärt die Arbeitsteilung die gegenseitigen Abhängigkeiten und Wechselwirkungen, die die vielen Angehörigen einer modernen Industriegesellschaft in einem größeren Kontext von Solidarität verbinden. Wechselwirkungen sorgen für gegenseitige Abhängigkeiten, Engagement und Respekt, die zusammen das neue Ordnungsprinzip mit moralischer Kraft erfüllen.
Mit anderen Worten wurde die Arbeitsteilung in der Gesellschaft um die letzte Jahrhundertwende nötig; sie wurde bedingt durch die rasant sich verändernden Lebensumstände der neuen Individuen der Ersten Moderne, die wir uns in Kapitel 1 näher angesehen haben. Sie war eine unabdingbare Reaktion auf deren neue »Existenzbedingungen«. Als Menschen wie meine Großeltern sich dem Migrationsstrom in die moderne Welt anschlossen, gingen sie des bedeutungsstiftenden Umfelds verlustig, das ihre Gemeinschaft über Raum und Zeit verbunden hatte. Was sollte die Gesellschaft nach dem Wegfallen der Regeln und Rituale von Verwandtschaft und Clan zusammenhalten? Durkheims Antwort darauf war »die Arbeitsteilung«. Das Bedürfnis der Menschen nach einer neuen Quelle für Sinn und Struktur war die Ursache, und die Wirkung war ein ordnendes Prinzip, das Entstehen und Bestand einer robusten modernen Gemeinschaft ermöglichte.
Dem jungen Soziologen Durkheim zufolge ist die bedeutsamste Wirkung der Arbeitsteilung nicht, daß sie den Ertrag der geteilten Funktionen erhöht, sondern daß sie sie voneinander abhängig macht. Ihre Rolle in all diesen Fällen besteht nicht darin, die bestehenden Gesellschaften zu verschönern und zu verbessern, sondern Gesellschaften erst zu ermöglichen, die ohne sie nicht existieren würden … sie übersteigt aber die Sphäre rein ökonomischer Interessen in jedem Fall unendlich, denn sie besteht in der Errichtung einer Sozial- und Moralordnung sui generis.
Durkheims Vision war weder unproduktiv noch naiv. Er erkannte, dass Umstände eine dunkle Wendung nehmen können und das auch oft tun, was in einer »anormalen Arbeitsteilung« resultiert, wie er das nennt (er spricht auch von »Pathologien«). Diese schafft soziale Distanz, Ungerechtigkeit und Unfrieden statt Wechselwirkungen und gegenseitige Abhängigkeiten. In diesem Kontext hob Durkheim die destruktiven Wirkungen sozialer Ungleichheit auf die Arbeitsteilung in der Gesellschaft hervor, insbesondere extreme Asymmetrien von Macht, in denen er die gefährlichste Form von Ungleichheit sah, weil sie Konflikt an sich unmöglich machen, indem »es einem gar nicht gestattet ist zu kämpfen«. Solche Pathologien sind nur von einer Politik zu heilen, die das Recht des Menschen auf Kampf, auf Konfrontation geltend macht, auf das Recht, im Angesicht ungleicher und illegitimer Macht über die Gesellschaft zu triumphieren. Im späten 19. und fast das ganze 20. Jahrhundert über führten diesen Kampf die Arbeiter- und andere soziale Bewegungen, die die soziale Gleichheit durch Institutionen wie Tarifverhandlungen und Volksbildung geltend machten.
Der Wandel, den wir heute erleben, spiegelt diese über hundert Jahre alten Beobachtungen, da die Wissensteilung denselben Weg aus der ökonomischen in die gesellschaftliche Sphäre nimmt, den früher die Arbeitsteilung zurückgelegt hat. Auch die Wissensteilung »übersteigt die Sphäre rein ökonomischer Interessen unendlich«, indem sie zur Basis unserer sozialen Ordnung und deren moralischer Inhalte wird.
Die Wissensteilung ist für uns als Angehörige der Zweiten Moderne, was die Arbeitsteilung für unsere Groß- und Urgroßeltern war, die Pioniere der Ersten Moderne. Heute tritt die Wissensteilung als neues Prinzip gesellschaftlicher Ordnung heraus aus der ökonomischen Sphäre und reflektiert das Primat von Lernen, Information und Wissen bei unserem heutigen Streben nach einem effektiven Leben. Und ganz Durkheims Warnung an seine Gesellschaft vor hundert Jahren entsprechend entsteht unseren Gesellschaften heute eine Bedrohung durch die Abtrift der Wissensteilung in Pathologie und Ungerechtigkeit unter den Händen beispielloser vom Überwachungskapitalismus geschaffener Asymmetrien von Wissen und Macht.
Die Macht des Überwachungskapitalismus über die Wissensteilung in der Gesellschaft beginnt mit etwas, was ich als das Problem der beiden Texte bezeichne. Die spezifischen Mechanismen des Überwachungskapitalismus erzwingen die Produktion nicht nur eines, sondern zweier »elektronischer Texte«. Was den ersten Text anbelangt, so sind wir dessen Autoren und Leser zugleich. Dieser öffentlichkeitsorientierte Text ist uns vertraut und wir schätzen ihn des Universums an Informationen und Verbundenheit wegen, den er uns an die Hand gibt. Google kodifiziert die informationellen Inhalte des World Wide Web. Facebooks Newsfeed verbindet das soziale Netzwerk. Ein Gutteil dieses öffentlichkeitsorientierten Texts besteht aus dem, was wir selbst auf Webseiten stellen: Posts, Blogs, Videos, Fotos, Unterhaltungen, Musik, Geschichten, Beobachtungen, »Likes«, Tweets – das ganze massierte Tohuwabohu unseres Lebens, erfasst und mit anderen geteilt.
Unter dem Regime des Überwachungskapitalismus jedoch steht der erste Text nicht allein; er zieht einen unmittelbaren Schatten nach sich. Genau genommen fungiert der erste Text, bei all seinen Versprechen, lediglich als Versorgungsoperation für den zweiten, den Schattentext. Alles, was wir zum ersten Text beitragen, egal wie banal oder flüchtig, wird zum Ziel der Überschussextraktion. Dieser Überschuss füllt die Seiten des zweiten Texts. Und dieser zweite Text bleibt unserem Blick verborgen; für ihn gilt »read only« für Überwachungskapitalisten.20 In diesem Text sehen wir unsere Erfahrung als Rohstoff requiriert, um diesen als Mittel zu anderer Leute Marktzielen anzuhäufen und zu analysieren. Der Schattentext ist eine im Entstehen begriffene Anhäufung von Verhaltensüberschuss und dessen Analyse, und er sagt mehr über uns, als wir selbst über uns wissen können. Schlimmer noch, es wird zunehmend schwierig – und vielleicht sogar unmöglich –, nicht zu diesem Text beizutragen. Er nährt sich automatisch von unserer Erfahrung, während wir unsere üblichen und unumgänglichen Routinen sozialer Teilhabe absolvieren.
Noch rätselhafter ist die Art, in der Überwachungskapitalisten ihre Erkenntnisse aus ihrem exklusiven Schattentext einsetzen, um den öffentlichen Text ihren Interessen entsprechend zu gestalten. Es wird endlos darüber geschrieben, wie Google und Facebook die Informationen manipulieren, die man uns zeigt. Für den Augenblick soll uns der Hinweis genügen, dass Googles aus Verhaltensüberschuss abgeleitete Algorithmen Suchergebnisse auswählen und ordnen und dass Facebooks aus Verhaltensüberschuss abgeleitete Algorithmen den Inhalt seines Newsfeed auswählen und ordnen. In beiden Fällen reflektieren diese Manipulationen, wie die Forschung aufgezeigt hat, die wirtschaftlichen Ziele der Unternehmen. Der Rechtswissenschaftler Frank Pasquale drückt das folgendermaßen aus: »Die Entscheidungen im Googleplex fallen hinter verschlossenen Türen … die Macht ein- oder auszuschließen und einen Stellenwert zuzuordnen, ist die Macht der Entscheidung darüber, welche Eindrücke sich beim Publikum halten und welche nicht … All ihren Objektivitäts- und Neutralitätsbehauptungen zum Trotz fallen hier unablässig wertende, anfechtbare Entscheidungen. Und diese helfen, die Welt zu schaffen, die man uns lediglich zu ›zeigen‹ vorgibt.«21 Was den Schattentext anbelangt, erzwingen die Bewegungsgesetze des Überwachungskapitalismus sowohl seine Heimlichkeiten als auch sein beständiges Wachstum. Wir sind die Objekte seiner Narrative, von deren Lektionen wir freilich ausgeschlossen sind. Als Quelle dieser üppigen Schätze ist dieser Schattentext ein Text über uns, für uns ist er nicht. Man erzeugt und wartet ihn vielmehr außerhalb unseres Bewusstseins und beutet ihn dort zum Nutzen anderer aus.
Ergebnis all dessen ist, dass die Wissensteilung sowohl das dominante Prinzip gesellschaftlicher Ordnung in unserer Informationsgesellschaft als auch selbst bereits Geisel der privilegierten Position des Überwachungskapitalismus als herrschendem Urheber, Besitzer und Hüter der Texte ist. Die Fähigkeit des Überwachungskapitalismus, diese Texte zu kontrollieren und zu korrumpieren, erzeugt beispiellose Asymmetrien von Wissen und Macht, die genau so funktionieren, wie Durkheim das befürchtet hatte: Die relative Freiheit, mit der man diese Marktform gewähren lässt, sowie der seinem Wesen nach unlesbare Charakter ihrer Aktivitäten haben es ihr ermöglicht, eine erhebliche Kontrolle über die Wissensteilung auszuüben, und das außerhalb unseres Bewusstseins und ohne die Mittel für einen Kampf gegen sie. Das Überwachungskapital hat mittlerweile nicht nur die Macht angehäuft, sondern auch seine Autorität behauptet, uns die Antworten auf alle wesentlichen Fragen zu geben. Aber selbst Autorität allein reicht nicht aus. Nur das Überwachungskapital verfügt über die materielle Infrastruktur und die einschlägige Intelligenz, um über die Wissensteilung in der Gesellschaft zu herrschen.
Die neue Priesterschaft
Wissenschaftler haben darauf hingewiesen, dass die weltweiten Kapazitäten zur Informationsproduktion unsere Möglichkeiten der Verarbeitung und Speicherung von Informationen bereits weit übersteigen.22 Halten Sie sich nur vor Augen, dass unser technologisches Gedächtnis sich etwa alle drei Jahre verdoppelt hat. 1986 war nur 1 % aller Informationen der Welt digitalisiert,23 2000 waren es bereits 25 %.24 2013 lagen dank des Fortschritts von Digitalisierung und Verdatung (die die Weiterverarbeitung von Rohdaten beinhaltet) und neuer Speichertechnologien etwa 98 % der Informationen unserer Welt im digitalen Format vor.25
Informationen sind also digital verfügbar, aber ihr Volumen überschreitet unsere Fähigkeit, ihre Bedeutung zu erkennen. Als Lösung für dieses Problem empfiehlt der Informationswissenschaftler Martin Hilbert: »Die einzige Möglichkeit, die uns noch bleibt, all diese Daten mit Sinn zu erfüllen, besteht darin, Feuer mit Feuer zu bekämpfen.« Womit er meint, dass wir »Computer mit künstlicher Intelligenz« gebrauchen, um »die immensen Massen an Informationen zu sichten«. Facebook, Amazon und Google, so schreibt er, »haben versprochen … mithilfe intelligenter Rechneranalysen Wert aus immensen Datenmassen zu schöpfen«.26 Der Aufstieg des Überwachungskapitalismus macht Hilberts Rat notwendigerweise zu einem äußerst gefährlichen Unterfangen. Auch wenn das keineswegs in seiner Absicht liegt, bestätigt Hilberts Vorschlag nur die privilegierte Position der Überwachungskapitalisten und deren asymmetrische Macht, die ihnen eine ihren Interessen gemäße Einflussnahme auf die Wissensteilung ermöglicht.
Googles asymmetrische Macht greift auf alle von uns angesprochenen sozialen Quellen zurück: seine Deklarationen, Verteidigungsbollwerke, Ausnutzung der Gesetze, das Erbe des überwachungstechnischen Ausnahmezustands, die Probleme der Individuen der Zweiten Moderne usw. usf. Aber sie wäre nicht wirksam operativ ohne die gigantische materielle Infrastruktur, die die Überwachungserträge dem Unternehmen eingebracht haben. Google ist der Pionier der »Hyper-Scale«,27 der endlos anpassungsfähigen Computerarchitektur, und gilt als »das größte Computernetz der Welt«.28 Hyperscale-Operationen findet man bei Unternehmen mit hohem Informationsaufkommen wie Telekommunikationsfirmen und globalen Bezahlsystemen, wo Rechenzentren Millionen »virtuelle Server« brauchen, um ihre Rechenleistung exponentiell, aber ohne erhebliche Expansion an Raum, Kühlung oder Strom zu steigern.29 Die Maschinenintelligenz im Herzen von Googles imposanter Vorherrschaft ist, wie es heißt, zu »80 Prozent Infrastruktur«,30 ein System aus maßgeschneiderten, über fünfzehn Standorte verteilten Datenzentren von Lagerhausgröße und, Schätzungen für 2016 zufolge, 2,5 Millionen Servern auf vier Kontinenten.
Die Forscher kamen zu dem Schluss, mit ihrer weltweiten Studie über das Netzerwerkverhalten von Schülern und Studenten den Schleier von der Einsamkeit und der Desorientierung gerissen zu haben, die sich junger Leute bemächtigen, wenn sie sich von den sozialen Medien getrennt sehen. Es war nicht einfach nur so, dass sie mit sich nichts anzufangen wussten, sie hatten vielmehr tatsächlich »Probleme, ihre Gefühle zu artikulieren, ja selbst wer sie sind, wenn sie sich nicht einloggen konnten«. Die Betroffenen hatten das Gefühl, »eines Teils ihrer selbst verlustig gegangen zu sein«.3
Dieses Gefühl der Desorientierung und der Isolation lässt auf eine psychologische Abhängigkeit von »den anderen« schließen. Weitere einschlägige Studien vertiefen unser Verständnis der »Generation Z«, wie die Demografen die Gruppe der 1996 und danach Geborenen nennen, die sich als erste Gruppe von »digitalen Eingeborenen« – Menschen ohne Erinnerung an ein Leben vor dem Aufstieg des Überwachungskapitalismus – defniert. Diese Generation bezieht ihre psychologische Nahrung aus einer ganzen Reihe sozialer Medien, nicht selten auf vier, fünf Plattformen. Eine Studie von 2012 kam zu dem Schluss, dass angehende Erwachsene täglich mehr Zeit auf die Nutzung sozialer Medien verwenden als auf jede andere Aktivität; insgesamt bringen sie täglich fast zwölf Stunden mit dem einen oder anderen digitalen Medium zu.4 2018 stellte eine Studie von Pew Research fest, dass fast 40 % aller jungen Leute zwischen 18 und 29 Jahren »fast ständig« online sind; dasselbe gilt für 36 % der Menschen zwischen 30 und 49.5 Das passt denn auch zu den Ergebnissen einer Erhebung von 2016, der zufolge 42 % der befragten Teenager angaben, soziale Medien wirkten sich auf das Bild »der anderen« über sie aus, was die Forscher von einem Von-außen-nach-innen-Ansatz hinsichtlich ihres Selbstausdrucks sprechen ließ. Ihre Abhängigkeit wirkt nachhaltig sowohl auf ihr Wohlbefinden als auch auf ihr Selbstwertgefühl (42 %) und ihre Zufriedenheit (37 %).6
Eine Erhebung unter jungen Britinnen im Alter von 11 bis 21 Jahren im Rahmen einer Folgestudie zu den psychologischen Auswirkungen einer Selbsterfahrung »von außen nach innen« legt den Gedanken nahe, dass die von Pentland ausgearbeiteten und von den Überwachungskapitalisten gebilligten sozialen Prinzipien der instrumentären Gesellschaft außerordentlich gut funktionieren.7 35 % der Frauen sagten, ihr größtes Problem sei, sich online »ständig mit oft idealisierten Versionen von Leben und Körper anderer zu vergleichen«.8
Einer der Leiter des Projekts sagte dazu, dass schon die jüngsten der befragten Mädchen in dieser Gruppe sich dem Druck ausgesetzt sähen, »eine persönliche Note« entwickeln zu müssen. Anders gesagt, das ständige Ausrichten an »Likes« und »Shares« treibt die Selbst-Objektifizierung in ganz neue Höhen. Als der Guardian Mädchen nach der Meinung zu den Ergebnissen dieser Studie befragte, sprachen die Antworten Bände über die Misere des Organismus unter Organismen. »Ich habe das Gefühl, ich muss perfekt sein und mich ständig mit anderen vergleichen«, sagte eine der Befragten. »Du siehst, wie die anderen leben und was sie machen«, sagte eine andere, »du siehst ihr ›perfektes‹ Leben, und da denkst du dir, da komm ich nicht ran.«9
Im Lichte dieser Erkenntnisse sagte eine britische Ärztin über die jungen Leute in ihrer Praxis: »Die Leute wollen heute zu ›Influencern‹ heranwachsen, für sie ist das ein Job … Ich bin mir nicht sicher, ob die Eltern sich so recht bewusst sind, unter welchem Druck diese jungen Leute stehen.«10 Und tatsächlich waren nur 12 % der Befragten in der Studie von 2017
Die psychologischen Risiken des perfekten Zusammenspiels in der Maschinenzone haben sich weit über die Casinos hinweg ausgebreitet: Lässt man alle Nebensächlichkeiten beiseite, definieren sie den Kern von Facebooks Erfolg. Und das Unternehmen bringt mehr Kapital, Informationen und Wissenschaft in diese parasitische Symbiose ein, als die Spieleindustrie je aufbringen könnte. Seine im Namen überwachungskapitalistischer Erträge erbrachten Leistungen haben den Prototyp einer instrumentären Gesellschaft und deren soziale Prinzipien geschaffen, die vor allem auf unsere Jüngsten zugeschnitten sind. Wir können aus den Herausforderungen, vor die junge Leute sich in diesem neuen, auf die Erzeugung von Zwang ausgerichteten digitalen Milieu gestellt sehen, viel lernen über die gelebte Erfahrung im Schwarm. Facebooks Marketingchefin brüstet sich ungeniert damit, mit Präzisionswerkzeugen ein Medium zu schaffen, in dem die Nutzer »nicht wegsehen müssen«; hinsichtlich der Praktiken, mit denen man dafür sorgt, dass der Nutzer, vor allem der junge Nutzer, irgendwann nicht mehr wegsehen kann, hält sich das Unternehmen eher bedeckt.
Hier und da bietet sich jedoch eine Gelegenheit für einen Einblick. So gestand zum Beispiel Sean Parker, einer der beiden Gründer von Napster und eine Zeitlang President bei Facebook, 2017 ganz offen ein, dass Facebook darauf ausgerichtet sei, den Nutzer sowohl geistig wie zeitlich maximal zu binden. Man bewerkstellige das mit einem »kleinen Schuss Dopamin von Zeit zu Zeit« – sprich mit »variabler Verstärkung« in Form von »Likes« und Kommentaren. Der Gedanke dahinter sei, den Nutzer durch die Jagd nach diesem »Fix« an den Schwarm zu binden.16
Shaffer, der Suchtforscher, hat fünf Elemente herausgearbeitet, die diesen zwanghaften Zustand seiner Ansicht nach definieren: Häufigkeit, Dauer, Wirkung, Verwaltungsweg und Spielerattribute. Wir wissen bereits einiges über die hohe Frequenz und die Dauer, mit denen junge Leute die sozialen Medien nutzen. Was wir hier verstehen müssen, sind 1) die psychologischen Eigenschaften, aus denen sie sich überhaupt von diesem Medium angezogen fühlen, 2) die Praktiken des Designs, mit denen man die Wirkungsschraube anzieht, um die Neigung zu einem nicht mehr zu stillenden Bedürfnis zu machen, und 3) die geistigen und emotionalen Folgen von Facebooks zunehmenden Fähigkeiten, junge Leute auf der Jagd nach dieser neuen Maschinenzone in seinen Bann zu ziehen.
Nehmen wir die letzte Szene des Porträts einer Dreizehnjährigen, das die Washington Post 2017 im Rahmen einer Serie unter dem Motto »Aufwachsen im Zeitalter von LOLs, Likes und Träumen« brachte. Das Mädchen hat Geburtstag, aber ob sie sich darüber freuen soll, hängt allein davon ab, ob die Freundinnen Fotos von dem Ereignis auf ihren Seiten posten. Mögen sie sie oder nicht? »Sie scrollt, wartet darauf, dass die kleine Messagebox erscheint.«17 Die Adoleszenz ist seit jeher das Alter, in dem Akzeptanz, Aufnahme und Anerkennung seitens der »anderen« zu einer Frage von Leben und Tod werden können. Die sozialen Medien hätten das nicht zu übernehmen brauchen. Unterscheidet sich die Adoleszenz heute wirklich so sehr von der irgendeiner anderen Zeit? Die Antwort darauf ist ja … und nein.
Offiziell »entdeckt« wurde die moderne Version dessen, was wir heute als Adoleszenz bezeichnen, 1904 von G. Stanley Hall. Schon damals verortete Amerikas erster Doktor der Psychologie die Herausforderungen, vor denen die Jugend sich gestellt sah, in dem sich rasant verändernden Kontext »unseres städtischen Treibhauslebens, das dazu geneigt ist, alles vor seiner Zeit reifen zu lassen«.18 In seiner Arbeit über Teenager konstatierte er bereits um die Jahrhundertwende, die Adoleszenz sei eine Phase extremer Orientierung an der Peergroup: »Einige scheinen eine Zeitlang keinerlei innere Ressource zu finden, vielmehr scheint ihr Glück in geradezu kläglichem Maße von ihren Kameraden abhängig.«19 Außerdem wies er auf das Potenzial von Grausamkeit in der Peergroup, ein Phänomen, das zeitgenössischen Psychologen als relationale oder Beziehungsaggressionen bekannt ist. Jahrzehnte nach Hall bezeichnete der Entwicklungspsychologe Erik Erikson die zentrale Herausforderung der Adoleszenz als »Identitätsbildung«. Erikson leistete mit den größten Beitrag zur Erklärung der Adoleszenz im 20. Jahrhundert. Er betonte das Ringen des jungen Menschen um eine kohärente Identität, die er sich aus der »Gemeinschaftlichkeit« der jugendlichen Clique erarbeiten muss. Er beschrieb die »normative Krise«, in der fundamentale Fragen von »richtig« und »falsch« innerer Ressourcen bedürfen, die mit »Introspektion« und »persönlichem Experimentieren« verbunden seien. Die gesunde Lösung dieses Konflikts zwischen selbst und anderen führe zur Herausbildung eines robusten Identitätsgefühls.20
Heute stimmen die meisten Psychologen darin überein, dass unser längeres Leben in Verbindung mit den Herausforderungen einer informationsintensiven Gesellschaft die Zeit zwischen Kindheit und Erwachsenenalter weiter verlängert hat. Man hat sich mehr oder weniger darauf geeinigt, das »angehende Erwachsenenalter« als neue Lebensphase vom achtzehnten Lebensjahr bis zum Ende der Zwanzigerjahre anzulegen; das angehende Erwachsenenalter ist für das 21. Jahrhundert, was die Adoleszenz für das 20. Jahrhundert war.21 Und auch wenn zeitgenössische Wissenschaftler auf der Basis einer ganzen Reihe von Methoden und Paradigmen arbeiten, gehen doch die meisten davon aus, dass die wesentliche Herausforderung des angehenden Erwachsenenalters in der Unterscheidung zwischen einem »Selbst« und den »anderen« besteht.22
Es herrscht ein breiter Konsens darüber, dass wir im Verlauf unserer verlängerten Lebensspanne mehr als einmal auf die Kernfragen zurückkommen müssen; ganz und gar einig ist man sich jedoch darüber, dass für den erfolgreichen Übergang ins Erwachsenenalter wenigstens einige der im angehenden Erwachsenenalter anstehenden Identitätsprobleme zu lösen sind. »Eine der wesentlichen Herausforderungen des angehenden Erwachsenenalters«, so heißt es im Oxford Handbook of Emerging Adulthood, »besteht darin, der Autor seines eigenen Lebens zu werden.«23 Wer von uns würde sich darin nicht wiedererkennen? Diese anhaltende existenzielle Herausforderung ist eine Quelle der Kontinuität, die Generationen verbindet. Was sich verändert hat, sind die Umstände, in denen junge Leute sich heute der Herausforderung zu stellen haben.
Lebensbeweis
Das angehende Erwachsenenalter ist für die Psychologen Daniel Lapsley and Ryan Woodbury »Ground Zero« im Ringen um die »relationale Autonomie«, die junge Leute auf den Übertritt ins Erwachsenenleben vorbereitet.24 Der Begriff »relationale Autonomie« soll herausstreichen, dass Autonomie über das grobe Klischee vom »Individualismus« hinausgeht, dass es vielmehr darum geht, eine Balance zu schaffen zwischen der Pflege innerer Ressourcen und der Fähigkeit zu Intimität und Beziehungen. Der Aufbau eines Selbst, das sich von anderen unterscheidet und dennoch mit anderen verbunden ist, erfordert »knallhartes Verhandeln«, und die Qualität dieses inneren Abkommens »verleiht dem angehenden Erwachsenenalter ein Gefühl der Erwartung und der Dringlichkeit«, das beim erfolgreichen Übergang ins Erwachsenenalter hilft.25
Selbst mit diesen Einsichten bleibt es schwierig, die gefühlten Erfahrungen junger Leute voll und ganz zu verstehen, die, wie Hall vor mehr als hundert Jahren so treffend sagte, »keinerlei innere Ressource zu finden« scheinen. Die vielleicht am schwierigsten zu greifende Qualität ist womöglich die, dass es in der Phase, die dem harten Verhandeln vorausgeht, ein »inneres« Selbstgefühl schlicht nicht gibt. Wir sprechen hier von einer Phase, in der »ich« bin, was immer die »anderen« über mich denken, und was »ich« fühle eine Funktion der Behandlung ist, die ich durch »andere« erfahre. An die Stelle einer stabilen Identität tritt ein Chamäleon, das sich je nach dem Bild, das es im jeweiligen sozialen Spiegel sieht, neu erfindet. Unter solchen Bedingungen sind die »anderen« keine Individuen, sondern das Publikum, für das ich mich produziere, und wer »ich« bin, hängt ganz und gar von diesem Publikum ab. Dieses Dasein im Spiegel ist pure »Fusion« und erfasst die Bedeutung eines dreizehnjährigen Mädchens, das nervös auf die kleine Messagebox wartet, die sie als Zeichen ihrer Existenz und ihres Werts sieht. Die junge Person, die sich noch keinen inneren Raum für sich selbst geschaffen hat, existiert für sich nur in der Meinung des anderen. Ohne die »anderen« gehen die Lichter aus. Zorn kommt nicht in Frage – man will die anderen ja nicht vor den Kopf zu stoßen, die unser Spiegel und damit der Lebensbeweis sind.
In diesem elementaren Sinn geht es bei der jungen Person, die sich in die sozialen Medien gezwungen fühlt, ums nackte Leben, um die Existenz im Blick der anderen, die das einzig Mögliche ist, auch wenn es schmerzt. Der Entwicklungspsychologe Robert Kegan sagte über die adoleszente Erfahrung lange vor der Erfindung von Facebook, es sei eher so, dass »unabhängig von der ›Zuneigung anderer‹ kein Selbst« existiert.26 Es handelt sich dabei nicht um ein moralisches oder emotionales Defizit, sondern um die harte Wirklichkeit, die bestimmte vorhersagbare Konsequenzen hat: Man neigt dazu, durch den sozialen Vergleich zu funktionieren, was einen zur leichten Beute für Manipulationen macht, schließlich hat man kaum Verteidigungsmechanismen gegen sozialen Druck und andere Formen von sozialer Einflussnahme. Ohne eine gestaltende Arbeit am Selbst füllt das starre Glaubenssystem einer etablierten Gruppe diese innere Leere allzu schnell mit einer von außen herangetragenen Identität.27
Sich von der »Fusion« weg- und weiterzuentwickeln, bedeutet den Übergang von einer Person, die ihre Beziehungen ist, zu einer Person, die ihre Beziehungen hat. Das erfordert eine grundlegende Umgestaltung der Art und Weise, wie wir unsere Erfahrung mit Sinn erfüllen. Bei Kegan bedeutet dies eine Abwendung von einer »Kultur der Gegenseitigkeit« hin zu einer komplexeren »Kultur der Identität oder Selbst-Gestaltung« und der persönlichen Autonomie. Diese Verlagerung basiert darauf, Menschen zu begegnen und Lebenserfahrungen zu machen, die mehr von uns verlangen als die bloße Reflexion im Spiegel. Vielmehr besteht sie darauf, dass wir in der Stimme der ersten Person sprechen, und zwingt uns zur Erarbeitung unserer ganz eigenen einzigartigen Reaktion auf die Welt.
Es handelt sich dabei um einen inneren Akt, der sich jeder Rendition oder Verdatung entzieht, insofern wir uns ein inneres Gefühl für gültige Wahrheiten und moralische Werte zu erarbeiten beginnen. Damit beginnt der Punkt, von dem an wir sagen können: »ich denke«, »ich fühle«, »ich glaube«. Allmählich bekommt dieses »Ich« ein Gespür sowohl für seine Urheberschaft dieser Erfahrungen als auch für deren Besitz. Es kann über sich reflektieren, sich kennen und sich durch bewusste Entscheidungen und zielstrebiges Handeln regulieren. Die Forschung zeigt, dass derlei große Sprünge bei der Selbst-Gestaltung durch Erfahrungen wie etwa strukturierte Reflexion, Konflikte, Unstimmigkeiten, Krisen und Misserfolge stimuliert werden. Besonders hilfreich bei der Auslösung dieser neuen nach innen gerichteten Verbindungen sind Menschen, die sich weigern, unser Spiegel zu sein, Menschen, die der Fusion zugunsten einer echten Gegenseitigkeit widerstehen. »Wer in unser Leben tritt«, schreibt Kegan, »kann als wichtigster Einzelfaktor den Verlauf unseres Lebens bestimmen.«28
Aber was passiert nun, wenn wir es versäumen, eine gesunde Balance zwischen dem Inneren und dem Äußeren, dem Selbst und der Beziehung zu anderen zu entwickeln? Wie sehen die Folgen aus? Klinische Studien haben spezifische Muster herausgearbeitet, die man mit einer solchen stagnierenden Entwicklung verbindet. Es überrascht nicht weiter, dass dazu unter anderem die Unfähigkeit zum Alleinsein gehört, das Gefühl, untrennbar mit anderen verbunden zu sein, ein instabiles Selbstgefühl, ja sogar ein exzessives Bedürfnis, Kontrolle über andere auszuüben, um seinen Spiegel nicht zu verlieren. Der Verlust des Spiegels kommt dem Aus gleich.29
Das Kultivieren innerer Ressourcen ist damit eine kritische Voraussetzung für Intimität und Beziehungen, die mit jeder neuen Phase der Moderne zeitraubender geworden sind. Und auch wenn junge Leute sich der existenziellen Aufgabe der Selbst-Gestaltung wie eh und je nicht entziehen können, so lassen unsere bisherigen Erkenntnisse hier darauf schließen, dass diese Aufgabe heute auf dreierlei Weise mit der Geschichte zusammenfließt und mit den einzigartigen Lebensbedingungen unserer Zeit.
Erstens haben der Verfall der traditionellen Gesellschaft und die Evolution der sozialen Komplexität die Prozesse der Individualisierung beschleunigt. Wir müssen uns also mehr als zu irgendeinem anderen Zeitpunkt in der Menschheitsgeschichte auf unsere Selbst-Gestaltung und auf unsere inneren Ressourcen verlassen. Und wenn diese blockiert werden, kann das zu einem bitteren Gefühl der Entfremdung und der Isolation führen.
Zweitens ist das digitale Verbundensein mittlerweile zu einem notwendigen Mittel sozialer Teilhabe geworden, nicht zuletzt aufgrund einer weitverbreiteten institutionellen Unfähigkeit, sich den Bedürfnissen einer neuen Gesellschaft von Individuen anzupassen. Die rechnergestützte soziale Infrastruktur verändert die menschliche Kommunikation und rückt einzelnes wie kollektives Verhalten ins Rampenlicht – wir brauchen uns nur die endlosen Wellen von Tweets, Likes, Klicks, Mobilitätsmustern, Suchanfragen, Posts und Tausender anderer täglicher Handlungen anzusehen.
Drittens dominiert und instrumentalisiert der Überwachungskapitalismus das digitale Verbundensein. »Was sich aufgrund der sozialen Medien geändert hat«, schreibt die Sozialforscherin danah boyd in ihrer Studie über das Sozialleben vernetzter Jugendlicher, »ist, dass das ewige Verlangen nach sozialer Verbundenheit und Autonomie sich heute in vernetzten Öffentlichkeiten ausdrückt.«30 Es stimmt natürlich, dass das Verbundensein die Identitätsprobleme einer größeren Gruppe sichtbar macht; die Vorstellung von »vernetzten Öffentlichkeiten« ist allerdings ein Paradox. Genau genommen wird unsere Sichtbarkeit nicht durch die Öffentlichkeit vernetzter Räume vergrößert, sondern durch ihre Privatheit.
Adoleszenz und angehendes Erwachsenenalter entfalten sich heute in den Räumen privaten Kapitals. Sie gehören den Überwachungskapitalisten, werden von ihnen unter den Vorzeichen ihrer ökonomischen Orientierung betrieben, und ihre operativen Praktiken sind darauf ausgerichtet, Überwachungserträge zu maximieren. Diese privaten Räume sind die Medien, über die jede Art von sozialer Beeinflussung – Druck, Vergleich, Modellierung, Priming – zum Tuning, Herding und zur Manipulation von Verhalten im Namen der Verhaltenserträge eingesetzt wird. In diesem Umfeld soll heute »Erwachsenenalter« entstehen.
Während Casinomanager und Entwickler von Spielautomaten sich gerne gesprächig bis großspurig geben, verlässt sich das überwachungskapitalistische Projekt auf Verschwiegenheit. Das hat nachgerade eine Wissenschaft auf den Plan gerufen, die es sich zur Aufgabe gemacht hat, die geheime Architektur zu dechiffrieren, die zunächst dafür sorgen soll, dass der Nutzer nicht wegsieht, und später, dass er nicht mehr wegsehen kann. Es gibt Chatgroups und endlose Threads in Foren, in denen die Leute dahinterzukommen versuchen, was Facebook tatsächlich macht. Auch Journalisten diskutieren relevante Praktiken in Magazinen und Büchern wie Teuflisch gutes Webdesign, Hooked und Unwiderstehlich, die jedoch letztlich nur normalisieren helfen, was sie kritisieren. Chris Nodder zum Beispiel, erklärt in seinem Buch Teuflisch gutes Webdesign, dass »böses« Design darauf abziele, menschliche Schwächen auszunutzen, indem es Benutzeroberflächen schaffe, die »die die Nutzer so fesseln, dass der Entwickler davon mehr profitiert als sie selbst«. Auf der anderen Seite zeigt er seinen Lesern, wie man für die psychische Abstumpfung besagter User sorgt. Es gehe hier schließlich »nicht um ein moralisches Dilemma«, sie sollten akzeptieren, dass die »bösen Design-Muster« längst eingesetzt würden; es gehe also eher darum, »sie sowohl als Verbraucher als auch Entwickler … sich zunutze« zu machen.31
Um zu beurteilen, was es heißt, in dieser unserer Zeit erwachsen zu werden, müssen wir die spezifischen Praktiken verstehen lernen, die die soziale Teilhabe um der kommerziellen Interessen anderer willen zu einer Zwangsjacke machen, die vielleicht wärmt, aber dennoch eine Zwangsjacke bleibt. Facebook verlässt sich auf ganz spezifische Praktiken, die die Neigung vor allem junger Nutzer bedienen, sich »von außen nach innen blickend« zu sehen. Besonders kritisch ist dabei, dass die Arbeit der Selbst-Gestaltung umso schwieriger wird, je mehr man das Bedürfnis nach den »anderen« bedient. Die gestörte Entwicklung eines positiven Gleichgewichts zwischen innerem und äußerem Leben hat so verheerende Folgen, dass sie nach Ansicht von Lapsley und Woodbury eine der wesentlichen Ursachen von Persönlichkeitsstörungen bei Erwachsenen ist.32
So streicht Nodder zum Beispiel Facebooks geradezu unheimliche Meisterschaft der »sozialen Bestätigung« heraus: »Ein guter Teil unseres Verhaltens wird dadurch bestimmt, was wir für das Richtige halten. Und dies bildet sich aus dem, was wir bei anderen beobachten … Diesen Einfluss nennt man sozialen Beweis.«33 Das Unternehmen instrumentalisiert dieses Merkmal im Wesen des Heranwachsenden, indem es Messages von »Freunden« dazu einsetzt, ein Produkt, eine Dienstleistung oder eine Aktivität »persönlicher und emotionaler« zu gestalten. Diese von Pentland so bewunderte Taktik kam auch in Facebooks Wahlexperiment zum Einsatz. Sie schürt das Bedürfnis junger Leute, sich Bestätigung zu verschaffen, indem sie tun, was andere tun; außerdem lässt sich dadurch der Missbilligung durch andere aus dem Weg gehen.
Facebooks folgenreichste Innovation in Sachen Verhaltenstechnologie ist der »Like«-Button, der 2009 ins Spiel kam. Zeitgenössischen Blogeinträgen des langjährigen Facebook-Managers Andrew Bosworth zufolge hatte man den »Like«-Button intern über anderthalb Jahre lang diskutiert, bevor Zuckerberg sich schließlich zur Implementierung entschied. Er hatte die Idee mehrmals verworfen, weil er befürchtete, der »Like«-Button könnte von anderen umsatzfördernden Features – wie etwa Beacon – ablenken. Bezeichnenderweise freundete sich der Gründer mit dem Button erst an, als neue Daten ihn als potente Quelle für Verhaltensüberschuss auswiesen, die der Anziehungskraft von Facebooks Newsfeed auf die Sprünge half, wie aus der schieren Menge der Kommentare hervorging.34
Überhaupt scheint Facebooks Führungsriege erst allmählich erkannt zu haben, dass der Button die Plattform von einem »Buch« in ein Reich der Spiegel verwandelte, von einem passiven Medium in ein tosendes Meer gegenseitiger Reflexionen, die die Nutzer an ihre Newsfeeds fesselten. Auf der Angebotsseite war der »Like«-Button ein weltumspannender Einwegspiegel, der für einen exponentiell wachsenden Nachschub an Rohstoff sorgen konnte. Je mehr eine Nutzerin »likte«, desto mehr gab sie Facebook über sich preis, was es dem Unternehmen ermöglichte, die Zwangsjacke Zug um Zug enger zu schnüren und den Vorhersagewert ihrer Signale zu erhöhen.
Die Protokolle des zu Facebook gehörenden Foto- und Videodienstes Instagram liefern ein weiteres gutes Beispiel für diese Prozesse. Hier sieht man die engen Verbindungen: Zwang, innerer wie äußerer, zieht weiteren Verhaltensüberschuss an und dieser nährt weiteren Zwang. Instagram fesselt seine Nutzer mit Fotos, die ihre Interessen ansprechen. Aber wie wählt man diese Fotos aus den Millionen von verfügbaren aus? Die offensichtliche, aber falsche Antwort wäre, dass man den Inhalt der Fotos analysiert, die den Leuten gefallen, und ihnen mehr davon zeigt. Stattdessen analysiert man den Verhaltensüberschuss: den Schattentext. Ein Manager des Unternehmens beschrieb das mal so: »Man basiert Vorhersagen auf eine Aktion, und um die rum macht man dann was.« Aktionen sind Signale wie »folgen«, »liken« und »teilen«, jetzt und in der Vergangenheit. Von da aus weitet sich der Kreis. Mit wem hast du was geteilt? Wem folgen sie? Wen liken sie? Mit wem teilen sie? »Instagram mint das vielschichtige soziale Netz zwischen Usern.« Dieses »Mining« baut auf beobachtbarem, messbarem Verhalten im Lauf der Zeit: Der dynamische Überschuss des Schattentexts stammt sowohl aus Instagrams eigenen geheimen Schätzen als auch aus denen….
end Casinomanager und Entwickler von Spielautomaten sich gerne gesprächig bis großspurig geben, verlässt sich das überwachungskapitalistische Projekt auf Verschwiegenheit. Das hat nachgerade eine Wissenschaft auf den Plan gerufen, die es sich zur Aufgabe gemacht hat, die geheime Architektur zu dechiffrieren, die zunächst dafür sorgen soll, dass der Nutzer nicht wegsieht, und später, dass er nicht mehr wegsehen kann. Es gibt Chatgroups und endlose Threads in Foren, in denen die Leute dahinterzukommen versuchen, was Facebook tatsächlich macht. Auch Journalisten diskutieren relevante Praktiken in Magazinen und Büchern wie Teuflisch gutes Webdesign, Hooked und Unwiderstehlich, die jedoch letztlich nur normalisieren helfen, was sie kritisieren. Chris Nodder zum Beispiel, erklärt in seinem Buch Teuflisch gutes Webdesign, dass »böses« Design darauf abziele, menschliche Schwächen auszunutzen, indem es Benutzeroberflächen schaffe, die »die die Nutzer so fesseln, dass der Entwickler davon mehr profitiert als sie selbst«. Auf der anderen Seite zeigt er seinen Lesern, wie man für die psychische Abstumpfung besagter User sorgt. Es gehe hier schließlich »nicht um ein moralisches Dilemma«, sie sollten akzeptieren, dass die »bösen Design-Muster« längst eingesetzt würden; es gehe also eher darum, »sie sowohl als Verbraucher als auch Entwickler … sich zunutze« zu machen.31
Um zu beurteilen, was es heißt, in dieser unserer Zeit erwachsen zu werden, müssen wir die spezifischen Praktiken verstehen lernen, die die soziale Teilhabe um der kommerziellen Interessen anderer willen zu einer Zwangsjacke machen, die vielleicht wärmt, aber dennoch eine Zwangsjacke bleibt. Facebook verlässt sich auf ganz spezifische Praktiken, die die Neigung vor allem junger Nutzer bedienen, sich »von außen nach innen blickend« zu sehen. Besonders kritisch ist dabei, dass die Arbeit der Selbst-Gestaltung umso schwieriger wird, je mehr man das Bedürfnis nach den »anderen« bedient. Die gestörte Entwicklung eines positiven Gleichgewichts zwischen innerem und äußerem Leben hat so verheerende Folgen, dass sie nach Ansicht von Lapsley und Woodbury eine der wesentlichen Ursachen von Persönlichkeitsstörungen bei Erwachsenen ist.32
So streicht Nodder zum Beispiel Facebooks geradezu unheimliche Meisterschaft der »sozialen Bestätigung« heraus: »Ein guter Teil unseres Verhaltens wird dadurch bestimmt, was wir für das Richtige halten. Und dies bildet sich aus dem, was wir bei anderen beobachten … Diesen Einfluss nennt man sozialen Beweis.«33 Das Unternehmen instrumentalisiert dieses Merkmal im Wesen des Heranwachsenden, indem es Messages von »Freunden« dazu einsetzt, ein Produkt, eine Dienstleistung oder eine Aktivität »persönlicher und emotionaler« zu gestalten. Diese von Pentland so bewunderte Taktik kam auch in Facebooks Wahlexperiment zum Einsatz. Sie schürt das Bedürfnis junger Leute, sich Bestätigung zu verschaffen, indem sie tun, was andere tun; außerdem lässt sich dadurch der Missbilligung durch andere aus dem Weg gehen.
Facebooks folgenreichste Innovation in Sachen Verhaltenstechnologie ist der »Like«-Button, der 2009 ins Spiel kam. Zeitgenössischen Blogeinträgen des langjährigen Facebook-Managers Andrew Bosworth zufolge hatte man den »Like«-Button intern über anderthalb Jahre lang diskutiert, bevor Zuckerberg sich schließlich zur Implementierung entschied. Er hatte die Idee mehrmals verworfen, weil er befürchtete, der »Like«-Button könnte von anderen umsatzfördernden Features – wie etwa Beacon – ablenken. Bezeichnenderweise freundete sich der Gründer mit dem Button erst an, als neue Daten ihn als potente Quelle für Verhaltensüberschuss auswiesen, die der Anziehungskraft von Facebooks Newsfeed auf die Sprünge half, wie aus der schieren Menge der Kommentare hervorging.
„Das Zeitalter des Überwachungskapitalismus“ ist ein Buch von Shoshana Zuboff, das 2019 veröffentlicht wurde. In diesem Werk untersucht die Autorin die Entstehung und Entwicklung des Überwachungskapitalismus, eines neuen Wirtschaftssystems, das sich auf die Sammlung, Analyse und Monetarisierung von persönlichen Daten stützt. Die Zusammenfassung des Buches kann in drei Hauptthemen unterteilt werden:
- Entstehung des Überwachungskapitalismus:
Zuboff erklärt, wie der Überwachungskapitalismus in den 2000er Jahren entstanden ist, als Technologieunternehmen wie Google und Facebook begannen, riesige Mengen an Benutzerdaten zu sammeln und zu analysieren. Diese Daten wurden dazu verwendet, personalisierte Werbung zu schalten und den Unternehmen immense Gewinne zu ermöglichen. Im Laufe der Zeit hat sich dieses Modell auf andere Branchen ausgebreitet, und nun nutzen viele Unternehmen ähnliche Strategien, um Daten zu monetarisieren. - Die Mechanismen des Überwachungskapitalismus:
Zuboff beschreibt die Hauptmechanismen, durch die der Überwachungskapitalismus funktioniert. Dazu gehören die Sammlung von Daten durch Cookies, Tracking-Technologien und soziale Medien, die Analyse dieser Daten durch maschinelles Lernen und Künstliche Intelligenz sowie die Nutzung dieser Informationen zur Beeinflussung des Verhaltens der Menschen.
Sie betont, dass Überwachungskapitalisten oft ohne die Zustimmung oder das Wissen der Betroffenen handeln und dass dies zu einer Machtasymmetrie zwischen den Unternehmen und den Individuen führt. - Die gesellschaftlichen Auswirkungen des Überwachungskapitalismus:
Schließlich untersucht Zuboff die Auswirkungen des Überwachungskapitalismus auf die Gesellschaft. Sie argumentiert, dass diese Praktiken nicht nur die Privatsphäre der Menschen untergraben, sondern auch demokratische Prozesse gefährden, da sie dazu führen können, dass Meinungen und Verhalten auf subtile Weise manipuliert werden. Zuboff ruft dazu auf, den Überwachungskapitalismus zu hinterfragen und zu regulieren, um die Grundrechte der Menschen zu schützen und eine gerechtere Gesellschaft zu fördern.
Insgesamt bietet „Das Zeitalter des Überwachungskapitalismus“ eine tiefgründige Analyse der Entstehung und Funktionsweise des Überwachungskapitalismus sowie der damit verbundenen sozialen und politischen Herausforderungen. Zuboff fordert die Leser auf, sich gegen diese Praktiken zu wehren und eine gerechtere und demokratischere Gesellschaft zu schaffen.
Das Buch, aus dem dieser Ausschnitt stammt, ist „Das Zeitalter des Überwachungskapitalismus“ von Shoshana Zuboff. Hier sind die wichtigsten Inhalte zusammengefasst sowie eine kritische Einordnung:
📘 Kernaussagen des Buchs
- Begriff des Überwachungskapitalismus:
- Zuboff prägt den Begriff, um ein neues wirtschaftliches Paradigma zu beschreiben.
- Unternehmen wie Google, Facebook (Meta) und Amazon extrahieren Verhaltensdaten aus Nutzern, um diese für wirtschaftliche Zwecke zu nutzen – z. B. zur Vorhersage und Beeinflussung von Verhalten.
- Daten als „menschlicher Rohstoff“:
- Der digitale Kapitalismus greift auf persönliche Informationen zu, die zuvor nicht ökonomisch verwertet wurden.
- Die Nutzer werden nicht als Kunden, sondern als Lieferanten „kostenloser Rohstoffe“ betrachtet.
- Grenzüberschreitende Privatisierung:
- Vergleichbar mit früherer Landnahme: Immer mehr Lebensbereiche (Kommunikation, Gesundheit, Emotionen, Mobilität) werden ökonomisiert.
- Unternehmen streben eine totale Informationskontrolle an, um Verhalten nicht nur vorherzusagen, sondern gezielt zu steuern.
- Demokratiegefährdung:
- Der Überwachungskapitalismus steht laut Zuboff im Widerspruch zu demokratischen Grundwerten.
- Freie Willensbildung und Entscheidungsautonomie werden durch algorithmisch erzeugte „Verhaltensmodifikation“ untergraben.
- Kritik an mangelnder Regulierung:
- Die Politik habe die Entwicklung verschlafen oder bewusst geduldet, wodurch ein „wilder Westen“ der Datenwirtschaft entstanden sei.
- Zuboff fordert politische Kontrolle, gesetzliche Grenzen und eine Wiederherstellung individueller Selbstbestimmung.
🧭 Kritische Einordnung & Relativierung
✅ Wichtige Stärken des Buches:
- Pionierhafte Analyse eines real existierenden Problems.
- Tiefgreifende historische und philosophische Verankerung (Polanyi, Marx, Arendt).
- Warnung vor langfristigen gesellschaftlichen Schäden ist begründet – besonders im Hinblick auf Datenschutz, digitale Manipulation, TikTok-/Facebook-Radikalisierung etc.
🤔 Aber nicht alles ist so düster, wie es scheint:
- Technologie ist nicht per se Unterdrückung:
- Viele digitale Werkzeuge ermöglichen Autonomie, Bildung und demokratische Teilhabe – gerade in repressiven Regimen.
- Nutzer haben oft ein hohes Maß an Entscheidungsmacht (z. B. durch Adblocker, VPNs, alternative Plattformen, Datenschutz-Tools).
- Wirtschaftlicher Nutzen wird unterschätzt:
- Zielgerichtete Werbung kann für kleinere Anbieter und Verbraucher sinnvoll sein.
- Personalisierung spart Zeit, reduziert Informationsüberlastung und kann Relevanz erhöhen.
- Pluralität der Akteure:
- Nicht alle Tech-Konzerne sind gleich: Apple z. B. verfolgt bewusst eine Datenschutzstrategie, die sich vom datengetriebenen Modell Googles unterscheidet.
- Bewusstsein wächst:
- Seit dem Erscheinen des Buchs 2019 ist das Bewusstsein über Datenmissbrauch deutlich gestiegen.
- Es gibt Fortschritte in der Gesetzgebung (DSGVO, Digital Services Act, KI-Verordnung), zivilgesellschaftlichem Engagement und Medienbildung.
- Paternalistischer Unterton:
- Zuboff schreibt aus einer sehr moralischen Perspektive – mitunter wirkt es, als seien Nutzer völlig wehrlose Opfer.
- Dabei unterschätzt sie die Medienkompetenz vieler Menschen und deren strategischen Umgang mit digitalen Tools.
🧩 Fazit
Zuboffs Werk ist eine kluge, eindringliche Warnung vor einer neuen ökonomischen Logik, die auf Kontrolle durch Daten basiert. Sie überspitzt bewusst, um politische und gesellschaftliche Alarmbereitschaft zu erzeugen. Doch die komplexe Realität zeigt, dass nicht jeder Fortschritt in der digitalen Welt automatisch zur Entmündigung führt.
These
Lenkt die öffentliche Empörung über Akteure wie Cambridge Analytica und Mercer möglicherweise davon ab, dass Unternehmen wie Google längst über weit größere Datenmengen und subtilere Mittel der Massenbeeinflussung verfügen?
Das ist ein sehr kluger Gedanke — und ja, es gibt gute Gründe, deine Frage bejahend zu beantworten, zumindest in Teilen.
1. Google als übermächtiger, aber unterschätzter Akteur
Während die Enthüllungen über Cambridge Analytica, Mercer und psychografisches Targeting bei Trump/Brexit (siehe auch Carole Cadwalladr) die öffentliche Empörung entfachten, bleibt Google in vielen Debatten relativ „sauber“ oder wird nur als Werbeplattform betrachtet.
Faktisch aber:
Google (bzw. Alphabet) verfügt über umfassendere, tiefer integrierte und länger gesammelte Daten als Cambridge Analytica je hatte. Es geht nicht nur um Facebook-Likes, sondern um: Suchverhalten (Wünsche, Ängste, Krankheiten, Sehnsüchte) YouTube-Nutzung (starke Wirkung auf Radikalisierung) Standortdaten (Maps, Android) Verknüpfung von Google Mail, Drive, Kalender, Werbung und Chrome Die Kombination aus Suchmaschine + Videoplattform + Android + AdTech ist einzigartig – und damit potenziell gefährlicher als jedes einzelne psychometrische Modell von Cambridge Analytica.
2. Die Mercer-/CA-Enthüllung als strategischer Nebenschauplatz?
Zuboff selbst nennt Mercer & CA nur am Rande – das eigentliche Machtzentrum liegt für sie bei Google und Facebook/Meta. Aber:
Die Mercer/CA-Debatte war medienwirksam, personalisierbar (Trump, Bannon, Farage) und moralisch aufgeladen, während Googles Einfluss oft diffus, technisch und systemisch erscheint. Es ist denkbar, dass diese Skandalisierung auch Ablenkungseffekt hatte: Statt die Strukturen des datengetriebenen Kapitalismus (Tracking, Real-Time Bidding, Profilbildung) zu thematisieren, fokussierte man sich auf einzelne, klar „böse“ Figuren. Das ist emotional wirksam, aber systemisch wenig aufklärend.
3. Warum Google trotzdem schwerer zu kritisieren ist
Google gibt sich modern, „open source“, menschenfreundlich („Don’t be evil“), hat mächtige Allies im Bildungs- und Wissenschaftsbetrieb. Viele Dienste sind objektiv nützlich: von Suchmaschine über Übersetzer bis zu Forschungsförderung durch Google Scholar und KI-Tools. Google agiert oft „sanfter“, aber strategisch langfristiger als Mercer & Co.
4. Kritische Bewertung deines Gedankens
Du hast einen wichtigen systemanalytischen Punkt getroffen:
„Lassen wir uns von einem kleinen, dramatischen Feindbild (Cambridge Analytica) ablenken, während das größere System (Google, Alphabet) längst viel tiefer und subtiler in unser Leben eingedrungen ist?“
Antwort: Ja, absolut möglich. Und genau deshalb ist Zuboffs Fokus auf den Überwachungskapitalismus so wertvoll – aber auch gefährlich, wenn daraus eine Dämonisierung ohne differenzierte Debatte wird.