Alle überwachen alle und werden dabei überwacht. Innerhalb nur eines Jahrzehnts haben wir den Gedanken an Privatheit scheinbar aufgegeben. Und es kommt noch besser. Willkommen in der „Gesellschaft der Wearables“!

„Die unüberprüfbare Möglichkeit des Überprüftseins hat entscheidende Prägekraft. Sie prägt die Bevölkerung als ganze,“ schreibt der Technikphilosoph Günther Anders – keineswegs jedoch in einer Zeit, in der man die Smartspeaker von Alexa und Co. stets in Hör-, die nächste Überwachungskamera in Sichtweite weiß. Anders notierte die Zeilen 1958, als in Kalifornien ein paar hundert „Wanzen“ und Fotoapparate zur Überführung von Verdächtigen eingesetzt wurden. Schon in dieser, aus heutiger Sicht minimalinvasiven Form der ‚Überwachung‘ – Anders sprach von „akustischem Hausfriedensbruch“ und einem fotografischen „Eigentumsdelikt: dem Bilderdiebstahl“ – erkannte der Philosoph, dass sich die Privatheit immer mehr auflöse, sukzessive antiquiert erscheine – sogar kriminalisiert werde. Wer solche Praktiken „selbstverständlich“ findet oder verharmlosend antwortet: „But I have nothing to hide“, dem entgegnete Anders bissig, dass dies nicht nur von „erschütternder Dummheit“ und „Gefährlichkeit“ sei, sondern dass „Scham bereits mit Unmoral identifiziert wird; und Schamlosigkeit mit Moral.“ 

2010-2020: Das Jahrzehnt der post privacy

Mehr als sechs Jahrzehnte, einige technische Innovationen, Silicon-Valley-Start-Ups und „I have nothing to hide“s später scheinen Anders‘ Ausführungen aktueller die Privatheit antiquierter denn je. Vor allem nach der jüngsten Dekade, die man von Anfang an, mit Anders gesprochen, ganz freigiebig zum Zeitalter der „Schamlosigkeit“ erklärte. Es lohnt sich also, die philosophischen Pointen in einer kurzen Genealogie der „post privacy“ zu betrachten, die spätestens seit 2010 eine neue Dynamik entwickelte: Schon im Januar verkündete der damals erst 25-jährige Facebook-CEO Mark Zuckerberg in einer Rede bei den Crunchie Awards in San Francisco, dass Privatheit nicht länger „eine soziale Norm“ sei. Vielmehr hätten sich die Wertigkeiten der User durch das Internet längst geändert, man sei nun ganz anders connected, teile gern – und natürlich viel: „People have really gotten comfortable not only sharing more information and different kinds, but more openly and with more people,“ bekräftigte der CEO nicht ganz uneingennützig einen veränderten Status quo: „That social norm is just something that has evolved over time”.

Die nachdrückliche Befürwortung der, wie es einst Vilém Flusser ausdrückte, „totalen Publikation“, des Zustandes also, in dem sich das Private veröffentlicht, kam für Expert_innen kaum überraschend. Denn Facebook hatte nur wenige Wochen zuvor eine paradigmatische Änderung seiner Standardeinstellungen vorgenommen, die Privacy-Aktivist_innen weltweit entrüstete: Sämtliche Statusupdates oder gepostete Fotos der damals „nur“ 350 Millionen User_innen würden nun automatisch öffentlich einsehbar sein. Es sei denn, man schaltete sie explizit nur für ausgewählte friends frei: „We’ve worked hard to build controls that we think will be better for you“, so Zuckerbergs Statement dazu. All dies geschah mit einem klaren Auftrag. Dem jungen CEO ging es, wie er selbst sagte, nicht um Profite. Man wolle die Welt vielmehr „enger zusammenbringen“, versprach sich mit der neuen Transparenz mehr Offenheit, mehr Freiheit und Selbstermächtigung: By giving people the power to share, we’re making the world more transparent. Nur wurde eben nicht die ganze Welt, sondern zuerst jede auf Facebook registrierte Einzelperson für den Rest der Welt durchsichtig gemacht.

Daten nicht so einfach teilen wollen? Ziemlich egoistisch, oder? (Illustration: Manuel Wesely).

So massiv dieser Eingriff auch war, stellt er keineswegs einen Einzelfall dar – sondern brachte vielmehr zum Ausdruck, dass einige Konzerne aus dem Silicon Valley tatsächlich ganz eigene, neue Regeln schrieben. Nur wenige Tage vor Zuckerbergs Rede zur Lage der Privatheit hatte auch Google angekündigt, in seiner Suchanzeige verstärkt Informationen von Social-Media-Seiten zu berücksichtigen. Hatte es schon Jahre zuvor geheißen, „Information wants to be free“, wolle man neben der „real-time-search“ auch intensiver auf automatische Bilderkennung setzen: „It’s our goal to be able to visually identify any image.“ Als der damalige CEO Eric Schmidt darauf hingewiesen wurde, dass sich mit den Zeiten „totaler Publikation“ auch die Ein- bzw. Übersicht der Konzerne verstärke, und dass dieser Eingriff in die Privatsphäre problematisch sein könne, entgegnete er anders als Zuckerberg nicht mit dem Verweis auf angeblich verschobene Normen. Vielmehr stellt er ihnen, als wolle er Günther Anders‘ damalige Befürchtungen updaten, ein pseudo-moralisierendes Credo entgegen: „If you have something you don’t want anyone to know, maybe you shouldn’t be doing it in the first place.“ Ganz einfach also.

„Don’t be evil“: Nicht nur sharing is caring

So eindringlich und bedenklich diese Äußerungen wirken, so stilbildend waren sie für das Jahrzehnt. 2011 diskutierte man Bücher wie Post-Privacy. Prima leben ohne Privatsphäre, das den Datenschutz als hinderlich, die Transparenz als Grundlage neuer Formen vernetzter Solidarität ansah oder Titel wie What’s Mine Is Yours, in dem die blühenden Landschaften der Sharing Economy beschworen wurden. Privatsphäre erschien angesichts der unbegrenzten, digitalen Möglichkeiten so sexy wie ein Leitz-Ordner, und so irritiert es kaum, dass Vertreter_innen der sogenannten Post-privacy-Bewegung verkündeten, dass Daten-Unternehmen zwar unsere öffentlichen wie nichtöffentlichen Profile im algorithmischen Visier hätten, im Vergleich zu Staaten aber über keine Macht verfügen würden: „Google hat keine Wasserwerfer und Facebook kann mir nicht die Tür eintreten.“ 

Narrative wie diese erfuhren nicht nur durch die Arabellion – damals auch euphemistisch „Facebook-Revolution“ genannt – diffuse Strahlkraft: 2013 machte der Whistleblower Edward Snowden mit seinen Enthüllungen rund um die Programme PRISM, Tempora und so weiter die staatliche Überwachungsinfrastruktur der „Five Eyes“ bekannt. Vor diesem dunklen Hintergrund konnten sich die Freund_innen der demokratischen Vernetzung alias Zuckerberg & Co. lange als regierungskritischer counterpart oder zumindest neutrale Plattformen präsentieren, die nie freiwillig oder aktiv an der Überwachung der Massen partizipiert hatten. Zwar war man häufig „public-private-partnerships“ eingegangen – Google hatte etwa durchaus mit dem Pentagon zusammengearbeitet. Doch oft hieß es im Nachklang der Geheimdienstaffäre, dass man eher den Unternehmen als den Staaten vertrauen könne, dass das „nothing to hide“ den freien Services, der weltumspannenden openness diene, kurz: „Don’t be evil.“

Nur wenig erstaunlich war es also, dass sich trotz neuer Bedenken ob der immer krasseren Datenakkumulation noch länger die Erzählung fortschrieb, dass das Ende der Privatheit per se nichts Schlechtes sein müsse und die Chancen so manch potenzielle Risiken überlagerten. Selbst als im US-Präsidentschaftswahlkampf 2016 immer klarer wurde, dass im Windschatten der von Zuckerberg heraufbeschworenen „meaningful social interactions“ auch die Phänomene der Fake News, Hate Speech oder dark ads zu handfesten Problemen geworden waren und sich eine einfallsreiche Industrie auf den Plattformen in feingetuntem Online-Targeting übte, schrieben die Apologet_innen der post privacy weiterhin Geschichte. Der Stanford-Professor Michal Kosinski, dessen Forschung als Grundlage für die im Trump-Wahlkampf involvierte Firma Cambridge Analytica fungierte, ging beispielsweise noch 2017 mit seiner Keynote „The End Of Privacy“ monatelang auf Promo-Tour. Wer in Zeiten von Big Data noch die Privatsphäre in Anspruch nehme, so die These des Wissenschaftlers, behindere den gesellschaftlichen Fortschritt. Kurz: Es sei egoistisch, die eigenen Daten nicht zu teilen. 

Als die Verwicklungen dieser Sichtweise 2018 mit dem Whistleblower Christopher Wylie und der illegalen Auswertung von 85 Millionen Facebook-Profilen durch Cambridge Analytica offenkundig wurden und also immer klarer schien, dass Facebook schon qua Geschäftsmodell ‚leckte‘, geriet die fröhliche Wissenschaft vom Datenrausch zwar immer mehr in Verruf –  Zuckerberg verkündete, nachem er zwischen allerlei Untersuchungsausschüssen pendelte, schadensbegrenzend sogar: „The future is private.“ Doch wirklich gravierende Änderungen im Betriebssystem blieben aus. Weiterhin wird von Facebook jede Regung studiert, wurden die Präferenzen, Likes, Shares, Klicks erfasst und die User_innen für einen „besseren Service“, das heißt zu Werbezwecken profiliert. Sogar nie abgeschickte Privatnachrichten oder Statusupdates speicherte das Unternehmen auf seinen Servern, und so heißt es noch immer: sharing is caring – auch dann, wenn nicht alles geteilt wird. 

Das „Geschäft der Kontrolle“: all watched over by machines of loving grace

Was in solchen Praxen mitschwingt: Das kalifornische Versprechen von Transparenz, openness, connectedness – oder welches euphorische buzzword man auch immer gebrauchen mag – fußt nicht nur auf einem recht verzerrten Verständnis von Privatheit. Es camoufliert vielmehr eine systematische Lust an der Kontrolle, die in der Geste der Weltverbesserung sämtliche Bereiche des (Online-)Lebens unter Beobachtung stellt, diese fast ‚mitfühlend‘ vermisst, um sie doch nur als Ware zu verkaufen. Die Harvard-Professorin Shoshana Zuboff sprach so unlängst von einem um sich greifenden „surveillance capitalism“, in dem sich die emanzipativen Verheißungen des Internets durch die Konzerne aus dem Silicon Valley so verformten, dass sich eine ganz eigene Industrie des Überwachens und Ratens entwickelt habe – all watched over by machines of loving grace.

Eine Überwachungskultur, in der es immer mehr zum Leben gehört, im Augenschein der Anderen zu stehen (Illustration: Manuel Wesely).

In diesem datengesättigten Maschinentraum lassen sich dann, grob gesprochen, zwei Perspektiven unterscheiden: Einerseits werden durchaus die Grundzüge eines klassischen Panoptismus, wie ihn Foucault anhand der Benthamschen Gefängnisarchitektur beschrieb, kenntlich. Jeremy Bentham, ein utilitaristischer Reformer und radikaler Aufklärer, konzipierte im 18. Jahrhundert  eine Kontrollarchitektur für „Besserungsanstalten“, in denen die kreisförmig angeordneten Zellen mitsamt der Insassen von einem einzelnen Aufseher im mittigen Turm aus beobachtet werden konnten. Die Sichtverhältnisse waren dabei asymmetrisch: Während der Beobachter die Gefangenen transparent im Blick hatte, sahen diese nie, ob der Turm besetzt war, wussten sich jedoch immer im potenziellen Sichtfeld eines allsehenden Auges. Überträgt man dieses Bild in die Optik der digitalen Gegenwart und verortet das „Geschäft der Kontrolle“ (Bentham) am Back-End bei Facebook & Co., lassen sich die einseitig-intransparenten wie zentralisierten Sichtachsen der unsichtbaren Wächter des panoptischen Rundbaus mit denen der ‚umsichtigen‘ Konzerne und ihren (geschäfts-)geheimen Algorithmen gleichsetzen. 

Andererseits kann man, und dies ist vielleicht entscheidender, vor allem auf der Nutzer_innenebene – sogesehen am Front-End – wie der Soziologe Thomas Mathiesen von einem „Synoptikum“ sprechen, an dem jede_r User_in selbst partizipiert. Nach dem Prinzip „die Vielen beobachten die wenigen“ sind wir alle Teil der Ökonomie der Blicke, die mit jedem geteilten Urlaubsfoto, jeder Instagram-Story oder lustigen Facebook-Challenge die Voyeur_in in uns affiziert und mit jedem Like, Herzchen oder Kommentar – jedem Rating – weiter eskaliert. Beide Ebenen, die panoptischen wie synoptischen Einsichten, wirken dabei verknüpft, ergänzen sich im Schnurren der Systeme gegenseitig. Schließlich formieren sie ein „Sichtbarkeitsregime“, das den_die Einzelne_n weniger aus Gründen klassischer Disziplinierung denn vielmehr unter dem Gesichtspunkt kommerzieller Profilierung beobachtet – eine Praxis, die so sanft wie konsequent die Überwachung von allen und jedem normalisiert, zur alltäglichen user experience macht. 

Vor diesem Hintergrund ist es wohl auch mehr als eine Randnotiz, dass man bei Facebook zwar noch immer nicht über Wasserwerfer verfügt oder Türen eintritt, wohl aber mit dem in den USA oder Indien seit 2018 eingesetzten „Suicide-Alert-System“ Polizist_innen bei Nutzer_innen anklopfen lässt, wenn ihre letzten Posts zu trübselig erschienen. Vertrauen ist gut, Kontrolle – diesen Leitspruch beherzigt man auch im Silicon Valley – ist besser. So verschwimmen dann zuweilen nicht nur die Grenzen von staatlichen und kommerziellen Instanzen der Überwachung. Es entwickelt sich auch eine Überwachungskultur, in der es immer mehr zum Leben gehört, im Augenschein der Anderen zu stehen.

Der Panoptismus der Wearables: fitter, happier, more productive

In den letzten Jahren der Dekade kündigte sich dann fast folgerichtig ein noch profilierteres Update panoptischer Spielarten an. Denn die IT-Giganten aus dem Valley erkundeten, neben den üblichen Betätigungsfeldern, mit Vehemenz neue Märkte, übten sich immer nachdrücklicher im reality mining und forcierten, um es konkret zu machen, mit der Entwicklung smarter Gadgets und Wearables auch die Vermessung der Körper. Während Google Ende 2019 für 2,1 Milliarden den Fitnesstracker-Hersteller Fitbit – man konnte Facebook überbieten – erwarb und erklärte, man wolle Innovationen im Wearable-Bereich ankurbeln, um „noch mehr Menschen auf der Welt Benefits zu bieten“, führt Apple mit der hauseigenen Smartwatch schon länger das Feld an. Man will, wie CEO Tim Cook bei der Präsentation der Apple Watch Series 5 verkündete, „allgegenwärtig“ sein. 

Die skeptische Auseinandersetzung, welche noch 2014 die Entwicklung von Googles Augmented-Reality-Brille Google Glass begleitet hatte und dem Transparenztraum auf offener Straße ein vorläufiges Ende (Stichwort: glassholes) setzte, müssen die neuen tragbaren Technologien kaum mehr fürchten. Das liegt auch daran, dass die Tech-Konzerne eine klügere Kommunikationsstrategie fahren. So werden die anschmiegsamen Apparate heute als praktisch-vermessende Antwort auf drängende Gesundheitsfragen – von der alltäglichen Pulsmessung bis zur Behandlung von Typ-2-Diabetes – verkauft. Mit ihrer schlanken Formsprache und den schwarzen, spiegelglatten Oberflächen gelten sie dabei nicht mehr nur als hübsche Accessoires formbewusster Selftracker_innen, sondern verbinden dank sensibler Sensorik und Big Data immer häufiger auch das Ich mit dem Wir – werden als Tool kollektiver Selbstsorge neu etikettiert. 

Wie dies genau ausschaut, kann man anhand Googles Großprojekt „Baseline“ beobachten. Dort vermisst man seit 2018 über die eigens vom Subunternehmen Verily (vormals Google Life Sciences) entwickelte study watch über vier Jahre hinweg von deren Schrittzahl bis zum Schlaf jede körperliche Regung von 10000 freiwilligen Proband_innen – und sucht mit dem panoptischen Blick neues Licht in das Schattenspiel der menschlichen Gesundheit zu bringen. Dabei darf sich jede_r Teilnehmer_in, wie es im Werbevideo zum Projekt heißt, als Teil eines „Movements“, einer „Community“ fühlen, die den „Kurs der Menschheit“ auch über das Jahrzehnt hinaus verändert: „Together we can invent the future of data-powered healthcare“. Diese annoncierte Bedeutsamkeit muss dann freilich – wie wäre es auch anders zu erwarten, nachdem Facebook & Co. uns im Strom der Likes und Shares bereits seit Jahren zu unbezahlten workaholics anleiten – der einzige Lohn bleiben: Wer sich so fürsorglich behandelt und selbstlos datiert weiß, kann für seine „Mitarbeit“ an der Gesellschaft der Wearables, dies steht in den AGBs, nicht darauf hoffen, bezahlt oder an zukünftigen Profiten beteiligt zu werden. Jede soziale connectedness, dies wissen die Konzerne, hat ihre Grenzen.

Synoptische Verbindlichkeit: „Freunde sind die besten Gegner“

Neben den neuen panoptischen Einsichten – auch Apple arbeitet aktuell an Studien zum Zyklustracking und zur Hörgesundheit –, die sich Google durch Baseline verspricht, ermöglichen die Wearables gleichzeitig einen klar akzentuierten, synoptischen Fokus. So bietet etwa eines der wichtigsten Features der Apple Watch die Gelegenheit, Fitness-Wettbewerbe zu initiieren, bei denen es weniger um die Vermessung der Körper als um den gegenseitigen Leistungsvergleich geht – „Freunde“, heißt es, „sind die besten Gegner“. Stets erhalten die Kontrahent_innen im spielerischen Agon „Wettbewerbs-Updates“, die sie über die gegenseitigen Performances auf dem Laufenden halten: „so weißt du genau, wie viel du dich bewegen musst, um zu gewinnen.“ Die wechselseitige Sichtbarkeit forciert dabei eine Dynamik permanenter Selbst- und Fremdüberwindung, verfestigt nicht nur die Imperative der Optimierung und Fitness. Sie macht ganz einfach klar, dass man mit dem Wearable am Handgelenk immer beides ist: Freund und Gegner, Exhibitionist und Spitzel – Überwacher und Überwachtes. 

Bei solchen „Spielereien“ scheint der klassisch-institutionalisierte Kontrolleur jedoch nie weit zu sein. Während Fitbit in Singapur gleich mit dem Health Promotion Board der Regierung zusammenarbeitet und bis zu einer Millionen Bürger_innen des Inselstaats mit Fitnesstrackern ausstatten will, werden diese aktuell auch immer häufiger von hiesigen Krankenversicherungen in ihre Bonusprogramme eingebaut. Die Versicherten sollen dabei mit gezielten Anreizen (beispielsweise Gutscheine für Amazon oder den Apple App Store) und fröhlich gamifizierten Prämienmodellen zu einem gesünderen Lebensstil motiviert werden, sodass eine angeleitete Selbstkontrolle im Gewand des Angebots, des freundlichen Services daherkommt. Was Michel Foucault in Überwachen und Strafen noch mit Blick auf die alten Verfahren der Disziplinierung beschrieb, kann dank Wearable scheinbar sehr viel reibungsloser funktionieren: „derjenige, welcher der Sichtbarkeit unterworfen ist und dies weiß, […] internalisiert das Machtverhältnis, in welchem er gleichzeitig beide Rollen spielt; er wird zum Prinzip der eigenen Unterwerfung.“ 

Kein Turm mehr inmitten des Panoptikums, höchstens Reflexe unserer selbst im schwarzen Spiegel (Illustration: Manuel Wesely).

Dass die versichernden Motivationsprogramme bei aller Transparenz auch eine Schattenseite haben, ist so logisch wie intendiert. Wer nicht an sich arbeitet und also die Anstöße (engl. nudges) eines fitteren, gesünderen Ichs an sich abprallen lässt, gilt schnell als unvernünftig, faul, verantwortungslos. Nicht ausgeschlossen ist, dass man sich vielleicht alsbald mehr als nur böse Blicke (der Versicherung) gefallen lassen, sondern schließlich sogar mehr für seine Krankenfürsorge zahlen wird: einige Versicherungen in den USA machen das Tracking-Device und die panoptische ‚Leistungsschau‘ –  eine Art social credit score – bereits obligatorisch. Schon aus Kostengründen kann man schnell zur Mitarbeiter_in der eigenen Deprivatisierung werden: privacy becomes a luxury.

Angesichts des immer ausgeprägteren Hangs zur Gadget-gestützten (Selbst-)Kontrolle verwundert es kaum, dass auch Unternehmen wie Facebook mittlerweile über sensibelste Gesundheitsinformationen verfügen. Eine Auswertung des Wall Street Journal zeigte im Februar 2019, wie zahlreiche Health-Apps Daten an den Konzern weitergaben – von der Herzfrequenz über das Gewicht bis zum Tracking der Menstruationszyklen. Zwar etabliert sich langsam – siehe DSGVO oder die ePrivacy-Verordnung der EU – ein Rechtsrahmen, der den ungezügelten Datenverkehr eindämmt. Doch scheinen die Konzerne aus dem Silicon Valley – trotz der ‚reumütigen‘ Ernennung allerlei „Chief Privacy Officers“ – mit dem Einstieg in neue Erwerbsfelder weiterhin lukrative Wege zu beschreiten, die ihre Informationsquellen sprudeln lassen; die aber, wie das European Data Protection Board über Googles merge mit Fitbit verkündete, auch weiterhin „ein hohes Risiko für die Privatsphäre und den Datenschutz mit sich bringen.“ Die deutsche Verbraucherzentrale erklärte schon im November 2019, dass die 28 Millionen Nutzer_innen Fitbits ihre Daten nur „schützen“ könnten, indem sie sie löschten. Eine Reaktion, die der Resignation recht nahekommt. Und dabei aufzeigt, dass wirkliche Datensouveränität – gerade mit Blick auf die Regulierung eines globalen Datenverkehrs – in Zeiten der connectedness aktuell nur wenig realistisch scheint.

Am Ende der Dekade: The future is private?

Im Rückblick bleibt schließlich mindestens zweierlei festzuhalten: Einerseits hat sich im digitalen Kapitalismus ein „asymmetrisches Transparenzverhältnis“ (Steffen Mau) herausgebildet – ein Modus der kommerziellen Kontrolle, in dem eine kleine Zahl von Unternehmen über die Daten von Millionen verfügt, sie als Lohn ihrer („kostenlosen“) Dienste ansieht und gewillt ist, dieses panoptische „Sichtbarkeitsregime“ weiter auszubauen. Andererseits muss selbstkritisch erkannt werden, dass wir User_innen zuweilen ganz selbstbestimmt an den synoptischen Sichtverhältnissen partizipieren, mit unserem Nutzer_innenverhalten zu „Komplizen der Erkennungsdienste“ (Andreas Bernard) werden. Die individuellen Vorteile – vom anerkennenden Like für das gepostete Foto bis zum Amazon-Gutschein der Versicherung – überstrahlen allzu häufig die sozialen Konsequenzen und damit die Risiken einer immer detaillierteren Überwachung. Dass uns die Dienste mit ihren Gadgets und Wearables immer näher kommen, sich um unsere Gesundheit ‚bemühen‘, macht es umso schwieriger, sich ihren Sichtweisen zu entziehen. Denn wer kann von sich noch behaupten, sich nicht anzuschließen, nicht den Regeln des Überwachen und Ratens folgen zu müssen, nicht von den „Spielen“ der Beobachtung erfasst zu werden?

Das Panoptikum der post-privacy-Ära erscheint so weder als Ort, der eindeutig lokalisierbar wäre noch als Architektur, die klare Sichtachsen prägt. Es markiert vielmehr ein zeitgenössisches Welt- und Selbstverständnis, das die Freuden allgegenwärtiger connectedness an die Verbindlichkeiten der Überwachung, die weitläufigen Freiheitsversprechen an eine immer enger anliegende Technik bindet. Anders als früher sehen wir dann auch keinen Turm inmitten des Panoptikums, sondern höchstens Reflexe unserer selbst – im schwarzen Spiegel. Vielleicht war es genau das, was Zuckerberg meinte, als er sagte: The future is private.

Postskriptum über die Transparenzgesellschaften

P.S.: Im Januar 2020 erschien in der New York Times der Artikel „The Secretive Company That Might End Privacy As We Know It“ über das einer breiteren Öffentlichkeit bis dato unbekannte Start-up Clearview. Das Unternehmen hat eine automatische, und via App leicht gebräuchliche Bilderkennungssoftware entwickelt, die mit angeblich 75-prozentiger Wahrscheinlichkeit Menschen anhand eines simplen Fotos identifizieren kann – unsere Fotodatenbanken auf Facebook und Co. machen es möglich. Der Kund_innenkreis beschränkt sich aktuell auf Strafvollzugsbehörden in den USA, die die App bereits erfolgreich eingesetzt haben sollen, um Fälle von Diebstahl bis zu Tötungsdelikten aufzuklären. So scheint mit Clearview eine neue Ebene der „totalen Publikation“, der Transparenzgesellschaft erreicht; eine Ebene, bei der der von Günther Anders beschriebene „Eigentumsdelikt: der Bilderdiebstahl“ eine ganz eigene Qualität entfaltet. 

Selbst der Unternehmensgründer Hoan Ton-That bemüht sich gar nicht erst, die „Strahlkraft“ seiner Erfindung zu kaschieren: „Sure, that might lead to a dystopian future or something”, wird er im Times-Artikel zitiert. Aber Technologie lasse sich – zumindest nach seiner Meinung – nicht verbieten: „you can’t ban it.“ Wenige Wochen später wurde bekannt, dass Clearview die eigene Kundenliste abhanden gekommen war, dass diese gestohlen wurde. Die Kunden auf der Liste sollen, so berichtete Buzzfeed zuletzt, Banken wie Wells Fargo, Supermarktketten wie Walmart, aber auch europäische Polizeien sein. In diesem Sinne: welcome to 2020, the next decade of post-privacy.

Von den Autor_innen ist zuletzt das Buch Die Gesellschaft der Wearables bei Nicolai Publishing & Intelligence erschienen.

Dieser Text hat dir gefallen? Super, ging aufs Haus! Und pssst, es gibt noch viel mehr davon. Ein SPEX-Abo mit täglichen Texten und Thesen bekommt ihr bereits für 24€/Jahr oder 15€/Halbjahr.