Digitalisierung: Fragiles Gleichgewicht

Die Digitalisierung führt nicht automatisch zu einem besseren Leben. Denn dafür müsste radikal umgedacht werden. Fünf Beispiele, wo es noch hapert, und zwei, die Hoffnung machen.

23.06.2023Text: Florian Wüstholz, Illustration: Timo Lenzen
Digitalisierung: Fragiles Gleichgewicht

Illustration: Timo Lenzen

Algorithmen, künstliche Intelligenz und Datensammlun­gen erreichen fast jeden Winkel des menschlichen Lebens. Dabei werden längst nicht alle auf die Reise mitgenom­men – stattdessen führt die Digitalisierung zu neuen For­men der Ausgrenzung. Andererseits finden manche Men­schen, die am Rand der analogen Gesellschaft leben, nur dank digitaler Mittel ihren Weg (siehe Surprise 548/23 und 550/23).

Klar ist: Die Digitalisierung ist eine vielschichtige Grat­wanderung. Diese zu meistern und die Chancen und Ri­siken auszuloten, haben sich digitale Ethiker*innen zur Aufgabe macht. Sie untersuchen, wie die Digitalisierung verantwortungsvoll ablaufen kann. Das vorläufige Fazit: Bestehende Ungleichheiten werden durch digitale Mittel alleine kaum je aus der Welt geschafft. Integration und die Ermächtigung von Minderheiten gelingen nur dort, wo sie explizit zum Ziel gemacht werden – sei es mit fai­ren Algorithmen oder dank Unterstützungstools für die Schwachen in unserer Mitte. Lässt man der Entwicklung einfach ihren Lauf, resultieren auch in der algorithmi­schen Welt Ausbeutung, Rassismus und Leistungsdruck. Ein flüchtiger Augenschein.

 

Überwachungskapitalismus

Ist von Kolonialismus die Rede, denken viele von uns wohl an Kaffee, Segelschiffe, Sklaverei und Genozid. Und an Länder, die sich in einem anderen Land Ressourcen an­ eignen, um damit schamlos ökonomischen Profit zu ma­chen. Im digitalen Zeitalter hat der Kolonialismus einen neuen Dreh erhalten: Digitalkonzerne wie Google oder Apple können ihre Produkte oft nur deshalb entwickeln und programmieren, weil sie enorme Datenmengen sam­meln, für die sie nicht bezahlt haben. Datenmengen, die sie sich in praktisch jeder digitalen Interaktion aneignen, ohne dass wir dazu unser Einverständnis geben. Denn jede Suchanfrage im Internet, jede Wegnavigation mit dem Smartphone und jede Verwendung von «smarten» Endgeräten generiert nebenbei interessante Daten, welche die grossen Digitalkonzerne zu nutzen wissen.

Das System dahinter bezeichnet die Soziologin Sho­shana Zuboff als «Überwachungskapitalismus». Das täg­liche Leben, unser Alltag und sogar unsere Körper gene­rieren durch die Digitalisierung Informationen, mit denen Konzerne wiederum neue Produkte entwickeln oder alte verbessern können – um daraus Profit zu schlagen.

Ein Beispiel: Die Fitnessuhren von Fitbit versprechen dank der Aufzeichnung von Puls, Schrittanzahl und so weiter ein gesundes Leben. Doch gleichzeitig liefern die Uhren an unseren Handgelenken dem Unternehmen eine Unmenge von Daten über unsere Körper und unser Leben. Diese nutzt Fitbit – ohne dafür zu bezahlen –, um ihre Uhren oder Apps weiterzuentwickeln und dann wieder an uns zu verkaufen. Ein Modell, das offenbar lukrativ ist: 2019 übernahm Google Fitbit für 2,1 Milliarden Dollar, um damit die eigenen digitalen Gesundheitsdienstleistungen zu verbessern. Der digitale Kolonialismus dreht sich nicht um Öl, Kautschuk und Bananen, sondern um die Spuren, die unser Leben im Netz hinterlässt.

Krankenkassen wünschen sich gesunde Menschen. Diese zahlen ihre Prämien, beanspruchen aber wenig Leis­tungen. Entsprechend versuchen die Kassen, ihre Kund*innen zu einem «gesunden Lebensstil» zu bewegen. Immer öfter geschieht das mit Apps – so auch bei der Helsana. Wer die Helsana+­App nutzt, kann täglich Punkte sammeln und Geldprämien erhalten. Bis zu 300 Franken win­ken im Jahr. Dafür muss man bloss die Anweisungen auf dem Smartphone befolgen. Wer ein Frühlingsrezept des Helsana Coach nachkocht und ein Beweisfoto einschickt, erhält 150 Punkte. Eine Runde durch den Wald joggen ist – mit der Fitnessuhr aufgezeichnet – 100 Punkte wert. Und 15 Minuten Achtsamkeitsübungen werden mit 50 Punkten belohnt.

Helsana ist kein Einzelfall. Apple, Google und Versi­cherungen auf der ganzen Welt geben vor, dadurch die «Gesundheit zu demokratisieren». Sie schwätzen uns di­gitale Mittel auf, damit wir «dieeigene Gesundheit in die Hand nehmen». Ein perverses Narrativ. Denn die teuren Gadgets mit Pulsaufzeichnung oder Schlafanalyse können sich nur jene leisten, die ohnehin genug Geld haben, um grundsätzlich gesund zu leben. Einer Schichtarbeiterin bringt es reichlich wenig, wenn sie von der Smartwatch ermahnt wird, ihren Schlafrhythmus zu «optimieren». Eine Alternative für Menschen mit weniger Geld ist, sich durch die Versicherungen überwachen zu lassen, um an günstige Prämien und Belohnungen zu kommen. Hinter der Demokratisierung steckt also eine Sortiermaschine: Entweder hat man das nötige Kleingeld zur Verfügung und lässt sein Leben datafizieren oder man ist schlicht selber schuld, wenn man krank wird – und ist dann wo­ möglich schlechter versichert.

100 MB

an Daten erfasst eine Smartwatch über den*die Träger*in pro Monat.

25 000

Kameras betreibt die SBB

Kein Gedicht ohne «clickwork»

Im Frühling 2023 verbreitete sich ChatGPT wie ein Lauf­ feuer. Das sogenannte Large Language Model (LLM) konnte wunderbare Konversationen führen, Gedichte im Stil von Homer schreiben, Code programmieren oder Lie­besbriefe verfassen. Damit das gelingen konnte, wurde ChatGPT in den Jahren zuvor mit einer gigantischen Menge an Daten gefüttert: aus Wikipedia, Newswebsites, Diskussionsforen, Büchern oder Patenten. So kamen ins­ gesamt mehrere hundert Gigabyte Daten zusammen – vieles davon urheberrechtlich geschützt.

Aber Achtung, schrieben die Entwickler*innen des Chatbots: «GPT­3 wurde mit willkürlichen Daten aus dem Internet trainiert und kann daher anstössige Inhalte und Sprache enthalten.» Diese Warnung kam nicht von un­gefähr. Denn was dabei herauskommt, wenn ein Chatbot ungefiltert auf die Welt losgelassen wird, erlebte Microsoft bereits am 23. März 2016. Damals veröffentlichte der Konzern den Chatbot Tay, musste ihn aber schon nach 16 Stunden wieder vom Netz zu nehmen. Innert kürzes­ter Zeit war Tay zu einer rassistischen, hetzerischen Soft­ware mutiert.

Um das bei ChatGPT möglichst auszuschliessen, wur­den in Kenia sogenannte Clickworker*innen ausgebeutet. Kenia gehört zu den weltweit wichtigsten Märkten der Gig Economy. Für weniger als 2 Dollar in der Stunde muss­ten die Angestellten am Laufmeter verstörende, anstössige und illegale Inhalte, die vom Chatbot produziert wurden, erkennen und kennzeichnen. Das deckte das Time­Ma­gazin auf. Dank der kenianischen Billigarbeiter*innen lernte das Programm, was erwünscht und was tabu war. Nicht nur war die Arbeit miserabel entlöhnt, sie war für die Menschen auch traumatisierend – täglich wurden sie mit höchst ver­störenden, künstlich produzierten Aussagen konfrontiert. All das, damit wir uns für die nächste Geburtstagskarte in Sekundenschnelle ein Haiku dichten lassen können.

Überwachung ist eine zweischneidige Sache. Es ist ein ausgesprochen effizientes Werkzeug, um die eigene Bevöl­kerung auf Kurs zu bringen und unerwünschtes Verhalten zu sanktionieren. Mit sogenannten Antennensuchläufen lässt sich zum Beispiel in der Schweiz rekonstruieren, wel­che Mobiltelefone – und damit welche Menschen – sich zu einem bestimmten Zeitpunkt im Umkreis einer bestimmten Funkantenne aufhielten. Zugegeben: Das kann bei der Auf­klärung von Verbrechen helfen oder die Suche nach vermissten Personen erleichtern. Es kann aber auch viele Un­schuldige treffen. So wurden nach einer Vergewaltigung in Emmen im Juli 2015 die Daten von fast 2000 Handys detailliert ausgewertet und 371 Männer mussten einen DNA­ Test machen.

Die Uhr ruft Hilfe

Und doch: Welche frisch gebackenen Eltern sind nicht froh über ein Babyphone? Bei der Carearbeit können Überwa­chungstools eine Erleichterung sein. Stürzt der alleinle­bende Vater im Badezimmer, wird das von der Smartwatch am Handgelenk sofort registriert – und die Uhr kann sogar automatisch Hilfe aktivieren. Menschen mit Demenz kön­nen dank GPS­Trackern mehr Autonomie, Bewegungsfrei­heit und Lebensqualität gewinnen. Sie und die Angehörigen wissen: Im Notfall werden sie gefunden. Eine Stütze für alle Beteiligten – aber auch sie mit Schattenseiten: Denn wie viel Überwachung bürden wir den Schwachen auf, nur da­ mit wir uns sicherer fühlen?

Die eGFR ist ein Wert, von dem die wenigsten gehört ha­ben. Es sei denn, Sie haben eine Niereninsuffizienz und befinden sich auf der Warteliste für eine Nierentransplan­tation. Denn die «estimated Glomerular Filtration Rate» schätzt, wie gut eine Niere noch funktioniert. Dafür sind in den Spitälern verschiedene Schätzformeln im Einsatz. Gemeinsam ist ihnen, dass sie Menschen rassifizieren. Wer vom Personal als «Schwarz» klassifiziert wird, erhält automatisch bessere Nierenwerte – was mitunter einen negativen Einfluss auf die Behandlung hat. Die Begrün­dung: Menschen mit dunkler Haut produzierten mehr Kreatinin pro Tag, was die Schätzung der eGFR beeinflusst. Die medizinische Beweislage dafür ist dünn und gespickt mit rassistischen Vorurteilen wie dem, dass Schwarze automatisch mehr Muskelmasse hätten.

So reproduzieren sich in Algorithmen die Vorurteile und rassistischen Diskriminierungen der analogen Welt. Weisse Menschen und Männer werden auf Bildern besser erkannt als Schwarze und Frauen. Beim «predictive po­licing» werden Menschen festgenommen oder kontrol­liert, weil sie im «falschen» Quartier wohnen und die «fal­sche» Hautfarbe haben. Und in Übersetzungssoftware werden Gender­Stereotypen reproduziert: «The doctor arrived on time» wird zu «Der Arzt kam pünktlich», aber «The nurse arrived on time» wird zu «Die Krankenschwes­ter kam pünktlich», dabei sind doctor und nurse im Eng­lischen weder weiblich noch männlich. All das verdeut­licht: Algorithmen sind nicht automatisch fair – und schon gar nicht objektiv.

Nur nicht auffallen

In Basel gibt es 1260 Überwachungskameras im öffent­lichen Raum. In Zürich dürften es über 4000 sein. Die SBB hat gemäss eigenen Angaben fast 25 000 Kameras instal­liert, dazu kommen tausende Kameras in Trams und Bussen. An deren Anblick haben wir uns gewöhnt, obwohl wir nicht wissen, was sich dahinter verbirgt. Viele Kame­ras sind heute «intelligent». Sie sind mit Software ausge­stattet, die Gesichter und Muster erkennen können. Oder sie lassen sich mit einem System in der Zentrale verbin­den, das diese Auswertungen in Echtzeit erledigt.

Der digital überwachte öffentliche Raum ist ein ge­fährlicher Trend. Wer ausschert oder sich «untypisch» verhält, ist suspekt. Menschen, die «herumlungern», wer­ den von intelligenten Kameras ebenso erkannt wie ein Entreissdiebstahl. Alles, was nicht in den geregelten Alltag passt, sticht heraus: eine gestürzte Person, jemand, der auf den Zug rennt oder in einem Mülleimer wühlt. Die automatisierte Gesichtserkennung, die potenziell alle von uns erfasst, ist lediglich die Spitze des Eisbergs.

Allzu gerne kritisieren wir autoritäre Überwachungs­methoden in fernen Ländern: Das Sozialkreditsystem in China oder die digitale Überwachung und Unterdrückung von Menschenrechtsaktivist*innen in Saudi­Arabien, Ecuador oder Griechenland. Was wir vergessen: Die glei­chen Werkzeuge sind längst unter uns. Wer heute einen Job sucht, wird vermutlich einem Algorithmus begegnen. Algorithmen entscheiden, was für Angebote wir im Netz zu Gesicht bekommen. Und sie entscheiden immer öfter auch darüber, welche Bewerber*innen überhaupt in die engere Auswahl kommen. Das erspart den Personalbüros das aufwendige Durchforsten der Bewerbungsdos­siers. Software wie HireVue oder Modern Hire kann au­ tomatisch entscheiden, wer weiterkommt, und schickt dem Rest eine Absage. Die Tools durchforsten Lebens­läufe nach bestimmten Kriterien und werten das Moti­vationsschreiben oder Stimme und Mimik in einem Be­werbungsvideo aus. Das hat seine Tücken: Weil die Systeme im Training auf bestehende Daten zurückgreifen, können sich bereits vorhandene Diskriminierungen im Betrieb weiterverbreiten: Arbeiteten bisher vor allem weisse Männer im Unternehmen, könnte das System ler­nen, dass weisse Männer bevorzugt werden müssen. Diese Diskriminierung gibt es auch im herkömmlichen Bewer­bungsverfahren – Algorithmen verfestigen sie weiter.

Dabei könnten Algorithmen und digitale Bewerbungs­prozesse unsere Vorurteile und Diskriminierungen statt­ dessen auch ausmerzen. Das versucht ein Team der Uni­versität Köln. Wenn man Algorithmen «nach den richtigen Kriterien aufsetzt und kontinuierlich mithilfe von Kon­trollmechanismen auf ihre eigene Diskriminierung über­ prüft, treffen Algorithmen fairere Entscheidungen als Menschen», argumentieren die Forschenden. Denn die algorithmische Auswertung könne auch aufzeigen, wo Diskriminierung überhaupt stattfindet, und entspre­chende Gegenmassnahmen einleiten.

Der flüchtige Augenschein zeigt: Algorithmen, Daten­sammlungen und Überwachung sind alles andere als All­heilmittel. Sogenannte technologische Solutionist*innen geben zwar vor, mit vielen Daten und schlauen Algorith­men noch das komplizierteste Problem gelöst zu bekom­men. Doch den Beweis dafür sind sie uns nach wie vor schuldig. Zukunftsweisender wäre zudem, Profit und Ef­fizienz nicht vor Gemeinschaft und Fairness zu stellen.

Mehr zum Thema Digitalisierung