Fallstricke von sozio-technischen Systemen
Technische Systeme begleiten uns in unserem Alltag, interagieren mit uns, beeinflussen uns und leiten unsere Entscheidungen. Doch diese Systeme bestehen nicht nur aus einem technischen Aspekt allein, sondern sind viel mehr sozio-technisch in konkrete menschliche Anwendungs-Kontext eingebunden. Ein Beispiel für ein solches sozio-technisches System ist z.B. Google Maps.
Diese sozio-technischen Systeme werden jedoch oft als objektive Lösung und nicht in ihrer politischen Wirkung wahrgenommen. Dieses pseudo-neutrale Bild von sozio-technischen Systemen ist in der Folge auch ein gesellschaftlicher Fallstrick, denn die Entwicklung dieser Systeme wird selten als politisch erkannt, obwohl diese Systeme sehr wohl politischen Annahmen implementieren und durchsetzen.
Die Prinzipien, die in diesen Systemen wirken, sind aber viel eher durch ökonomische, technische und organisatorische Faktoren bestimmt, die damit im Hintergrund politische Entscheidungen beeinflussen. Der Einsatz solcher Systeme vollzieht damit eine Verschiebung von transparenten, politisch-verankerten Entscheidungsprozessen in den intransparenten Bereich der technischen Systeme, in welchen Neutralität bloß vorgegaukelt wird. Problematisch ist jedoch nicht nur der Einsatz als solches, denn sind diese Systeme erstmal implementiert, ist es schwer, sie wieder loszuwerden.
Es drängt sich deshalb die Frage auf: Wie gehe ich mit diesen ganz diversen, tief in die Gesellschaft eingebetteten sozio-technischen Systemen um, die politische Annahmen treffen?
Diese starke gesellschaftliche Verknüpfung wird am Beispiel von Google Maps klar, welches nicht nur ein singuläres System als solches ist, sondern viel eher ein Ökosystem. Ein Ökosystem, dass viele Nachahmer und Abnehmer hat, die letztlich bestehende politische Annahmen dieser technischen Systeme übernehmen und reproduzieren. Wenn Google Maps dem User auf einen Blick eine Auswahl an Möglichkeiten präsentiert, wie man eine Strecke bewältigen kann und dabei die Mobilitäts-Möglichkeiten anzeigt: Gehen, öffentliche Verkehrsmittel, Fahrrad und Autos angezeigt werden, wird dadurch dem User ein neutraler und objektiver Schein des Vergleichs suggeriert. Ob dabei Annahmen getroffen wurden, wie zum Beispiel, wie normal ist es, dass Parkplätze existieren oder wie normal es ist, dass bestimmte Routen zu Fuß gegangen werden können oder mit dem Fahrrad bewältigbar sind, kann zu unterschiedlichen Empfehlungen und Ergebnissen führen.
Auch der kulturelle Kontext der Annahmen ist entscheidend, wie solche sozio-technische Systeme entwickelt werden. Die politische Dimension von Google Maps ist augenscheinlich und geeignet, um einen kulturellen Kontext zu beschreiben. Diese, dem technischen System zu Grunde liegenden Annahmen ist gespeist aus den 90er Jahren stammenden Bild der amerikanischen Städte, welches seine Annahmen auf Innenstädte in Europa zu übertragen versucht. Diese Replikationen von Annahmen leben fort, selbst wenn die städtische Infrastruktur sich verändert hat, und im schlimmsten Fall machen die wiederverwendeten Annahmen Situationen für Menschen durch ihre verzerrten Empfehlungen schlechter oder schlimmer als sie gegenwärtig sind.
Außerdem kann sich die Gemengelage der Annahmen ändern, am Beispiel von Google Maps, wäre das etwa die Klimakrise oder die Anpassung von städtischem Raum an neue Bedürfnisse. Sozio-technische Systeme haben aber weiters auch ein infrastrukturelles Element, das über das System als singuläre Komponente hinausgeht. Denn Google Maps stellt nicht nur die Karte bereit, sondern auch eine Application Programming Interface (API), also eine technische Schnittstelle im Hintergrund, die dann von ganz anderen Systemen als Grundlage genutzt wird, um deren Systeme zu entwickeln und mit Daten zu speisen wie z.B. für die Entwicklung von Apps, die Fahrtendienste anbieten. Damit beeinflussen die Annahmen, die Google Maps trifft, einen weiten Bereich anderer Systeme.
Die Entscheidungen, die auf der Grundlage dieser Systeme getroffen werden, können aber auch viel längerfristiger Menschen prägen als die Wahl des Mobilitätsmittels. Wenn z.B. Google Maps als Entscheidungsgrundlage für den Kauf bzw. Miete von Immobilien zu Rate gezogen wird oder Distanzen von Schulwegen das Zünglein an der Waage für oder gegen eine Bildungseinrichtung ist. Aber auch der wissende User ist vor diesem Fehltritt nicht gefeit, denn es ist vielmehr ein kollektives Problem, das hier zu Tage tritt – Wissen schütz vor Beeinflussung nicht.
Wenn man also dieser Art der technischen Beeinflussung nicht entkommen kann, ist eine gängige Antwort, sich dieser Technik einfach zu entziehen. Also ein System einfach nicht zu benutzen. Entzieht man sich aber, ist das Bild, das entsteht, nicht selten stigmatisiert. Man ist Außenseiter des Systems, man muss seine Handlung gesellschaftlich rechtfertigen und wird im schlimmsten Fall von politischen und gesellschaftlichen Leistungen und Diskussionen ausgeschlossen.
Denn auch mit ausgeschaltetem Nicht-Smartphone ist man vom selben Problem betroffen, weil man keine ausreichende Kontrolle und keinen Einblick in diese digitale System-Welt hat. Die physische Manifestation der Systemnutzung ist aber trotzdem gesamt-gesellschaftlich da – unabhängig davon, ob man technische Systeme benutzt oder nicht.
Denn nicht nur die Nutzung kann Problem sein – auch das Verweigern kann konkrete Effekte verursachen. Gibt es keine (historischen) Daten zu einem Menschen, kann ein technisches System einen solchen Fall benachteiligen. Die Datenschutzgrundverordnung (DSGVO) kennt aber nicht nur das Recht, vergessen zu werden und das Prinzip der Daten Minimierung, sondern sieht auch Normen vor, Daten richtig zu stellen und zu korrigieren. In diese Kerbe schlägt auch Nishant Shah der einen Ansatz für das Recht auf einen Datenpunkt vertritt. Also das Recht ein Datenpunkt in einem System zu sein. An der Inklusion in einem Datenset oder System können staatliche Leistungen, gesellschaftliche Entscheidungen oder organisatorische Details getroffen werden.
Die Bereitstellung von Daten ist notwendig, um staatliche Fördermittel und Serviceleistungen in bestimmten Bereichen, oder Anrecht auf bestimmte Dienste zu erhalten. Gleichzeitig ist die Reduktion von Daten in vielen Bereichen erwünscht, wie im Prinzip der Daten Minimierung der DSGVO. Die Minimierung von gespeicherten Informationen über einen Menschen wird auch von denen verlangt, die gerne ihre Privatsphäre schützen würden. Diese Differenz zwischen Visualität als Daten Subjekt das Recht ein Datenpunkt zu sein – und Privatsphäre auf der anderen Seite scheint paradox und frustrierend.
Deshalb ist eine demokratische Verankerung von sozio-technisches Systemen der Ankerpunkt für eine offene, informierte und transparente Diskussion über die Herausforderungen und Bedürfnisse der Systeme, aber vor allem der Menschen, die von ihnen beeinflusst und betroffen werden. Auf dem gesellschaftlichen Weg, hin zu einer solchen demokratischen Verankerung, unterstützt uns Wissen, Aufklärung und Transparenz über sozio-technische Systeme und verhindert bestenfalls das Stolpern über ihre inhärenten Fallstricke.
Kurzportrait
Ben Wagner ist Assistant Professor an der Fakultät für Technologie, Politik und Management (TPM) und Direktor des AI Futures Lab an der TU Delft, sowie Professor für Medien, Technologie und Gesellschaft bei Inholland. Seine Forschung konzentriert sich auf Menschenrechte in digitalen Technologien sowie die Governance von sozio-technischen Systemen.
Kurzportrait
Marie-Therese Sekwenz ist Doktorandin am Institut für Technologie, Politik und Management der TU Delft und Mitglied des AI Futures Labs der Universität. Als Mitglied des AI Futures Labs Community stellt sie sich Fragen zu Aspekten von Recht und Gerechtigkeit im Kontext der Zukunft der Arbeit von Content Moderatoren großer Plattformen und ihrer Regulierung. Ihre Forschungsschwerpunkte sind Content Moderation, Plattform-Regulierung, Künstliche Intelligenz (KI) sowie soziotechnische und rechtliche Systemgestaltung. Marie-Therese hat an der Wirtschaftsuniversität Wien, sowie and der Graduate School of Management in St. Petersburg Wirtschaft, Recht und Information Systems studiert.
Darüber hinaus ist Marie-Therese als Journalistin für den Österreichischen Rundfunk (ORF) tätig. Dort arbeitet sie für Formate wie Diagonal oder Radiokolleg.