‹Technik ist nicht wertfrei›. Wir brauchen mehr demokratische Prozesse in der Technologieentwicklung
Gespräch mit Jutta Weber
Jutta Weber ist Technikforscherin und Professorin für Mediensoziologie an der Universität Paderborn.
Das Gespräch führte Violetta Bock.
Sie sind unter anderem von der feministischen Technowissenschaft geprägt. Worum geht es da?
Die feministische Technowissenschaft ist in den 70er, 80er Jahren aus einer politischen Bewegung entstanden. Ausgangspunkt war die Kritik an der Militärtechnologie, an der Aufrüstung aber auch an den Reproduktionstechnologien.
Wichtig wurde die Erkenntnis, dass spezifische Lebenslagen von Frauen in den Natur- und Technikwissenschaften nicht berücksichtigt wurden. In der Medizin wurden Medikamente nach dem standard-weißen Mann verordnet. In der Informatik ist der Großteil der Forscher weiß, männlich und oft jung. Dabei geht es nicht um eine essenzielle Differenz zwischen Mann und Frau, aber unterschiedliche Lebenswelten führen zu unterschiedlicher Fokussierung. Ganz simpel zeigt sich das, wenn Schriftgrößen so klein sind, dass sie für Ältere kaum zu lesen sind, oder wenn Verkehrsplanungen die Bedürfnisse von Müttern mit Kinderwagen oder von Behinderten nicht beachten.
Neben einem feministischem Fokus auf Geschlechterverhältnisse geht es auch um breitere gesellschaftliche Fragen.
Sie sagen, Technik sei auch Politik. Können Sie das erläutern?
Auf Latein sagen wir «cui bono?» Wem zum Vorteil? Das ist die Kernfrage von «politisch». Sich politisch verstehende Science-and-Technology-Studies fragen: Welche Werte, welche Normen werden produziert und wem nützt diese Technologie? Die Frage nach den gesellschaftlichen, sozialen Konsequenzen einer Erfindung, einer Technologie wird zu selten gestellt. Oft heißt es von Ingenieur:innen: Was wir machen ist neutral, und wie das dann angewendet wird, das muss die Politik entscheiden. Technik ist weder neutral noch wertfrei. Sie erzeugt Effekte, und die müssten vorab breit diskutiert werden.
Stattdessen kommt die Frage oft erst im nachhinein, und dann ist man bereits mit ungewollten Konsequenzen konfrontiert und mit der Frage, wie beseitigt man diese. Die Politik kommt immer zu spät.
Wir müssten also vorher fragen: Wollen wir das als Gesellschaft? Es gibt bis heute kaum demokratische Prozesse, um über Technologie zu sprechen und sich ins Vernehmen zu setzen, welche Entwicklungen man befördern will und welche nicht.
Heute ist die Welt von Algorithmen geprägt. Wie gehen wir damit um?
Das Problem ist, dass Algorithmen, gerade wenn sie in der privaten Wirtschaft genutzt werden, geblackboxt werden. Die Anbieter:innen weigern sich zu verraten, wie ihre Algorithmen arbeiten. Wie funktioniert z.Beispiel der Google-Suchalgorithmus? Das war auch der Kampf zwischen der Luca-App und der Corona-Warn-App. Letztere ist open source und Expert:innen können sich mögliche Effekte anschauen, wie es funktioniert, und sie können Alternativen aufzeigen.
Wir brauchen viel mehr technopolitische Bildung. Dann hätten die Menschen auch Möglichkeiten, z.B. mit neuen Algorithmen umzugehen, und zwar auch in ihrem Sinne. Man denke z.B. an den Foodora-Fahrer, der merkte, dass er aufgrund seiner Schnelligkeit immer längere Strecken vom Algorithmus zugewiesen bekam. Ab da fuhr er langsam, hielt an jeder Ampel, sprach mit den Leuten, und erhielt so im Lauf der Zeit mehr Kund:innen auf kürzeren Strecken und nahm dadurch mehr Trinkgeld ein. So hat er mit dem Algorithmus erfolgreich gespielt.
Sie forschen viel zu datengetriebener Kriegspolitik. Der ehemalige CIA-Direktor Michael Hayden sagte einmal: «Wir töten Menschen basierend auf Metadaten.» Können Sie uns mehr zu den Tötungslisten im «Kampf gegen den Terrorismus» erzählen?
Sich mit Militärtechnologien zu beschäftigen ist schwierig, weil es kaum Materialien und empirischen Zugang zum Feld gibt. Tötungslisten gibt es in den USA schon lange – von verschiedenen Geheimdiensten, aber auch vom Pentagon. Die wurden schon vor einigen Jahren zusammengelegt – vermutlich auch um Data Mining zu optimieren. Soweit bekannt, werden bei der sog. «Disposition Matrix», also der US-Tötungsliste, Datennetzwerke nach bestimmten Kriterien durchsucht. Dazu zählen Metadaten – wie etwa wer mit wem kommuniziert, welche Reiserouten genutzt werden, die mit denen von bekannten Terrorist:innen abgeglichen werden – ohne hier näher auf diesen Begriff einzugehen.
So wurde der renommierte Al-Jazeera-Journalist Ahmad Muaffaq Zaidan wegen seiner Reisemuster, seinen Telefonverbindungen und aufgrund der Quellen, die er benutzt hat, ganz oben auf die Tötungsliste gesetzt. Er hatte sich mit Osama bin Laden und ähnlichen Leuten immer wieder zu Interviews getroffen.
Die Software kann nur die vorgegebenen Kategorien berücksichtigen und ignoriert den jeweiligen Kontext. Das macht das Vorgehen problematisch. Meist wird darauf verwiesen, dass maschinelle Ergebnisse vom Menschen geprüft werden müssen, aber man weiß aus der Forschung, dass es weit verbreitet ist, der Technik mehr zu vertrauen als der eigenen Einschätzung.
Sie haben beschrieben, wie sich die grundsätzliche Logik, mit der an Sicherheitsfragen herangegangen wird, verändert hat und wie sich das bei Algorithmen zeigt, die primär mit Wahrscheinlichkeiten arbeiten.
Da hat eine Verschiebung von Kausalität zu Korrelation stattgefunden. Vorhersage ist eine zentrale Kategorie geworden. Viele dieser sog. prädiktiven Algorithmen gehen von der problematischen Annahme aus, dass z.B. Handlungen, die in der Vergangenheit passiert sind, sich mit hoher Wahrscheinlichkeit in der Zukunft wiederholen. Damit einher geht häufig die Abkehr von der Unschuldsvermutung und ein zunehmender Glaube an repetitive Muster, die als Grundlage für vorbeugendes Handeln genutzt werden.
Diese Perspektive ist natürlich älter und findet sich schon beim Schufa-Algorithmus, der mit der Annahme arbeitet, dass ein Mensch, der in der Vergangenheit einen fälligen Kredit nicht sofort bezahlt hat, auch in der Zukunft seine Schulden nicht bezahlen wird. Ob sich die Lebenssituation dieses Menschen geändert hat, interessiert die Schufa nicht. Es wird von der aktuellen Situation abstrahiert, was zu Problemen führt – beim Schufa-Algorithmus genauso wie bei auf Metadaten basierenden Tötungslisten.
Und es ist erstaunlich, in wie vielen Bereichen unterdessen so gearbeitet wird. Denken Sie an die Personalauswahl per Stimm- oder Videoanalyse. Auch diese basieren häufig auf der Annahme, man könnte gute zukünftige Manager:innen dadurch finden, dass man die Profile der Bewerber:innen automatisiert mit denen der bisherigen Manager:innen vergleicht. Ich könnte jetzt böse sagen, wenn 80 Prozent der erfolgreichen Manager Schuhgröße 45 haben, dann nehmen wir in Zukunft auch nur noch Manager mit dieser Schuhgröße – und vermutlich keine Managerinnen, denn viele Frauen mit Schuhgröße 45 gibt es nicht. Die anderen kommen nicht mehr in Betracht.
Die kategorial eingehegte Wiederholung des immer Gleichen ist nicht nur irrational, sondern auch für jede Gesellschaft dysfunktional. Man stellt das Vorhandene auf Dauer mit Blick auf Kriterien, die zumindest häufig problematisch sind.
Welche staatlichen oder rechtlichen Maßnahmen wären denn sinnvoll, um nicht immer hinterher zu hinken?
Eine Möglichkeit ist, in Forschungsprojekte Sozial- oder Kulturwissenschaftler:innen zu integrieren. Eine ethische Abschätzung mit Fokus auf individuelle Vor- und Nachteile findet heute schon häufiger statt. Aber die gesellschaftliche Dimension wird meist ausgeblendet: Es gilt Fragen zu stellen, wie neue Technologien unsere Gesellschaft als Ganzes verändern werden und ob wir das wollen.
Dafür wäre es gut, Bürger:innenräte wie in Irland oder Frankreich einzusetzen, um diese Probleme auf einer breiten Basis demokratisch zu diskutieren. So können sich Menschen aus unterschiedlichen Kontexten intensiv mit diesen Technologien auseinandersetzen und Vorschläge entwickeln, die nicht primär von Lobbies getrieben sind.
Es gilt generell mehr Aufmerksamkeit darauf zu richten, wie und von wem (zu welchem Zwecke) Technologie gestaltet wird. Wir haben in den letzten Jahrtausenden tolle Sachen erfunden – von der Badewanne und dem Fahrrad bis zur Solarenergie. Aber eben auch die Atombombe, Asbest oder SUVs. Das dürfen wir nicht nur den Ingenieur:innen und der Politik überlassen. Wir sollten stattdessen gemeinsam darüber nachdenken und entscheiden, welche Entwicklungspfade wir beschreiten wollen – und welche nicht.