Das ist das Mantra, das von den Befürwortern der Künstlichen Intelligenz (KI) immer wieder als Beruhigungspille gereicht und von Datenethikern allenthalben gefordert wird: Die "letzte" Entscheidungsgewalt über noch so ausgeklügelte algorithmengesteuerte Systeme hat natürlich der Mensch. Ob es um das Töten mit Killerdrohnen geht oder um die brenzlige Situation beim Fahren mit Autopilot: Stets soll ein vernunftbegabtes Wesen aus Fleisch und Blut eingreifen und auf Basis der maschinellen Erkennungsmöglichkeiten letztlich die Geschicke lenken.
Human in the Loop:
Der Mensch bleibe auch bei weitgehend autonom agierenden Kampfsystemen "in the loop", lautet hier die Standardversicherung. Er bestimme also, welches Ziel die Maschine angreife und löse dann in der Entscheidungskette die Hellfire-Rakete oder den Gewehrschuss aus. Nichts spreche beispielsweise gegen Drohnen, die selbstständig auch eine zerstörte Landebahn ansteuern, oder gegen Roboter, die sich bei der Bergung von Verletzten selbst den ungefährlichsten Weg suchen. Bei einigen Systemen sei es daher durchaus denkbar, "dass wir keinen 'Human in the Loop' mehr haben", solange schnelle und richtige Entscheidungen gewährleistet seien. Bei letzterem Ansatz müsse der Mensch in gewisser Weise noch das Sagen haben und die autonom agierende Maschine zumindest überwachen und übersteuern können.
Überlegenheit der Maschine:
Aber muss er nicht davon ausgehen, dass die Maschine in einer besseren Entscheidungssituation ist als er? Diese sei so konstruiert und programmiert, dass sie dem Menschen ‘‘epistemisch überlegen‘‘ sei, also in der speziellen Kampfsituation in einer besseren Erkenntnissituation. In einer solchen Situation sei der Mensch zudem auf die Hilfe der Maschine angewiesen. Der Anwender stehe dann zumindest vor einem Dilemma: ‘‘Erkennt er die Überlegenheit der Maschine, kann er den Schuss eigentlich nicht verweigern. Misstraut der Mensch dem System hingegen grundsätzlich und folgt seinen Anweisungen nicht, ‘‘wäre die Maschine im Sinne ihrer Erfinder hinfällig‘‘. Die Robotik-Expertin bezog ihre Kritik zunächst nur auf ein "On the Loop"-Szenario.
Politik der Künstlichen Intelligenz:
Ein Beispiel aus einem anderen Bereich bringt Louise Amoore, die als Professorin für Geographie an der britischen Durham-Universität den Einsatz von Big-Data-Analysen nicht nur im Bereich von Grenzkontrollen untersucht.Die Ärztin hat Amoore zufolge überhaupt nicht mehr unterschieden zwischen dem Hilfsgerät, den Algorithmen, die die Schnittstelle zu der Maschine lebendig wirken ließen, und ihren menschlichen Fähigkeiten.Neuronale Netzwerke orteten dabei die Enden des Krebsgeschwürs genauso wie Territorien, Gesichter und ähnliche Dinge durch die Datensets, mit denen sie trainiert worden seien.
Ein Hauch von Ethik:
Ein Beispiel aus einem anderen Bereich bringt Louise Amoore, Professorin für Geographie an der britischen Durham University, die den Einsatz von Big-Data-Analysen nicht nur im Bereich der Grenzkontrollen erforscht.Die Ärztin, so Amoore, unterscheide gar nicht mehr zwischen dem Hilfsgerät, den Algorithmen, die die Schnittstelle zur Maschine lebendig erscheinen lassen, und ihren menschlichen Fähigkeiten.Neuronale Netze lokalisierten die Enden von Krebsgeschwüren ebenso wie Reviere, Gesichter und Ähnliches anhand der Datensätze, mit denen sie trainiert wurden.
Kontrolliertes Denken:
Auch für Elke Schwarz, Professorin für Politische Theorie an der Queen Mary University of London, ist nicht mehr klar, ob der Mensch noch selbst entscheidet, wenn er ‘‘vollständig in die Logik der Maschine integriert‘‘ ist und selbst ‘‘hauptsächlich nur noch als Teil des Systems funktioniert‘‘. Angesichts allgegenwärtiger digitaler Systeme sei es wichtig, so Schwarz, zu untersuchen, ‘‘inwieweit wir Technologie überhaupt als reines Instrument nutzen können und inwieweit unser Handeln, Denken, Begehren, unsere Vorstellungen und auch unsere Begründungen von technologischen Strukturen geprägt sind‘‘. Gerade wenn es darum gehe, umgeben von Netzwerken und digitalen Schnittstellen, unter Umständen in Sekundenschnelle zu handeln, ‘‘wird es problematisch mit der Kontrolle‘‘ und der Frage, wer für die Folgen etwa eines Knopfdrucks verantwortlich ist.
Ethik des Krieges:
Alles drehe sich um die Frage, wie viele zivile Opfer man in Kauf nehmen könne, um ein Ziel zu erreichen. Ein ehemaliger amerikanischer Scharfschütze brachte es auf den Punkt: ‘‘Wenn man sich auf den Mythos der Technologie und des distanzierten Tötens verlässt, um die rationale Grundlage für einen vereinfachten Krieg zu legen, verliert man seine Seele.
Künstliche Intelligenz ist blau:
Dass der Künstlichen Intelligenz der Nimbus kühler Rationalität und ein Hauch von Unfehlbarkeit anhaftet, ist auch der Kommunikationswissenschaftlerin Tanja Sihvonen nicht entgangen. Wer KI in eine Bildersuche eingibt, sieht vor allem stilisierte menschliche Gehirne, Darstellungen von Synapsen und Netzwerken sowie Roboterköpfe, teilte die Finnin ihre diesbezüglichen Erkenntnisse auf der Konferenz "Ambient Revolts" 2018 in Berlin mit. Offenbar gehe es vor allem darum, die Fähigkeit eines nicht-menschlichen ‘‘Gehirns‘‘ zu veranschaulichen, menschliches Verhalten und Gefühle anhand von Datenspuren zu interpretieren, meint Sihvonen.
Was Algorithmen wollen:
Blau ist für die Professorin an der Universität Vaasa eigentlich eine schlechte Wahl, denn Algorithmen ‘‘lassen die Welt auf eine bestimmte Weise erscheinen‘‘ und schließen damit andere Interpretationen aus. Daher sei auch die Frage berechtigt, ‘‘was Algorithmen wollen‘‘. Sie wollen eine Verbindung und Koexistenz mit uns, die für beide Seiten vorteilhaft ist‘‘. Es gelte daher, immer auch die kleinen Risse und Fehler im System bzw. in der Matrix im Auge zu behalten und aktiv aufzuspüren.
Kontrollverlust:
In der politischen Theorie des klassischen Liberalismus hätten die Denker die Handlungsfähigkeit zwar noch im rationalen Individuum selbst verankert, schreibt der Medientheoretiker Felix Stalder in einem Essay über den einschlägigen Fachbegriff "agency" im Netzzeitalter. Doch in den meisten anderen Perspektiven der Moderne wird Handlungsfähigkeit nur noch relational zu den Umständen gesehen, in denen sich ein Akteur befindet. Der Topos des menschlichen Kontrollverlusts, der derzeit von Experten im Zusammenhang mit KI häufig beschworen wird, ist also nicht ganz neu. Es war der Poststrukturalismus, der sich in den 1980er-Jahren für das Potenzial nicht-menschlicher Akteure zu interessieren begann, erklärt Stalder. Auch den amerikanischen Soziologen Langdon Winner und seinen Aufsatz "Do Artifacts have Politics" zählt der Medienforscher dazu. Demnach entsteht der politische Charakter von Technologien nicht erst durch ihren Gebrauch. Technische Objekte alias Artefakte haben demnach eine politische Wirkungsmacht in sich: Eine Erntemaschine etwa trägt das Programm der industriellen Rationalisierung in sich.