Programm 2021

Laufzeit: 

18/02/2021

Eröffnung: 

Dienstag, 2. März 2021 - 14:00

Termine: 

Installationen: 

Sujet 2021 ©esc

Die wirkliche Frage ist nicht, ob Maschinen denken können, sondern ob Menschen es tun.“

 

[B.F. Skinner]

 

Der Mensch wird wohl ein anderer – vernetzt und gentechnisch verwandelt, umgeben von virtuellen Realitäten und autonomen Robotern. Dabei werden wir in immer noch größerer Geschwindigkeit uns selbst umbauen. Die Grenzen werden immer fließender. Damit bahnt sich nicht nur etwas Neues an, sondern zugleich die Wiederkehr von etwas Uraltem: der Golems, Frankensteins, Humunculi, Übermenschen, Zombies, Automatenmenschen und Androiden. Frankenstein figuriert als gemeinsamer Nenner für den modernen Archetypus eines nachgebildeten Menschen. Als Symbol künstlicher Geschöpfe bevölkert er die alten Mythen, die Magie, die Alchemie und die Kunst und taucht in neuem Gewand wieder auf in den virtuellen, medialen Bilderwelten, in der Robotik und in der Genforschung. „Frankenstein offenbart die Problematik und Gefährdung des Menschen, der in seinem ‚Herausgefallensein‘ (aus der Schöpfung) zwischen Hybris und Verzweiflung schwankt.“ schreibt Norbert Borrmann. An diesem zu allen Zeiten und in allen Kulturen bestehenden Interesse, sich neu zu erschaffen, ist nichts Erstaunliches, trägt der Mensch doch von Beginn an etwas Künstliches in sich, ist herausgefallen aus dem organischen Zusammenhang der Schöpfung.

 

„Eines Tages werden wir uns vielleicht über eine allmächtige maschinelle Intelligenz Sorgen machen müssen. Aber zuerst müssen wir uns Sorgen darüber machen, Maschinen die Verantwortung für Entscheidungen zu übertragen, für die ihnen die Intelligenz fehlt.“ betont John Kleinberg. Zum ersten Mal in der Geschichte ermöglichen wir KI-betriebenen Technologien, „eigenständig“ zu handeln. Technische Geräte werden damit zu „Subjekten“, die rücksichtslos in unsere Privatsphäre vordringen. Diese Subjektivierung wirft die Frage auf, ob Maschinen ethische Entscheidungen treffen dürfen. Moralische Entscheidungen sind, anders als naturwissenschaftliche Erkenntnis, nicht rückhaltlos objektivierbar. Richard David Precht führt aus: „Moralische Dilemmata lassen sich nicht durch millionenfache Online-Befragungen über die Summe der größten Ansammlung ähnlicher Urteile quasi objektiv lösen. Quantität ist niemals identisch mit moralischer Qualität. Moral ohne Subjektivität ist keine Moral und Subjektivität ohne Moral keine Subjektivität. Moralische Urteile bestehen nicht nur aus Ergebnissen oder gar ‚Lösungen‘, sondern der Weg, der Akt der Entscheidung, ist selbst von größter Bedeutung. Die Maschinenethik verlangt, Maschinen nicht selbst ‚ethisch‘ zu programmieren, also Entscheidungen treffen zu lassen, die über Menschen richten. Ethisch mit Maschinen umzugehen, ist das Gegenteil davon, sie ‚ethisch‘ zu programmieren.“

 

„Könnte es sein, dass Humanoide ihren Schöpfern überlegen sind oder es einst sein werden?“ bzw. „Wird eine Menschenkopie das Original, das sie erschaffen hat, überflügeln?“ stellt Gisela Schmalz zur Diskussion.

 

Sie wirft die Fragen auf, ob die Robotik eine schwächelnden Menschheit rettet, oder der roboterentwickelnde Mensch ein gefährliches Spiel gegen sich selbst treibt sowie werden künstliche Kreaturen sich eines Tages gegenseitig gebären und dem Menschen das Menschliche austreiben?

 

Die Modifizierung und Perfektionierung der Körper hat mittlerweile dazu geführt, dass der Bauplan des Menschen fast beliebig verändert werden kann. Human Enhancement, wie Elon Musk es mit „Neuralink“ beabsichtigt, zeigt, in welches Bedrängnis der Mensch sich durch diese Form des Fortschritts gebracht hat. Doch was eine Maschine zu einer Maschine macht, ist weniger ihre „materielle Basis“, als vielmehr ihr Streben nach „nicht-reflektierter Wiederholbarkeit“ (Georg Trogemann). Was braucht es als Gegensteuerung vonseiten der Gesellschaft? Was muss ein „Digitaler Kodex“ beinhalten, was „Robotische Gesetze“ heute festschreiben? Welche ethischen Werte machen uns als „Mensch“ eigentlich noch aus?

 

nothing more human than humanoid verhandelt die Frage, ob Roboter eigenständig moralisch handeln können bzw. dürfen und zielt damit auf die Notwendigkeit einer zeitgemäßen Ethik. Technologien als menschengemachte Produkte schließen immer Werte in sich ein und fordern damit zu einer moralischen Evaluation auf. Das setzt voraus, eine Vorstellung davon zu haben, was ein Mensch ist, was einen Menschen auszeichnet. Wichtig ist die Transformation in Richtung eines kritischen Posthumanismus abseits eines deterministischen Dualismus, der die Komplexität der Systeme zulässt und die Verschränktheit von menschlichen und nicht-menschlichen AkteurInnen sichtbar macht. Angesichts der Allgegenwart von Algorithmen, zunehmendem Einsatz von Machine Learning und anderen automatisierten Prozessen, sind wir angehalten, unser Mitbestimmen noch nachdrücklicher einzufordern, Gisela Schmalz appelliert:

 

„Begreift, dass eure Unabhängigkeit zur Disposition steht! Fordert Technologien, die euch befreien, statt euch gleichzuschalten! Beweist euren freien Willen!“

 

 

 

 

Verwendete Literatur:

Isaac Asimov, Runaround, 1942

Norbert Borrmann, Frankenstein und die Zukunft des künstlichen Menschen, 2001

David Easley/John Kleinberg, Networks, Crowds, and Markets: Reasoning About a Highly Connected World, 2010

Julien Offray de La Mettrie, L’Homme-Machine, 1748 (dt. Der Mensch eine Maschine, 1965)

Janina Loh, https://berlinergazette.de/kuenstliche-intelligenz-kapitalismus-transhumanismus, 2020

Janina Loh, https://www.freitag.de/autoren/ulrike-baureithel/rudimentaere-moral, 2019

Richard David Precht, Künstliche Intelligenz und der Sinn des Lebens. Ein Essay, 2020

Daniel Rebhorn, Digitalismus. Die Utopie einer neuen Gesellschaftsform in Zeiten der Digitalisierung, 2019

Gisela Schmalz, HUMAN/HUMANOID/NEVER PARANOID, 2021

Gisela Schmalz, Mein fremder Wille, 2020

Georg Trogemann/Jochen Viehoff, Code Art – Eine elementare Einführung in die Programmierung als künstlerische Praktik, 2005