©esc_medien_kunst_labor_2021

nothing more human than humanoid

 

Die wirkliche Frage ist nicht, ob Maschinen denken können, sondern ob Menschen es tun.“

 

[B.F. Skinner]

 

 

Der Mensch wird wohl ein anderer – vernetzt und gentechnisch verwandelt, umgeben von virtuellen Realitäten und autonomen Robotern. Dabei werden wir in immer noch größerer Geschwindigkeit uns selbst umbauen. Die Grenzen werden immer fließender. Damit bahnt sich nicht nur etwas Neues an, sondern zugleich die Wiederkehr von etwas Uraltem: der Golems, Frankensteins, Humunculi, Übermenschen, Zombies, Automatenmenschen und Androiden. Frankenstein figuriert als gemeinsamer Nenner für den modernen Archetypus eines nachgebildeten Menschen. Als Symbol künstlicher Geschöpfe bevölkert er die alten Mythen, die Magie, die Alchemie und die Kunst und taucht in neuem Gewand wieder auf in den virtuellen, medialen Bilderwelten, in der Robotik und in der Genforschung. „Frankenstein offenbart die Problematik und Gefährdung des Menschen, der in seinem ‚Herausgefallensein‘ (aus der Schöpfung) zwischen Hybris und Verzweiflung schwankt.“ schreibt Norbert Borrmann. An diesem zu allen Zeiten und in allen Kulturen bestehenden Interesse, sich neu zu erschaffen, ist nichts Erstaunliches, trägt der Mensch doch von Beginn an etwas Künstliches in sich, ist herausgefallen aus dem organischen Zusammenhang der Schöpfung.

 

„Eines Tages werden wir uns vielleicht über eine allmächtige maschinelle Intelligenz Sorgen machen müssen. Aber zuerst müssen wir uns Sorgen darüber machen, Maschinen die Verantwortung für Entscheidungen zu übertragen, für die ihnen die Intelligenz fehlt.“ betont John Kleinberg. Zum ersten Mal in der Geschichte ermöglichen wir KI-betriebenen Technologien, „eigenständig“ zu handeln. Technische Geräte werden damit zu „Subjekten“, die rücksichtslos in unsere Privatsphäre vordringen. Diese Subjektivierung wirft die Frage auf, ob Maschinen ethische Entscheidungen treffen dürfen. Moralische Entscheidungen sind, anders als naturwissenschaftliche Erkenntnis, nicht rückhaltlos objektivierbar. Richard David Precht führt aus: „Moralische Dilemmata lassen sich nicht durch millionenfache Online-Befragungen über die Summe der größten Ansammlung ähnlicher Urteile quasi objektiv lösen. Quantität ist niemals identisch mit moralischer Qualität. Moral ohne Subjektivität ist keine Moral und Subjektivität ohne Moral keine Subjektivität. Moralische Urteile bestehen nicht nur aus Ergebnissen oder gar ‚Lösungen‘, sondern der Weg, der Akt der Entscheidung, ist selbst von größter Bedeutung. Die Maschinenethik verlangt, Maschinen nicht selbst ‚ethisch‘ zu programmieren, also Entscheidungen treffen zu lassen, die über Menschen richten. Ethisch mit Maschinen umzugehen, ist das Gegenteil davon, sie ‚ethisch‘ zu programmieren.“

 

„Könnte es sein, dass Humanoide ihren Schöpfern überlegen sind oder es einst sein werden?“ bzw. „Wird eine Menschenkopie das Original, das sie erschaffen hat, überflügeln?“ stellt Gisela Schmalz zur Diskussion. Sie wirft die Fragen auf, ob die Robotik eine schwächelnden Menschheit rettet, oder der roboterentwickelnde Mensch ein gefährliches Spiel gegen sich selbst treibt sowie werden künstliche Kreaturen sich eines Tages gegenseitig gebären und dem Menschen das Menschliche austreiben? Die Modifizierung und Perfektionierung der Körper hat mittlerweile dazu geführt, dass der Bauplan des Menschen fast beliebig verändert werden kann. Human Enhancement, wie Elon Musk es mit „Neuralink“ beabsichtigt, zeigt, in welches Bedrängnis der Mensch sich durch diese Form des Fortschritts gebracht hat. Doch was eine Maschine zu einer Maschine macht, ist weniger ihre „materielle Basis“, als vielmehr ihr Streben nach „nicht-reflektierter Wiederholbarkeit“ (Georg Trogemann). Was braucht es als Gegensteuerung vonseiten der Gesellschaft? Was muss ein „Digitaler Kodex“ beinhalten, was „Robotische Gesetze“ heute festschreiben? Welche ethischen Werte machen uns als „Mensch“ eigentlich noch aus?

 

Angesichts der Allgegenwart von Algorithmen, zunehmendem Einsatz von Machine Learning und anderen automatisierten Prozessen, sind wir angehalten, unser Mitbestimmen noch nachdrücklicher einzufordern.

 

nothing more human than humanoid verhandelt die Frage, ob Roboter eigenständig moralisch handeln können bzw. dürfen und zielt damit auf die Notwendigkeit einer zeitgemäßen Ethik.

 

 

English Version:

 

"The real question is not whether machines can think, but whether people do." [B.F. Skinner]

 

Humans will probably become different - networked and genetically transformed, surrounded by virtual realities and autonomous robots. In the process, we will be remaking ourselves at an ever-increasing rate. The boundaries are becoming increasingly fluid. This not only heralds something new, but at the same time the return of something ancient: the golems, Frankensteins, humunculi, supermen, zombies, automatons and androids. Frankenstein figures as a common denominator for the modern archetype of a replicated human being. As a symbol of artificial creatures, he populates ancient myths, magic, alchemy, and art, and reappears in a new guise in virtual media imagery, robotics, and genetic research. "Frankenstein reveals the problematic and endangered nature of the human being, who in his 'Herausgefallensein' [having fallen out] (out of creation) vacillates between hubris and despair." (Norbert Borrmann) There is nothing surprising about this interest in recreating oneself, which has existed at all times and in all cultures, since man has carried something artificial in himself from the beginning, has fallen out of the organic context of creation.

 

"One day we may have to worry about an omnipotent machine intelligence. But first we'll have to worry about giving machines responsibility for decisions they lack the intelligence to make," John Kleinberg points out 200 years later. For the first time in history, we are enabling AI-powered technologies to act "autonomously." Technical devices thus become "subjects" that ruthlessly invade our privacy. This subjectification raises the question of whether machines should be allowed to make ethical decisions. Unlike scientific knowledge, moral decisions cannot be objectified without reservation. Richard David Precht emphasizes: "Moral dilemmas cannot be solved quasi-objectively by millions of online surveys on the sum of the largest collection of similar judgments. Quantity is never identical with moral quality. Morality without subjectivity is no morality, and subjectivity without morality is no subjectivity. Moral judgments do not consist only of results or even 'solutions', but the path, the act of decision, is itself of paramount importance. Machine ethics demands that machines should not themselves be 'ethically' programmed, i.e. should not make decisions judging humans. Dealing ethically with machines is the opposite of programming them 'ethically'."

 

"Could it be that humanoids are, or one day will be, superior to their creators?" asks Gisela Schmalz today. "Will a human copy outperform the original that created it? Is the human so smart and stupid at the same time to bring something into the world that can assist them, but also dominate, manipulate or replace them? Will robotics save a weakening humanity, or is the robot-developing human playing a dangerous game against themselves? Will artificial creatures one day give birth to each other and exorcise the human condition from humans?"

 

The modification and perfection of bodies has now made it possible to change the blueprint of humans almost at will. Human enhancement, as Elon Musk intends with "Neuralink," shows what a predicament humans have got themselves into with this form of progress. But what makes a machine a machine is not so much its "material basis" as its striving for "non-reflective repeatability" (Georg Trogemann). What is needed as a countermeasure on the part of society? What must a "digital code" contain, what do "robotic laws" stipulate today? What ethical values actually still define us as "human"?

 

In view of the ubiquity of algorithms, the increasing use of machine learning and other automated processes, we are urged to demand our say even more emphatically.
 
nothing more human than humanoid
negotiates the question of whether robots can or should be allowed to act morally on their own and thus aims at the necessity of contemporary ethics.

 

Verwendete Literatur:

Isaac Asimov, Runaround, 1942

Norbert Borrmann, Frankenstein und die Zukunft des künstlichen Menschen, 2001

David Easley/John Kleinberg, Networks, Crowds, and Markets: Reasoning About a Highly Connected World, 2010

Julien Offray de La Mettrie, L’Homme-Machine, 1748 (dt. Der Mensch eine Maschine, 1965)

Janina Loh, https://berlinergazette.de/kuenstliche-intelligenz-kapitalismus-transhumanismus, 2020

Janina Loh, https://www.freitag.de/autoren/ulrike-baureithel/rudimentaere-moral, 2019

Richard David Precht, Künstliche Intelligenz und der Sinn des Lebens. Ein Essay, 2020

Daniel Rebhorn, Digitalismus. Die Utopie einer neuen Gesellschaftsform in Zeiten der Digitalisierung, 2019

Gisela Schmalz, HUMAN/HUMANOID/NEVER PARANOID, 2021

Gisela Schmalz, Mein fremder Wille, 2020

Georg Trogemann/Jochen Viehoff, Code Art – Eine elementare Einführung in die Programmierung als künstlerische Praktik, 2005