Kommunikation, die Werte schafft - Maisberger

„…am Vergewaltigen hat er zumindest kein emotionales Interesse“ – von der Ethik eines Roboters und menschlicher Moral

Interview mit Prof. Dr. Oliver Bendel über Maschinen- und Roboterethik für die Maisberger Redaktionskampagne „WeknowRobotics“:

Roboter werden immer intelligenter. Wie sehen Sie diese Entwicklung? Wird unser Leben leichter oder müssen wir am Ende doch befürchten, dass uns das Ruder aus der Hand genommen wird?

Roboter können uns unterstützen, etwa bei schweren körperlichen Tätigkeiten, und damit unserer Gesundheit zuträglich sein. Beispielsweise drücken sie bereits heute als Leichtbauroboter in einem Autowerk in Spartanburg die Türdichtung in eine Autotür, übrigens direkt neben dem Arbeiter, der leichteren Aufgaben nachgehen darf und dessen Handgelenk geschont wird, oder helfen dem Pfleger, einen Patienten umzubetten. Roboter können uns auch ersetzen. Die Industrie 4.0 baut geradezu auf die möglichst vollständige Substitution von Menschen in der Produktion. Das Ruder in der Hand behält der Manager. Aus der Hand nehmen es uns manche Softwareroboter und KI-basierte Programme, die uns als Verdächtige einstufen oder unsere Kreditwürdigkeit beurteilen. Dass Roboter die Weltherrschaft übernehmen, wie manche glauben, dürfte unwahrscheinlich sein.

Roboter sind teilweise schon heute in der Lage, rechtliche und moralische Entscheidungen zu treffen (Stichwort GOODBOT). Welche Lösungsansätze gibt es bei der Programmierung von Moral? Wie vermittelt man etwas, das kulturell und gesellschaftlich unterschiedlich bedingt ist? Gibt es so etwas wie globale Moral?

Man unterscheidet z.B. eine regel- und fallbasierte Programmierung. Aus meiner Forschung in der Maschinenethik sind annotierte Entscheidungsbäume hervorgegangen, in denen moralische Begründungen explizit festgehalten werden. Sie eignen sich vor allem für einfache moralische Maschinen. Man differenziert auch zwischen Maschinen, die vorgegebene Befehle ausführen, und Maschinen, die dazulernen, etwa durch Beobachtung. Diese sind für die Smart Factory sehr interessant. In anderen Kontexten können Probleme mit ihnen auftreten. Wenn sie in die falschen Situationen geraten und auf die falschen Personen treffen, kann das schiefgehen. Adaptive Systeme, die sich je nach Kontext unterschiedlich verhalten, werden in der Maschinenethik ebenfalls untersucht. Die Maschinen passen sich, zumindest in der Theorie, an die Gepflogenheiten des jeweiligen Landes an. Man muss aber nicht annehmen, dass alles in der Moral gegensätzlich wäre. Es gibt durchaus so etwas wie eine globale Moral, einen gemeinsamen Standpunkt in Bezug auf das, was gut und böse ist. Jede Kultur, jede Gesellschaft hängt im Alltag einem Tötungsverbot und einem Wahrheitsgebot an. Ich betone, im Alltag, in der Normalität, denn natürlich kennen wir Ausnahmen, die sich etwa durch Terroristen ergeben, die Touristen meucheln, oder durch Behörden, die eine Todesstrafe vollstrecken, auf der Grundlage archaischer Gesetze. Dass uns etwas verbindet, sieht man auch an der Allgemeinen Erklärung der Menschenrechte bzw. an Zivil- und Sozialpakt.

Was muss man bei der Konzeption und Implementierung von moralischen Maschinen beachten? Wie kann man die Zusammenarbeit mit Menschen erleichtern bzw. die Mitarbeiter unterstützen (Stichwort Akzeptanz)?

Man muss sich darüber klar werden, was die Maschinen können sollen. Sollen sie in einer geschlossenen oder halboffenen Welt agieren oder in einer offenen Welt? Sind sie nur in der Wohnung oder im Garten unterwegs oder auf öffentlichen Straßen? Will man sie nur einfache Entscheidungen treffen lassen oder auch komplexe? Ich rate zu einfachen moralischen Maschinen, die Entscheidungen treffen, die wir als Betreiber gutheißen können. So habe ich einen Saugroboter konzipiert, der keine Marienkäfer einsaugt, den LADYBIRD. Ich würde mich beim Saugen genauso verhalten. Ich rate ab von komplexen moralischen Maschinen, die etwa im Autoverkehr über Leben und Tod von Menschen entscheiden. Ich rate generell ab, komplexe existenzielle Entscheidungen an Maschinen zu delegieren. Manche Entscheidungen muss der Mensch tragen. Er muss die Verantwortung übernehmen, er muss die Bürde auf sich nehmen. 

Wenn es um die Zusammenarbeit mit Menschen geht, sind fließende Übergänge zur sozialen Robotik vorhanden. Die Maschine soll den Menschen nicht verletzen – wie der Leichtbauroboter in der Kooperationszelle in der Autoproduktion –, soll überhaupt gut zu ihm sein und vorsichtig mit ihm umgehen. Wichtig ist, dass man voraussehen kann, wie sich die Maschine verhält, was sie tut und warum sie es tut. Sie muss vertrauenswürdig und verlässlich sein. Dabei soll sie keinesfalls so tun, als wäre sie ein Mensch. Ich rate sogar in einigen Zusammenhängen dazu, einen V-Effekt umzusetzen, einen Verfremdungseffekt, wie im Theater von Bertolt Brecht. Der Mensch soll aus seiner Illusion gerissen werden und sich immer wieder klarwerden, dass sein Gegenüber nur eine Maschine ist. Dies ist z.B. bei Pflege- oder Sexrobotern relevant, die im Moment mehrheitlich prototypisch vorliegen.

In welchen Bereichen werden Roboter den Menschen zukünftig am stärksten beeinflussen? 

In meiner Forschung zur Maschinenethik konzentriere ich mich auf Chatbots, zivile Drohnen, Serviceroboter und automatische bzw. autonome Autos. Diese Bereiche sind in den letzten Jahren regelrecht explodiert bzw. erleben wie die Bots eine Renaissance. Sie machen deutlich, dass wir mit Robotern in unserem Alltag zusammenleben, und dass wir mit ihnen im virtuellen Raum, auf dem Boden und in der Luft rechnen müssen, in geschlossenen Räumen und in der freien Natur. Das Wasser ist natürlich ebenfalls ein geeigneter Ort für künstliche Wesen. Nur muss man die Elektronik gut schützen. In einem Praxisprojekt namens CLEANINGFISH haben wir untersucht, ob es wirtschaftlich und technisch sinnvoll ist, Schwärme von Roboterfischen zur Bekämpfung von Littering im Zürichsee einzusetzen. Eine große Bedeutung haben Roboter für die Landwirtschaft und für die industrielle Produktion. Auch dort entsteht eine engere Beziehung zwischen Mensch und Maschine, physisch und psychisch. Darum müssen wir uns als Maschinenethiker, Robotiker, Informatiker, Psychologen etc. kümmern. Wir sollten die Vorteile der Roboter nutzen und die Nachteile in den Griff kriegen. Roboter sollten keine Datensauger sein, uns nicht überall überwachen, kontrollieren und schikanieren, und sie sollten nicht ständig in Unfälle mit uns verwickelt sein. Bei beiden Problemen denke ich an Überwachungsroboter wie den K5 von Knightscope. Er schaut in einer Shopping Mall in Stanford nach dem Rechten, und dabei entsteht natürlich eine Datenflut, die die informationelle Selbstbestimmung und die Privatsphäre gefährden kann. Es besteht zudem eine Kollisionsgefahr. Wenn der Roboter auf ein Kind trifft und nicht rechtzeitig anhält, kann es zu Verletzungen kommen. Das ist im Silicon Valley bereits passiert.

Welche Vorteile hätte/hat Robotermoral gegenüber menschlichen Emotionen? 

Menschliche Emotionen sind sehr wichtig. Zu einem geglückten Urteil gehören sie nicht selten dazu. Die Moral bildet sich aus Angeborenem, in der Gruppe Erlerntem, selbst durch Überlegungen Gefundenem, sie besteht aus Ideen, Vorstellungen, Überzeugungen, Werten und Regeln, und sie wird genährt von Vernunft und Gefühl. Freilich ist es häufig von Vorteil, wenn eine Entscheidung auf rein rationaler Basis getroffen, wenn ein Verhalten nicht von Eifersucht, Wut und Hass gesteuert wird. Ich bin nicht in der militärischen Forschung tätig. Ich bin persönlich gegen autonome Kampfroboter und habe eine Petition gegen sie unterzeichnet. Dennoch tragen die Befürworter interessante Argumente vor. Der Mensch wird gerne idealisiert. Aber im Krieg tötet er nicht nur feindliche Soldaten, sondern er fällt auch über Zivilisten her, er plündert, brandschatzt und vergewaltigt. Das würde ein autonomer Kampfroboter normalerweise nicht tun, und am Vergewaltigen hat er zumindest kein emotionales Interesse. Sein rationales Interesse ist einfach, das Zielobjekt zu eliminieren. 

EURON, das European Robotics Research Network, teilt Roboter in ethische Dimensionen ein und erarbeitet Prognosen, wie Roboter und Menschen einmal gemeinsam leben könnten, z.B. dass humanoide Roboter entwickelt werden, die neben dem Menschen koexistieren. Wie bewerten Sie solche Prognosen in Bezug auf ethische Aspekte? Stimmen Sie überein? 

Solche Voraussagen und Kategorisierungen haben verschiedene Institutionen und Personen vorgetragen. Für mich ist z.B. die Unterteilung in Subjekte und Objekte der Moral wichtig. Teilautonome und autonome bzw. intelligente Maschinen können nach meiner Meinung neuartige, merkwürdige Subjekte der Moral sein. Sie können ohne direkte Kontrolle durch Menschen bestimmte moralische Entscheidungen treffen, die ihnen beigebracht wurden oder zu denen sie durch Abgleiche, Ableitungen und Schlussfolgerungen gekommen sind. Sie brauchen für diese Entscheidungen weder einen freien Willen noch ein auf sich selbst oder andere bezogenes Bewusstsein. Sie können gleichzeitig keine Verantwortung tragen und keine Haftung übernehmen, höchstens in einem ganz operationalen Sinne, und sie haben vielleicht eher Verpflichtungen als Pflichten, müssen Regeln nur befolgen, nicht verstehen. Das alles macht sie so merkwürdig als Subjekte der Moral. Das wäre das eine. Das andere ist, dass Maschinen meiner Ansicht nach keine Objekte der Moral sein können. Dazu bräuchten sie einen Lebenswillen, eine Empfindungs- oder Leidensfähigkeit, müssten denken oder fühlen. Menschen und Tiere sind Objekte der Moral, Steine nicht. Sicherlich haben manche Steine einen Wert, und die meisten Roboter ebenfalls. Ein Wert ist aber etwas anderes als ein Recht, das eng verbunden mit dem Objekt der Moral ist, selbst wenn jener nicht nur ökonomisch gedeutet wird. Doch auch wenn Steine und Pflanzen keine Rechte haben, sollten wir sie nicht nach Belieben behandeln. Wir sollten auf unsere Umwelt aufpassen, schon wegen der Menschen und Tiere. Zur Frage, ob man Roboter humanoid gestalten soll, und wenn ja, in welcher Weise und in welchem Ausmaß, wurde viel geforscht. In den meisten Bereichen dürften nichthumanoide Roboter von Vorteil sein, die eher funktional als emotional sind, eher abstrakt als konkret. Das könnte das Zusammenleben erleichtern, weil unsere Erwartungen an die neuen Zeitgenossen durch das Design nicht hochgeschraubt werden.

In der Science Fiction hat bereits 1942 Isaac Asimov Robotergesetze entwickelt. Inwieweit sind diese heutzutage, z.B. in der Industrie, zutreffend? Würden Sie Anpassungen vornehmen?

Wie Sie ganz richtig sagen, hat Asimov die Gesetze für die Fiktion entwickelt, in der Kurzgeschichte „Runaround“. Er hat nie angenommen, dass sie der Robotik der Realität genügen. In der Fiktion hat er sie weiterentwickelt. Als Metaregeln sind sie durchaus relevant, und für unsere Bots sehen wir auch Metaregeln vor, die das Verhalten der Maschine begrenzen sollen. Die Vorgabe, dass ein Roboter keinen Menschen verletzen soll, ist sicherlich in den meisten Kontexten sinnvoll, außer im Kriegsfalle. Aber schon bei autonomen Autos wird es schwierig. Was ist, wenn sie nicht mehr rechtzeitig bremsen können und jemanden verletzen müssen – und die Frage nur noch ist, wen sie verletzen sollen? Das sind eben komplexe moralische Maschinen, von denen ich abrate. Die Lösung ist, autonome Autos so fahren zu lassen, dass erst gar keine Unfälle entstehen. Europäische Autobahnen sind optimal für sie. In der Industrie, genauer gesagt in der Produktion, steht ebenfalls die Gesundheit des Menschen im Vordergrund. Der mobile Roboter muss anhalten, wenn ihm ein Mensch in die Quere kommt, er darf einen Menschen nicht oder nur sehr sanft berühren usw. Natürlich muss er auch Befehlen gehorchen. Schwierig wird es, wenn er unterschiedliche Befehle von unterschiedlichen Personen zur selben Zeit erhält. Es droht das Dilemma von Buridans Robot, das ich verschiedentlich beschrieben habe, ein „Verhungern“ angesichts zweier gleichwertiger Optionen. 

Wie wird aus Ihrer Sicht die Welt der Robotik und damit unser Leben in zehn Jahren aussehen?

Ich freue mich auf diese nahe Zukunft und die weitere Entwicklung. Wir werden unseren Lebensraum mit niedlichen und bedrohlichen Robotern teilen, mit hilfreichen und überflüssigen. Wir werden manche zurückstoßen und andere einbinden. Ich hoffe, dass ich als Maschinenethiker über den GOODBOT und den LIEBOT als Softwareroboter hinaus noch einige Hardwareroboter realisieren kann. Die Planungen schreiten voran, und sobald dafür begabte Studierende gefunden sind, werden die Konzepte endlich Wirklichkeit. Wir machen relativ einfache Sachen mit relativ großer Wirkung. Ich will mich gerne weiter in selbstlernende Systeme einarbeiten. Besonders faszinieren mich die erwähnten Roboter, die durch Beobachtung lernen und die durch die flexible Software zu Generalisten werden, wenn sie eine flexible Hardware haben. Diese Roboter sind eben für die Smart Factory wichtig. Und mich faszinieren kleine, geschickte, wenig vernetzte Helfer im Haushalt und im Büro, die mich nicht ausspionieren, sondern mir bei allen möglichen Gelegenheiten assistieren, Hardware- und Softwareroboter, die für mich da sind, nicht für die Daten- und Werbefirmen. Unser Leben wird insgesamt einfacher und zugleich schwieriger. Wir müssen auf jeden Fall neue Regeln für unser Zusammenleben, das Zusammenleben von Menschen und Maschinen, finden.

Literaturhinweise:

Klassische Science Fiction, Romane und Erzählungen über Roboter, Automaten und Androiden:

Isaac Asimov: Ich, der Robot. (inkl. Runaround) Rauch-Verlag, Düsseldorf 1952 (deutsche Erstausgabe). 

Isaac Asimov: Alle Roboter-Geschichten. Bastei Lübbe, Köln 2007/2010/2011 

Bayley, Barrington J: Die Seele des Roboters; Moewig Verlag, Erscheinungsort: Rastatt (1984) 

Karel Čapek: R.U.R. Rossum’s Universal Robots: Dover, New York, NY 2001

Edmund Cooper: Aufstand der Roboter. Wilhelm Goldmann; Auflage: 1. A. (1979)

Philip K. Dick: Do Androids Dream Of Electric Sheeps. Orion Publishing Group; Auflage: New Ed (8. März 2007)

Frank Herbert: Ein Cyborg fällt aus. Heyne 1985

E.T.A. Hoffmann: Poetische Werke in sechs Bänden, Band 3, Berlin 1963, S. 411-445: Erzählung: Der Automate

Stanislaw Lem: Der Weiße Tod. Gesammelte Robotermärchen. Suhrkamp, Frankfurt/Main 2003, 

John Sladek: The Complete Roderick; Overlook Press, January 4, 2005

Jules Verne: Meister Zacharius oder Der Uhrmacher, der seine Seele verlor (nach einer Genfer Überlieferung). Aus dem Französischen übersetzt und mit einem Nachwort versehen von Ulrich Klappstein. jmb, Hannover 2013

Adam Villiers de L’Isle: The Future Eve. Fantasy and Horror Classics 2011

Jack Williamson: The Humanoids: A Novel; Orb Books; 1st edition (January 15, 1996)

Mary Wollstonecraft Shelley: Frankenstein oder Der modern Prometheus. Hrsg.: Alexander Pechmann; dtv, München 2013

Fachliteratur und Neuerscheinungen zum Thema Ethik der Robotik:

Bauman, Zygmunt; Lyon, David. Daten, Drohnen, Disziplin: Ein Gespräch über flüchtige Überwachung. Suhrkamp, Berlin 2013.

Bendel, Oliver. Die Moral in der Maschine: Beiträge zu Roboter- und Maschinenethik. Heise Medien, Hannover 2016.

Bendel, Oliver. 300 Keywords Informationsethik: Grundwissen aus Computer-, Netz- und Neue-Medien-Ethik sowie Maschinenethik. Springer Gabler, Wiesbaden 2016.

Bogner, Alexander (Hrsg.). Ethisierung der Technik – Technisierung der Ethik: Der Ethik-Boom im Lichte der Wissenschafts- und Technikforschung. Nomos, Baden-Baden 2013.

Braidotti, Rosi; Langstien, Thomas. Posthumanismus: Leben jenseits des Menschen. Campus, Frankfurt/Main und New York 2014.

Capurro, Rafael; Eldred, Michael; Nagel, Daniel. Digital Whoness: Identity, Privacy and Freedom in the Cyberworld. Ontos, Frankfurt/Main 2013.

Dompke, Mario; von Geibler, Justus; Göhring, Wolf et al. Memorandum Nachhaltige Informationsgesellschaft. Fraunhofer IRB Verlag, Stuttgart (ohne Jahresangabe).

Floridi, Luciano. The Ethics of Information. Oxford University Press, Oxford 2015..

Hofstetter, Yvonne. Sie wissen alles: Wie intelligente Maschinen in unser Leben eindringen und warum wir für unsere Freiheit kämpfen müssen. C. Bertelsmann, München 2014.

Kurz, Constanze; Rieger, Frank. Arbeitsfrei: Eine Entdeckungsreise zu den Maschinen, die uns ersetzen. Riemann, München 2013.

Pistono, Federico. Roboter stehlen deinen Job, aber das ist OK: Wie man den Wirtschaftskollaps glücklich überlebt. serendii publishing, Siegendorf 2014.

Rojas, Raúl. Können Roboter lügen? Essays zur Robotik und Künstlichen Intelligenz. Heise Zeitschriften Verlag, Hannover 2013.

Tavani, Herman T. Ethics and Technology: Controversies, Questions, and Strategies for Ethical Computing. 4. Aufl. John Wiley & Sons, Hoboken (New Jersey) 2013.

Kurzbio: Prof. Dr. Oliver Bendel

Prof. Dr. Oliver Bendel ist studierter Philosoph und promovierter Wirtschaftsinformatiker. Er lehrt und forscht an der Hochschule für Wirtschaft FHNW mit den Schwerpunkten Wissensmanagement, Wirtschafts-, Informations- und Maschinenethik. Der LÜGENBOT kann über luegenbot.ch und liebot.org getestet werden. Die Logindaten sind bei Oliver Bendel (oliver.bendel@fhnw.ch) erhältlich. Weitere Informationen zur Person über oliverbendel.net, zu seiner Forschung auch über informationsethik.net und maschinenethik.net.