Ethik schlägt KI

#DilemmaOfTheDay: Ein von Algorithmen mit künstlicher Intelligenz gesteuertes autonomes System bedroht Menschenleben. Sie können es geschehen lassen, dann sterben Menschen, oder sie können einen Hebel umlegen und die KI vernichten. Was sollen Sie tun?

Wenn Sie diese Frage seltsam finden, haben Sie völlig Recht – mehr dazu später.

Als der Öffentlichkeit vor einiger Zeit dämmerte, dass auf unseren Straßen bald autonome Fahrzeuge unterwegs sein würden, verbreitete sich rasend schnell das Mem des Trolley-Problems. Einer konstruierte ein scheinbares Dilemma: wie sich denn „der Algorithmus“ entscheiden solle, käme ein automatisches Automobil in die Situation, einen Unfall nicht mehr vermeiden und nur noch zwischen verschiedenen Opfern wählen zu können. Und alle, alle schrieben es ab. Von Ethik hatten sie schon einmal in der Schule gehört und vielleicht später erneut bei Michael Sandel, Ethik schien irgendwie wichtig und diese Technik verstünden doch ohnehin nur Nerds im Karohemd, denen man jetzt mal auf die Finger schauen müsse, bevor sie wieder Chemie, Atom, Gene oder Cloud Computing erfänden.

Das Trolley-Problem ist ein Gedankenexperiment aus der Philosophie. In konstruierten Szenarien wendet man postulierte Handlungsleitlinien auf eine hypothetische Entscheidungssituation an oder versucht, intuitive Präferenzen rational zu begründen. Dabei versteht man besser, von welchen Annahmen diese Leitlinien ausgehen, zu welchen Ergebnissen sie unter welchen Bedingungen führen und welche Fragen sie unbeantwortet lassen. Würden Sie jemanden vor eine Straßenbahn stoßen, wenn Sie damit fünf andere retten könnten? Warum oder warum nicht? Und wenn es sich um ein kleines süßes Baby handelt oder um Hitler persönlich?

Was in der Philosophie interessante Einsichten verspricht, ist in der Diskussion über das autonome Fahren deplaziert, denn das Dilemma aus dem Gedankenexperiment überlebt den Weg in die Realität einer Unfallsituation nicht. Wer es dennoch für eine solche diskutiert, ignoriert gekonnt verletzte Annahmen und ordnet das reale Problem dem künstlichen unter.

Ein Unfall ist ein plötzliches, unvorhergesehenes Ereignis, das sich bei Erkennen der konkreten Gefahr nicht mehr zuverlässig abwehren lässt. Es kommt nicht zum Unfall, wenn etwa ein Hindernis rechtzeitig erkannt wird und Fahrer oder Steuerung in aller Ruhe abbremsen und anhalten. Zum Unfall kommt es, wenn überraschend eine Situation eintritt, welche die Reaktionsmöglichkeiten so weit beschneidet, dass es keinen kontrollierten Ausweg mehr gibt.

Für Entscheidungen nach Luxuskriterien wie der Art und Anzahl möglicher Opfer bleibt in so einer Situation in aller Regel kein Raum mehr, für menschliche Fahrer sowieso nicht, aber auch nicht für Computer. Bestenfalls kann man noch instinktiv oder heuristisch handeln und mit einer Portion Glück in einen glimpflichen Ausgang segeln. Gelingt dies Menschen, feiern wir sie als Helden, wie zum Beispiel die Piloten von US-Airways-Flug 1549 nach ihrer Notlandung im Hudson River. Gelingt es ihnen nicht, bedauern wir sie als tragische Gestalten – oder weisen ihnen Schuld zu, hätten sie das Eintreten der Unfallsituation ohne besondere Kräfte vermeiden können.

Ersetzen wir Menschen durch Algorithmen, so kommen wir in keine grundlegend neue Lage. Die praktische Unfallvermeidung, das praktische Risikomanagement erfolgt vor Eintreten des Trolley-Dilemmas. Deshalb führt das Trolley-Problem in die Irre und wir sind besser bedient, wenn wir uns auf eben dieses Risikomanagement konzentrieren. Ob unsere Bemühungen ausgewogen sind, mag man diskutieren – allerdings auch schon für herkömmliche Autos, deren Hersteller vor allem den Insassenschutz optimieren, weil diese m Gegensatz zum Beispiel zu Fußgängern und Radfahrern in der Umgebung dafür zahlen. Seine Medienkarriere verdankt das Dilemma-Mem ohnehin nur der Tatsache, dass man es ohne nachzudenken leicht nachplappern und sich dabei für sehr intellektuell halten kann.

Zurück zum eigentlichen Thema. Über Ethik wird zunehmend im Zusammenhang mit künstlicher Intelligenz diskutiert; das autonome Fahren ist ein entgleister Spezialfall. Diesen Diskussionen liegt die Ahnung zugrunde, künstliche Intelligenz könne zu fundamentalen Umwälzungen in Technologie und Gesellschaft führen und den Menschen gar eines Tages intellektuell übertreffen, nicht nur in Spielen wie Schach oder Go. Der Phantasie sind naturgemäß keine Grenzen gesetzt und so reichen die eher popkulturell denn wissenschaftlich geprägten Vorstellungen bis zum allmächtigen Skynet. Der Diskussion ist schwer auszuweichen, denn dazu müsste man entweder vage Zukunftsvisionen falsifizieren oder sich der Ethik verweigern und beides ist rhetorisch schwierig.

Doch die ethischen Fragen könnten sich unabhängig von der technischen Entwicklung – wie weit die KI wirklich kommt, ist noch nicht geklärt – als weniger drängend erweisen. Die KI hat ethisch gesehen nämlich einen grundlegenden Nachteil: sie ist kein Mensch. Das macht es viel einfacher, ihr Verhalten zu überwachen und zu steuern, als das bei Menschen, Gruppen und Gesellschaften der Fall ist.

Menschen können allerlei Unheil anrichten und wer sie daran hindern möchte, muss ihnen vielleicht Gewalt antun. Konkrete Ausflüsse abstrakter ethischer Betrachtungen dazu finden wir in Form von Bürgerrechten und Güterabwägungen in Verfassungen, Strafgesetzen, Urteilsbegründungen und politischen Debatten. Komplizierte Fragen stellen sich dort, weil wir es sowohl auf Seiten der Täter oder Verursacher wie auch bei den Opfern und Betroffenen mit Menschen zu tun haben und wir auch dem unanständigsten Verbrecher noch eine Menschenwürde und Menschenrechte zugestehen.

Viele diese Fragen sind jedoch einfach zu beantworten, wenn auf der Täter- beziehungsweise Verursacherseite kein Mensch steht, sondern eine Maschine. Dann führt beispielsweise Notwehr nicht mehr zu Personen-, sondern nur noch zu Sachschaden und alle Abwägungen werden einfacher. Eine Maschine kann man abschalten, beschädigen, zerstören oder ihrer Betriebsmittel berauben, ohne groß über Ethik nachdenken zu müssen.

Mittelbar kann es dann doch wieder kompliziert werden, wenn Nebenwirkungen eintreten und andere Menschen betreffen. Ein medizinisches Gerät zum Beispiel, von dem die Gesundheit anderer abhängt, darf man vielleicht doch nicht einfach kaputtschlagen. Aber eine KI an sich oder eine von ihr gesteuerte Maschine hat erst einmal keine eigenen Rechte. Damit ist sie dem Menschen ethisch gesehen nachgeordnet. Die verbleibenden Probleme sind die alten zwischen den beteiligten Menschen.

Advertisements

About Sven Türpe

Sven Türpe is a computer scientist. His current research focus is on security engineering methods, techniques, and tools. All opinions expressed in this blog are his own.

Leave a Reply

Fill in your details below or click an icon to log in:

WordPress.com Logo

You are commenting using your WordPress.com account. Log Out /  Change )

Google+ photo

You are commenting using your Google+ account. Log Out /  Change )

Twitter picture

You are commenting using your Twitter account. Log Out /  Change )

Facebook photo

You are commenting using your Facebook account. Log Out /  Change )

w

Connecting to %s