Kategorie: Digitalisierung

Maschinen und Moral: 
Ein Widerspruch! Oder nicht?


1942 formulierte der Science-Fiction-Autor Isaac Asimov in seiner Kurzgeschichte „Runaround“ drei Grundregeln für das Verhalten von Robotern, seine „Grundregeln des Roboterdienstes“: 1. Ein Roboter darf einen Menschen nicht verletzen oder durch Untätigkeit zu Schaden kommen lassen. 2. Ein Roboter muss den Befehlen des Menschen gehorchen, es sei denn, diese stehen im Widerspruch zum ersten Gesetz. 3. Ein Roboter muss seine eigene Existenz schützen, solange dies nicht mit dem ersten oder zweiten Gesetz im Konflikt steht. Diese drei Regeln bilden seitdem das konzeptionelle Fundament vieler, vor allem literarischer Auseinandersetzungen mit der Frage, ob Menschen vor Robotern sicher sind. Eine durchaus relevante Frage, schaut man sich aktuelle Entwicklungen im Bereich Robotik an (vgl. Video).

Video: Der Atlas-Roboter von Boston Dynamics.

Die Regeln wirken zunächst simpel und scheinbar effektiv. „Könnte passen!“ schießt es einem im ersten Moment durch den Kopf. Tatsächlich aber zeigt Asimov unmittelbar in seiner Geschichte, dass schon diese drei Regeln schnell in Konflikt stehen können. In Asimovs Geschichte, die auf dem Merkur spielt, soll ein Roboter für zwei Menschen lebenswichtiges Selen sammeln. Nahe des Selenvorkommens herrscht jedoch ein Umweltzustand, der die Hülle des Roboters angreift. Gemäß Regel 3 muss sich der Roboter schützen. Gleichzeitig will und muss er aber gemäß Regel 2 den Befehl ausführen und Selen sammeln. Was also tun? In der Geschichte fährt der Roboter im Kreis und bringt dadurch die Menschen in Lebensgefahr. 

Es ist also nicht so einfach, wie es auf den ersten Blick scheint!  

Trotzdem gibt es viele Situationen, in denen für Maschinen ethisches bzw. moralisches Verhalten relevant wird. Denken Sie beispielsweise ein Roboter im militärischen Bereich. Wie wird beispielsweise entschieden, ob ein intelligentes Waffensystem schießt oder nicht? Wie unterscheidet ein Waffensystem zwischen einer Kampfsituation und einer Gefechtspause? Wie zwischen gegnerischen Waffensystemen und gegnerischen Soldaten? Wie zwischen fremden Soldaten und Zivilisten? Wie zwischen fremden Menschen und Tieren? Aber auch andere, zivile Szenarien sind natürlich denkbar – so zum Beispiel die Rettung von Menschen in Gefahrsituationen. Ein solches Beispiel wird im berühmten Film „iRobot“ mit Will Smith thematisiert (vgl. Video).    

Das Problem: Maschinen können per se mit Uneindeutigkeit erst einmal nicht umgehen. Ambivalenz ist kein vorgesehenes, mögliches Konzept. Aber trotzdem dringend notwendig! Asimov hat schon früh die immense Bedeutung des Themas erkannt: 

Die Übersetzung menschlicher Ethik und Moral in Maschinensprache.

Maschinen müssen Regeln folgen!

Maschinen folgen vorgegebenen Handlungsmustern. Algorithmen. Mathematik. Und genau hier kann angesetzt werden. So entwickelt beispielsweise der amerikanische Forscher Ronald Arkin Georgia vom Institute of Technology in Atlanta Algorithmen, die vollautomatische Kampfroboter mit einer Moralfunktion ausstatten. Arkin bestimmt das Verhalten eines Kampfroboters „p“ auf Basis von vier Faktoren: Ereignis, mögliche Verhaltensweisen, Gewinn und mögliche Gegenreaktionen. Hinzu kommt ein „Ethikregler“, eine Art Notbremse, die die Ausführung von „p(tödlich)“ verhindert – etwa, wenn Zivilisten in der Nähe sind.

Die Herausforderung bei jedem regelbasierten Ansatz ist, dass gerade bei ethisch-moralischen Fragestellungen nicht immer klar ist, was geregelt werden muss und was nicht, also wie die kodierten Regeln am Ende aussehen. Auch wir Menschen sind uns bei ethisch-moralischen Fragestellungen oft nicht einig. Regeln sind sie zwangsläufig unvollständig. 

Maschinen müssen Regeln folgen

Gut veranschaulicht werden kann dies durch das so genannte Trolley-Problem, das seit Jahrzehnten intensiv und kontrovers diskutiert wird. Im Mittelpunkt steht die Frage, ob ein absichtliches Zufügen von Schaden richtig oder falsch ist, selbst wenn dabei gleichzeitig auf jeden Fall etwas Gutes herbeigeführt wird. Anders gesagt: Darf man wenige Menschen opfern, um viele zu retten? Ein konkretes Szenario wurde 1967 von der Philosophin Philippa Foot formuliert: „Ein Straßenbahnwagen ist außer Kontrolle geraten und rast auf 5 nichtsahnende Bahnarbeiter zu. Sie stehen an einer Weiche und können den Wagen auf ein anderes Gleis leiten, auf dem aber ein Bahnarbeiter steht. Entscheiden Sie sich, die Weiche umzulegen, oder unterlassen Sie es, zu handeln?“ 

Übertragen auf intelligente Maschinen: Wie entscheidet ein autonom fahrendes Auto, wenn plötzlich ein Kind auf die Straße springt, ein Ausweichen aber eine Gruppe von Fußgängern gefährdet? Was wäre, wenn ein abruptes Bremsmanöver die Insassen schützt, aber zu einer Massenkarambolage unter den nachfolgenden Autos führt? Oder wenn das Auto einem Kind ausweicht – auch auf die Gefahr hin, jemand anderen zu treffen?

Schon wir Menschen geraten bei solchen Fragestellungen schnell in Streit. Welche Regeln sollen wir dann aber Maschinen mitgeben? Das ist schwierig! Und Gegenstand weltweiter Forschung und Überlegungen. 

In jedem Fall bietet ein regelbasierter Ansatz auf einen entscheidenden Vorteil. Es ist der Mensch, der die Regeln aufstellt. Es ist der Programmierer, der die Regeln im Programmcode der Maschine hinterlegt. Es ist damit immer kontrollierbar, warum eine Maschine eine bestimmte Wahl trifft. 

Man könnte sagen: CODE IS LAW! 

Und das ist entscheidend! 

Beispiel Kampfroboter: Ein autonomer Kampfroboter darf nicht erst mitten im Gefecht herausfinden, welche ethisch-moralischen Grundsätze gelten. Steht ein Kampfroboter vor der Frage, einen verletzten gegnerischen Soldaten zu verschonen oder anzugreifen, muss schon vorher eindeutig festgelegt sein, wie er sich entscheiden wird.

Bleibt die Frage: 

Reichen Regeln alleine aus?

Ethisch-moralische Fragestellungen beinhalten eigentlich immer auch Gefühle und ein Verständnis für einen situativen Kontext. Viele Forscher schlagen deswegen vor, neben Regeln auch mit lernenden Algorithmen in der Maschinenethik zu arbeiten.

Video: Machine intelligence makes human morals more important.

Dazu ein Beispiel: „In einem […] Experiment wurde der kommerzielle Spielzeugroboter Nao so programmiert, dass er seinen Besitzer an die Einnahme seiner Medizin erinnerte. […] Doch selbst diese kleine Aufgabe führt zu nicht ganz unerheblichen ethischen Fragen. Wie soll sich Nao zum Beispiel verhalten, wenn der Patient die Medikamente verweigert? Lässt der Patient sie weg, könnte er zu Schaden kommen; besteht Nao aber auf die Einnahme, würde das die Autonomie des Patienten verletzen.

In einer solchen Situation kann maschinelles Lernen helfen. So könnten Robotern Beispiele zur Verfügung gestellt werden, die ähnliche Konflikte und Lösungen beschreiben. Lernfähige Algorithmen können dann bei Bedarf vorhandene Beispiele nach Mustern durchsuchen, die den Roboter in einer unbekannten Situation anleiten können.

Bei einem solchen Vorgehen muss jedoch klar sein: Die Prinzipien, nach denen lernende Roboter entscheiden, sind nicht mehr fester Bestandteil der Programmierung. Lernen Roboter eigene neue Regeln, ist nicht mehr nachvollziehbar, wie der Roboter zu einer bestimmten Entscheidung kommt, die nun vorgibt, ethisch richtig ist. 

Es gilt jetzt also nicht mehr: CODE IS LAW! 

Die Kontrolle wird weniger. Ob das wünschenswert ist, bleibt zu diskutieren

Fazit

Schon 1942 formulierte Isaac Asimov seine „Grundregeln des Roboterdienstes“. Diese Regeln bilden seitdem das konzeptionelle Fundament zu Auseinandersetzungen mit der Frage, ob Menschen vor Robotern sicher sind. Das zu lösende Problem: Maschinen können nicht mit Uneindeutigkeit umgehen – und schon Asimovs Regeln sind eben uneindeutig! 


Weitere Themen
in unserem Blog

Die ersten Fake News: Was Kaiser Konstantin angeblich schenkte und Bismarck redigierte!

Die ersten Fake News: Was Kaiser Konstantin angeblich schenkte und Bismarck redigierte!

Fake News und deren tatsächliche und vermutete Auswirkungen sind in unserem gesellschaftspolitischen Diskurs seit einigen Jahren nicht mehr wegzudenken. Fake News sind aber tatsächlich so alt wie die Menschheit selbst. Eine Definition des Begriffs fällt dabei bis heute schwierig. Der Begriff ist…

Artikel lesen
Maschinen und Moral: 
Ein Widerspruch! Oder nicht?

Maschinen und Moral: 
Ein Widerspruch! Oder nicht?

1942 formulierte der Science-Fiction-Autor Isaac Asimov in seiner Kurzgeschichte „Runaround“ drei Grundregeln für das Verhalten von Robotern, seine „Grundregeln des Roboterdienstes“: 1. Ein Roboter darf einen Menschen nicht verletzen oder durch Untätigkeit zu Schaden kommen lassen. 2. Ein Roboter…

Artikel lesen
Die Digitalisierung des Menschen: 
Crazy Shit Beispiele im Überblick

Die Digitalisierung des Menschen: 
Crazy Shit Beispiele im Überblick

Die Digitalisierung überrennt Gesellschaft, Unternehmen und jeden Einzelnen von uns mit unvorstellbarer Dynamik und Wucht. Während manche Auswirkungen in unserem Alltag sichtbar und spürbar sind, bleibt vieles andere vage und im Verborgenen. Viele Ideen und Anwendungen der Digitalisierung basieren…

Artikel lesen