Was dürfen Maschinen entscheiden?

20.02.2019  — Jasmin Dahler.  Quelle: Verlag Dashöfer GmbH.

Bereits das Thema 'Big Data' wirft im Bereich Ethik insbesondere bezüglich der Privatsphäre etliche Fragen auf. Noch kritischer wird die Frage nach der digitalen Ethik, wenn es darum geht, was Maschinen für uns entscheiden dürfen — und was nicht.

In den letzten Jahren kamen immer mehr Maschinen hinzu, die uns in unseren Berufen und in unserem Privatleben unterstützen sollen. Dabei wird zwischen Artificial Intelligence und Artificial Morality unterschieden. Handelt es sich bei der Artificial Intelligence um Maschinen, die die kognitiven Fähigkeiten des Menschen simulieren sollen, geht es bei der Artificial Morality darum, dass Maschinen moralische Entscheidungen treffen sollen1.

Eine Kaffeemaschine als Vormund

Bei der Programmierung von Maschinen, die moralische Entscheidungen treffen können, müssen sich die Programmierer früher oder später entscheiden, inwieweit diese über einen Menschen hinweg entscheiden dürfen. Dies würde bereits bei einem simplen Haushaltsgerät beginnen. Stellen Sie sich vor, dass Ihre Kaffeemaschine durch die smarte Verbindung Ihrer elektronischen Geräte weiß, dass Sie an diesem Nachmittag einen viel zu hohen Blutdruck haben und Ihnen deswegen den Kaffee verweigert. Ihrer Gesundheit würde die Kaffeemaschine zwar helfen, sie hat Ihnen jedoch jegliche Entscheidungsfreiheit genommen. Eine andere Möglichkeit wäre, dass Ihre Kaffeemaschine Ihnen lediglich von dem Kaffee abrät, Sie jedoch die Entscheidungsgewalt darüber behalten, ob Sie einen Kaffee trinken möchten oder nicht.

Was darf Ihre Kaffeemaschine entscheiden und was nicht? Und jetzt stellen Sie die imaginäre Kaffeemaschine in Ihr Unternehmen. Ist eine smarte Verbindung hier überhaupt möglich? Müssen sich alle Mitarbeiter*innen registrieren, damit sie einen Kaffee auf der Arbeit trinken können? Die Arbeitgebenden haben natürlich ein Interesse daran, dass ihre Arbeitnehmer*innen gesund bleiben, aber darf die Kaffeemaschine den Kaffee bei erhöhtem Blutdruck überhaupt verweigern? Immerhin könnte das Kollegium diese Information aufschnappen, wodurch der Datenschutz gefährdet ist. Eine nicht spezifizierte Ablehnung des Kaffeeausschenkens würde andererseits zur Ausgrenzung und Unsicherheit führen. Ein Fehler der Maschine? Ein gesundheitliches Problem? Des Weiteren würde die Kaffeemaschine erfassen wie viel Kaffee eine Person pro Tag trinkt. Dürfen die Arbeitgebenden diese Information erhalten? Aus diesem Wissen könnte sich schließlich nicht nur gesundheitliche Unterstützung ergeben, sondern auch Kontrollmöglichkeiten.

Wie viel Selbstbestimmung geben wir ab?

Das Dilemma von Selbstbestimmung und Aufgabe persönlicher Freiheit zugunsten maschineller Unterstützung wächst mit der Tragweite der Entscheidung einer Maschine. Insbesondere für den Bereich der Pflege sind moralische Maschinen interessant und bereits in der Entwicklung2. Der Einsatz von künstlichen Systemen könnte dem derzeitigen Pflegenotstand entgegenwirken. Doch der Einsatz dieser technischen Möglichkeiten wirft ähnliche Fragen auf wie bereits die imaginäre Kaffeemaschine – nur auf einer ganz anderen Ebene.

Wie stark darf sich die Maschine in das Leben eines Menschen einmischen? Wie beharrlich darf diese sein, wenn es darum geht, Medikamente oder lebensnotwendige Lebensmittel einzunehmen oder gar zwangsweise zuzuführen? Darf es eine Nachricht an Angehörige geben, wenn sich der Zustand des zu Pflegenden verschlechtert hat? Und was darf eigentlich alles mit den Daten gemacht werden, die sich unweigerlich ansammeln? Sollte eine Auswertung stattfinden, damit gesundheitliche Probleme frühzeitig erkannt werden können oder sollen diese gelöscht werden? Darf der Patient vielleicht selber darüber entscheiden, wie mit den Daten umgegangen wird?

Festgelegte Werte vs. Moralmenü

Neben der festgelegten maschinellen Moral gibt es die flexiblere Alternative eines Moralmenüs. Mit diesem soll der Benutzer in der Lage sein, der Maschine seine Moralvorstellungen in einem bestimmten Rahmen mitzugeben. Somit soll die Maschine so handeln, wie es der Mensch bei einer manuellen Steuerung tun würde.

Bereits 2017 wurde der tierfreundliche Saugroboter LADYBIRD entwickelt 3. Dieser war in der Lage rote Flecken, zu erkennen und dann mit dem Reinigen aufzuhören und den Besitzer des Roboters zu informieren. Die Idee war, dass der Roboter Marienkäfer und andere Insekten bei seinen Reinigungsarbeiten verschont. Mit einem Moralmenü wäre es möglich, dem Roboter weitere Informationen mitzugeben. Sollen Ungeziefer und Spinnen ebenfalls verschont werden?

Ein Moralmenü würde die Möglichkeit bieten, den Maschinen genau die moralischen Entscheidungen treffen zu lassen, die sich der Besitzer wünscht. Dennoch würde die Frage offen bleiben, wer das Moralmenü eines Pflegeroboters einstellen würde? Derjenige, der Tag täglich den Entscheidungen des Roboters ausgesetzt ist, Pflegepersonal oder gar die Angehörigen? Und wer ist am Ende der Verantwortliche, wenn die Maschine einen Fehler begeht? Der Nutzer, der Besitzer, der Hersteller oder der Programmierer? Auch der Rahmen, in dem ein Mensch eigene Moralvorstellungen mitgeben darf, wäre zu klären. An Gesetze sollte er sich natürlich halten, doch über deren Interpretation streiten sich selbst Gerichte.

Diskriminierende Roboter

Apropos: Wie kompliziert Entscheidungen aufgrund von vorgegebenen Daten sein können, zeigte bereits das amerikanische Programm COMPAS, welches bei Gerichten eingesetzt wird, um zu ermitteln, ob und wie hoch die Wahrscheinlichkeit einer Rückfälligkeit eines Angeklagten ist. Auf Grundlage von 137 Merkmalen4, die aus Gerichts- oder Gefängnisakten sowie aus Antworten der Beschuldigten stammen, ermittelt COMPAS die Wahrscheinlichkeit der Rückfälligkeit. Diese Vorgehensweise sollte dem Richter helfen, eine objektive Entscheidung zu treffen und damitfür mehr Gerechtigkeit zu sorgen.

Diese Objektivität wird jedoch von Kritikern bezweifelt. COMPAS erweist sich als diskriminierend gegenüber dunkelhäutigen Menschen: Pro Publica5 ermittelte in einer Studie, dass der Algorithmus nicht nur besonders häufig dunkelhäutige Angeklagte fälschlicherweise als künftige Kriminelle bezeichnete, sondern dass ebenso häufig weißen Angeklagten fälschlicherweise ein geringes Risiko zugewiesen wurde. Zum Beispiel wurde eine dunkelhäutige Frau nach dem Diebstahl eines Kinderfahrrads mit einem hohen Rückfall-Risiko bewertet. Frühere Verstöße waren lediglich kleinerer Natur. Ein weißer Mann wurde nach einem Ladendiebstahl trotz früherer bewaffneter Raubüberfälle mit einem geringen Risikowert versehen.

Man kann natürlich argumentieren, dass COMPAS schlecht programmiert wurde und lediglich Updates braucht. Doch noch etwas anderes ist problematisch an der Anwendung des Programms: Richter*innen verlassen sich nicht mehr auf ihre eigene Entscheidung. So setzte ein Richter die Strafe eines Angeklagten prompt hoch, als er den Risikowert sah6. Der Mensch gibt ab diesem Punkt nicht mehr der Maschine vor, wie sie zu handeln und zu entscheiden hat, sondern wird von der Maschine in seinen Handlungen und Entscheidungen maßgeblich beeinflusst. Es bleiben also dringliche Fragen bei der Entwicklung künstlicher Systeme, die selbst Entscheidungen treffen sollen. Wer gibt die ethische Grundlage vor? Wie kann diese überhaupt "sauber" vorgegeben werden, wenn schon der Mensch an sich Schwierigkeiten damit hat, Moralvorstellungen trennscharf zu formulieren? Und sollte es Bereiche geben, in die sich keine Maschine einmischen darf? Gerade bei ethischen Entscheidungen ist für den Menschen schließlich manchmal nicht nur die Entscheidung wichtig, sondern auch der Weg dahin und die Diskussion davor, um eine Entscheidung verstehen und akzeptieren zu können.

Kennen Sie schon unseren neuen News­letter Digitalisierung aktuell?

nach oben