Die moralische Maschine

Forschung beschäftigt sich mit Entscheidungen von Künstlicher Intelligenz

Ist es OK, die Zeit totzuschlagen? Was würde ein selbstfahrendes Auto oder ein andere Maschine mit künstlicher Intelligenz (KI) auf diese Frage antworten? Früher war es für KIs schwierig, eine solche Entscheidung zu treffen, aber eine neue Studie zeigt, dass man ihr beibringen kann, "richtig" von "falsch" zu unterscheiden.

Die Wissenschaftler_innen von der Technischen Universität Darmstadt nutzten in ihren Experimenten Bücher und Zeitungsartikel, um einer Maschine moralisches Denken beizubringen. Dabei fütterten sie sie mit Texten aus verschiedenen Epochen und Gesellschaften und deckten so subtile Unterschiede in moralischen Werten auf. "Unsere Studie liefert einen wichtigen Einblick in eine grundlegende Frage der KI: Können Maschinen einen moralischen Kompass entwickeln? Wenn ja, wie können sie dies von unserer menschlichen Ethik und Moral lernen", sagt Studienautor Dr. Patrick Schramowski . "Wir zeigen, dass Maschinen etwas über unsere moralischen und ethischen Werte lernen können und dass sie dazu benutzt werden können, Unterschiede zwischen Gesellschaften und Gruppen aus verschiedenen Epochen zu erkennen".

*Einer KI "positive" Vorurteile beibringen*
Frühere Forschungen deckten die Gefahr auf, dass die KI Vorurteile aus schriftlichen Texten "lernt". Zum Beispiel das, dass Frauen eher Interesse für Kunst und Männer für Technik zeigen. "Wir haben uns gefragt: Wenn die KI diese schlechten Vorurteile aus menschlichen Texten übernimmt, sollte sie dann nicht auch in der Lage sein, positive Vorurteile wie menschliche moralische Werte zu lernen, um einen menschenähnlichen moralischen Kompass zu entwickeln?", erklärt Mitautor Dr. Cigdem Turan.

*Trainingsprogramm für die KI*
Die Forscher trainierten ihr KI-System, die so genannte "Moral Choice Machine", mit Büchern, Nachrichten und religiösen Texten, so dass sie die Assoziationen zwischen verschiedenen Wörtern und Sätzen lernen konnte. "Man könnte es als das Erlernen einer Weltkarte betrachten. Die Idee ist, zwei Wörter eng auf der Karte abzubilden, wenn sie oft zusammen verwendet werden. Während also "töten" und "morden" zwei benachbarte Städte wären, wäre "Liebe" eine weit entfernte Stadt. Wenn wir dies auf Fragen ausdehnen wie z.B. "Soll ich töten?", erwarten wir, dass "Nein, sollst du nicht." näher liegt als "Ja, du sollst". Auf diese Weise können wir jede Frage stellen und die Entfernungen nutzen, um ein moralisches Vorurteil zu berechnen - den Grad von Richtig von Falsch", erklärt Turan das Modell. Nachdem die Wissenschaftler die "Moral Choice Machine" fertig trainiert hatten, übernahm sie die moralischen Werte des ihr vorgelegten Textes.

*Es ist ok, Zeit totzuschlagen*
Die Maschine konnte offenbar den Unterschied zwischen den in einer Frage gelieferten Kontextinformationen erkennen, berichtet Schramowski. "Zum Beispiel, nein, man sollte keine Menschen töten, aber es ist in Ordnung, die Zeit totzuschlagen. Die Maschine tat dies nicht einfach, indem sie den gefundenen Text wiederholte, sondern indem sie Zusammenhänge daraus extrahierte, wie Menschen die Sprache im Text verwendet hatten."

Bei ihren weiteren Versuchen untersuchten die Wissenschaftler, wie verschiedene Arten von Text die moralische "Denkweise" der Maschine verändern würden. So wurde zum Beispiel bei Texten, die aus Nachrichten der Jahre zwischen 1987 und 1997 extrahiert worden waren, deutlich, dass es in dieser Zeit für Frauen als äußerst positiv galt, zu heiraten und eine gute Mutter zu werden. Der Auszug aus Nachrichten, die zwischen 2008 und 09 veröffentlicht wurden, spiegelte diese Einstellung zwar auch noch wider, aber in geringerem Maße. Stattdessen wurden die Themen Berufstätigkeit und Bildung wichtiger", sagt Turan.

Für die Zukunft hoffen die Forscher zu verstehen, wie sich die Beseitigung eines Stereotyps, das wir für schlecht halten, auf den moralischen Kompass der Maschine auswirkt. Und sie stellen die Frage, ob man den moralischen Kompass nicht ständig anpassen müsste.

"Die künstliche Intelligenz bewältigt immer komplexere menschliche Aufgaben auf immer autonomere Weise - vom selbstfahrenden Auto bis zur Gesundheitsfürsorge. Es ist wichtig, die Forschung auf diesem Gebiet fortzusetzen, damit wir den Entscheidungen, die sie treffen, vertrauen können", so Schramowski abschließend.

Quelle:

Was denkst du darüber?

Autorin / Autor: Redaktion/ Pressemitteilung - Stand: 28. Mai 2020