KI Gesellschaft

Experiment: Was passiert eigentlich, wenn mehrere Künstliche Intelligenzen ihre nicht vorhandenen Köpfe zusammen stecken?

Schütteln wir uns zur Begrüßung die Hände oder verteilen wir Küsschen? Wie nennen wir Dinge? Was gilt uns als Standard? Wenn mehrere Menschen zusammenkommen, dann bilden sie Konventionen, also Verhaltensnormen aus. Diese können ausdrücklich vereinbart oder stillschweigend beschlossen werden und gelten als Baustein von Gesellschaften, denn in ihnen wird verabredet, wie wir zusammenleben wollen und welches Verhalten als akzeptabel empfunden wird. Konventionen sind wandelbar und auch nicht immer ein Ergebnis von Mehrheiten. Es gibt auch Fälle, wo lautstarke Minderheiten bestimmen, was der Standard sein soll.

Aber wie ist das eigentlich bei Künstlichen Intelligenzen? In der Forschung wurden solche Systeme bislang eher isoliert betrachtet, dabei ist klar, dass in der realen Welt immer mehr miteinander agierende KI-Systeme aufeinandertreffen. Was machen sie, wenn sie zusammenkommen? Folgen sie immer nur den gleichen Mustern und Skripten? Oder verändert sich etwas im Zusammenspiel mit anderen KI-Agenten?

Das wollten Forscher:innen der City St. George's University of London und der IT-Universität Kopenhagen herausfinden und untersuchten in Experimenten, wie und ob LLMs (Large Language Models) sich selbst organisieren, wenn sie zusammenkommen und ob sie dabei soziale Verhaltensnormen entwickeln. LLMs sind Deep-Learning-Algorithmen, also Systeme, die menschliche Sprache verstehen und generieren können. Das bekannteste Beispiel ist ChatGPT.

Um herauszufinden, wie sich nur verschieden LLMs in der Gruppe verhalten, griffen die Forscher:innen auf ein sogenanntes "naming game" (Benennungsspiel) zurück, das nachvollziehbar macht, wie Umgangsregeln entstehen und das bei Menschen schon oft erprobt wurde.

Eine Konvention bildet sich heraus

In dem aktuellen Experiment wurden aus einer großen Gruppe je zwei zufällig gepaarte LLMs per Prompt dazu aufgefordert, aus einer bestimmten Anzahl von Möglichkeiten (z. B. Buchstaben des Alphabets oder zufällige Zeichenfolgen) eine Option auszuwählen. Dabei sollte sich die jeweilige LLM für die Option entscheiden, von der sie glaubte, dass die andere KI sie wahrscheinlich wählen würde. Stimmte das Ergebnis überein, gab es für beide Beteiligten eine Belohnung, wenn nicht, wurden sie "bestraft" und bekamen die Auswahl des jeweils anderen gezeigt. In der nächsten Runde wurden die Partner neu zugeteilt.

Die KI-Agenten wussten nicht, dass sie Teil einer Gruppe waren und konnten sich immer nur an die eigenen letzten Interaktionen erinnern. Dennoch hatte sich nach zahlreichen Durchläufen solcher Zweier-Kombinationen in der ganzen Gruppe eine gemeinsame Namenskonvention herausgebildet, ohne dass es irgendeine zentrale Koordination oder eine vordefinierte Lösung gab.

Noch bemerkenswerter fanden die Forscher:innen, dass dabei eine Art Voreingenommenheit (bzw hier: Vorliebe für bestimmte Auswahlmöglichkeiten) entstand, die nicht auf einzelne Akteure zurückgeführt werden konnte.

Blinder Fleck in aktuellen KI-Sicherheitsarbeiten

„Voreingenommenheit kommt nicht immer von innen“, erklärt Andrea Baronchelli, Professor für Komplexitätsforschung am City St. George's und Hauptautor der Studie, “wir waren überrascht zu sehen, dass sie zwischen den Akteuren entstehen kann - einfach durch ihre Interaktionen. Dies ist ein blinder Fleck in den meisten aktuellen KI-Sicherheitsarbeiten, die sich auf einzelne Modelle konzentrieren“.

In einem abschließenden Experiment veranschaulichte die Studie, wie zerbrechlich diese entstehenden Normen sein können: Kleine, engagierte Gruppen von KI-Agenten können die gesamte Gruppe zu einer neuen Namenskonvention bewegen, was an die bekannten Kipppunkteffekte - oder die Dynamik der „kritischen Masse“ - in menschlichen Gesellschaften erinnert.

Um Gefahren zu erkennen, müssen wir verstehen, wie KI funktionieren

Die Forscher:innen finden die Erkenntnisse sehr bemerkenswert, auch weil LLMs beginnen, Online-Umgebungen zu bevölkern - von sozialen Medien bis hin zu autonomen Fahrzeugen. Die Forschung biete einen guten Ansatz, um tiefer einzusteigen und mögliche Gefahren, die von LLM-KIs ausgehen, erkennen und bekämpfen zu können - etwa, wenn sie von der Gesellschaft gespeiste Vorurteile verbreiten. Wenn wir in der Koexistenz mit der KI die Oberhand behalten wollten, anstatt ihr unterworfen zu sein, müsten wir verstehen, wie sie funktioniert.

Was denkst du darüber?

Autorin / Autor: Redaktion/ Pressemitteilung - Stand: 27. Mai 2025