Die einen zu kritisch, die anderen zu blauäugig
Studie Vertrauen & KI: Fachkräfte nehmen KI-Empfehlungen oft nicht ernst genug. Privat trauen Menschen der KI jedoch oft zu viel zu – v. a. in Moralfragen.
KI ist dem Menschen in einigen Bereichen überlegen, zum Beispiel wenn es darum geht, medizinische Bilder auszuwerten. Trotzdem sind Expert:innen im Gebrauch von KI zögerlich, haben Forscher:innen um Prof. Dr. Matthias Uhl von der Universität Hohenheim in Stuttgart herausgefunden. Privat ist es genau umgekehrt: Nutzer:innen, die Chatbots als persönliche Berater für Lebensfragen verwenden, entwickeln häufig ein übermäßiges Vertrauen in die KI.
„Dabei unterschätzen sie häufig, wie stark die Antworten die eigene Meinungsbildung beeinflussen können. Das überhöhte Vertrauen zeigt sich nicht zuletzt darin, dass Nutzer:innen im Nachhinein glauben, sie wären auch ohne Unterstützung zum gleichen Ergebnis gekommen“, sagt Forscher Prof. Dr. Uhl.
Kritisch sehen die Wissenschaftler:innen dabei weniger den Einfluss der KI selbst, sondern, dass er so unbemerkt geschieht: „Genau diese fehlende Wahrnehmung ist problematisch. Die zentrale Herausforderung besteht darin, Strategien zu finden, mit denen Menschen KI bewusst und reflektiert einsetzen und dabei die Verantwortung für ihre eigene Entscheidung behalten.“
Den gegenteiligen Effekt von blindem Übervertrauen beobachtet Uhl bei Fachpersonal: „Fachleute wie beispielsweise medizinisches Personal, sind von ihren eigenen Fähigkeiten oft sehr überzeugt und begegnen dem Einsatz von KI im Berufsalltag eher mit Selbstüberschätzung und KI-Skepsis – was ebenfalls nachteilige Folgen haben kann.“
Diese Skepsis kann aber dem Forscher zufolge riskant sein. „Wenn es etwa darum geht, Röntgenbilder, MRTs oder andere medizinische Bilder zu beurteilen, ist die KI inzwischen meist besser als jeder Mensch. So kann sie Medizinerinnen und Mediziner bei Diagnosen unterstützen.“ Richtig eingesetzt verbessere die KI deshalb die Qualität medizinischer Entscheidungen.
Das Vertrauensproblem ist nicht auf das Feld der Medizin beschränkt. Prof. Dr. Uhl erklärt: „Je stärker sich jemand als fachlich überlegen einschätzt, desto eher werden Empfehlungen von KI-Modellen ignoriert.“
KI als Entscheidungshilfe verstehen
Die Forscher:innen wollen beiden Problemen - übertriebener Skepsis und übertriebenem Vertrauen - entgegentreten. Menschen müssten lernen, KI als Entgscheidungshilfe zu verstehen und sie auch so einzusetzen. Auch müsste die Technik so gestaltet sein, dass sie dabei hilft, selbst Klarheit zu finden. Also eine Technik, die statt Anweisungen zu geben kritisch nachfragt und das eigene Wertesystem schärft. Wie das gehen könnte, haben die Forschenden in einer Studie untersucht.
Experiment, wie es gehen könnte
In der Studie, die in den USA stattfand, sollten republikanische und demokratische Teilnehmende Steuern umverteilen und konnten dabei jeweils Angehörige ihrer eigenen Partei bevorzugen. Sie sollten sich außerdem ein paar Minuten mit einem Chatbot unterhalten. Eine Hälfte der Chatbots war klassisch programmiert, die andere Hälfte nach der sokratischen Methode, einer Methode, bei der der Erkenntnisgewinn vor allem durch kritisches Nach- und Hinterfragen erreicht wird. „Probanden, die mit klassischen Chatbots interagiert hatten, verteilten die Steuern eher unmoralisch um, indem sie Parteigenossen bevorzugten.“ Die andere Gruppe habe meist ethischer gehandelt und Steuergelder eher unabhängig von der Parteizugehörigkeit umverteilt. „Wir konnten sehen, dass Chatbots helfen können, Verständnis für die andere Seite zu schaffen,“ beschreibt Uhl die Ergebnisse.
Bei Expert:innen, die KI kritisch sehen, muss anders vorgegangen werden. Die Forscher:innen fanden heraus, dass es hilft, wenn die KI genau erklärt, warum sie beispielsweie in einem Bild einer medizinischen Aufnahme einen Tumor erkennt und auch angibt, wie sicher sie sich bei einer Antwort ist.
Die Forschenden wollen an diesem Thema weiterarbeiten und Tests entwickeln, die helfen, die Bild-Wahrnehmung von medizinischen Expert:innen und der KI besser zu harmonisieren.
Quelle
Autorin / Autor: Redaktion / Pressemitteilung - Stand: 15. Mai 2026