Bild: PNAS Nexus

Handwerk  Künstliche Intelligenz (KI)

Kreativitätsforschung | 16.04.2026

KI-Modelle liefern weniger originelle Ergebnisse als Menschen

Sprachmodelle (LLMs) liefern bei kreativen Aufgaben deutlich homogenere Resultate als menschliche Probanden. Das zeigt eine Studie der Duke University. Während einzelne KI-Systeme in Standardtests zwar originell wirken können, ähneln sich die Antworten der verschiedenen Modelle untereinander stark. Die Forschenden untersuchten 22 kommerzielle KI-Modelle und verglichen deren Output mit den Antworten von über 100 Testpersonen. Trotz unterschiedlicher Anbieter basieren die KI-Modelle auf ähnlichen Datensätzen aus dem Internet. Das schränkt ihre kreative Vielfalt ein. Für die Medienbranche bedeutet dies, dass ein Übermass an KI-generierten Inhalten zu einer zunehmenden Standardisierung von Sprache und Ideen führen könnte.

Die Untersuchung, die in der Fachzeitschrift «PNAS Nexus» veröffentlicht wurde, nutzte drei etablierte psychologische Verfahren zur Messung von divergentem Denken. Beim «Alternative Uses Test» (AUT) mussten die Teilnehmenden ungewöhnliche Verwendungsmöglichkeiten für Alltagsgegenstände finden. Der «Divergent Association Task» (DAT) forderte das Benennen möglichst unzusammenhängender Begriffe. Im dritten Test, dem «Forward Flow» (FF), wurden Wortassoziationsketten gebildet, um den Ideenfluss zu messen.

Werbung

Die Forscher stellten in allen Testreihen fest, dass die Variabilität der menschlichen Antworten diejenige der Maschinen bei weitem übertraf. Selbst wenn die KI durch spezifische Prompts explizit zu mehr Kreativität aufgefordert wurde, erhöhte sich die Vielfalt der Ergebnisse nur geringfügig. Die Forschenden führen dies darauf zurück, dass kommerzielle LLMs mit dem Ziel trainiert werden, statistisch wahrscheinliche und kohärente Antworten zu geben. Kreativität basiert aber auf der menschlichen Unvorhersehbarkeit.

Gefahr der inhaltlichen Homogenisierung

«Die Menschen fragen sich vielleicht, ob verschiedene LLMs sie bei kreativen Projekten mit denselben Prompts in unterschiedliche Richtungen führen», erklärt Emily Wenger, Assistenzprofessorin für Elektro- und Computertechnik an der Duke University. Die Studie verneine dies jedoch, da LLMs als Population weniger kreativ seien als Menschen. «Ein zu starkes Vertrauen in diese Werkzeuge wird die Arbeit der Welt auf den gleichen zugrunde liegenden Satz von Wörtern oder Grammatik glätten», warnt Emily Wenger.

Das habe weitreichende Implikationen für die Erstellung von Inhalten und die Produktentwicklung. Die Studie zeigt: Wer sich von der Masse abheben will, muss weiterhin auf diverse menschliche Teams setzen. Yoed Kenett, Mitautor und kognitiver Neurowissenschaftler am Technion, erklärt: «Das Problem ist, dass LLMs zwar äusserst originelle Ergebnisse zu liefern scheinen, ihre Antworten jedoch übermässig homogenisiert und nicht variabel sind.» Dies könne langfristig negative Auswirkungen auf das menschliche kreative Denken haben.

Quelle:
Bellemare-Pepin et al., «Divergent creativity in humans and large language models», Scientific Reports, 21. Januar 2026. DOI: 10.1038/s41598-025-25157-3

«Large language models are homogeneously creative», PNAS Nexus / Duke Pratt School of Engineering, pratt.duke.edu/news/ai-vs-human-creativity

Bitte füllen Sie alle Felder aus.
Ihre E-Mail-Adresse wird nicht veröffentlicht.

* = erforderlich

 

Edito exklusiv

Edito-Academy: Webinar

 

Praxisnahe Weiterbildung rund um KI, Tools und digitale Trends auf der neuen Plattform

 

academy.edito.ch

Werbung
EDITO en français
Aktuelle Ausgabe