Neue Studie zeigt die Grenzen von KI-Modellen wie ChatGPT
KI-Modelle werden mit zunehmender Größe und der Menge an Daten, mit denen sie trainiert werden (Skalierung), leistungsfähiger. Diese rasante Weiterentwicklung von KI-Modellen wie ChatGPT und Co. beeinflusst nicht nur die Arbeitswelt, sondern wirft auch Fragen nach einer möglichen Entwicklung eines allgemeinen „intelligenten“ Verhaltens von Large Language Models (LLMs) auf.
Eine neue Studie, geleitet von der TU-Informatikprofessorin und Hessian.AI-Mitglied Iryna Gurevych sowie Dr. Harish Tayyar Madabushi von der University of Bath, zeigt die Grenzen von ChatGPT und ähnlichen KI-Modellen auf. Die Forschenden weisen in der Untersuchung nach, dass es trotz der Skalierung für die mutmaßliche Entwicklung eines differenzierten Denkvermögens von KI-Modellen wie ChatGPT keine Beweise gebe. Stattdessen folgen die LLMs „nur“ relativ einfachen Anweisungen. Von Fähigkeiten, wie sie Menschen aufweisen, seien die Systeme dagegen noch weit entfernt, so die Autor:innen der Studie.
Die Studie wurde im August auf der Jahrestagung der renommierten Association for Computational Linguistics (ACL) in Bangkok vorgestellt, der größten internationalen Konferenz zur Automatischen Sprachverarbeitung.
Mehr zur Studie.
KI-generiertes Bild mit DALL-E