You are here: Home Ringvorlesung Bernstein … 2023/24 Lars Konieczny, Universität …

Bernstein Center Freiburg | Ringvorlesung WS 2021/2022

Lars Konieczny, Universität Freiburg: Chat-GPT und linguistische Theorie: Was lernen wir von großen Sprachmodellen?

Center for Cognitive Science | University of Freiburg [RINGVORLESUNG]
When Jan 15, 2024
from 07:00 PM to 08:30 PM
Where Großer Hörsaal Biologie, Schänzlestr. 1, 79104 Freiburg
Contact Name
Add event to calendar vCal
iCal

 

Chat-GPT und linguistische Theorie:
Was lernen wir von großen Sprachmodellen?

 

 Large Language Models (LLMs) wie Chat-GPT verfügen über beeindruckende Fähigkeiten im Bereich des Sprachverständnisses und der Sprachproduktion, die sie durch induktive Lernverfahren in einer künstlichen neuronalen Netzarchitektur sowie durch umfangreiches Training mit sehr großen Textmengen erwerben. Dass dies überhaupt möglich ist, wurde von Vertretern der formalen Linguistik lange Zeit mit dem Hinweis auf die unendliche Generativität rekursiver syntaktischer Regeln in Frage gestellt, deren Erwerb in endlicher Zeit mit überschaubarem Input unmöglich ist. Seitdem konzentriert sich die generative Grammatikforschung auf die universellen Prinzipien und einzelsprachlichen Parameter der menschlichen Sprache. Aber auch jenseits dieses Ansatzes wurde die formale linguistische Analyse lange Zeit als theoretisch grundlegend und für praktische Anwendungen unverzichtbar angesehen. Wird diese Ansicht durch moderne Sprachmodelle in Frage gestellt?

 Einer möglichen Antwort werde ich mich in im Vortrag durch weitere Fragen nähern: Wie wird Sprache in modernen Transformator-basierten Architekturen erworben und wie wird sprachliches Wissen in ihnen repräsentiert? Inwieweit können LLMs als kognitive Modelle menschlicher Sprache betrachtet werden? Und schließlich: Sind linguistische Theorien im Lichte der neuen Modelle obsolet? 

Über den Vortragenden, Prof. Dr. Lars Konieczny

 

All upcoming events

Back to overview
Filed under: