Wie sich Large Language Models im Mathematikunterricht bewähren
und woran sie (noch) scheitern
Abstract
Der Artikel beleuchtet den rasanten Leistungsfortschritt großer Sprachmodelle wie ChatGPT im Mathematikkontext, ordnet diesen anhand aktueller Benchmarks ein und weist zugleich auf bestehende Grenzen hin – insbesondere bei fachsprachlicher Präzision und individualisiertem Feedback. Es wird dargestellt, dass Large Language Models (LLMs) bereits in der Lage sind, Routineaufgaben zu erleichtern und Lösungswege anschaulich zu machen, dabei jedoch zentrale didaktische Aufgaben von Lehrkräften nicht ersetzen können. Der Beitrag bietet eine Einordnung, wie KI-gestützte Werkzeuge sinnvoll in den Unterricht integriert werden können.
Veröffentlicht
2025-09-23
Ausgabe
Rubrik
Digitales Lehren und Lernen - Konzepte und Beispiele
Lizenz
Copyright (c) 2025 Valentin Katter

Dieses Werk steht unter der Lizenz Creative Commons Namensnennung - Weitergabe unter gleichen Bedingungen 4.0 International. Autor/innen, die in dieser Zeitschrift publizieren möchten, stimmen den folgenden Bedingungen zu:
- Die Autor/innen behalten das Copyright und erlauben der Zeitschrift die Erstveröffentlichung unter einer Creative Commons Namensnennung Lizenz, die es anderen erlaubt, die Arbeit unter Nennung der Autor/innenschaft und der Erstpublikation in dieser Zeitschrift zu verwenden.
- Die Autor/innen können zusätzliche Verträge für die nicht-exklusive Verbreitung der in der Zeitschrift veröffentlichten Version ihrer Arbeit unter Nennung der Erstpublikation in dieser Zeitschrift eingehen (z.B. sie in Sammelpublikation oder einem Buch veröffentlichen).
- Die Autor/innen werden dazu ermutigt, ihre Arbeit parallel zur Einreichung bei dieser Zeitschrift online zu veröffentlichen (z.B. auf den Homepages von Institutionen oder auf ihrer eigenen Homepage), weil so produktive Austauschprozesse wie auch eine frühe und erweiterte Bezugnahme auf das veröffentlichte Werk gefördert werden (siehe The Effect of Open Access).