Wie sich Large Language Models im Mathematikunterricht bewähren

und woran sie (noch) scheitern

Autor/innen

  • Valentin Katter Universität Bielefeld
  • Daniel Barton

Abstract

Der Artikel beleuchtet den rasanten Leistungsfortschritt großer Sprachmodelle wie ChatGPT im Mathematikkontext, ordnet diesen anhand aktueller Benchmarks ein und weist zugleich auf bestehende Grenzen hin – insbesondere bei fachsprachlicher Präzision und individualisiertem Feedback. Es wird dargestellt, dass Large Language Models (LLMs) bereits in der Lage sind, Routineaufgaben zu erleichtern und Lösungswege anschaulich zu machen, dabei jedoch zentrale didaktische Aufgaben von Lehrkräften nicht ersetzen können. Der Beitrag bietet eine Einordnung, wie KI-gestützte Werkzeuge sinnvoll in den Unterricht integriert werden können.

Veröffentlicht

2025-09-23

Ausgabe

Rubrik

Digitales Lehren und Lernen - Konzepte und Beispiele