Diesen März fand die jährliche Konferenz der Gesellschaft für Empirische Bildungsforschung in Potsdam statt. Dabei handelte es sich um einen Nachholtermin, da eigentlich schon 2020 in Potsdam getagt werden sollte, was aber aufgrund der COVID 19-Pandemie leider kurzfristig nicht möglich war. Insofern war es umso schöner, dass sich das Tagungsteam bereit erklärt hat, die Konferenz 2024 wieder auszurichten. Als Repräsentant unseres Teams war diesmal nur Christoph (also ich 😉 ) vor Ort. Der Tagungsort war derselbe wie schon auf der Tagung der AEPF 2023. Insofern war es auch gleichzeitig ein Wiedersehen mit dem schönen Campus Griebnitzsee (mit vielen Bäumen im Innenhof und es wurde auch wieder sonnig).
Unsere Beiträge
In diesem Jahr hatten wir die Gelegenheit, uns im Symposium Handlungsnahe Kompetenzmessung mit Simulationen in der Lehrkräftebildung: Potentiale und Herausforderungen zu beteiligen, das von Stephanie Kron und Prof. Dr. Stefan Ufer von der LMU München organisiert wurde. Christoph eröffnete das Symposium mit einem Vortrag über die Entwicklung und Ergebnisse aus der Validierung von Thomas‘ Performanztest für die rollenspielbasierte Prüfung von Feedbackkompetenz angehender Lehrkräfte im Fach Englisch. Dabei konnten wir auch aktuelle Ergebnisse zum Zusammenhang zwischen Performanz in der Simulation und dem Ausmaß von fachdidaktischen Wissen, Feedbackwissen und Sprachkompetenz berichten (Danke dir, Thomas, für die Auswertungen!). Danach berichtete Johannes Poser vom IPN in Kiel über die Erfassung der Diagnosekompetenz zum Experimentieren im Fach Biologie mit Hilfe eines virtuellen Klassenraums. In diesem virtuellen Klassenraum werden Gespräche mit einzelnen Schüler*innen simuliert, denen Fragen gestellt werden müssen (ausgewählt aus vorgegebenen Listen). Je nach Antwort, können weitere Fragen gestellt werden. Während dieses Prozesses müssen die Studierenden das Kompetenzniveau und das Wissen der simulierten Schüler*innen zum Experimentieren einschätzen und am Ende auch nochmals eine abschließende Einstufung der Kompetenz jedes*r Lernenden vornehmen. Daten aus einer Onlineuntersuchung mit N=86 Studierenden zeigte, dass diese die Niveaustufe in ca. 48% der Fälle korrekt diagnostizieren konnten. Im dritten Vortrag sprach Stephanie Kron über die Messung von und Beziehungen zwischen einzelnen Indikatoren der diagnostischen Kompetenz angehender Mathematiklehrkräfte. Zur Erfassung der Diagnosekompetenz wurde eine rollenspielbasierte Simulation genutzt, in der Lehramtsstudierende mit von trainierten Schauspieler*innen verkörperten Schüler*innen zwei diagnostische Einzelgespräche führen mussten. Zentrales Steuerungsinstrument dieser Simulationen ist dabei die Auswahl von Aufgaben, die sie den Schüler*innen im Verlauf verschiedene vorlegen müssen, die die Schüler*innen wiederum bearbeiten. Aus Ergebnis und der Beobachtung des Bearbeitungsprozesses wiederum sollte am Ende der Lernstand der Schüler*innen bzgl. neun Facetten der Dezimalbruchrechnung beurteilt werden. Als Indikator der Diagnosekompetenz wurde unter anderem der Anteil an Aufgaben berechnet, die ein hohes diagnostisches Potential innerhalb des Gesprächs aufweisen. Dabei zeigte sich in einer Untersuchung mit N=63 Studierenden, dass so gut wie keine Anpassung der Aufgabenauswahl anhand der Schüler*innenantworten stattfindet. Alle unsere Vorträge wurden aus einer medizindidaktischen Perspektive von Prof. Dr. med Harm Peters von der Charité Berlin diskutiert, was sehr bereichernd war und mir einige Anregungen für unsere weitere Arbeit im Projekt gegeben hat. Vielen Dank auch nochmal an dieser Stelle an Stephanie und Stefan für die Einladung und die Organisation! Daneben waren Jana und Christoph auch als Co-Autoren am Beitrag Pedagogical reasoning bei der Unterrichtsplanung – Eine netzwerkanalytische Untersuchung des Planungsentscheidens beteiligt, in dem Prof. Dr. Daniel Scholl unsere gemeinsamen Arbeiten zur Darstellung von Unterrichtsplanungen mit netzwerkanalytischen Methoden vorstellte. Danke auch dir Daniel!
Inspirationen
Daneben gab es auch dieses Jahr wieder viele interessante Vorträge und Poster zu unterschiedlichsten Aspekten der empirischen Bildungsforschung. Besonders interessant für uns war natürlich die (virtuelle) Keynote von Prof. Dr. Pam Grossman von der Penn GSE – University of Pennsylvania, die unter dem Titel Core Practices for Teaching: A Language for Developing and Improving Professional Practice einen Ansatz vorstellte, den auch wir für die Entwicklung unserer simulationsbasierten Prüfungen verwenden. Im Zentrum stehen so genannten Core Practices, also professionelle Praktiken, die prototypisch und fundamental für den Lehrkräfteberuf sind. Zum Erwerb von Kompetenzen bzgl. dieser Kernpraktiken entwickelte und erprobte sie zusammen mit Anderen auch spezifische Ansätze für die Lehre (vgl. Grossman, 2018). In einer weiteren Keynote sprach Prof. Dr. Michael Becker-Mrotzek zum Transfer sprachlicher Förderkonzepte. Nach einem Überblick über aktuelle Lernstandserhebungen zu Lesefähigkeiten deutscher Schüler*innen berichtete er unter anderem am Beispiel des Hamburger Lesebands, welche Bedingungen notwendig sind, damit empirisch abgesicherte, lernwirksame Intervention zur Förderung der Lesekompetenz auch in der Breite des Schulsystems implementiert werden können.
Auch neben den Keynotes gab es natürlich einige Highlights. Bspw. berichtete Madlena Kirchhoff über die Entwicklung und Evaluation eines Seminars zur Förderung der Core Practices „Ziele festlegen“ und „Unterrichtseinstiege erstellen“. Dabei orientierte sie sich mit ihren Kolleg*innen am oben schon erwähnten Ansatz zur Förderung von Core Practices (Grossman, 2018), wobei die Studierenden ihre geplanten Unterrichtseinstiege auch in Microteaching-Simulationen erprobt haben. Zur Evaluation entwickelten sie Instrumente zur Erfassung der Core Practices, die sich zumindest für das Festlegen von Zielen auch in der theoretisch erwarteten Struktur empirisch abbilden ließen. Holger Futterbleib präsentierte Ergebnisse experimenteller Studien zur Frage, inwiefern Personen der empirischen Bildungsforschung die Fähigkeit und Zuständigkeit zuschreiben, relevante Beiträge für gesellschaftliche Entscheidungen bzgl. Fragen der Bildung liefern. In quotenrepräsentierten Stichproben aus der deutschen Bevölkerung konnten dabei die Ergebnisse früherer Laboruntersuchungen bestätigt werden. Wurden Personen Ergebnisse der Bildungsforschung präsentiert, die ihren Vorüberzeugungen widersprach (hier: Wirksamkeit von Klassenwiederholungen), schrieben sie der Bildungsforschung geringere Fähigkeit und Zuständigkeit zu. Dieser Effekt bliebt aber auf den konkreten Kontext beschränkt und wurde nicht auf andere Themen generalisiert.
Insgesamt war es auch dieses Jahr eine gelungene Konferenz, die auch sehr nachhaltig geplant und durchgeführt wurde (z.B. mit Mehrwegbechern, vegetarisch/veganem Catering und vielen weiteren kleinen Ideen). Herzlichen Dank an das Tagungsteam! Wir freuen uns schon auf das nächste Jahr.
Vorträge:
Becker-Mrotzek, M. (2024, 20. März). Transfer sprachlicher Förderkonzepte gestalten. 11. Jahrestagung der Gesellschaft für Bildungsforschung (GEBF), Potsdam.
Futterleib, H., Thomm, E., & Bauer, J. (2024, 18. März). Das kann man gar nicht untersuchen! Abwertung der Fähigkeit und Zuständigkeit von Bildungswissenschaft in der Öffentlichkeit. 11. Jahrestagung der Gesellschaft für Bildungsforschung (GEBF), Potsdam.
Grossman, P. (Ed.). (2018). Teaching core practices in teacher education. Harvard Education Press.
Grossman, P. (2024, 18. März). Core Practices for Teaching: A Language for Developing and Improving Professional Practice. 11. Jahrestagung der Gesellschaft für Bildungsforschung (GEBF), Potsdam.
Kirchhoff, M., Telgmann, L., & Müller, K. (2024, 19. März). Zur Messung der Core Practices „Ziele festlegen“ und „Unterrichtseinstiege erstellen“. 11. Jahrestagung der Gesellschaft für Bildungsforschung (GEBF), Potsdam.
Kron, S., Sommerhoff, D., Stürmer, K., & Ufer, S. (2024, 18. März). Messung von und Beziehungen zwischen einzelnen Indikatoren der diagnostischen Kompetenz angehender Mathematiklehrkräfte. 11. Jahrestagung der Gesellschaft für Bildungsforschung (GEBF), Potsdam.
Poser, J., Fiedler, D., Schönle, D., Reich, C., & Harms, U. (2024, 18. März). Messung der Diagnosekompetenz zum Experimentieren mit der Klassenraumsimulation SKRBio. 11. Jahrestagung der Gesellschaft für Bildungsforschung (GEBF), Potsdam.
Scholl., D., Küth, S., Vogelsang, C. Meier, J., & Seifert, A. (2024, 19. März). Pedagogical reasoning bei der Unterrichtsplanung – Eine netzwerkanalytische Untersuchung des Planungsentscheidens. 11. Jahrestagung der Gesellschaft für Bildungsforschung (GEBF), Potsdam.
Vogelsang, C., Janzen, T., Wotschel, P., & Grotegut, L. (2024, 18. März). Entwicklung und Validierung einer rollenspielbasierten Simulation als Prüfungsverfahren für das Lehramtsstudium im Fach Englisch. 11. Jahrestagung der Gesellschaft für Bildungsforschung (GEBF), Potsdam.
Todsünde Nr. 3: Zu viele unausgereifte Reformen im Bildungssystem
In einer Artikelreihe beschäftigen wir uns mit dem Buch „Die 10 Todsünden der Schulpolitik – Eine Streitschrift“ von Heinz-Peter Meidinger (2021) aus der Perspektive der empirischen Bildungsforschung. Dabei betrachten wir, wie Prämissen und Argumentationen im Buch vor dem Hintergrund von Ergebnissen der Bildungsforschung eingeschätzt werden können. Grundsätzlich ist daher hilfreich, das entsprechende Buchkapitel gelesen zu haben, was ich an dieser Stelle ausdrücklich empfehlen möchte. Thesen aus dem Buch werden im Konjunktiv als indirekte Rede wiedergegeben, was keine Zustimmung oder Ablehnung implizieren soll. Der vorherige, zweiteilige Beitrag zu dieser Reihe findet sich hier. An dieser Stelle kann ich auch schon einmal ankündigen, dass auch dieser Beitrag wieder aus zwei Teilen besteht.
Zum Abschied
Bevor wir in diesem Beitrag aber die dritte der vom Autor so bezeichneten zehn Todsünden der Schulpolitik betrachten, möchte ich die Gelegenheit nutzen, Heinz-Peter Meidinger, nachdem er nicht noch einmal zur Wiederwahl als Präsident des Deutschen Lehrerverbandes angetreten ist, einen etwas ruhigeren Ruhestand bzw. eine hoffentlich entspanntere Zeit zu wünschen. Er bleibt dem Verband als Ehrenpräsident erhalten und ich vermute, dass er sich auch in Zukunft immer mal wieder zu verschiedenen Bildungsthemen öffentlich äußern wird, so wie er das ja auch in seinem Buch schon getan hat. Und auch wir werden diese Blogreihe natürlich fortsetzen.
Nichts funktioniert, nichts wird geprüft
Zusammengefasst äußert Heinz-Peter Meidinger im Kapitel zur dritten Todsünde der Schulpolitik in gewohnt zugespitzter Sprache die Kritik, dass durch Bildungspolitker*innen in Schulen bzw. im Schulsystem in zu kurzer zeitlicher Abfolge zu viele Veränderungen vorgenommen werden, „welche Schulen und Lehrkräften eine kontinuierliche Bildungs- und Erziehungsarbeit unmöglich“ (Meidinger, 2021, 51) mache. Dabei gäbe es kaum erfolgreiche Bildungsreformen, die auch wirklich zu einer Verbesserung geführt hätten. Demgegenüber stünde eine Vielzahl von schlechten Veränderungen und Heinz-Peter Meidinger führt aus: „[…] ja eigentlich ist die bildungsdeutsche Bildungspolitik der Nachkriegsgeschichte nichts anderes als eine Aneinanderreihung mehrheitlich gescheiterter Reformen […]“ (Meidinger, 2021, 52).
Als Gemeinsamkeit gescheiterter Reformen benennt Heinz-Peter Meidinger, dass diese „in aller Regel weitgehend ohne vorherige Erprobung, ohne Modellversuche und Evaluationsphasen sowie ohne Beteiligung von kompetenten Schulpraktikern“ (Meidinger, 2021, 52f.) umgesetzt würden. Unabhängig davon, ob das für spezifische Veränderungen zutrifft oder nicht, würde ich selbstverständlich ebenfalls dafür plädieren, dass Interventionen in der Schule bzw. generell in der Bildung natürlich empirisch auf ihre Wirkung analysiert werden sollten, wie es ja auch in anderen gesellschaftlich relevanten Feldern getan wird (z.B. in der Medizin). Eine solche stärkere Orientierung an wissenschaftlicher Evidenz wird auch erwartungsgemäß mehr oder weniger explizit durch viele Bildungswissenschaftler*innen gefordert, wobei im Detail natürlich diskutiert werden muss, welche Art Evidenz gemeint ist und inwiefern vorliegende Evidenz auch konstruktiv in Bildungspraxis einfließen kann bzw. sollte (vgl. Bauer & Koller, 2023; Besa et al., 2023).
Heinz-Peter Meidinger nennt eine Reihe von Beispielen für aus seiner Sicht gescheiterte Bildungsreformen, die ohne ausreichende ergebnisoffene, wissenschaftliche Evaluationen umgesetzt worden seien, z.B. die Umstellung der neunjährigen Schulzeit am Gymnasium auf acht Jahre (siehe hierzu auch den ersten Beitrag unserer Blogreihe), die Einführung der Mengenlehre in der Grundschule in den 70er-Jahren des letzten Jahrhunderts (vgl. Hamann, 2018) oder die Rechtschreibreform (ich vermute, es ist die von 1996 gemeint, das geht aus dem Text leider nicht eindeutig hervor). Während diese Veränderungen eher kurz angerissen werden, werden drei Beispiele im Kapitel etwas ausführlicher erläutert bzw. argumentiert, warum diese negativ oder schädlich gewesen seien: der methodisch-didaktische Lehransatz „Lesen durch Schreiben“, der Fremdsprachenunterricht in der Grundschule sowie die Einführung von Bachelor- und Masterstudiengängen im Zuge der sogenannten Bolognareform. Diese drei werden im Folgenden daher auch vor dem Hintergrund von Ergebnissen der empirischen Bildungsforschung etwas genauer betrachtet.
„Schreiben nach Gehör“ in der Grundschule
Zum ersten dieser drei Beispiele möchte ich vorweg darauf hinweisen, dass ich selbst kein Sprachdidaktiker oder Elementarpädagoge bin. Es ist natürlich dennoch möglich, einen kurzen Überblick über den empirisch-fachdidaktischen Forschungsstand zu geben, auch wenn ich selbst keine vertieften Kenntnisse über die fachdidaktischen Feinheiten von Lehr-Lern-Konzeptionen in dem Feld habe. Mit dem, was in Medienberichten häufig als „Schreiben nach Gehör“ bezeichnet wird, ist meist das methodisch-didaktische Konzept „Lesen durch Schreiben“ gemeint, das in seiner ursprünglichsten Form von dem Schweizer Lehrer Jürgen Reichen konzipiert wurde (Reichen, 1988). Heinz-Peter Meidinger beschreibt die Methode zusammenfassend so, dass „sich Kinder das Schreiben am besten und am leichtesten selbst beibringen könnten“ oder als Methode „[…] mit der von Schülern zunächst alles so geschrieben wird, wie es klingt […]“) (jew. Meidinger, 2021, 54). Diese Beschreibung gibt das Konzept und die damit verbundenen Ziele natürlich nicht vollständig wieder (wobei man berücksichtigen muss, dass das gesamte Kapitel neun Seiten umfasst, auf denen alle drei Beispiele angesprochen werden).
Worum handelt es sich also beim Konzept „Lesen durch Schreiben“? Auch, wenn man es hier natürlich auch nicht vollständig wiedergeben kann, lässt es sich grundsätzlich als umfassendes didaktisches Konzept für den sprachlichen Anfangsunterricht in der Grundschule verstehen, in dem verschiedene Kompetenzen erworben werden sollen (z.B. Lesekompetenz, Schreibkompetenz). Kennzeichnend für das Konzept in der ursprünglichen Form ist, dass im sprachlichen Anfangsunterricht Schüler*innen Angebote für eine möglichst selbstgesteuerte und individualisierte Auseinandersetzung mit sprachlichen Lerngegenständen gemacht werden sollten, was aber auch nach Reichen (1988) Phasen gemeinsamen Unterrichts im Klassenverband nicht ausschließt (vgl. Lorenz, 2017). Praktisch soll dies möglichst in Form des Werkstattunterrichts stattfinden, also in einer vorbereiteten Lernumgebung (mit Materialien etc.), die von den Schüler*innen relativ selbstständig genutzt wird. Reichen (1988) konkretisiert diese Prinzipien eines offenen, selbstgesteuerten Lernens für den Anfangsunterricht im Lesen und Schreiben, wobei er annahm, dass Kinder mit adäquaten Hilfsmitteln grundsätzlich selbst Lesen und Schreiben können. Nach dem Prinzip „Lesen durch Schreiben“ soll zuerst das Schreiben gelernt werden, „damit das Lesen sich dann mit der Zeit individuell als dessen Produkt gewissermaßen von selbst einstellt.“ (Lorenz, 2017, 34). Zentrales Hilfsmittel im Unterricht bildet eine Anlauttabelle, bestehend aus Buchstaben bzw. Buchstabenkombinationen und zugehörigen Bildern. Die Bilder sind so gewählt, dass die Bezeichnungen der Bilder mit dem zugehörigen Buchstaben beginnen und der Anlaut der Bezeichnung der Lautung des Buchstaben entspricht. Mit dieser Tabelle werden die Schüler*innen angeleitet, Wörter zu schreiben, indem Sie sie phonetisch schrittweise in einzelne Laute zerlegen (vgl. Funke, 2014). Ein damit verbundenes Ziel ist es auch, dass die Lernenden mit diesem Hilfsmittel selbst bestimmen können, was sie mit welcher Absicht schreiben möchten, und daher schon früh beginnen, selbst motiviert eigene Schriftprodukte zu erstellen.
Kann „Lesen durch Schreiben“ funktionieren?
Das Konzept wird innerhalb der Sprachdidaktik schon seit den 90er-Jahren des letzten Jahrhunderts aus theoretischen Gründen kontrovers diskutiert (vgl. Funke, 2014). Das betrifft zum einen die Merkmale der deutschen Sprache selbst. Sie ist keine reine Lautschrift, sondern bedeutungstragende Phoneme werden in der Schriftsprache auch durch abstraktere Lautschemata repräsentiert (Brendel et al., 2011). Dabei kann ein Phonem (also der Laut) auch durch unterschiedliche Grapheme (also dem zugehörigen Schriftausdruck) repräsentiert werden (vgl. Hess et al., 2020). Diese Unterschiede können nicht umfassend in einer Anlauttabelle dargestellt werden. Schüler*innen müssen sie sich daher über die Zeit (bewusst) aneignen, um orthografisch korrekt zu schreiben. Zum anderen bezieht sich ein Teil der Kritik auch auf die Empfehlungen Reichens (1988) zur Umsetzung seines Konzepts selbst. Beispielsweise war für ihn eine korrekte Rechtschreibung im Anfangsunterricht nicht zentral und er empfahl, geschriebene Wörter nur dann zu korrigieren, wenn sie gar nicht lesbar seien oder grobe Lautfehler enthalten; dies auch, um Motivation und Schreibfreude aufrecht zu erhalten (vgl. Lorenz, 2017). Die Schulung der korrekten Rechtschreibung sollte dementsprechend auch erst in der zweiten Klasse beginnen. Demgegenüber wird angenommen, dass die Kinderdurch das Fehlen des frühen Einübens korrekter Schreibformen kein korrektes schriftsprachliches, inneres Lexikon aufbauen könnten, und dies auch nicht angeregt würde, da im Anfangsunterricht kaum mit fremden Texten gearbeitet würde (z.B. Dürscheid, 2011). Insbesondere werden Schwierigkeiten für schwächere Schüler*innen mit geringerer phonologischer Bewusstheit auch mit nicht-deutscher Muttersprache vermutet (z.B. Valtin, 1998). Da die Schreib- und Lesekompetenz unabhängig voneinander aufgebaut werden (vgl. Bredel et al., 2011), wird zudem kritisiert, dass zuerst Schreiben gelernt und explizites Lesen lernen bewusst vermieden wird.
Grundsätzlich lässt sich die Arbeit mit Anlauttabellen auch durchaus in Modellen zur Beschreibung des Schriftspracherwerbs von Kindern einordnen. Beispielsweise erfolgt der Aufbau von schriftsprachlichen Fähigkeiten im Modell von Frith (1986) in mehreren Stufen, der mit unterschiedlichen Strategien verbunden ist (vgl. Schründer-Lenzen, 2013). In der ersten Stufe (logografische Strategie) orientierten sich Kinder zunächst an der Oberflächenstruktur der Schriftsprache, indem sie Zeichenfolgen auswendig lernen (z.B. den eigenen Namen). In der zweiten Stufe (alphabetische Strategie) verbinden Kinder die gesprochene Sprache mit der geschriebenen Sprache, indem sie zunächst gesprochene Laute mit unterschiedlichen Buchstaben verbinden. An dieser Stelle können Anlauttabellen verortet werden. Zugleich müssen die Lernenden in dieser Stufe lernen, dass das geschriebene Wort nicht rein der Lautsprache folgt (phonemisches Schreiben), was nach Kritiker*innen im Konzept „Lesen durch Schreiben“ nicht ausreichend gelänge bzw. angestrebt werde. In der dritten Stufe (orthografische Strategie) erkennen Schüler*innen zunehmend schriftsprachliche Strukturen (z.B. Ableitungen von Wortstämmen).
Zusammengefasst wird das Konzept bzw. die Umsetzung in Reinform innerhalb der Sprachdidaktik aus rein theoretischer Sicht schon seit Beginn kritisch diskutiert. Der Entwickler und die Nutzer*innen des Konzepts sehen dies erwartungsgemäß anders und gehen davon aus, dass negative Effekte nicht eintreten, die genannten Schwierigkeiten ausreichend berücksichtigt würden und mögliche Nachteile durch andere Vorteile (z.B. bezogen auf die Schreibmotivation) kompensiert würden (vgl. Reichen, 2006). Entscheidend ist aber auch bei didaktischen Lehr-Lern-Konzepten, wie sie nun tatsächlich wirken bzw. inwiefern die angestrebten Lernziele auch empirisch erreicht werden.
Wie kann man das nun überprüfen?
Heinz-Peter Meidinger beschreibt die Auswirkungen des Konzepts „Lesen durch Schreiben“ als äußerst negativ und kritisiert: „30 Jahre lang wurde die Wirksamkeit nie in einer umfassenden Studie überprüft […].“ (Meidinger, 2021, 55). Erst Prof. Dr. Una Röhr-Sendlmeier habe 30 Jahre nach praktischer Einführung des Konzepts eine solche Studie durchgeführt. Vermutlich bezieht sich Heinz-Peter Meidinger hier auf die Ergebnisse der Promotion von Dr. Tobias Kuhl (2020), einem (nun ehemaligen) Doktoranden von Frau Röhr-Sendlmeier. Das lässt sich allerdings nur aus der Beschreibung der Studie durch Heinz-Peter Meidinger schließen, da leider im Kapitel keine Quellenangabe gemacht wird.
Zunächst ist anzumerken, dass auch schon zuvor empirische Untersuchungen zur Wirksamkeit des Konzepts durchgeführt und veröffentlicht wurden (Funke, 2014). Um die Ergebnisse solcher Studien besser interpretieren zu können, ist es hilfreich, typische Schwierigkeiten zu berücksichtigen, die bei empirischen Wirksamkeitsuntersuchungen solch umfassender didaktischer Lehr-Lern-Konzepte auftreten können. Das betrifft zum ersten die Frage, woran man Erfolg oder Misserfolg erkennen kann. „Lesen durch Schreiben“ ist mit verschiedenen Zielen verbunden (z.B. Erwerb von Schreib- und Lesefähigkeit, Erhöhung der Schreibmotivation). Es muss also meist die Veränderung verschiedener Merkmale von Schüler*innengruppen geeignet erfasst werden. Zum zweiten bezieht sich das Konzept „Lesen durch Schreiben“ auf einen relativ langen Zeitraum, der zudem im Konzept selbst nicht genau abgegrenzt wird. Für eine Untersuchung muss daher geklärt werden, welche Gruppen von Schüler*innen wie lange eigentlich betrachtet werden sollen. Geht es bspw. nur um das erste Schuljahr oder muss eigentlich die gesamte Grundschulzeit betrachtet werden? Sollen Schüler*innen an der weiterführenden Schule untersucht werden? Je länger eine Untersuchung dauert, desto schwieriger ist sie natürlich praktisch durchführbar. Das ist insbesondere deshalb bedeutsam, da man zur Beurteilung der Wirksamkeit natürlich genügend Schüler*innen braucht, damit bei der erwartbaren Streuung überhaupt Durchschnittsunterschiede zwischen Gruppen festgestellt werden können. Zum dritten geht es auch häufig um die Frage, im Vergleich zu was eine Lehr-Lern-Konzeption wirksam ist. Beispielsweise werden Schüler*innen mit Hilfe des Konzepts „Lesen durch Schreiben“ wahrscheinlich mehr Schreib- und Lesefähigkeiten lernen, als wenn sie gar keinen Unterricht erhielten. Daher geht es auch meist um die Frage, ob der Ansatz wirksamer ist im Vergleich zu anderen möglichen Konzepten. Als Vergleichskonzept zu „Lesen durch Schreiben“ dient häufig Unterricht, in denen so genannte Fibeln eingesetzt werden (z.B. die Piri-Fibeln des Klettverlags, explizit nur als Beispiel erwähnt – nicht als Werbung oder Empfehlung). Dabei handelt es sich um Lehrtexte bzw. Unterrichtsmaterialien, die im Sinne eines Lehrgangs sachlogisch, kleinschrittig strukturiert sind und bei dem sich im zugehörigen Unterricht – zugespitzt formuliert – alle Kinder zu gleichen Zeiten mit den gleichen Materialien beschäftigen. Zum vierten besteht natürlich die Frage, wie genau, umfangreich und auch von den Konzeptentwickler*innen intendiert eine Konzeption auch wirklich im Unterricht durchgeführt wird. Werden z.B. nur einzelne Elemente übernommen oder wird einem Konzept vollständig gefolgt? Werden evtl. sogar verschiedene Konzepte vermischt, was im schulischen Unterricht eher der Regelfall zu sein scheint, insbesondere auch im Anfangsschreibunterricht (vgl. Bremerich-Vos & Wendt, 2019). Davon ist abhängig, ob bestimmte Wirkungen auch wirklich einer Konzeption zugeschrieben werden können oder nicht. Und zum fünften muss bei derartigen Vergleichen sichergestellt werden, dass andere Einflussfaktoren auf das Lernen (z.B. Vorwissen, Erstsprache der Schüler*innen) kontrolliert werden, um abschätzen zu können, welchen Effekt eine Methode bzw. ein Konzept allein hat (diese Schwierigkeiten spielte auch in unserem vorherigen Beitrag zu dieser Reihe eine große Rolle).
Grau ist alle Empirie…
Was liegen denn nun für empirische Ergebnisse zu „Lesen durch Schreiben“ vor? Funke (2014) betrachtet in einer sorgfältigen Metaanalyse die Ergebnisse von 16 Untersuchungen, die in zwischen 1985 und 2010 durchgeführt wurden, sich auf die Klassenstufen 1 bis 4 beziehen, als Vergleichsmaßstab Fibelunterricht nutzen und in denen Ergebnisdaten zu Lese- und/oder Schreibkompetenzen vorliegen. Für die Rechtschreibleistung am Ende von Klasse 1 ergab sich eine kleine Effektstärke von d=0.28 (SD=0.09) zugunsten des „Lesen durch Schreiben“-Konzepts. Grundsätzlich lässt sich aber beobachten, dass die Effekte in den jeweiligen Studien stark schwanken (mal zeigten sich bei „Lesen durch Schreiben“ Vorteile, mal gerade umgekehrt). „Die in den verschiedenen Stichproben gefundenen Effekte weichen so stark voneinander ab, dass man sie nicht als zufällige Varianten einer gemeinsamen Wirkgröße von ein- und derselben Ausprägung auffassen kann.“ (Funke, 2014, 27f.) Für die Klassen 2 bis 4 ergab sich eine homogenere kleine Effektstärke von d=-0.26 (SD=0.05) für die Rechtschreibleistung, also ein Nachteil für „Lesen durch Schreiben“. Generell wurden nur bei wenigen Studien die Voraussetzungen kontrolliert. Werden nur diese Studien einbezogen, ergibt sich kein signifikanter Effekt (d=-0.09. SD=0.15, p=0.57). Bzgl. der Leseleistung am Ende von Klasse 1 ergab sich eine kleine Effektstärke von d=-0.27 (SD=0.14), bezogen auf die Klassen 2-4 d=-0.05 (SD=0.09). Zusammengefasst ergab sich also insgesamt kein konsistentes Bild: Beim Lesen in den Klassen 2-4 keine Unterschiede, beim Schreiben Nachteile mit kleinem Effekt. Die Ergebnisinterpretation ist aber durch verschiedene Faktoren eingeschränkt. Neben der schon erwähnten fehlenden Kontrolle der Eingangsvoraussetzungen wurden unterschiedliche Erhebungsinstrumente genutzt und die Zuordnung der untersuchten Klassen erfolgte über Auskünfte der Lehrkräfte; es ist also nicht ganz klar, wie genau die Methoden auch tatsächlich umgesetzt wurden. „Denkbar ist auch, dass Lesen durch Schreiben-Lehrkräfte ihrem schulischen Umfeld nach keine Zufallsauswahl darstellen.“ (Funke, 2014, 36).
Es liegen seitdem auch aktuellere Analysen vor. Beispielsweise untersuchte Lorenz (2017) auf Basis von repräsentativeren Daten aus der Videostudie im Fach Deutsch des Projekts PERLE, inwiefern Zusammenhänge zwischen dem Einsatz des Konzepts „Lesen durch Schreiben“ und der Rechtschreibleistung von Schüler*innen in Klasse 1 bestehen. Basis sind freie Texte bzw. Briefe , die von N=508 Schüler*innen verfasst und hinsichtlich bestimmter Fehlerarten (z.B. bei der Groß- und Kleinschreibung) analysiert wurden. Die Schüler*innen wurden in vier Gruppen eingeteilt, die sich danach unterscheiden, wie sehr das Konzept „Lesen durch Schreiben“ nach Selbsteinschätzungen der unterrichtenden Lehrkräfte im Unterricht eine Rolle spielte (Stufen: dominant, wichtig, untergeordnet, keine Rolle). In differenzierten Mehrebenenanalysen ergab sich: „Kinder, in deren Deutschunterricht „Lesen durch Schreiben“ eine größere Rolle spielt, schreiben insgesamt einen höheren Anteil ihrer Wörter orthographisch falsch.“ (Lorenz, 2017) Diese Ergebnisse wurden mit einer verbesserten Analyse auch in Hess et al. (2020) berichtet. Auch die Ergebnisse einer Simulationsstudie mit Hilfe neuronaler Netze bestätigen die Nachteile des Konzepts in der Tendenz, wobei allerdings der zurückhaltende Umgang mit Fehlerkorrekturen nach den Empfehlungen von Reichen in den Vordergrund gestellt wurde und nicht die Arbeit mit der Anlauttabelle (Born et al., 2022).
Worauf bezieht sich Heinz-Peter Meidinger?
In der von Heinz-Peter Meidinger erwähnten Untersuchung von Kuhl (2020) wurden mit einem hohen methodisch-organisatorischem Aufwand drei Lehr-Lern-Konzepte für den Sprachanfangsunterricht betrachtet. Neben dem Fibelunterricht und „Lesen durch Schreiben“ auch „Graf Orthos Rechtschreibwerkstatt“, das kurz zusammengefasst einige Ideen von „Lesen durch Schreiben“ übernimmt, umfangreiche Selbstlernmaterialien bereitstellt (insbesondere mit Abschreibübungen), dies mit vielen individualisierten Lernphasen verbindet und in Klasse 1 ebenfalls bewusst wenige Fehlerkorrekturen einsetzt. Neben der Rechtschreibleistung wurden hier auch weitere mögliche Wirkungen der Konzepte (z.B. die Beschäftigung mit Schreiben oder Schrift in der Freizeit) untersucht. Basis bilden Daten von N=3084 Kindern von zwölf Schulen „im Umkreis von 50 km um Bonn“ (Kuhl, 2020, 84), wobei für die Längsschnittstudie zur Rechtschreibleistung Datensätze von N=284 Schüler*innen herangezogen wurden (es wurde auch eine Querschnittsuntersuchung durchgeführt). Insbesondere liegen zu diesen Schüler*innen auch Ergebnisse zu den Eingangsvoraussetzungen in die Grundschule vor (z.B. zur phonologischen Bewusstheit, Familiensprache). Von dieser Gruppe wurde ab Ende des ersten Schuljahres jedes Halbjahr bis zum Ende von Klasse 3 standardisiert die Rechtschreibleistung mit Hilfe der Hamburger Schreib-Probe 1 -10 (May, 2013) erfasst. Die Datenerhebung begann im Jahr 2013 und erstreckte sich dementsprechend über mehrere Schuljahre. Die Zuordnung der Schüler’*innen zu den untersuchten Konzepten erfolgte schulweise auf Basis von Angaben der Lehrkräfte und den in der Schule vorhandenen Materialien. Hierzu führt Kuhl (2020) aus: „Jede Schule hatte sich bereits vor der Akquise zur Studienteilnahme dafür entschieden, den Unterricht nach einem gemeinsamen Leitmedium zu gestalten. Es konnte davon ausgegangen werden, dass der Unterricht in der Realität graduell anders durchgeführt wurde, als er in der Theorie von den Entwicklern der verschiedenen didaktischen Ansätze erdacht worden war. […] Dennoch wurde der Unterricht durch die Entscheidung der Schule für einen spezifischen didaktischen Ansatz als Leitmedium maßgeblich geprägt. Deshalb erschien die Zuordnung des Unterrichts einzelner Schulen zu einer Didaktik als sinnvoll.“ (Kuhl, 2020, 71f.). Es wurde bewusst auf Unterrichtsbeobachtungen verzichtet.
Unterschiede zwischen den drei Gruppen wurden mittels Kovarianzanalysen mit Messwiederholung analysiert, wobei die Eingangsvoraussetzungen als Kovariate berücksichtigt wurden. Dabei ergaben sich große Unterschiede zwischen den drei Konzeptionen (F(2,277)=39.93, p<.001, η²=.247). Die Ergebnisse von Schüler*innen, die nach der Rechtschreibwerkstatt oder „Lesen durch Schreiben“ unterrichtet wurden, unterschieden sich nicht signifikant voneinander. Die Schüler*innen im Fibelunterricht allerdings erzielten mit jeweils großen Effekten bessere Rechtschreibleistungen im Vergleich zu den anderen beiden Konzepten zu allen fünf Messzeitpunkten. Am schwächsten Schnitt insgesamt die Rechtschreibwerkstatt ab. Die Unterschiede zwischen Fibelunterricht und „Lesen durch Schreiben“ verringerten sich im zeitlichen Verlauf etwas. Diese Unterschiede wurden auch in der Querschnittsuntersuchung bestätigt. Bezüglich der anderen untersuchten Variablen zeigten sich im Querschnitt dazu bspw. keine Unterschiede in der Lesemotivation oder der Schreibfreude zwischen den Gruppen. Insgesamt zeigt die Untersuchung also einen Vorteil von Fibelunterricht, für dessen Einsatz sich Kuhl (2020) in der Dissertation auch stark ausspricht, teilweise mit aus meiner Sicht überzogenen negativen Wertungen zu didaktischen Konzepten im Allgemeinen und den Fähigkeiten von Lehrkräften. Insbesondere halte ich es für durchaus sinnvoll, wenn Evaluationen im schulischen Setting auch von Pädagog*innen geplant und durchgeführt werden (vgl. Kuhl, 2020, 143), da auch beim Einsatz von Psycholog*innen und Sozialwissenschaftler*innen ein Priming basierend auf persönlichen Erfahrungen stattfinden kann. Die Forderung nach einer stärkeren Evidenzbasierung von schulischem Handeln und der forschungsbasierten Ausbildung von Lehrkräften teile ich aber ausdrücklich.
Es handelt sich insgesamt um eine aufwändige und sorgfältig durchgeführte Studie mit hoher methodischer Qualität in der Durchführung. Dennoch hat auch diese natürlich einige Limitationen, die die Aussagekraft ihrer Ergebnisse einschränken. Diese liegen insbesondere in der Gelegenheitsstichprobe (was nachvollziehbarerweise mit erhebungsökonomischen Gründen zusammenhängt), der Zuteilung der Schüler*innen zu den einzelnen Konzepten und darin, dass keine genauen Informationen zur Umsetzungstreue der Konzepte vorliegen. Kuhl (2020) argumentiert hierzu: „Es ist anzunehmen, dass sich nicht jeder Lehrer streng an die Vorgaben des Leitmediums gehalten hat und Material, das er als didaktisch sinnvoll erachtet hat, in seine Unterrichtsplanung und -durchführung einfließen ließ. Das Unterrichtsgeschehen unterschied sich demnach graduell zwischen den Klassen – auch innerhalb einer Schule. Dennoch haben sich die Lehrer oder der Rektor für ein Leitmedium entschieden, welches in sämtlichen Klassen einer Schule eingesetzt wurde und den ‚Kurs‘ des Unterrichts maßgeblich bestimmt hat.“ (Kuhl, 2020, 146). Diese Annahme ist nachvollziehbar, aber wird hier natürlich nicht empirisch genauer unterlegt. Es bleibt daher leider unklar, wie Rechtschreibunterricht nach der Anfangsphase in den untersuchten Grundschulen stattgefunden hat. Auch sind die Schüler*innen nicht gleichmäßig über die einzelnen Konzepte verteilt (bspw. im Längsschnitt folgendermaßen: Fibel: N=84 ; Lesen durch Schreiben: N=79, Rechtschreibwerkstatt: N=121), wobei die Unterschiede im Querschnitt noch größer sind. Daneben diskutiert bspw. Brügelmann (2020) auch weitere Aspekte der Studie kritisch, wie z.B. die nicht klare konzeptionelle Unterscheidung der verwendeten Ansätze, eine fehlende Auswertung auf Klassenebene, um den Faktor der Lehrkräfte zu kontrollieren, und, dass die Ergebnisse nicht auf die bundesdeutsche Normierung der Hamburger Schreibprobe bezogen würden: „Nach diesem bundesweit repräsentativen Maßstab entsprechen ‚Lesen durch Schreiben‘-Kinder in Kuhls Studie schon zum Ende des Anfangsunterrichts und über die Grundschulzeit hinweg der bundesdeutschen Norm. Sogar der Anteil besonders leistungsschwacher Schüler*innen ist niedriger als in der Bonner Gesamtstichprobe – besonders auffällig in Klasse 1 und 2. Die ‚Ausreißer‘ bilden die (zusammengefassten) Fibel-Klassen (nach oben) und die Rechtschreibwerkstatt-Klassen (nach unten).“ (Brügelmann, 2020, 3).
Und was heißt das jetzt?
Die vorliegenden Ergebnisse sprechen eher dafür, dass der Ansatz „Lesen durch Schreiben“ keine Vorteile, sondern tendenziell Nachteile gegenüber anderen Schreiblernansätzen im Anfangsunterricht hat. In diesem Sinne würde auch ich eher empfehlen, andere Ansätze im Schreibanfangsunterricht zu wählen, wobei – wie schon erwähnt – ich hierzu kein ausgewiesener Experte bin. Hier stimme ich Heinz-Peter Meidinger explizit zu. Allerdings zeigen die vorliegenden Ergebnisse auch nicht, dass Probleme mit der Rechtschreibleistung am Ende der Grundschule allein auf den Einsatz des Konzepts „Lesen durch Schreiben“ zurückgehen, was er – auch außerhalb seines Buches – anscheinend so interpretiert (z.B. hier). Ob ein Verbot von Methoden, wie im Kapitel zustimmend beschrieben, sinnvoll ist, sei einmal dahingestellt (Was soll denn auch genau verboten werden? Die Nutzung von Anlauttabellen, oder dass Rechtschreibfehler nicht korrigiert werden?). Aus Sicht der empirischen Bildungsforschung sei aber zumindest darauf hingewiesen, dass auch die Wirkungen anderer Lehr-Lern-Konzepte selten empirisch geprüft werden und so gut wie fast alle Konzepte „ohne jegliche empirische Evidenz und Erprobung eingeführt und nie evaluiert […]“ (Meidinger, 2021, 56f.) werden. Insofern könnte man die oben beschriebenen Untersuchungen auch als eine erfolgreiche Evaluation von Fibelunterricht interpretieren. Einführung von Konzepten bedeutet an dieser Stelle, dass entsprechende Materialien zur Nutzung im Unterricht zugelassen werden. Aufgrund der Autonomie von Lehrkräften ist der Einsatz spezifischer Lehr-Lern-Konzepte im Detail derzeit nicht vorschreibbar. Und welche Materialien auch außerhalb geschlossener Lehrwerke oder Konzepte von Lehrkräften tatsächlich eingesetzt werden, ist noch einmal eine ganz andere Frage.
Um diesen schon recht umfangreichen Blogbeitrag nicht zu sehr in die Länge zu ziehen, werden wir die anderen beiden von Heinz-Peter Meidinger genannten Beispiele für seine Todsünde Nr. 3 im zweiten Teil dieses Beitrags betrachten. Er wird an dieser Stelle verlinkt, sobald er online ist.
Literatur:
Bauer, J., & Kollar, I. (2023). (Wie) kann die Nutzung bildungswissenschaftlicher Evidenz Lehren und Lernen verbessern? Thesen und Fragen zur Diskussion um evidenzorientiertes Denken und Handeln von Lehrkräften. Unterrichtswissenschaft, 51(1), 123-147. (Online)
Besa, K. S., Demski, D., Gesang, J., & Hinzke, J. H. (Hrsg.) (2023). Evidenz-und Forschungsorientierung in Lehrer* innenbildung, Schule, Bildungspolitik und-administration: Neue Befunde zu alten Problemen. Springer Fachmedien Wiesbaden. (Online)
Born, J., Nikolov, N. I., Rosenkranz, A., Schabmann, A., & Schmidt, B. M. (2022). A computational investigation of inventive spelling and the “Lesen durch Schreiben” method. Computers and Education: Artificial Intelligence, 3, 100063. (Online)
Bredel, U., Fuhrhop, N., & Noack, C. (2011). Wie Kinder lesen und schreiben lernen. Gunter Narr Verlag.
Bremerich-Vos, A. & Wendt, H. (2019). Zur Nutzung von Laut- bzw. Anlauttabellen im Deutschunterricht der Grundschule. Zeitschrift für angewandte Linguistik, 70(1), 19–36. (Online)
Brügelmann, H. (2020). Einordnung der Ergebnisse der „Bonner Studie “zur Wirkung verschiedener Ansätze des Lese-und Schreibunterrichts auf die Entwicklung der Rechtschreibleistung im Verlauf der Grundschulzeit. (Online)
Dürscheid, C. (2011). „Schreib nicht, wie du sprichst.“ Ein Thema für den Deutschunterricht“. In B. Rothstein (Hrsg.), Sprachvergleich in der Schule (S. 89-109). Schneider.
Funke, R. (2014). Erstunterricht nach der Methode“ Lesen durch Schreiben“ und Ergebnisse schriftsprachlichen Lernens-Eine metaanalytische Bestandsaufnahme. Didaktik Deutsch: Halbjahresschrift für die Didaktik der deutschen Sprache und Literatur, 19(36), 21-41. (Online)
Frith, U. (1986). Psychologische Aspekte des orthografischen Wissens. In G. Augst (Hrsg.), New trends in Graphemics and orthography (S. 218–233). Berlin: de Gruyter.
Hamann, T. (2018). Die“ Mengenlehre“ im Anfangsunterricht: historische Darstellung einer gescheiterten Unterrichtsreform in der Bundesrepublik Deutschland (Siegener Beiträge zur Geschichte und Philosophie der Mathematik – Band 9). Universitätsverlag Siegen. (Online)
Hess, M., Denn, A. K., Kirschhock, E. M., Lorenz-Krause, A., & Lipowsky, F. (2020). Effekte der Konzeption „Lesen durch Schreiben “auf verschiedene Teilbereiche lauttreuer und orthografischer Verschriftung in der Mitte des ersten Schuljahres. Zeitschrift für Grundschulforschung, 13(2), 317-337. (Online)
Kuhl, T. (2020). Rechtschreibung in der Grundschule. Berlin: Springer. (Online)
Lorenz, A. (2017). Wer schreibt recht, wer schreibt schlecht?: Eine Untersuchung des Zusammenhangs zwischen der Rechtschreibleistung von Erstklässlern und dem Ansatz „Lesen durch Schreiben “von Jürgen Reichen in der Videostudie Deutsch des Projekts PERLE. kassel university press. (Online)
May, P. (2013). Hamburger Schreib-Probe 1-10 (HSP). Manual (Neunormierung 2012). Klett.
Meidinger, H.-P. (2021). Die 10 Todsünden der Schulpolitik – Eine Streitschrift. Claudius Verlag.
Reichen, J. (2006). Hannah hat Kino im Kopf. Die Reichen-Methode Lesen durch Schreiben und ihre Hintergründe für LehrerInnen, Studierende und Eltern (4. Aufl.). Heinevetter.
Reichen, J (1988). Lesen durch Schreiben (3. Aufl.). sabe.
Schründer-Lenzen, A. (2013). Schriftspracherwerb. Springer VS. (Online)
Valtin, R. (1998). Der ‚neue‘ Methodenstreit oder: (Was) können wir aus der amerikanischen Leseforschung lernen? In H. Balhorn, H. Bartnitzky, & A. Speck-Hamdan (Hrsg.), Schatzkiste Sprache 1. Von den Wegen der Kinder in die Schrift (S. 14-46). Arbeitskreis Grundschule.