Archiv der Kategorie: Beiträge

Meidingers 10 Todsünden der Schulpolitik im Licht der Bildungsforschung 1/12

Ist das schon Clickbait?

Zu allen Fragen des deutschen Bildungssystems im Allgemeinen und der Lehrer*innenbildung im Speziellen gibt es eine Vielzahl von Büchern unterschiedlicher Akteur*innen, die einen gewissen Einfluss auf bildungspolitische Diskussionen innerhalb der Medienlandschaft haben bzw. dies wollen. Diese Bücher kritisieren meist bestimmte Defizite und argumentieren davon ausgehend für bestimmte Veränderungen. Wie stichhaltig diese Argumentationen sind, hängt natürlich auch davon ab, wie zutreffend die vorherigen Analysen und Zustandsbeschreibungen sind. Ergebnisse empirischer Bildungsforschung können hierzu Einschätzungen ermöglichen, bspw. ob sie zutreffen oder ob überhaupt Erkenntnisse vorliegen.

Worum gehts?

Bildnachweis: © Stifterverband, CC BY 3.0

In einer kleinen Beitragsreihe möchten wir uns mit einem solchen Buch beschäftigen, das sich neben dem Inhaltlichen auch aufgrund seines Clickbait-ähnlichen Titels perfekt für unseren Blog eignet ;). Es geht um „Die 10 Todsünden der Schulpolitik – Eine Streitschrift“ von Heinz-Peter Meidinger (2021) erschienen im Claudius Verlag, München. Heinz-Peter Meidinger ist medial hauptsächlich bekannt als aktueller ehrenamtlicher Präsident des Deutschen Lehrerverbandes. Der Lehrerverband ist eine Dachorganisation von vier bundesweiten Lehrkräfteverbänden, von denen der Deutsche Philologenverband e.V., in dem sich hauptsächlich Gymnasiallehrkräfte organisieren, sicherlich der bekannteste ist. Es ist also nicht möglich als Lehrkraft direkt Mitglied im Lehrerverband zu werden (wobei es auch weitere große Lehrkräfteverbände gibt, die nicht teil des Lehrerverbands sind). Man kann den Lehrerverband auch nach den formulierten Zielen hauptsächlich als eine Vernetzungs- und Abstimmungsorganisation der Mitgliedsverbände bezeichnen, die explizit Einfluss auf politische Entscheidungen zur Entwicklung des Bildungssystems nehmen möchte. Es geht also auch um Lobbyarbeit für bestimmte Ziele. Das Buch kann in diesem Kontext als möglicher Beitrag betrachtet werden, Diskussionen zur Schulpolitik anzuregen, verbunden mit dem Ziel, bestimmte Veränderungen erreichen zu wollen. Anzumerken ist allerdings, dass die im Buch enthaltenen Thesen, Argumente und Begründungen nicht als Positionen des Lehrerverbandes bezeichnet werden.

Der Autor selbst war Gymnasiallehrer und später auch lange Jahre Schulleiter in Bayern und ging im Sommer 2020 in den Ruhestand. Bevor er 2017 erstmalig als Präsident des Lehrerverbandes gewählt wurde, war Heinz-Peter Meidinger 13 Jahre lang Vorsitzender des deutschen Philologenverbandes. Er schreibt also aus der Perspektive des erfahrenen Gymnasialschulleiters mit vielfältigen Einblicken aus der Verbandsarbeit. Mehr erfährt man über ihn und seine Positionen auch auf Wikipedia ;).

Was passiert hier?

In dieser Artikelreihe möchten wir uns etwas differenzierter mit den Argumentationen im Buch aus Perspektive der empirischen Bildungsforschung auseinandersetzen. Dabei geht es uns weniger darum, eine eigene Bewertung der Thesen des Autors vorzunehmen, sondern eher zu prüfen, was man aus Ergebnissen der Bildungsforschung zu ihren Prämissen beisteuern kann oder nicht. Hierzu ist es natürlich sinnvoll, das Buch gelesen zu haben. Das möchte ich an dieser Stelle ausdrücklich empfehlen, auch wenn man vielleicht manche Position des Autors nicht teilt. Man kann durch die Auseinandersetzung auch die eigene Perspektive ausschärfen. Diese Beitragsreihe ist daher keine Rezension im engeren Sinne, sondern wir werden punktuell Aspekte herausgreifen, die sich sinnvoll auf Ergebnisse empirischer Bildungsforschung beziehen lassen. Jede „Todsünde“ bekommt dabei einen eigenen kurzen Beitrag, die in der Länge aber auch sehr variieren können (je nachdem, inwiefern sich inhaltlich anknüpfen lässt).

In diesem Beitrag geht es um das erste Kapitel, quasi das Vorwort, welches mit „Schulpolitik in der Krise“ überschrieben ist. Heinz-Peter Meidinger stellt darin zunächst Bedingungen heraus, die für das Feld der Bildungspolitik charakteristisch seien, z.B. dass das Bildungssystem hochkomplex und durch viele Interdependenzen geprägt sei. Er findet, das deutsche Schulsystem arbeite in vielen Bereichen sehr gut, aber Dinge, die schief laufen, müssten für eine Bestandsaufnahme herausgestellt werden. Die Sprache ist – negativ interpretiert – polemisch, – positiv interpretiert – ausdrucksstark, was sich auch darin zeigt, dass als Analogie für „[…] Konzepte, Reformen, politische Haltungen und Ideologien sowie wiederkehrende Verhaltensmuster, aber auch permanente Untätigkeit sowie bewusste Versäumnisse, die der Bildungsqualität in unserem Land schaden […]“ (Meidinger, 2021, 23) das Konzept der „Todsünde“ aus der katholischen Theologie verwendet wird. Aber es ist ja auch als Streitschrift angekündigt.

G9 zu G8 – Wie ist es gelaufen?

In diesem Vorwortkapitel fällt es schwer, Aussagen zu finden, die mit Bezug zu empirischen Forschungsergebnissen betrachtet werden können. Es enthält viele Meinungsäußerungen, die zumindest an dieser Stelle nicht anhand konkreter Beispiele begründet werden. Eine Ausnahme ist die Thematisierung der Umstellung vieler Bundesländer von einem neunjährigen (G9) hin zu einem achtjährigen Abiturbildungsgang (G8), als Beispiel für eine Veränderung der Schulstrukturen, die möglicherweise zu vielen negativen Nebenwirkungen führte. Heinz-Peter Meidinger nennt Folgende: Baubedarf an Mittagskantinen, mehrfache Überarbeitung der Lehrpläne auf Druck von Außen, weniger Nachwuchs in Sportvereinen, Kirchen bzw. in der Kinder- und Jugendarbeit, weniger junge Menschen nehmen eine duale Ausbildung auf.

Während mir zum Baubedarf keine Studien bekannt sind und Lehrplanüberarbeitungen je nach Bundesland mehr oder weniger häufig vorkamen (und man beides auch als positive Nebenwirkung sehen könnte, weil z.B. Lehrpläne an neue Rahmenbedingungen angepasst wurden), liegen zu den Auswirkungen auf das Freizeitverhalten von Jugendlichen und zur Ausbildungsneigung Analysen auf Basis empirischer Daten vor (vgl. Kühn et al., 2013). Die Ergebnisse zum Freizeitverhalten sind zusammengefasst uneindeutig (vgl. Meyer & Thomsen, 2015), was auch daran liegt, dass die Umstellung von G9 auf G8 nicht in allen Bundesländern gleich verlief, sich die Erfahrungen der Schüler*innen daher unterschieden und die Analysen auch methodisch variieren. Es wurde z.B. häufig mit Selbstauskünften zu vorgegebenen Freizeittätigkeiten gearbeitet, die von Schüler*innen in G9- oder G8-Ausbildungsgängen beantwortet und teils parallel, teils nacheinander erhoben wurden. Daher können die Ergebnisse auch am ehesten differenziert nach Art der Freizeittätigkeit dargestellt werden.

Für Aktivitäten im Sport konnten dabei überwiegend keine bzw. kaum Unterschiede im zeitlichen Umfang für G9- und G8-Schüler*innen festgestellt werden (Laging et al., 2014; im Brahm et al., 2013). Ebenfalls keine Unterschiede zeigen sich bzgl. anderer Tätigkeiten z.B. musischer Hobbys wie Orchester, Unternehmungen mit der Familie, Computer (z.B. Spielen) (Hübner et al., 2017). Stabile signifikante Unterschiede mit eher mittlerem Effekt zeigen sich vor allem für das Ausüben eines Nebenjobs, was häufiger von G9-Schüler*innen getan wurde (z.B. Hübner et al., 2017; Meyer & Thomsen, 2015) und ein Rückgang bzgl. ehrenamtlicher Tätigkeiten (wobei Sport hier noch einmal gesondert erfasst wurde), allerdings ausgehend von einem generell niedrigen Niveau (für Hessen: Meyer & Thomsen, 2015). Eine interessante Erkenntnis im Zusammenhang mit diesen Analysen ist, dass die Schüler*innen innerhalb der G8-Bildungsgänge Freizeit teilweise anders bewerteten bzw. einschätzten, als in G9-Bildungsgängen (Blumentritt et al., 2014). „Folglich scheint die konzeptionelle Engführung von Freizeit als Nicht-Schulzeit aus den exemplarisch ausgewählten Beschreibungen der Schülerinnen und Schüler beider Bildungsgänge nicht vollständig tragfähig.“ (Blumentritt, 2015, 150).

Bezogen auf die These, dass die duale Berufsausbildung unter der Umstellung gelitten habe, liegen kaum empirische Erkenntnisse vor. Marcus & Zambre (2017) berichten, dass nach Einführung der G8-Abiturbildungsgängen weniger junge Menschen ein Studium aufnahmen, was man allerdings nicht direkt so interpretieren kann, dass diese stattdessen eine Berufsausbildung aufnahmen. Es zeigt sich zudem eine Art Pausenjahr vor der Studienaufnahme. Die Entscheidung für ein Studium oder eine Berufsausbildung scheint eher von Faktoren abzuhängen, die unabhängig von der Art des Abiturbildungsgangs sind (vgl. Flake et al., 2017). In seiner Dissertation berichtet Meyer (2016) für Sachsen-Anhalt Analysen, die eher darauf hindeuten, dass G8-Schüler*innen tendenziell sogar vermehrt eine Berufsausbildung an ihr Abitur anschlossen.

Was lässt sich hieraus nun bzgl. der Thesen aus dem Buch schließen? Die Annahme, dass die Umstellung von G9 zu G8 negative Nebenwirkungen hatte, ist vor dem Licht der empirischen Daten teilweise zutreffend, aber nicht bzgl. aller genannten Nebenwirkungen. Die Situation ist in repräsentativeren Stichproben nicht so eindeutig wie suggeriert. Allerdings liegen auch insgesamt wenig empirische Analysen vor. Die erste Todsünde wird Gegenstand des nächsten Beitrags in dieser Artikelreihe sein. Er findet sich hier. Hintergründe zum Autor und zum Buch werden dort nicht noch einmal aufgeführt.

Literatur:

  • Blumentritt, L. (2015). Veränderte Schulzeit–veränderte Freizeit? Freizeit im Kontext der gymnasialen Schulzeitverkürzung. In R. Freericks, & D. Brinkmann (Hrsg.), Die Stadt als Kultur-und Erlebnisraum – Analysen – Perspektiven – Projekte. 3. Bremer Freizeit-Kongress (S. 141-153). Institut für Freizeitwissenschaft und Kulturarbeit e.V. (Online)
  • Blumentritt, L., Kühn, S. M., & van Ackeren, I. (2014). (Keine) Zeit für Freizeit? Freizeit im Kontext gymnasialer Schulzeitverkürzung aus Sicht von Schülerinnen und Schülern. Diskurs Kindheits-und Jugendforschung, 9(3), 15-16. (Online)
  • Flake, R., Malin, L., & Risius, P. (2017). Einflussfaktoren der Bildungsentscheidung von Abiturienten für Ausbildung oder Studium. IW-Trends-Vierteljahresschrift zur empirischen Wirtschaftsforschung, 44(3), 99-115. (Online)
  • Hübner, N., Wagner, W., Kramer, J., Nagengast, B., & Trautwein, U. (2017). Die G8-Reform in Baden-Württemberg: Kompetenzen, Wohlbefinden und Freizeitverhalten vor und nach der Reform. Zeitschrift für Erziehungswissenschaft, 20(4), 748-771. (Online)
  • im Brahm, G., Kühn, S. M., & Wixfort, J. (2013). Wie nehmen Schülerinnen und Schüler des doppelten Abiturjahrgangs die eigene Schulzeit wahr?: Eine geschlechtsspezifische Analyse der Schülerperspektive auf acht-und neunjährige Bildungsgänge am Gymnasium. Schulpädagogik heute, 4(8), 223-240.
  • Kühn, S. M., van Ackeren, I., Bellenberg, G., Reintjes, C., & im Brahm, G. (2013). Wie viele Schuljahre bis zum Abitur? – Eine multiperspektivische Standortbestimmung im Kontext der aktuellen Schulzeitdebatte . Zeitschrift für Erziehungswissenschaft, 16(1), 115-136. (Online)
  • Laging, R., Böcker, P., & Dirks, F. (2014). Zum Einfluss der Schulzeitverkürzung (G8) auf Bewegungs-und Sportaktivitäten von Jugendlichen. Sportunterricht, 63(3), 66-72. (Online)
  • Marcus, J., & Zambre, V. (2017). Folge der G8-Schulreform: Weniger Abiturientinnen und Abiturienten nehmen ein Studium auf. DIW Wochenbericht, 84(21), 418-426. (Online)
  • Meidinger, H.-P. (2021). Die 10 Todsünden der Schulpolitik – Eine Streitschrift. Claudius Verlag.
  • Meyer, T. (2016). An evaluation of the shortened high school duration in Germany and its impact on postsecondary education and labor market entry. Gottfried Wilhelm Leibniz Universität Hannover. (Online)
  • Meyer, T., & Thomsen, S. L. (2015). Schneller fertig, aber weniger Freizeit?–Eine Evaluation der Wirkungen der verkürzten Gymnasialschulzeit auf die außerschulischen Aktivitäten der Schülerinnen und Schüler. Schmollers Jahrbuch, 135, 249-278. (Online)

Täuschen, Schummeln und Betrügen an der Hochschule im Licht der Bildungsforschung – 3/7 – COVID-19 Ergänzung

Ehrlichkeit in der digitalen Welt

Einbettung von: Deutschlandfunk, Campus & Karriere, Sendung vom 01. Dezember 2021
Bildnachweis: © Deutschlandfunk

Eigentlich wäre der vierte Teil zu unserer Artikelserie zum Täuschen und Betrügen bei Prüfungen im Studium an der Reihe. Angeregt über einen kurzen Bericht des Deutschlandfunks in der Sendung Campus & Karriere vom 01. Dezember 2021 (siehe auch die Einbettung oben) möchten wir allerdings noch einen kleinen Nachtrag zum dritten Artikel liefern, in dem wir von Ergebnissen der empirischen Bildungsforschung zum Ausmaß von typischem Täuschungsverhalten berichtet haben. Durch die Maßnahmen zur Eindämmung der COVID-19-Pandemie wurde auch an Hochschulen ein beträchtlicher Teil der Lehre und insbesondere auch von Prüfungen in virtueller Form durchgeführt (Sommer, 2020). Dabei stellen sich ein paar Fragen: Wie groß ist das Ausmaß von Täuschungen in digitalen Prüfungen? Ist es womöglich höher als bei klassischen Präsenzprüfungen, weil das „Schummeln“ technisch einfacher ist?

Eine Studie zur rechten Zeit…

Vor der Pandemie wurden diese Fragen erwartbarerweise kaum untersucht, da digitale Prüfungen ein eher untypischer Fall waren. Im November sind allerdings die Ergebnisse einer Untersuchung von Janke et al. (2021) veröffentlicht worden. Sie befragten hierzu N = 1608 Studierende unterschiedlicher Hochschulen und Studienfächer in Deutschland online, die im Sommersemester 2020 eine schriftliche Prüfung ablegen mussten. Davon hatten 82.5% ausschließlich Onlinekurse während des Semesters belegt. Die Studierenden wurden zum einen danach befragt, in welcher Form sie Prüfungen abgelegt haben (nur in Präsenz, nur digital, beides). Zudem sollten sie direkt auf einer siebenstufigen Skala zu einer Reihe von Täuschungshandlungen in Prüfungen, aber auch in Onlinekursen (bezeichent als academic dishonesty), angeben, wie häufig sie dieses in diesem Semester getan haben (von nie bis sehr oft).

Das Ausmaß der vier häufigsten Handlungen akademischer Unehrlichkeit in Kursen, die die Befragten im Sommestersemester 2020 mindestens einmal getätigt haben, waren in absteigender Reihenfolge (Janke et al., 2021, 5): Einloggen im Onlinekurs und nebenbei etwas Anderes tun (88.1%), Bearbeitung von Aufgaben mit Anderen, die als Einzelleistung gedacht waren (63.7%), Angabe von Quellen in Hausarbeiten, die man nicht gelesen hat (29.8%), Übernahme von Textteilen aus Onlinequellen ohne Quellenangabe (26.4%). Die Untersuchung enthält Ergebnisse zu weiteren Täuschungshandlungen, weshalb ich hier eine ausdrückliche Leseempfehlung abgeben möchte.

Digital vs. Analog?

Unterscheidet sich nun das Täuschungsverhalten in analogen und digitalen schriftlichen Prüfungen? In der Befragung können hierzu insbesondere zwei Items herangezogen werden, die sowohl für Präsenz-, als auch für Onlineprüfungen abgefragt wurden. Für eine bessere Vergleichbarkeit habe ich die Ergebnisse i.ön einer kleinen Tabelle dargestellt (Tab. 1).

TäuschungshandlungPräsenz-prüfungOnline-prüfung
Austausch von Lösungsideen für Aufgaben mit Anderen während der Prüfung.23.7%45.9%
Verwendung von unerlaubten Hilfsmitteln zur Lösung von Aufgaben.18.4%48.6%
Tab. 1 „Vergleich von Täschungshandlungen in Präsenz- und Onlineprüfungen (Janke et al., 2021, 5)

Es wird deutlich, dass das Ausmaß von Täuschungsverhalten in schriftlichen digitalen Prüfungen größer ausfällt als in Präsenzprüfungen. Zur Signifikanz des Unterschieds und möglicher Effektstärken, auch unter Kontrolle von Prüfungserfahrungen, sei an dieser Stelle noch einmal auf den Artikel verwiesen. Es lohnt sich etwas tiefer im Text zu schauen. Die Autor*innen fassen ihre Ergebnisse mit einem gewissen understatement folgendermaßen zusammen:

„Overall, our findings indicate that the sudden shifts from on-site to
online testing in German higher education institutions during the
COVID-19 pandemic in summer 2020 may have posed at least some
threat to academic integrity.“

(Janke et al., 2021, 6)

Dazu, inwiefern sich Lehramtsstudierende hierbei von Studierenden anderer Studiengänge unterscheiden, können wir auf Grundlage der Untersuchung keine Aussagen machen. Aber man kann ja nicht alles haben ;). Daher zuerst einmal vielen Dank an die Kolleg*innen aus Mannheim, Landau und Augsburg. Vielleicht kommen hierzu ja noch Analysen.

Literatur

  • Janke, S., Rudert, S. C., Petersen, Ä., Fritz, T., & Daumiller, M. (2021). Cheating in the wake of COVID-19: How dangerous is ad-hoc online testing for academic integrity?, Computers and Education Open, 2, 1-9. (Online)
  • Sommer, M. (2020). Eine respektable Notlösung. Ergebnisse einer Umfrage zum „Corona-Semester “. Forschung & Lehre, 20(8), 666. (Online)

Fast wie im Fernsehen – Live und in Farbe!

© BMBF

Der 24. August war für unsere Nachwuchsgruppe ein besonderer Tag, denn es war das erste Mal, dass wir drei – Philipp, Christoph und Thomas – uns in Präsenz gesehen haben (natürlich unter strengen 3G-Bedingungen)! Pandemiebedingt mussten wir wie viele Andere auch aus dem Homeoffice arbeiten und haben uns nur im digitalen Raum sehen und kennenlernen können. Der Anlass des Treffens war auch ein ziemlich besonderer: Das BMBF hatte uns um ein Interview gebeten!

Über diese Anfrage haben wir uns natürlich sehr gefreut und sind der Bitte gerne nachgekommen. Nach der Terminplanung haben wir auch schon zügig mit den Vorbereitungen für das Interview begonnen [Spoiler: Die Antworten waren nicht ganz spontan – wir sind schließlich keine Profis ;-)]

Der Interviewtag selbst begann dann mit einem ersten analogen Kennenlernen und einem kurzen Probedurchlauf. Als die beiden Mitarbeiter der Agentur Cheil Christian Schnier und Klaus Rehm dazu kamen mussten wir erstmal eine geeignete Location finden. Zwar hätten wir unsere Dachterrasse aufgrund der schönen Aussicht (Ein Pader-Pun) bevorzugt, um etwaigen Tonproblemen aus dem Weg zu gehen, aber wir sind dann doch im klassischen Seminarraum gelandet, wie man im Video ja auch nur unschwer erkennen kann. Wir haben den Raum noch etwas hergerichtet und unser Logo – ganz professionell wie wir sind – auf die Leinwand projiziert.

Und dann hieß es auch schon: Action!

Das Video geht zwar nur 7 Minuten – aber das meiste Material liegt, wie man im Filmjargon so schön sagt, auf dem „cutting room floor“. Es hat manchmal halt etwas gedauert, bis die Antworten saßen und keine Versprecher oder Wortfindungspausen mehr vorkamen. Am Ende haben wir dann ca. 2h gebraucht – was ihr seht ist also ein „Best-Of“! Wenn man genau hinschaut erkennt man sogar, dass die Fragen und Antworten nicht chronologisch gestellt worden sind (Man achte auf Thomas‘ Mikrofon…). Für unsere Kolleg*innen am PLAZ haben wir noch eine besondere Aufgabe: Welche zwei rosafarbenen, quaderförmigen Objekte haben sich in unser Video geschlichen?

Nachdem die Arbeit getan war, haben wir den restlichen Tag noch genutzt, um die Universität besser kennenzulernen, schließlich war es das erste Mal, dass wir beiden Promovierenden in Präsenz da waren. Christoph zeigte uns die Bibliothek, Mensa (ganz wichtig!) und die Aussicht vom höchsten Turm der Uni.

Vielen dank an dieser Stelle nochmal an den Produzenten und Kameramann für die tolle Arbeit im Vorfeld, die angenehme Durchführung vor Ort und das Schneiden und Erstellen des Videos – Wir freuen uns sehr über das tolle Ergebnis! Passend zum Video könnt ihr euch auch den kurzen Bericht auf der Seite der Wissenschafts- und Hochschulforschung ansehen.

Wieder was gelernt. Wissenschaftskommunikation & Bildungsforschung.

Am 30.11 und 01.12.21 haben wir, Thomas Janzen und Philipp Wotschel, am Workshop „Wissenschaftskommunikation in der Bildungsforschung“ teilgenommen, der im Rahmen des digitalen Konferenzjahres der Gesellschaft für Empirische Bildungsforschung (GEBF) veranstaltet wurde.

Unter der Leitung von Dr. Katja Knuth-Herzig (Universität Speyer) standen im zweitägigen Programm die Vermittlung der Grundlagen und die praktische Erprobung der Wissenschaftskommunikation im Vordergrund.

Nach dem gemeinsamen Kennenlernen und dem Austausch über eigene Vorerfahrungen und persönliche Ziele, lag das Hauptaugenmerk des Workshops auf der Vermittlung der Charakteristika und Relevanz von Wissenschaftskommunikation in der Gesellschaft und im Arbeitsalltag. Damit ging ebenfalls eine umfassende Präsentation der Darstellungsmöglichkeiten unterschiedlicher Kommunikationsformate und Social-Media-Plattformen einher. Reichlich Gelegenheit gab es auch Wissenschaftskommunikation „auszuprobieren“. Durch die Erstellung eines Kommunikationskonzeptes für die eigene Forschung, das anschließend im Plenum exemplarisch diskutiert wurde, wurde allen Teilnehmenden die Möglichkeit gegeben, Rückmeldung für ihre Ideen und neue Denkanstöße zu erhalten.

Wir freuen uns, dass wir an dem Workshop teilnehmen durften und sind uns sicher, dass wir die eine oder andere vermittelte Technik in unserem Projekt anwenden können.

Besuch auf der digiGEBF 2021 – Keynote: Medizindidaktik macht Schule

Bildnachweis: © GEBF, Universität Tübingen

Die Hauptvorträge im digitalen Jahr der Gesellschaft für Empirische Bildungsforschung (GEBF) finden verteilt über verschiedene Monate statt und wurden über YouTube gestreamt. Für uns als Nachwuchsforschungsgruppe besonders interessant: Am 16. November hielt Prof. Dr. Martin Fischer seine Keynote „Medizindidaktik macht Schule: Verbindungen und Unterschiede“, in der er Einblicke in die Geschichte, Ansätze und Strukturen der Ausbildung angehender Mediziner*innen gab.

Die Medizindidaktik unterscheidet sich dabei sowohl von den schulischen und auch hochschulischen Fachdidaktiken ein wenig. Ich würde sagen, sie ist von einer stark pragmatischen Orientierung an Anforderungen des Berufsfeldes der Medizin geprägt, im Vergleich mit den stärker fachlich-theoretischer motivierten Didaktiken der anderen Studienfächer. Dies ist aber eher mein Eindruck als Außenstehender, der auch in diesem Vortrag einen kompakten Überblick aus einem Guß erhalten hat. Insbesondere für die Lehrer*innenbildungsforschung bietet die Medizindidaktik viele Anregungen und Orientierungspunkte.

Im Kontext unserer Nachwuchsforschungsgruppe war insbesondere der systematisch geplante Kompetenzaufbau im Medizinstudium und die Verzahnung mit performanzorientierten Prüfungsverfahren interessant. Neben den hier im Blog schon öfter vorgekommenen OSCEs (die im Vortrag auch gerne als Oskies ausgeprochen werden ;)), wären z.B. Adaptionen von Clinical Case Discussions (Koenemann et al., 2020) für die Lehramtsausbildung spannend (im Sinne von Teacher Case Discussions, wie es Martin Fischer vorgeschlagen hat).

Edit (01.07.2022): Der Vortrag ist insgesamt sehr empfehlenswert und kann mittlerweile auch auf dem Youtube-Kanal zur Tagung nachgehört werden. Es lohnt sich!

Literatur:

  • Fischer, M. (2021). Medizindidaktik macht Schule: Verbindungen und Unterschiede. Keynote-Vortrag im digitalen Konferenzjahr der Gesellschaft für Empirische Bildungsforschung (GEBF) (online), 16.11.2021.
  • Koenemann, N., Lenzer, B., Zottmann, J. M., Fischer, M. R., & Weidenbusch, M. (2020). Clinical Case Discussions–a novel, supervised peer-teaching format to promote clinical reasoning in medical students. GMS journal for medical education, 37(5). (Online)

Täuschen, Schummeln und Betrügen an der Hochschule im Licht der Bildungsforschung – 3/7

In einer Universität entwickeln sich die Talente

Wie überall sonst, wird auch an Universitäten nicht immer ehrlich gespielt bzw. studiert. In einer Artikelreihe beschäftigen wir uns daher hier im Blog etwas genauer mit dem Täuschen und Betrügen im Studium, häufig zusammengefasst auch unter dem Begriff akademisches Fehlverhalten. Uns interessiert dabei natürlich, welche Ergebnisse der empirischen Bildungsforschung hierzu vorliegen. Nachdem wir im ersten Beitrag zunächst betrachtet haben, welche Arten des akademischen Fehlverhaltens im Studium vorkommen können, haben wir im zweiten Beitrag ein paar Methoden vorgestellt, wie solches normverletzende Verhalten auch empirisch erhoben werden kann bzw. welche Schwierigkeiten dabei auftreten können.

Wie groß ist das Problem?

In diesem Beitrag soll es nun um die Frage gehen: Wie groß ist das Ausmaß akademischen Fehlverhaltens bei Studierenden? Welches kommt häufig vor, welches evtl. seltener? Und wie ist es bei Lehramtsstudierenden? Sie sind ja schließlich die Zielgruppe unserer Arbeit in der Nachwuchsforschungsgruppe. Sind sie vielleicht aufgrund ihrer Berufswahl sogar eher vorbildlich, weil sie über eine Art Prüfungsethos als angehende Lehrkräfte verfügen? Diese Fragen deuten es schon an. In diesem Beitrag werden wir etwas differenzierter auf Ergebnisse aus Studien blicken und dabei berücksichtigen, welche Arten des Fehlverhaltens untersucht wurden, welche Studierenden befragt wurden und auch mit welcher Erhebungsmethode.

Generell wird und wurde akademisches Fehlverhalten weltweit schon länger untersucht, wobei die Ergebnisse auch immer wieder in verschiedenen Reviews zusammengefasst wurden (z.B. Ali et al., 2021; Parthner, 2020; Park, 2010). Dabei wird ein mindestens einmaliges akademisches Fehlverhalten im Studium von durchschnittlich ca. 70% (z.B. Whitley, 1998) bis ca. 33% (z.B. Teixeira & Rocha, 2010) aller Studierenden berichtet. Dieser Unterschied ist auch darin begründet, dass sich das Ausmaß erwartbarerweise je nach Täuschungshandlung unterscheidet, wobei sich die meisten Studien auf das Plagiieren in Haus- bzw. Abschlussarbeiten beziehen.

Ein Blick in den eigenen Garten…

Generell ist es aber schwierig, Studien zu akademischem Fehlverhalten aus unterschiedlichen Ländern und Studienkontexten gut miteinander zu vergleichen (vgl. Ison, 2018). Daher blicken wir etwas genauer auf Ergebnisse aus dem deutschsprachigen Sprachraum, genauer Deutschland und der Schweiz. Viele Untersuchungen wurden von Kolleg*innen der ETH Zürich bzw. der Universität Leipzig durchgeführt, oft verbunden mit Methodenstudien (die wir im zweiten Beitrag dieser Reihe schon kurz kennengelernt haben).

Preisendörfer (2008) ließ N = 578 Studierende (hauptsächlich) der Soziologie in Interviews dichotom dazu befragen, ob sie ein bestimmtes Fehlverhalten im Studium schon einmal getan haben (ja oder nein) per RRT und per Direct-Response. Weil letztere Angaben meist höher lagen, nennen wir hier nur die Ergebnisse zum Anteil aus der direkten Befragung in absteigender Reihenfolge: Abschreiben lassen in Klausur (65,7%), selbst in Klausuren abgeschrieben (57,0%), Spickzettel in Klausur verwendet (21,7%), Teilplagiat in Hausarbeit (15,9%), Buch in der Bibliothek versteckt (5,4%), Komplettplagiat in Hausarbeit (1,4%), Seiten aus einem Buch in der Bibliothek gerissen (1,0%). Coutts et al. (2011) befragten Studierende aller Fächer und Studiengänge ebenfalls per RRT und direkt. In der direkten Befragung (N = 829) gaben 12,0% der Studierenden an, schon einmal in Haus- oder Abschlussarbeiten plagiiert zu haben, 19,4% bei anderen schriftlichen Arbeiten. In einer Teilstudie an drei weiteren Universitäten wurden N = 310 auch per Crosswise-Modell befragt, wobei sich ein Ausmaß von 22,3% Teilplagiat und 1,6% größerem Plagiat ergab (vgl. Jann et al., 2012; Sattler, 2008).

In der Studie von Jerke & Krumpal (2013) wurden (wieder) Soziologiestudierende per Triangularmodell (N = 281) und direkt (N = 101) befragt. Hierbei ergab sich ein Verhaltensausmaß von 18,0% Teilplagiat im TM-Modell (9,9% direkt) und 0,8% Vollplagiat im TM-Modell (0,0% direkt). Nitsche et al. (2014) befragten N = 312 Studierende verschiedener Studienbereiche per TM-Modell an der Hochschule Merseburg und erhielten folgende Ergebnisse: Abschreiben in Klausuren (29%), Verwendung von Spickzetteln (21%), Plagiieren (11%) und Informationsbeschaffung im Internet während Prüfungen (9%). Krohe (2020) berichtet Ergebnisse einer deutschlandweiten, direkten Onlinebefragung von N = 15440 Studierenden verschiedenster Studiengänge. Dabei ergab sich ein Ausmaß von: Abschreiben in Klausuren (27,3%), Nutzung von Spickzetteln (22,9%), Teilplagiat in Hausarbeiten (18,1%), Vollplagiat (4,3%) und Nutzung von Ghostwritern/Mehrfachnutzung der gleichen Arbeit (2,9%).

Die Ergebnisse der vorliegenden Studien variieren durchaus deutlich, es scheint aber schon eine tendenzielle Abstufung des Ausmaßes bestimmter Täuschungsarten zu existieren. Allerdings ermöglichen diese Arbeit es uns nicht, die Frage zu klären, ob das auch für Lehramtsstudierende gilt, oder ob sie sich von Studierenden anderer Studiengänge unterscheiden. Schließlich sollten sie im späteren Beruf in dieser Hinsicht für ihre Schüler*innen auch ein Vorbild sein.

Wie sieht es im Lehramt aus?

Genauere Einblicke ins Lehramt gibt aber eine der wichtigsten Studien zum akademischen Fehlverhalten in Deutschland: FAIRUSE „Fehlverhalten und Betrug bei derErbringung von Studienleistungen: Individuelle und organisatorisch-strukturelle Bedingungen“ (Sattler & Diewald, 2013). Sie hat nicht nur einen sehr umfangreichen Datensatz, sondern betrachtet auch einige Arten des Fehlverhaltens, die bisher noch nicht vorgekommen sind. Ihre unterschiedlichen Ergebnispublikationen (z.B. Patrzek et al., 2015) sind allesamt äußerst lesenswert.

Bildnachweis: © Universität Bielefeld

In der Studie wurden deutschlandweit Studierende an verschiedenen Hochschulen in einem Panel-Design insgesamt zu vier aufeinander folgenden Zeitpunkten gefragt. Die Ergebnisse zum Ausmaß von akademischem Fehlverhalten im Abschlussbericht beziehen sich auf N = 3486 Studierende, die auch beim zweiten Messzeitpunkt an der Befragung teilgenommen haben. Methodisch wurde mit dem Direct-Response-Ansatz gearbeitet, allerdings wurde im Unterschied zu den bisher genannten Arbeiten auf einer 10-stufigen Skala auch nach der Häufigkeit bestimmten Täuschungshandelns innerhalb der letzten sechs Monate gefragt (von noch nie bis mehr als 10-mal). Die Studierenden wurden dabei nur gefragt, wenn sie auch eine Prüfungsleistung erbringen mussten, auf die sich die jeweilige Täuschungshandlung bezieht.

Um nun das Ausmaß von akademischem Fehlverhalten von Lehramtsstudierenden im Vergleich abzuschätzen, habe ich in der folgenden Tabelle (Tab. 1) die Ausmaße aus dem Abschlussbericht von Studierenden, die in der Studie die Studienabschlüsse Lehramt und Lehramtsmaster angegeben haben, eingetragen und sie dem jeweiligen Gesamtdurchschnitt gegenüber gestellt (Sattler & Diewald, 2013, 20-23). Angegeben ist jeweils der prozentuale Anteil Studierender, die ein mindestens einmaliges Täuschungsverhalten genannt haben.

FehlverhaltenLehramtLehramt
Master
Gesamt
Plagiieren15,6%17,4%18%
Spickzettel benutzen20,0%24,8%17%
Spickzettel mitnehmen33,3%36,2%31%
Abschreiben in Klausuren22,2%39,4%37%
falsches Attest benutzen24,4%11,3%15%
Abschreiben von Arbeitsaufgaben20,0%35,8%35%
Daten fälschen/verändern24,2%12,4%24%
Tab. 1 „Ausmaß akademischen Fehlverhaltens im Lehramt in der FAIRUSE-Studie (Sattler & Diewald, 2013)“

An der Vermutung, dass Lehramtsstudierende sich im Sinne einer pädagogischen Verantwortung schon im Studium vorbildlicher bei Prüfungen verhalten, ist anscheinend nur wenig dran. Auch im Lehramt wird im ähnlichen Ausmaß getäuscht, teilweise sogar mehr. Hierbei muss man aber natürlich beachten, dass sich die Prüfungsformen und damit die möglichen Täuschungshandlungen auch in den studierten Fächern unterscheiden.

Und nun?

Im Studium wird in nennenswertem Umfang getäuscht und betrogen, trotz möglicher Sanktionen und relativ klarer Kommunikation des erwarteten akademischen Verhaltens. Warum sollten sich Studierende im Lehrbetrieb an der Universität auch anders verhalten als zuvor im Lehrbetrieb einer Schule? Festzuhalten ist allerdings auch, dass gute zwei Drittel sich so verhalten, wie es die Hochschulen von ihren Studierenden erwarten. Möchte man dieses Verhältnis hin zu einem größeren Anteil korrekten akademischen Verhaltens ändern, dann muss gefragt werden, was Studierende zum Täuschen bringt, bzw. welche Faktoren und Bedingungen es begünstigen. Diese Fragen werden im nächsten Beitrag dieser Artikelreihe betrachtet. Er wird wieder an dieser Stelle verlinkt, sobald er online ist.

Literatur

  • Ali, I., Sultan, P., & Aboelmaged, M. (2021). A bibliometric analysis of academic misconduct research in higher education: Current status and future research opportunities. Accountability in research, 1-22. (Online)
  • Coutts, E., Jann, B., Krumpal, I., & Näher, A. F. (2011). Plagiarism in student papers: prevalence estimates using special techniques for sensitive questions. Jahrbücher für Nationalökonomie und Statistik, 231(5-6), 749-760. (Online)
  • Ison, D. C. (2018). An empirical analysis of differences in plagiarism among world cultures. Journal of Higher Education Policy and Management, 40(4), 291-304. (Online)
  • Jann, B., Jerke, J., & Krumpal, I. (2012). Asking sensitive questions using the crosswise model: an experimental survey measuring plagiarism. Public opinion quarterly, 76(1), 32-49. (Online)
  • Jerke, J., & Krumpal, I. (2013). Plagiate in studentischen Arbeiten: eine empirische Untersuchung unter Anwendung des Triangular Modells. Methoden, Daten, Analysen (mda), 7(3), 347-368. (Online)
  • Kroher, M. (2020). Akademisches Fehlverhalten: Wie ehrlich berichten Studierende über Täuschungen?. In I. Krumpal, & R. Berger (Hrsg.), Devianz und Subkulturen – Theorien, Methoden und empirische Befunde (S. 207-240). Springer VS. (Online)
  • Nitsche, I., Rittmann, A., & Döpke, J. (2014). „Wirtschaftsethik “praktisch: Wie oft schummeln Studierende an der Hochschule Merseburg?. In A. Frei, & G. Marx (Hrsg.), Fahrrad – Vesper – Finanzwirtschaft Untersuchungen zu Wirtschaft und Gesellschaft. Festschrift für Eckhard Freyer (S. 11-29). Hochschule Merseburg. (Online)
  • Park, C. (2003). In other (people’s) words: Plagiarism by university students–literature and lessons. Assessment & evaluation in higher education, 28(5), 471-488. (Online)
  • Parnther, C. (2020). Academic misconduct in higher education: A comprehensive review. Journal of Higher Education Policy And Leadership Studies, 1(1), 25-45. (Online)
  • Patrzek, J., Sattler, S., van Veen, F., Grunschel, C., & Fries, S. (2015). Investigating the effect of academic procrastination on the frequency and variety of academic misconduct: a panel study. Studies in Higher Education, 40(6), 1014-1029. (Online)
  • Preisendörfer, P. (2008). Heikle Fragen in mündlichen Interviews: Ergebnisse einer Methodenstudie im studentischen Milieu. ETH Zurich SociologyWorking Paper, (6). (Online)
  • Sattler, S., & Diewald, M. (2013). FAIRUSE – Fehlverhalten und Betrug bei der Erbringung von Studienleistungen: Individuelle und organisatorisch-strukturelle Bedingungen – Schlussbericht zum Projekt. Universität Bielefeld. (Online)
  • Sattler, S. (2008). Plagiate in Hausarbeiten: Erfassung über Direct-Response und Validierung mit Hilfe der Randomized-Response-Technique. In K.-S. Rehberg (Hrsg.), Die Natur der Gesellschaft: Verhandlungen des 33. Kongresses der Deutschen Gesellschaft für Soziologie in Kassel 2006 (S. 5446-5461). Campus Verlag. (Online)
  • Teixeira, A. A., & Rocha, M. F. (2010). Cheating by economics and business undergraduate students: an exploratory international assessment. Higher Education, 59(6), 663-701. (Online)
  • Whitley, B. E. (1998). Factors associated with cheating among college students: A review. Research in higher education, 39(3), 235-274. (Online)

Was Lehrkräfte bzw. diejenigen, die sie ausbilden, von Ärzten lernen können

Analogien zwischen Lehrer*innen- und Mediziner*innenausbildung

Einer der Anstöße bzw. Ideenkatalysatoren für unsere Nachwuchsforschungsgruppe war auch ein Gastbeitrag von Prof. Dr. Martin Prenzel (2017) im Blog des Bildungsjournalisten Dr. Jan-Martin Wiarda, der immer wieder sehr lesenswert ist. In diesem Artikel rief Martin Prenzel dazu auf, sich bei der Weiterentwicklung der Lehramtsausbildung stärker an Ansätzen aus der Ausbildung angehender Mediziner*innen zur orientieren.

Prenzel nennt dabei einige Merkmale der Medizinausbildung, die er sich in ähnlicher Weise auch für die Lehramtsausbildung wünschen würde: Deutschlandweite Abstimmung der Ausbildung; Erprobungen von Reformstudiengängen, deren Elemente auch teilweise in den Regelbetrieb einfließen; Einbezug aktueller Forschungsergebnisse in die Ausbildung. Dabei bezieht er sich vor allem auf die strukturelle Verankerung der Lehramtsausbildung an Hochschulen, erkennt bisherige Bemühungen und Erfolge an, sieht aber noch einiges Potential für bessere Abstimmung über Bundeslandgrenzen hinweg. Eine konkrete Forderung wäre die nach der Entwicklung eines Masterplans für das Lehramtsstudium, analog zu vergleichbaren Plänen für das Medizinstudium, um einheitlichere Qualitätsstandards zu etablieren bzw. eine Verständigung darüber einzuleiten. Als konkretes Beispiel für eine Veränderung des Lehramtsstudiums schlägt Prenzel ein Ein-Fach-Lehramtsstudium vor, wobei er diesen Vorschlag auch nur als eine von verschiedenen Möglichkeiten sieht. Deutlich wird, wie wichtig ihm eine Diskussion über die Weiterentwicklung der Ausbildung ist, weshalb er eine Orientierung an der Mediziner*innenausbildung auch schon an anderen Stellen vorgeschlagen hat (z.B. Prenzel, 2019).

Was Lehrkräfte mit Ärzten gemeinsam haben (sollten)

Man muss Prenzel in diesem konkreten Vorschlag und auch in dieser Betonung struktureller Bedingungen des Lehramtsstudiums nicht zu hundert Prozent folgen, aber sich an Ansätzen der Mediziner*innenausbildung zu orientieren, ist ein lohnenswerter und sinnvoller Vorschlag, denn:

„Selbstverständlich muss man die unterschiedlichen föderalen Zuständigkeiten anführen, die es bei der Medizin – anders als beim Lehramt – dem Bund ermöglichen, eine koordinierende Rolle einzunehmen. Doch abgesehen von den verfassungspolitischen Gegebenheiten leuchtet es nicht ein, warum wir uns zwar einig sind, dass die Gesundheitsversorgung in Schleswig-Holstein dasselbe bedeuten sollte wie in Bayern, aber bei der Bildung unserer Kinder anscheinend an einen regionalen Qualitätsbegriff glauben.“

Prenzel (2017)

Diesem Urteil schließe ich mich an. Warum sollten wir an die Ausbildung von Lehrkräften nicht die gleichen Ansprüche haben, wie an die der Ausbildung von Mediziner*innen? Ich vermute, dass in der Lehramtsausbildung mehr Varianz und Uneinheitlichkeit akzeptiert wird, was auch darin begründet liegt, dass bspw. in der Medizin die Folgen einer schlechten Ausbildung sich viel unmittelbarer zeigen, als in der Lehramtsausbildung. Wenn eine Wunde falsch behandelt wird, sieht man es direkt und es schmerzt. Werden Schüler*innen schlecht unterrichtet, sieht man die Folgen erst viel später. Insofern stimme ich Prenzel zu, wenn er zumindest ein Bemühen darum fordert, die bestmögliche Ausbildungsqualität – und zwar bundesweit – zu sichern, wenn Bildung ein ebenso hohes gesellschaftliches Ziel sein soll wie Gesundheit.

Bildnachweis: Leo Jeong Soo, Pixabay-Lizenz, Link

Diese Analogie zwischen Lehrkräfte- und Medizinausbildung lässt sich aber nicht nur auf die Entwicklung von Standards beziehen. Beide Studienbereiche sind professionsbezogen, sie existieren also deshalb, weil sie Personen zur Ausübung einer bestimmten Profession befähigen sollen, die eine gesellschaftlich wichtige Funktion erfüllen. In beiden Studiengängen stehen Ausbilder*innen vor der Herausforderung, ein notwendiges, aber stark theorieorientiertes Studium mit einer zielführenden Befähigung zur Bewältigung der Berufspraxis zu kombinieren. Ähnlich wie im Lehramt kommt es auch in der Medizin immer wieder zu Situationen, in denen zu wenig Personen ausgebildet (z.B. der so genannte „Ärztemangel“) oder regional nicht gut verteilt sind (z.B. Kaduszkiewicz, 2018). In beiden Feldern wird daher versucht, Absolvent*innen zu motivieren bspw. auch an vermeintlich unattraktiven Orten zu arbeiten (z.B. Steinhäuser et al., 2013; Anders, 2020). In der Medizin würde aber sicherlich ein so hoher Anteil Quereinsteigender in den Beruf nicht akzeptiert werden wie es im Lehramt geschieht (vgl. hierzu auch unsere Artikelreihe hier im Blog).

Performanzorientiertes Prüfen im Lehramt

Im Detail gibt es natürlich immer noch beträchtliche Unterschiede und beide Studienbereiche sind nicht genau vergleichbar, aber grundsätzlich weist die Medizinausbildung ähnliche Herausforderungen auf wie die Lehramtsausbildung, weshalb es sich lohnt, von möglichen Lösungsansätzen der jeweils anderen Disziplin zu lernen. Innerhalb unserer Nachwuchsforschungsgruppe machen wir genau dies, indem wir versuchen, Assessment-Konzepte aus der Medizin (z.B. Harden, 1988) in die Lehramtsausbildung zu übertragen. Dabei werden professionstypische Handlungsanforderungen in einem standardisierten Setting mit Schauspielenden simuliert (wie z.B. Anamnese-Gespräche). Diese Szenarien können bzw. werden sogar als Prüfungsverfahren im Medizinstudium eingesetzt.

Unser Ziel ist es, solche Prüfungsszenarien auch für das Lehramtsstudium (bei uns: im Fach Englisch, im Fach Physik und in den Bildungswissenschaften) zu entwickeln und zu erproben. Dabei arbeiten wir natürlich nicht im „luftleeren“ Raum, sondern orientieren uns an ähnlichen Vorarbeiten (vgl. Dotger et al., 2010), die wir in diesem Blog auch noch näher vorstellen werden. Damit unsere Verfahren als Prüfungsformate auch wirklich implementiert werden können, müssen die Besonderheiten des Lehrer*innenberufs berücksichtigt und die Szenarien erprobt und hinreichend validiert werden. Folgend werden sie dann (hoffentlich) auch von Studierenden und Lehrenden akzeptiert werden können. Wir sind aber optimistisch und werden hier immer wieder von unserer Forschungsarbeit berichten.

Literatur

  • Anders, F. (2020). Anreize für Lehrkräfte in unbeliebten Regionen. Das Deutsche Schulportal, 29. Januar 2020. (Online)
  • Dotger, B. H., Dotger, S. C., & Maher, M. J. (2010). From medicine to teaching: The evolution of the simulated interaction model. Innovative Higher Education35(3), 129-141. (Online)
  • Harden, R. M. (1988). What is an OSCE?. Medical teacher10(1), 19-22. (Online)
  • Kaduszkiewicz, H., Teichert, U., & van den Bussche, H. (2018). Ärztemangel in der hausärztlichen Versorgung auf dem Lande und im Öffentlichen Gesundheitsdienst. Bundesgesundheitsblatt-Gesundheitsforschung-Gesundheitsschutz, 61(2), 187-194. (Online)
  • Prenzel, M. (2019). Die Lehrerbildung in Deutschland – und was die Qualitätsoffensive zu ihrer Weiterentwicklung beitragen kann. Vortrag am Bayerischen Staatsinstitut für Hochschulforschung und Hochschulplanung München, 8. Juli 2019. (Online)
  • Prenzel, M. (2017). „Nehmen wir die Medizin als Ansporn!“. jmwiarda.de ,04. November 2017. (Online)
  • Steinhäuser, J., Joos, S., Szecsenyi, J., & Götz, K. (2013). Welche Faktoren fördern die Vorstellung sich im ländlichen Raum niederzulassen. Zeitschrift für Allgemeinmedizin, 89(1), 10-15. (Online)

Moin! – PERFORM-LA zu Gast im digitalen Hamburg

Am 15. und 16.11.2021 haben wir am ersten Statusseminar der BMBF-Nachwuchsforschungsgruppen (NWG) in der empirischen Bildungsforschung teilgenommen.

Wir freuen uns, dass uns als Teil dieser Förderlinie unter der Leitung von Dr. Florian Hertel (NWG ACCESS), Dr. Irina Usanova und Dr. Birger Schoor (NWG MARE), ein Raum für das Kennenlernen aller Nachwuchsforschungsgruppen in der virtuellen Universität Hamburg eröffnet wurde.

Nach freundlichen Grußworten seitens des BMBF und der Hamburg Research Academy wurden in dem zweitägigen Programm umfassende inhaltliche Inputs und vielfältige Vernetzungsmöglichkeiten geboten.

Neben kleineren, zufällig zusammengewürfelten „Speed-Datings“ und der Vorstellung aller Gruppen und deren Forschungsschwerpunkte, luden die gemütlich eingerichteten Räume im „Kumospace“ bei virtuellem Kaffee zum Verweilen und Diskutieren ein.

Inhaltliche Anregungen und praktische Übungen gab es auch in den angebotenen Workshops, die passend für die jeweiligen Statusgruppen zur erfolgreichen Gestaltung der Promotionszeit, der Weiterentwicklung der wissenschaftlichen Karriere oder der Leitung der eigenen Arbeitsgruppe durchgeführt wurden.

Einen weiteren Höhepunkt bildeten die beiden Keynotes von Michelle Jackson (University Stanford, Stanford, USA) und Michele Gazzola (Ulster University, Belfast, Northern Ireland), die mit ihren Vorträgen zu Ungleichheiten und Reformen in Hochschulzulassungssystemen und Sprachpolitik und sozioökonomischen Aspekten von Mehrsprachigkeit eine internationale Perspektive auf zentrale Themen der Nachwuchsforschungsgruppen aufzeigten.  

Einen Einblick in diese Themen und eine Übersicht zu allen Nachwuchsforschungsgruppen findet sich hier.

Wir bedanken uns herzlichst für die Einladung und die Organisation des Statusseminars und freuen uns über viele neue Kontakte und ein baldiges Wiedersehen!

Vorträge:

  • Gazzola, M. (2021). Language & Economics. (Keynote). 1. Statusseminar der BMBF-NWGs „Empirische Bildungsforschung“ 2021. Universität Hamburg (online), 15.11.2021.
  • Jackson, M. (2021). Inequality in higher education admissions systems and radical reforms. (Keynote). 1. Statusseminar der BMBF-NWGs „Empirische Bildungsforschung“ 2021. Universität Hamburg (online), 15.11.2021.

Podcast: Wissenschaft und Schule

Aufbereitung empirischer Bildungsforschung für Lehrkräfte

Bildnachweis: © Staatliche Schulberatungsstelle für die Oberpfalz, Benedikt Wisniewski

Wir haben hier im Blog schon interessante Podcasts zur empirischen Bildungsforschung bzw. zu Themen der Lehrerbildungsforschung vorgestellt. Die staatliche Schulberatungsstelle für die Oberpfalz in Bayern hat im Podcast Wissenschaft und Schule Gespräche mit zahlreichen Bildungsforscher*innen geführt. Die ca. halbstündigen Folgen richten sich primär an Lehrkräfte, sind aber prinzipiell für alle interessant, die einen Überblick über Erkenntnisse der Bildungsforschung zu einem bestimmten Themenfeld erhalten möchten.

Im Kontext der Lehrerbildungsforschung diskutiert z.B. Prof. Dr. Frank Lipowsky mit Benedikt Wisniewski in Folge 16 über die professionelle Entwicklung von Lehrkräften. Dabei werden einige Themen gestreift: von Überlegungen zu dem, was Professionalisierung genau bedeutet, über wichtige Dispositionen, über die Lehrkräfte verfügen sollten, hauptsächlich aber zur Rolle von Lehrerfortbildungen.

Der Podcast kann auf der Website der Schulberatungsstelle gestreamt werden.

Literatur

  • Lipowsky, F. (2006). Auf den Lehrer kommt es an. Empirische Evidenzen für Zusammenhänge zwischen Lehrerkompetenzen, Lehrerhandeln und dem Lernen der Schüler. In C. Allemann-Ghionda, & E. Terhart (Hrsg.), Kompetenzen und Kompetenzentwicklung von Lehrerinnen und Lehrern (S. 47-70). Weinheim.: Beltz. (Online)

Täuschen, Schummeln und Betrügen an der Hochschule im Licht der Bildungsforschung – 2/7

„Everybody lies!“

Ausgehend von einem realen Fall von Notenhandel (siehe den ersten Beitrag dieser Reihe) betrachten wir in einer Beitragsreihe hier im Blog das Täuschen bzw. Betrügen im Studium etwas genauer. Zusammengefasst geht es um unterschiedlichste Formen akademischen Fehlverhaltens von Studierenden und Ergebnisse der Bildungsforschung zu diesem Problemfeld.

Bevor wir einen näheren Blick auf das Ausmaß akademischen Fehlverhaltens, für uns insbesondere im Lehramtsstudium, werfen, stellen wir uns aber zunächst die Frage: Wie bekommt man eigentlich heraus, wie verbreitet das Schummeln und Täuschen im Studium ist? Schließlich handelt es sich um ein Verhalten, das auch mit empfindlichen Folgen verbunden sein kann (z.B. Exmatrikulation), weshalb es selten direkt mitgeteilt wird und wenn eher hinter vorgehaltener Hand. Welche verschiedenen Methoden werden daher in er empirischen Bildungs- bzw. Sozialforschung angewandt, um akademisches Fehlverhalten zu erfassen?

Wer nicht fragt, der nicht gewinnt…

Der direkteste Weg wäre es, aufgedeckte Fälle akademischen Fehlverhaltens zu erfassen (vgl. Sattler, 2008), indem z.B. Verfahren in Prüfungsausschüssen oder Prüfungsübersichten ausgewertet werden. Dies funktioniert allerdings zum einen nur für genügend „schwere“ Fälle, also akademisches Fehlverhalten, dass auch tatsächlich in zählbaren Sanktionen resultiert (z.B. bei eindeutigen Plagiaten). „Kleinere“ Fälle finden selten Eingang in solche Verfahren. Zum anderen muss akademisches Fehlverhalten hierfür eben erst einmal bekannt sein bzw. aufgedeckt werden. Es ist aber nur plausibel anzunehmen, dass die meisten Fälle von Täuschungen (z.B. Abschreiben in Klausuren, Übernahme kleiner Textpassagen) selten auffallen. Das ist schließlich ein Faktor, warum es überhaupt vorkommt.

Um das Ausmaß akademischen Fehlverhaltens im Studium genauer abschätzen zu können, wird man daher um eine Befragung von Studierenden kaum herumkommen. Die einfachste Art ist dabei eine Befragung im Direct-Reponse-Verfahren (vgl. Sattler, 2008). Studierende würden hierbei einfach direkt danach gefragt, ob sie z.B. im Verlauf ihres Studiums ein bestimmtes akademisches Fehlverhalten gezeigt haben (z.B. schon mal einen Übungszettel abgeschrieben haben). Dies wäre eine retrospektive Befragung bzgl. des Verhaltens in der Vergangenheit. In einem anderen Ansatz fragt man nach möglichem Verhalten in der Zukunft, also der Bereitschaft von Studierenden evtl. ein bestimmtes Täuschungsverhalten zu zeigen. Beide Befragungsansätze lassen sich dabei sehr differenziert ausformulieren (z.B. „Wie sehr wären sie bereit, innerhalb des nächsten halben Jahres wortwörtliche Übernahmen in einer Hausarbeit nicht zu kennzeichnen, um eine potentiell bessere Note zu erhalten?“) und methodisch unterschiedlich durchführen (z.B. als Fragebogen, als Interview). Ein anderer Ansatz ist es, die Befragten in die Position eines fiktiven Studierenden zu versetzten und ihre Verhaltensbereitschaft an dessen Stelle zu erfragen. Wie bei allen Befragungen hängen die Antworten natürlich auch bei diesem Themengebiet davon ab, wie man genau fragt.

Generell hat das Direct-Response-Verfahren aber den Nachteil, dass Personen bei Befragungen zu heiklen Verhaltensweisen, bei denen alle Beteiligten wissen, dass man gegen eine soziale (und rechtliche) Norm verstößt, dazu neigen, nicht ehrlich zu antworten (z.B. aufgrund sozialer Erwünschtheit, Schutz des eigenen Selbstbildes, um Interviewer*innen zu gefallen etc.) (vgl. Stocké, 2004). Bei einer direkten Befragung erwartet man daher, dass man das Ausmaß akademischen Fehlverhaltens eher unterschätzt. Um das etwas zu umgehen, könnten Studierende auch indirekt befragt werden, in dem Sinne, dass sie angeben sollen, ob sie akademisches Fehlverhalten in ihrem Umfeld bei anderen schon beobachtet haben. Dies würde keine Aussage über die eigene Person erfordern. Allerdings hat man hier das Problem, dass zum einen nicht genau das Verhalten einer oder eines Studierenden erfragt wird (z.B. könnten zwei Personen die gleiche Kommilitonin kennen, die plagiiert). Zum anderen kann man vermuten, das viel akademisches Fehlverhalten auch innerhalb der Studierendenschaft unerkannt bleibt, oder man unbewusst dazu neigt, Mitstudierende zu schützen. Daher ist auch hier eher eine Unterschätzung von akademischem Fehlverhalten erwartbar.

Anonymität durch Zufall?

Um die Wahrscheinlichkeit ehrlicher Antworten zu erhöhen, werden verschiedene Befragungsmethoden vorgeschlagen, die meist versuchen, für die Befragten höhere, individuelle Anonymität herzustellen. Bspw. werden bei der Randomised-Response-Technique Fragen zu einem heiklen Verhalten (hier z.B. Schummeln in Klausuren) mit einer Zufallsmechanik mit bekannten Ergebniswahrscheinlichkeiten verbunden (z.B. einem Münzwurf) (Blair et al., 2015). Die Befragten erhalten dabei die Anweisung, bei einem bestimmten Ausgang der Zufallsmechanik die heikle Frage zu beantworten und bei einem anderen Ausgang den Zufallswurf zu wiederholen und das Ergebnis dieses Wurfs einzutragen. Die Idee dahinter ist, dass dadurch, dass nur die befragte Person den Ausgang der Zufallswürfe kennt, Antworten nicht mehr direkt als Schuldeingeständnis einer Person interpretiert werden können. Aufgrund der bekannten Wahrscheinlichkeitsverteilung kann aber der Anteil der „wahren“ Antworten mittels bedingter Wahrscheinlichkeiten berechnet werden. In empirischen Studien hat sich allerdings bisher eher nicht bestätigt, dass mittels dieses Verfahrens ehrlichere Angaben erzeugt werden und Fehlverhaltensraten erweisen sich oft sogar als niedriger (Coutts et al., 2011; vgl. Sattler, 2008). Als Gründe werden z.B. vermutet, dass durch die Komplexität des Verfahrens sogar weniger Vertrauen in die Anonymität der Befragung erzeugt wird (Höglinger et al., 2016). Krumphal & Voss (2020) argumentieren, dass auch theoretisch bei diesem Befragungsansatz Verzerrungen durch unehrliches Antwortverhalten erwartet werden können.

Bildnachweis: © Springer VS

Als weitere Alternativen zu diesem eher komplexen Verfahren wurden das Crosswise-Modell und das Triangular-Modell (Yu et al., 2008) vorgeschlagen. Die Idee hinter diesen Befragungsansätzen besteht darin, eine heikle Frage (z.B. „Haben Sie schon einmal plagiiert?“) mit einer nicht-heiklen Frage zu kombinieren, die nur zwei Antworten zulässt, deren Wahrscheinlichkeit man aufgrund statistischer Vorkenntnisse als bekannt voraussetzen kann (z.B. „Sind sie im Januar, Februar oder März geboren?“). Beim Crosswise-Modell müssen die Befragten beide Fragen kombiniert beantworten: würden sie beide Fragen gleich beantworten, sollen sie bspw. Antwortoption 1 wählen, beantworten sie beide unterschiedlich, Antwortoption 2. Keine der Fragen soll einzeln beantwortet werden, daher wird angenommen, dass die kombinierte Frage per se nicht mehr heikel ist. Aus der Antwortverteilung kann anschließend wieder eine Schätzung der Verteilung des „wahren“ Werts des heiklen Verhaltens berechnet werden. Das Crosswise-Modell erreicht in empirischen Untersuchungen häufig, aber nicht immer höhere Ausmaße von Fehlverhalten als direkte Befragungen (z.B. Jann et al, 2012). Beim Triangular-Modell werden wie zuvor zwei Fragen (heikel und nicht-heikel) kombiniert. Hier ist die Ausfüllanweisung allerdings anders: Würde eine Person beide Fragen verneinen, dann soll bspw. Antwortoption 1 gewählt werden. Würde sie mindestens eine der beiden Frage bejahen, soll die andere Option gewählt werden. Vom Ansatz her also ähnlich, es unterscheidet sich neben den Antwortanweisungen auch in der Art und Weise, wie der „wahre“ Wert der heiklen Frage geschätzt wird. Vergleichende Untersuchungen deuten daraufhin, dass auch das Triangular-Modell ehrlicheres Antwortverhalten als eine direkte Befragung erzeugen kann, aber nicht unbedingt mehr als das Crosswise-Modell (Jerke & Krumphal, 2013; vgl. Coutts et al., 2011). Auf der anderen Seite ist auch dieses Verfahren komplexer als eine direkte Befragung und setzt nicht-heikle Fragen voraus, deren Antwortverteilung innerhalb der befragten Gruppe bekannt ist und die im Befragungsverlauf nicht stärker irritierten. Bei allen angeführten Verfahren muss zudem die Zahl befragter Personen hinreichend groß sein, um nach dem Gesetz der großen Zahl genügend sichere Schätzungen vornehmen zu können.

Und nun?

Was lässt sich aus dieser Übersicht an Befragungsansätzen nun schließen? Zum einen, dass es schwierig ist, das Ausmaß akademischen Fehlverhaltens im Studium zu erfassen. Zum anderen müssen je nach Befragungsansatz die Ergebnisse von Untersuchungen etwas anders interpretiert werden, was natürlich die Vergleichbarkeit erschwert. Das möchten wir aber im folgenden Beitrag tun, in dem wir von Ergebnissen empirischer Untersuchungen zum akademischen Fehlverhalten von Studierenden berichten. Dabei möchten wir – unserem Forschungsinteresse folgend – den Fokus insbesondere auf Lehramtsstudierende legen. Der Beitrag findet sich hier.

Literatur

  • Blair, G., Imai, K., & Zhou, Y. Y. (2015). Design and analysis of the randomized response technique. Journal of the American Statistical Association, 110(511), 1304-1319.
  • Coutts, E., Jann, B., Krumpal, I., & Näher, A. F. (2011). Plagiarism in student papers: prevalence estimates using special techniques for sensitive questions. Jahrbücher für Nationalökonomie und Statistik, 231(5-6), 749-760.
  • Höglinger, M., Jann, B., & Diekmann, A. (2016). Sensitive Questions in Online Surveys: An Experimental Evaluation of Different Implementations of the Randomized Response Technique and the Crosswise Model. Survey Research Methods, 10(3), 171-187.
  • Jann, B., Jerke, J., & Krumpal, I. (2012). Asking sensitive questions using the crosswise model: an experimental survey measuring plagiarism. Public opinion quarterly, 76(1), 32-49.
  • Jerke, J., & Krumpal, I. (2013). Plagiate in studentischen Arbeiten: eine empirische Untersuchung unter Anwendung des Triangular Modells. Methoden, Daten, Analysen (mda), 7(3), 347-368.
  • Sattler, S. (2008). Plagiate in Hausarbeiten: Erfassung über Direct-Response und Validierung mit Hilfe der Randomized-Response-Technique. In K.-S. Rehberg (Hrsg.), Die Natur der Gesellschaft: Verhandlungen des 33. Kongresses der Deutschen Gesellschaft für Soziologie in Kassel 2006 (S. 5446-5461). Campus Verlag.
  • Stocké, V. (2004). Entstehungsbedingungen von Antwortverzerrungen durch soziale Erwünschtheit. Ein Vergleich der Prognosen der Rational-Choice Theorie und des Modells der Frame-Selektion. Zeitschrift für Soziologie, 33(4), 303-320.
  • Yu, J. W., Tian, G. L., & Tang, M. L. (2008). Two new models for survey sampling with sensitive characteristic: design and analysis. Metrika, 67(3), 251-263.