Täuschen, Schummeln und Betrügen an der Hochschule im Licht der Bildungsforschung – 2/7

„Everybody lies!“

Ausgehend von einem realen Fall von Notenhandel (siehe den ersten Beitrag dieser Reihe) betrachten wir in einer Beitragsreihe hier im Blog das Täuschen bzw. Betrügen im Studium etwas genauer. Zusammengefasst geht es um unterschiedlichste Formen akademischen Fehlverhaltens von Studierenden und Ergebnisse der Bildungsforschung zu diesem Problemfeld.

Bevor wir einen näheren Blick auf das Ausmaß akademischen Fehlverhaltens, für uns insbesondere im Lehramtsstudium, werfen, stellen wir uns aber zunächst die Frage: Wie bekommt man eigentlich heraus, wie verbreitet das Schummeln und Täuschen im Studium ist? Schließlich handelt es sich um ein Verhalten, das auch mit empfindlichen Folgen verbunden sein kann (z.B. Exmatrikulation), weshalb es selten direkt mitgeteilt wird und wenn eher hinter vorgehaltener Hand. Welche verschiedenen Methoden werden daher in er empirischen Bildungs- bzw. Sozialforschung angewandt, um akademisches Fehlverhalten zu erfassen?

Wer nicht fragt, der nicht gewinnt…

Der direkteste Weg wäre es, aufgedeckte Fälle akademischen Fehlverhaltens zu erfassen (vgl. Sattler, 2008), indem z.B. Verfahren in Prüfungsausschüssen oder Prüfungsübersichten ausgewertet werden. Dies funktioniert allerdings zum einen nur für genügend „schwere“ Fälle, also akademisches Fehlverhalten, dass auch tatsächlich in zählbaren Sanktionen resultiert (z.B. bei eindeutigen Plagiaten). „Kleinere“ Fälle finden selten Eingang in solche Verfahren. Zum anderen muss akademisches Fehlverhalten hierfür eben erst einmal bekannt sein bzw. aufgedeckt werden. Es ist aber nur plausibel anzunehmen, dass die meisten Fälle von Täuschungen (z.B. Abschreiben in Klausuren, Übernahme kleiner Textpassagen) selten auffallen. Das ist schließlich ein Faktor, warum es überhaupt vorkommt.

Um das Ausmaß akademischen Fehlverhaltens im Studium genauer abschätzen zu können, wird man daher um eine Befragung von Studierenden kaum herumkommen. Die einfachste Art ist dabei eine Befragung im Direct-Reponse-Verfahren (vgl. Sattler, 2008). Studierende würden hierbei einfach direkt danach gefragt, ob sie z.B. im Verlauf ihres Studiums ein bestimmtes akademisches Fehlverhalten gezeigt haben (z.B. schon mal einen Übungszettel abgeschrieben haben). Dies wäre eine retrospektive Befragung bzgl. des Verhaltens in der Vergangenheit. In einem anderen Ansatz fragt man nach möglichem Verhalten in der Zukunft, also der Bereitschaft von Studierenden evtl. ein bestimmtes Täuschungsverhalten zu zeigen. Beide Befragungsansätze lassen sich dabei sehr differenziert ausformulieren (z.B. „Wie sehr wären sie bereit, innerhalb des nächsten halben Jahres wortwörtliche Übernahmen in einer Hausarbeit nicht zu kennzeichnen, um eine potentiell bessere Note zu erhalten?“) und methodisch unterschiedlich durchführen (z.B. als Fragebogen, als Interview). Ein anderer Ansatz ist es, die Befragten in die Position eines fiktiven Studierenden zu versetzten und ihre Verhaltensbereitschaft an dessen Stelle zu erfragen. Wie bei allen Befragungen hängen die Antworten natürlich auch bei diesem Themengebiet davon ab, wie man genau fragt.

Generell hat das Direct-Response-Verfahren aber den Nachteil, dass Personen bei Befragungen zu heiklen Verhaltensweisen, bei denen alle Beteiligten wissen, dass man gegen eine soziale (und rechtliche) Norm verstößt, dazu neigen, nicht ehrlich zu antworten (z.B. aufgrund sozialer Erwünschtheit, Schutz des eigenen Selbstbildes, um Interviewer*innen zu gefallen etc.) (vgl. Stocké, 2004). Bei einer direkten Befragung erwartet man daher, dass man das Ausmaß akademischen Fehlverhaltens eher unterschätzt. Um das etwas zu umgehen, könnten Studierende auch indirekt befragt werden, in dem Sinne, dass sie angeben sollen, ob sie akademisches Fehlverhalten in ihrem Umfeld bei anderen schon beobachtet haben. Dies würde keine Aussage über die eigene Person erfordern. Allerdings hat man hier das Problem, dass zum einen nicht genau das Verhalten einer oder eines Studierenden erfragt wird (z.B. könnten zwei Personen die gleiche Kommilitonin kennen, die plagiiert). Zum anderen kann man vermuten, das viel akademisches Fehlverhalten auch innerhalb der Studierendenschaft unerkannt bleibt, oder man unbewusst dazu neigt, Mitstudierende zu schützen. Daher ist auch hier eher eine Unterschätzung von akademischem Fehlverhalten erwartbar.

Anonymität durch Zufall?

Um die Wahrscheinlichkeit ehrlicher Antworten zu erhöhen, werden verschiedene Befragungsmethoden vorgeschlagen, die meist versuchen, für die Befragten höhere, individuelle Anonymität herzustellen. Bspw. werden bei der Randomised-Response-Technique Fragen zu einem heiklen Verhalten (hier z.B. Schummeln in Klausuren) mit einer Zufallsmechanik mit bekannten Ergebniswahrscheinlichkeiten verbunden (z.B. einem Münzwurf) (Blair et al., 2015). Die Befragten erhalten dabei die Anweisung, bei einem bestimmten Ausgang der Zufallsmechanik die heikle Frage zu beantworten und bei einem anderen Ausgang den Zufallswurf zu wiederholen und das Ergebnis dieses Wurfs einzutragen. Die Idee dahinter ist, dass dadurch, dass nur die befragte Person den Ausgang der Zufallswürfe kennt, Antworten nicht mehr direkt als Schuldeingeständnis einer Person interpretiert werden können. Aufgrund der bekannten Wahrscheinlichkeitsverteilung kann aber der Anteil der „wahren“ Antworten mittels bedingter Wahrscheinlichkeiten berechnet werden. In empirischen Studien hat sich allerdings bisher eher nicht bestätigt, dass mittels dieses Verfahrens ehrlichere Angaben erzeugt werden und Fehlverhaltensraten erweisen sich oft sogar als niedriger (Coutts et al., 2011; vgl. Sattler, 2008). Als Gründe werden z.B. vermutet, dass durch die Komplexität des Verfahrens sogar weniger Vertrauen in die Anonymität der Befragung erzeugt wird (Höglinger et al., 2016). Krumphal & Voss (2020) argumentieren, dass auch theoretisch bei diesem Befragungsansatz Verzerrungen durch unehrliches Antwortverhalten erwartet werden können.

Bildnachweis: © Springer VS

Als weitere Alternativen zu diesem eher komplexen Verfahren wurden das Crosswise-Modell und das Triangular-Modell (Yu et al., 2008) vorgeschlagen. Die Idee hinter diesen Befragungsansätzen besteht darin, eine heikle Frage (z.B. „Haben Sie schon einmal plagiiert?“) mit einer nicht-heiklen Frage zu kombinieren, die nur zwei Antworten zulässt, deren Wahrscheinlichkeit man aufgrund statistischer Vorkenntnisse als bekannt voraussetzen kann (z.B. „Sind sie im Januar, Februar oder März geboren?“). Beim Crosswise-Modell müssen die Befragten beide Fragen kombiniert beantworten: würden sie beide Fragen gleich beantworten, sollen sie bspw. Antwortoption 1 wählen, beantworten sie beide unterschiedlich, Antwortoption 2. Keine der Fragen soll einzeln beantwortet werden, daher wird angenommen, dass die kombinierte Frage per se nicht mehr heikel ist. Aus der Antwortverteilung kann anschließend wieder eine Schätzung der Verteilung des „wahren“ Werts des heiklen Verhaltens berechnet werden. Das Crosswise-Modell erreicht in empirischen Untersuchungen häufig, aber nicht immer höhere Ausmaße von Fehlverhalten als direkte Befragungen (z.B. Jann et al, 2012). Beim Triangular-Modell werden wie zuvor zwei Fragen (heikel und nicht-heikel) kombiniert. Hier ist die Ausfüllanweisung allerdings anders: Würde eine Person beide Fragen verneinen, dann soll bspw. Antwortoption 1 gewählt werden. Würde sie mindestens eine der beiden Frage bejahen, soll die andere Option gewählt werden. Vom Ansatz her also ähnlich, es unterscheidet sich neben den Antwortanweisungen auch in der Art und Weise, wie der „wahre“ Wert der heiklen Frage geschätzt wird. Vergleichende Untersuchungen deuten daraufhin, dass auch das Triangular-Modell ehrlicheres Antwortverhalten als eine direkte Befragung erzeugen kann, aber nicht unbedingt mehr als das Crosswise-Modell (Jerke & Krumphal, 2013; vgl. Coutts et al., 2011). Auf der anderen Seite ist auch dieses Verfahren komplexer als eine direkte Befragung und setzt nicht-heikle Fragen voraus, deren Antwortverteilung innerhalb der befragten Gruppe bekannt ist und die im Befragungsverlauf nicht stärker irritierten. Bei allen angeführten Verfahren muss zudem die Zahl befragter Personen hinreichend groß sein, um nach dem Gesetz der großen Zahl genügend sichere Schätzungen vornehmen zu können.

Und nun?

Was lässt sich aus dieser Übersicht an Befragungsansätzen nun schließen? Zum einen, dass es schwierig ist, das Ausmaß akademischen Fehlverhaltens im Studium zu erfassen. Zum anderen müssen je nach Befragungsansatz die Ergebnisse von Untersuchungen etwas anders interpretiert werden, was natürlich die Vergleichbarkeit erschwert. Das möchten wir aber im folgenden Beitrag tun, in dem wir von Ergebnissen empirischer Untersuchungen zum akademischen Fehlverhalten von Studierenden berichten. Dabei möchten wir – unserem Forschungsinteresse folgend – den Fokus insbesondere auf Lehramtsstudierende legen. Der Beitrag findet sich hier.

Literatur

  • Blair, G., Imai, K., & Zhou, Y. Y. (2015). Design and analysis of the randomized response technique. Journal of the American Statistical Association, 110(511), 1304-1319.
  • Coutts, E., Jann, B., Krumpal, I., & Näher, A. F. (2011). Plagiarism in student papers: prevalence estimates using special techniques for sensitive questions. Jahrbücher für Nationalökonomie und Statistik, 231(5-6), 749-760.
  • Höglinger, M., Jann, B., & Diekmann, A. (2016). Sensitive Questions in Online Surveys: An Experimental Evaluation of Different Implementations of the Randomized Response Technique and the Crosswise Model. Survey Research Methods, 10(3), 171-187.
  • Jann, B., Jerke, J., & Krumpal, I. (2012). Asking sensitive questions using the crosswise model: an experimental survey measuring plagiarism. Public opinion quarterly, 76(1), 32-49.
  • Jerke, J., & Krumpal, I. (2013). Plagiate in studentischen Arbeiten: eine empirische Untersuchung unter Anwendung des Triangular Modells. Methoden, Daten, Analysen (mda), 7(3), 347-368.
  • Sattler, S. (2008). Plagiate in Hausarbeiten: Erfassung über Direct-Response und Validierung mit Hilfe der Randomized-Response-Technique. In K.-S. Rehberg (Hrsg.), Die Natur der Gesellschaft: Verhandlungen des 33. Kongresses der Deutschen Gesellschaft für Soziologie in Kassel 2006 (S. 5446-5461). Campus Verlag.
  • Stocké, V. (2004). Entstehungsbedingungen von Antwortverzerrungen durch soziale Erwünschtheit. Ein Vergleich der Prognosen der Rational-Choice Theorie und des Modells der Frame-Selektion. Zeitschrift für Soziologie, 33(4), 303-320.
  • Yu, J. W., Tian, G. L., & Tang, M. L. (2008). Two new models for survey sampling with sensitive characteristic: design and analysis. Metrika, 67(3), 251-263.