
KI verändert die akademische Landschaft hinsichtlich Forschung, Lehre, Textproduktion oder der Einübung des akademischen Diskurses. Für Beratungsangebote werden KI-Tools veröffentlicht. Insbesondere Chatbots werden für psychosoziale Kompetenzentwicklung genutzt. Ohne das Kind mit dem Bade auszuschütten, gilt: KI kann zentrale Bausteine in Mentoring-Programmen nicht ersetzen.
Begriffsabgrenzung
Die Ausgestaltung von Mentoring-Programmen ist abhängig von der Zielgruppe und dem gewählten Schwerpunkt. Angebote im Bereich Mentoring beinhalten in der Wissenschaft allerdings immer – in einem zeitlich begrenzten Rahmenprogramm – die qualifizierungsfördernden Elemente Mentoring, Training und Networking (Kamm und Wolf, 2017, S. 59). Es gibt zunehmend Angebote für Chatbot-basiertes Mentoring. Doch bei bisher entwickelten KI-Tools stellt sich Mentoring oft als ein Containerbegriff dar, in dem verschiedene Beratungs- oder Unterstützungsangebote versammelt werden: Die Begriffe Mentoring, Beratung und Coaching werden zusammengenommen oder gar nicht erst definiert (so zum Beispiel bei Köbis und Mehner, 2021, S. 2). Zuweilen wird z. B. auch von Mentoring gesprochen, wenn ein Bot zur Lernunterstützung als Tutoring entwickelt wird (Neumann et al., 2021; Moser et al., 2022; Neumann and Klamma, 2022). Daraus kann abgeleitet werden, dass es in diesen Kontexten keine intensive Auseinandersetzung mit den Dimensionen von Mentoring sowie Abgrenzungen zu anderen Angeboten gab – und infolgedessen das Training einer KI vermutlich entsprechend unzufriedenstellend ist. Sie entsprechen nicht den gängigen universitären Mentoring-Prinzipien im deutschsprachigen Raum und haben als Fallbeispiele für KI in Mentoring-Programmen daher kaum Relevanz.
Ethische Grenzen
Die Nutzung von KI – auch im Kontext Mentoring – bedeutet zunächst eine Auseinandersetzung mit ethischen Fragen. Köbis und Mehner formulieren grundlegende Fragen dazu wie folgt:
„Mentoring is widely accepted as a very beneficial, personal, and individual support, in which mentees take advantage of expertise and experience to expand their knowledge and to achieve individual goals. However, the emerging use of AI in mentoring processes in higher education not only necessitates the adherence to applicable laws and regulations (e.g., relating to data protection and non-discrimination) but also further requires a thorough understanding of ethical norms, guidelines, and unresolved issues (e.g., integrity of data, safety and security of systems, as well as confidentiality, avoiding bias, insuring trust, and transparency of algorithms).“ (Köbis und Mehner, 2021, S. 1)
Nach einer Prüfung verschiedener ethischer Standards für KI und Mentoring kommen Köbis und Mehner zu dem Schluss, dass überlappende Standards gelten, zum Beispiel hinsichtlich der Datennutzung. So benötigt die Speicherung von Daten von Mentees und Mentor*innen für das Training und die Anwendung von KI eine ethische Rahmung (vgl. Köbis und Mehner, 2021, S. 7). Doch auch, wer eben schnell ChatGPT mit vertraulichen Daten über sich selbst oder die Mentor*in füttert, hält sich nicht an das Prinzip der Vertraulichkeit. Die Nutzung von KI in Mentoring-Angeboten fordert einen sensiblen Umgang zwischen Programmverantwortlichen und Teilnehmenden, aber auch unter den Teilnehmenden ein.
Beziehungsgrenzen
Hinsichtlich der Entwicklungen generativer AI für die Entwicklung psychosozialer Kompetenzen drängt sich im Kontext Mentoring die Frage auf, inwieweit Peers und/oder Mentor*innen durch Chatbots ersetzt werden können. Zunehmend gibt es Angebote für Chatbot-basiertes Mentoring; im Allgemeinen ist die Nutzung jedoch noch gering (Neumann und Klamma, 2022, S. 104). Zudem wird durchaus spekuliert, inwieweit zwischenmenschliche Herausforderungen im Vertrauensverhältnis Mentee-Mentor*in vermieden werden können, wenn etwa KI Mentor*innen ersetzt (Köbis und Mehner, 2021, S. 2 nach Weil, 2001; Moberg und Velazquez, 2004). Doch Mentoring funktioniert dank des zwischenmenschlichen Kontakts. Die psychosoziale Unterstützung und Beratung, die seitens der Programmverantwortlichen geleistet wird, oder das Netzwerk, das sich zwischen Peers, Mentees und Mentor*innen entwickelt, kann ein Chatbot niemals ersetzen.
Wissensgrenzen
Chatbots, die eine Mentoring-Beziehung nachbilden sollen, hinken immer einen Schritt hinter dem (universitären) Alltag her. Denn ein Chatbot ist auf der technischen Seite durch die Programmierung, die nutzbaren Datensätze und die KI-Kompetenz der Nutzer*innen beschränkt (Buck, 2025, p. 13).[1] Mentoring-Programme schaffen durch zwischenmenschlichen Austausch Zugang zu informellem, d. h. nicht verschriftlichtem Wissen über wissenschaftliche Verhaltensregeln, Kernkompetenzen oder fachkulturelle Spezifika. Dieses Wissen kann ad definitionem Chatbots nicht zur Verfügung stehen, denn es ist in keinem Datensatz abgebildet.
Überdies zeigt die bisherige Nutzung von Chatbots, dass die Ergebnisse in hohem Maße davon abhängig sind, wie gut Prompting, also die Eingabe von Text oder Fragen, beherrscht wird. Der Wissensstand von Mentees bestimmt also die Qualität der Antwort, während im zwischenmenschlichen Austausch mögliche Wissenslücken bei Antworten antizipiert werden können. Zudem kann ein Chatbot nicht erklären, wie er zu einer Antwort kommt, während in Mentoring-Programmen Antworten von Peers, Mentor*innen, Koordinator*innen oder Trainer*innen durch gezieltes Nachfragen reflektiert werden können.
Finanzielle Grenzen
KI kann zur Erleichterung der Arbeitsorganisation im Wissenschaftsmanagement genutzt werden. Eine explorative Studie hat etwa für ein Mentoring-Programm an der Universität Berlin Einsparungen zeitlicher und personeller Ressourcen dank eines automatisierten Matching-Tools erkannt (Köbis, Ruhland und Piontkowitz, 2022). Jedoch hängen der Ablauf des Matching-Prozesses und die damit verbundenen zeitlichen und personellen Ressourcen in hohem Maße von der Programmgestaltung ab. Zudem geht aus dem Artikel nicht hervor, inwieweit die Kosten auf der Anwendungsseite die Einsparungen in Balance bringen (z. B. Hardware- und Infrastrukturkosten, Wartungsarbeiten). Zu implementieren ist für die zielführende und reflektierte Nutzung einer KI auch ein fortwährendes KI-Training von Mentees und Mentor*innen durch die Programmkoordination.
Zusammenfassung
Der konstruktive Nutzen von KI in Mentoring-Programmen hängt davon ab, wie kompetent Benutzer*innen das Tool anwenden (können), welche ethischen und qualitativen Standards für das jeweilige KI-Tool entwickelt wurden und wie der finanzielle Rahmen gegeben ist. Wer glaubt, KI könnte die intensive zwischenmenschliche Zusammenarbeit im Mentoring-Netzwerk auf der Seite der Teilnehmer*innen oder der Programmkoordination ersetzen, irrt. KI fehlt es an Qualität für zentrale Mentoring-Bausteine. Menschen leisten im Mentoring die Weitergabe von informellem Wissen, die Umsetzung von Trainings, den psychosozialen Austausch und den Aufbau wertvoller, interdisziplinärer und generationenübergreifender Netzwerkstrukturen.
Danksagung
Für den bereichernden Austausch zum Thema KI im Rahmen der Erstellung dieses Beitrags danke ich Anja Westermann, Julia Steinhausen, Stefanie Leinfellner und der Pop-up-AG KI und Mentoring (Forum Mentoring e. V.).
Quellen:
Buck, I. (2025) Wissenschaftliches Schreiben mit KI. 1st edn. Stuttgart, Deutschland: utb GmbH. Available at: https://doi.org/10.36198/9783838563657.
Fleck, R., Brocke, P.S. and Brüschke, G. (2017) ‘Modul Mentoring: Die One-to-one Mentoring-Beziehung’, in R. Petersen et al. (eds) Praxishandbuch Mentoring in der Wissenschaft. Wiesbaden: Springer Fachmedien Wiesbaden, pp. 73–89. Available at: https://doi.org/10.1007/978-3-658-14268-1.
Forum Mentoring e.V. 2014. Mentoring mit Qualität – Qualitätsstandards für Mentoring in der Wissenschaft. Würzburg. 5. Auflage.
Haasen, Nele. 2001. Mentoring: persönliche Karriereförderung als Erfolgskonzept. München: Wilhelm Heyne.
Kamm, R. and Wolf, H. (2017) ‘Mentoring-Programme und Mentoring-Systeme: Was ist Was?’, in R. Petersen et al. (eds) Praxishandbuch Mentoring in der Wissenschaft. Wiesbaden: Springer Fachmedien Wiesbaden, pp. 57–70. Available at: https://doi.org/10.1007/978-3-658-14268-1_6.
Köbis, L. and Mehner, C. (2021) ‘Ethical Questions Raised by AI-Supported Mentoring in Higher Education’, Frontiers in Artificial Intelligence, 4, p. 624050. Available at: https://doi.org/10.3389/frai.2021.624050.
Köbis, L., Ruhland, C. and Piontkowitz, V. (2022) ‘Chancen und Herausforderungen beim Einsatz von Matching-Tools im Hochschulbereich’.
Moser, E. et al. (2022) ‘G.3 Designing Digital Self-Assessment and Feedback Tools as Mentoring Interventions in Higher Education’.
Neumann, A.T. et al. (2021) ‘Chatbots as a Tool to Scale Mentoring Processes: Individually Supporting Self-Study in Higher Education’, Frontiers in Artificial Intelligence, 4, p. 668220. Available at: https://doi.org/10.3389/frai.2021.668220.
Neumann, A.T. and Klamma, R. (2022) ‘B.6 Kollaborative Erstellung von intelligenten Mentoring-Bots als skalierbare Werkzeuge zur individuellen Unterstützung in der Hochschulbildung’.
de Witt, C., Rampelt, F. and Pinkwart, N. (2020) ‘Whitepaper “Künstliche Intelligenz in der Hochschulbildung”’. Available at: https://doi.org/10.5281/ZENODO.4063722.
[1] KI nutzt Datensätze zur Automatisierung von Prozessen. Wie diese Automatisierung stattfindet, ist abhängig von den genutzten Datensätzen und den vorgegebenen Algorithmen. Denn die Programmierung von Algorithmen bestimmt, welche Informationen aus Datensätzen hinsichtlich einer vorgegebenen Zielsetzung zum Ergebnis führen. Die Programmierung von KIs ist Grundlage der wesentlichen Kritik an der Technologie: Algorithmen werden von Menschen programmiert und spiegeln deren Wissensstand und Weltbild wider. Dadurch kommt es nachweislich zu reproduzierten Stereotypen und Diskriminierungen. Zudem erfindet KI Informationen, sogenannte Halluzinationen, und schafft es z.B. nicht, fehlende Datensätze als ‚Wissenslücken‘ ersichtlich zu machen. Dahingehend zeichnet sich KI-Kompetenz dadurch aus, dass das Fehlerpotential z. B. von Chatbots in der Nutzung mitgedacht wird und entsprechend sensibel mit den Ergebnissen generativer KI umgegangen wird (Buck, 2025, p. 13).