biotext: Die Effekte von ChatGPT & Co. in Studium und Forschung (und weshalb Akademiker ihre Texte besser selbst schreiben)
Wenn ich in ein Fitnessstudio gehe und einen Motor an mein Trimmrad klemme, bescheiße ich mich selbst. Das würde niemand tun. Dasselbe ist es aber, wenn ich als Student, Doktorand oder auch Professor einen Text für ein Paper, eine Abschlussarbeit oder einen Forschungsantrag mit ChatGPT generiere: Ich lerne dabei selbst nicht besser zu schreiben.
Nun ist aber das Schreiben die wichtigste Tätigkeit und Fähigkeit für uns Forscher. Und so wie ein Töpfer Ton in die Hand nehmen und formen muss, um etwas zu schaffen und seine Fähigkeiten zu verbessern, so muss man als Forscher auf jeder Ebene, vom Studenten bis zum Professor, schreiben: um seine Gedanken zu sortieren, seine eigenen Thesen zu reflektieren, seine Annahmen zu überprüfen, seine Ideen weiterzuentwickeln oder auch zu verwerfen.
Und natürlich schreiben wir nicht nur für uns selbst, sondern auch, um anderen unsere Gedanken und Ergebnisse mitzuteilen. So funktioniert wissenschaftlicher Fortschritt: Die globale akademische Community eines Faches tauscht sich aus und kollaboriert im Wesentlichen über die — niedergeschriebenen — Ergebnisse in Form von Veröffentlichungen. Unser wachsendes Wissen wird so archiviert und für das Wiederfinden indiziert.
Hinzu kommt noch, dass gerade die aktuellen generativen Schreibwerkzeuge ihre Sprachmodelle im Wesentlichen aus dem gelernt haben, was man im Internet findet. Und das ist zu einem großen Teil Marketing-Gelaber. Deshalb klingt ein mit ChatGPT generierter Text auch oft so schmierig.
Aber selbst, wenn dies nicht der Fall ist und der Ton besser getroffen wird: Wenn mir ein Doktorand einen ersten Entwurf, eine erste Storyline für ein Paper oder einen Antrag schickt, dann ist das für mich wie eine Momentaufnahme seines Denkprozesses zum Thema. Ich lese darin, wo die Argumentation bereits absolut schlüssig und wo sie noch nicht ganz wasserdicht ist, und welche Themen dem Schreiber so wichtig sind, dass er in seiner Wortwahl vom Forscher zum Aktivisten wird. Ich kann daran ablesen, wie gut ein geplantes Projekt bereits durchdacht wurde.
Wenn der Text allerdings KI-generiert ist und der Doktorand anschließend nur noch etwas daran herumschraubt, dann fehlt diese authentische Verbindung zu seiner Gedankenwelt. Es ist, als würde ich Goethes Faust nehmen und so umformulieren, dass es darin um meinen letzten Urlaub geht: stilistisch vermutlich immer noch ein großartiges Werk — aber dieser Stil spiegelt Goethes Gedanken und seine Weltsicht wider, nicht meine eigene.
Ich habe seit jeher großen Wert darauf gelegt, dass meine Texte und die Texte meiner Gruppe so klar und unverbrämt wie möglich sind. Der „Strunk & White“, das berühmte kleine Büchlein zum prägnanten Formulieren im Englischen, gehört bei uns fast schon zur Pflichtlektüre, weil es Tipps enthält wie „Omit Needless Words“.
Denn eigentlich ist Text auch ein User-Interface: Er ist die Schnittstelle zwischen dem, was ich vermitteln will, und meinem Leser. Und der grundsätzliche Respekt vor meinem Leser und meine Empathie mit ihm als Menschen gebieten mir, mich so kurz, klar und authentisch wie möglich auszudrücken. Alles andere würde seine Zeit und Aufmerksamkeit verschwenden. Woher nähme ich dieses Recht? Guter Text ist gute Usability für die dahintersteckende Botschaft.
Aus diesem Grund sind meine Doktoranden auch stets angehalten, ihre Texte vor der Weitergabe zu „debuggen“, also Tippfehler und falsche Grammatik zu korrigieren. Hierfür verwenden wir bei englischen Texten das Tool „Grammarly“, das Doktoranden mit einer Mitgliedschaft im Informatikverband ACM SIGCHI für 29 € im Jahr gratis in der Premiumversion verwenden können. (Dieser Beitrag wird bei jedem Konferenzbesuch durch den Rabatt für Mitglieder wieder eingespart.) Wen es interessiert: https://hci.ac/grammarly.
Man muss an dieser Stelle zwischen generativen Werkzeugen und denen zur bloßen Rechtschreib- und Stilkorrektur unterscheiden: Die Korrektur eines Textes mit einem Werkzeug wie Grammarly — soweit man es auf Rechtschreib- und Stilkorrektur begrenzt und es nicht ganze Sätze generieren lässt — ist äußerst lehrreich. Nach dem Schreiben eines eigenen Texts geht man mit dem Tool durch den Text, sieht sich jeden Änderungsvorschlag kurz an und akzeptiert ihn — oder lehnt ihn ab, wenn Grammarly einen Fehler macht, was gelegentlich auch vorkommt. Dabei lernt man etwas über Zeichensetzung und Wortwahl, und das nächste Mal macht man diese Fehler vielleicht schon nicht mehr und verbessert so seine Schreibfertigkeit.
Früher war ich oft selbst derjenige, der am Ende einer Paper-Einreichung diese Grammatik-Korrekturen im Text meiner Doktoranden vornehmen musste. Dann gab es eine Zeit, in der man für etwas Geld zum Beispiel arme Harvard-Literaturstudenten online mit dem Korrekturlesen beauftragen konnte. Ich bin froh, dass das inzwischen ein Werkzeug wie Grammarly, das sich jeder Wissenschaftler leisten kann, so verlässlich übernehmen kann. Ich vertrete die klare Auffassung, dass zum Beispiel ein eingereichtes Paper heute auf dieser Ebene fehlerfrei zu sein hat — schon allein aus Respekt vor der Zeit, die meine internationalen Kollegen als freiwillige Reviewer in das Lesen unserer Einreichung investieren, aber auch, weil ein schlampig geschriebener Text ein schlechtes Licht auf die übrigen Fähigkeiten der Autoren wirft.
Wenn ich jedoch als Autor statt dieser Unterstützung den originären Text gleich von einer KI generieren lasse, dann fehlt mir nicht nur der Lernerfolg — ich verbessere meine Schreibfähigkeiten nicht —, sondern der Text hat auch nichts mehr mit mir und meinen eigenen Forschungsgedanken zu tun.
Dies ist auch einer der Gründe, weshalb so viele Menschen ein Störgefühl entwickeln, wenn man ihnen KI-generierte Texte unterschiebt, die vorgeben, vom Verfasser selbst geschrieben worden zu sein: Wenn der Schreiber die Zeit nicht aufbringen mochte, um seine eigenen Gedanken selbst auf den Punkt zu bringen, wie kann er dann erwarten, dass ich gerne die Zeit aufbringe, den von einer KI generierten und anschließend bestenfalls kurz durchkorrigierten Text aufmerksam zu lesen? KI-generierte Texte beleidigen den Leser. (Dass sie als statistische Verfahren auch gerne mal Fakten erfinden, ist noch ein ganz anderes Thema.)
Ich habe als Alternative dazu vor einigen Jahren mit dem „Storyline“-Ansatz ein Format und einen Prozess entwickelt, mit dem ich meine Doktoranden aktiv darin schule, ihre Gedanken so knapp und klar wie möglich zu formulieren — zum Beispiel, wenn wir beginnen, ein Paper zu einem Forschungsergebnis zu schreiben. Dieser Ansatz zwingt den Autor, sich über den roten Faden in seiner Argumentation, sozusagen dem Rückgrat eines ganzen Papers, absolut klar zu werden. Eine Anleitung dazu — selbst kurz und klar als Storyline formuliert — findet sich auf https://hci.ac/storyline. Der Ansatz basiert auf der Erfahrung aus vielen Jahren als Autor und Reviewer, dass Autoren oft den Wald vor lauter Bäumen nicht sehen und eigentlich essenzielle Teile ihrer Argumentation vergessen, weshalb eine Forschungsfrage wichtig und neu, die gewählte Methodik die richtige oder die gefundenen Ergebnisse korrekt und relevant sind. Zahllose Paper wurden deshalb bereits abgelehnt.
Experimentieren wir also mit generativer KI, ob Text, Bild, Musik oder Video! Aber vergessen wir nicht, auf dem Trimmrad weiter selbst zu treten, wenn uns unsere Muskeln lieb sind — und behandeln wir unsere Mitmenschen in der Kommunikation mit Respekt und verschwenden nicht ihre Zeit mit generierten Inhalten von fragwürdiger Aussagekraft und Authentizität. Vielleicht sollte man dazu ein Gütesiegel erfinden:
„biotext — written 100% by a real person“. So wie dieser Text.
— Jan Borchers