In Sekunden eine Antwort auf fast jede Frage erhalten und das ohne Browser oder Klicken durch Websites: ChatGPT macht es möglich und sorgt damit seit November 2022 für Furore. Das mächtige Tool kann ganze Texte verfassen, Marketingpläne schreiben oder programmieren. Vor kurzem war der Chatbot verstärkt in den Medien, da Schüler:innen das Tool nutzen, um ihre Hausaufgaben machen zu lassen. Dadurch werden Lehrende vor die Frage gestellt, warum eine künstliche Intelligenz die gestellten Aufgaben lösen kann. Eine Million Nutzer:innen nach einer Woche und der geschätzte Wert von 29 Milliarden für OpenAI, das Unternehmen hinter ChatGPT, zeigen das Potenzial von Chatbots.
Die Rechtswissenschaftlerin Elisabeth Hödl beschäftigt sich schon lange mit der eigenständigen Textproduktion mittels Computertechnologie. Aus theoretischer Sicht beginnt alles mit dem von Joseph Weizenbaum 1966 entwickelten Computerprogramm ELIZA, das die Kommunikation zwischen Menschen und Computern demonstriert. Könnte ein solches Programm den Turing Test bestehen, bei dem Menschen herausfinden müssen, ob sie mit einem Menschen oder einem Computer sprechen? Praktisch wird computerbasierte Textproduktion laut Hödl bereits in AI-Driven-Journalism – auch Roboterjournalismus – genutzt, zum Beispiel bei der Sportberichterstattung. Jedoch wirft diese Verwendung weitere Fragen auf, wie Hödl betont: „Wer ist der Urheber eines Textes? Wer trainiert die Programme mit welchen Daten? Wie soll in Redaktionen mit den neuen Technologien umgegangen werden? Schließlich hat Journalismus die Aufgabe vierte Gewalt im Staat zu sein und damit verbunden sind ethische Regeln des Journalismus. Vielleicht benötigen wir zunehmend auch einen negativen Turing-Test, indem wir beweisen können, dass wir keine Maschine sind.“
Der Ethiker Thomas Gremsl weist auf die Schwächen der Technologie hin: „Obwohl die Produkte von ChatGPT auf den ersten Blick sehr überzeugend wirken, stellt sich bei näherer Betrachtung schnell heraus, dass es sowohl an Faktizität als auch an Kontext fehlt.“ Zusätzlich plädiert Gremsl für eine ethische Begleitung technologischer Errungenschaften: „Gerade hinsichtlich des Lernens und Lehrens ergeben sich aber offensichtliche Probleme: Man denke etwa an computergenerierte Haus-, Seminar- oder Abschlussarbeiten.“
Das gleiche Problem sieht auch Rechtwissenschaftlerin Elisabeth Staudegger, fühlt sich jedoch durch das bestehende Studienrecht gut abgesichert: „Es macht wenig Sinn, ChatGPT und ähnliche KI-Systeme an Universitäten gesondert verbieten und verhindern zu wollen. Es genügt die Erinnerung daran, dass jegliche Täuschung über eigene Leistungen sowohl im Studienrecht als auch im Bereich der Selbstverpflichtung zu wissenschaftlicher Integrität pönalisiert und verpönt ist.“ Vielmehr sieht die Forscherin Chancen in der Verwendung von Chatbots: „Gerade die Akademia – also alle an der Uni – sollte vielmehr alle Anstrengungen daransetzen, das Werkzeug zu analysieren, um es zu verstehen und angemessen verwenden zu können.“
Für Uni-Graz-Mediendidaktikerin Elke Höfler sind Verbote auch keine Lösung: „Anwendungen, die auf Algorithmen basieren, sind nichts Neues: der Staubsaugerroboter, das Übersetzungsprogramm DeepL, der Chatbot GPT-3. Sie können uns Arbeit abnehmen, wenn wir sie richtig, also zielgerichtet und reflektiert, einsetzen. Den Umgang mit ihnen müssen wir jedoch lernen. Sie zu verbieten, wäre kontraproduktiv, denn das Verbotene hat immer einen besonderen Reiz.“
Dies passiert laut Georg Vogeler, Leiter des Zentrums für Informationsmodellierung und Austrian Centre for Digital Humanities, bereits an der Uni Graz: „ChatGPT ist das Ergebnis von langjähriger Forschung daran, was alles zum Ausdruck menschlicher Kultur gehört: Sprache, sachlicher Kontext, Stil, Personalisierung, Kommunikation. Diese Forschung, ein Teil der Digital Humanities, kann auch für die Rekonstruktion von antiken Inschriften verwendet werden oder zur Entzifferung mittelalterlicher Urkunden. Wichtig ist: Das Sprachmodell, das ChatGPT antreibt, kann überzeugend formulieren, es weiß aber nicht wirklich Bescheid.“ Vielleicht sind Chatbots ja auch bald so alltäglich wie das Navi, das Internet oder andere Werkzeuge, die wir kaum noch als solche erkennen, so Vogeler: „Es macht Spaß, mit ihnen zu spielen, sie machen Angst vor möglicher schädlicher Nutzung und sie inspirieren zu nützlichen Dingen.“
Mehr dazu:
- Elke Höfler im Deutschlandfunk
- Elke Höflers Blogbeitrag