Die Künstliche Ingelligenz ChatGTP kann selbstständig Antworten auf eine Vielzahl von Fragen formulieren - eine Einladung zum Schummeln für Schüler und Studenten. Damit könnte nun Schluss sein.
Quelle: imago/ANP
Edward Tian studiert an der Princeton Universität Informatik und Journalismus und hat die Diskussion um die Künstliche Intelligenz der Non-Profit-Organisation OpenAI hautnah miterlebt. Deren jüngstes Projekt ChatGPT3 ist dazu in der Lage, selbstständig Essays, Hausarbeiten und ganze wissenschaftliche Paper zu schreiben, die von denen menschlicher AutorInnen kaum zu unterscheiden sind.
Infolgedessen haben Universitäten auf der ganzen Welt Alarm geschlagen - in New Yorker Bildungseinrichtungen wurde die Verwendung von ChatGPT3 sogar vollständig verboten. Die Debatte hat Edward bis in die Semesterferien verfolgt.
22-Jähriger programmiert KI, die KI-Texte erkennt
Im Internet wächst zunehmend die Unsicherheit, ob es sich bei einem Nutzer tatsächlich um einen Menschen handelt. Denn nicht selten werden Social-Media Plattformen oder Websites Opfer von Angriffen durch sogenannte Bots - Programme, die dazu in der Lage sind, Server mit Information zu überfluten und diese so lahmzulegen.
Die Betreiber fordern daher von potenziellen Nutzern die Teilnahme an umgekehrte Turing-Tests, die inzwischen Standard bei PayPal-Transaktionen, Authentifizierung bei Car-Sharing Apps oder dem Erstellen von Social-Media Accounts sind. Hierbei wird dem Nutzer eine für Menschen einfach zu lösende Rechen- oder Zuordnungsaufgabe gestellt, an denen die Bots scheitern.
Für
Künstliche Intelligenzen wie GPT3 existierte ein solcher Test bisher nicht. Dem 22-jährigen Edward Tian ließ dieses Problem keine Ruhe, am Neujahrsabend programmierte er im Keller seines Elternhauses in Toronto eine App, die dazu in der Lage sein soll, Texte zu identifizieren, die von ChatGPT3 verfasst wurden. GPTZero war geboren.
"Wir brauchen auf jeden Fall weiter alte Kulturtechniken wie Schreiben. Wir können das nicht einfach an eine KI auslagern", sagt Wirtschaftswissenschaftler Prof. Robert Lepenies.24.01.2023 | 4:03 min
ChatGPT soll mit eigenen Waffen geschlagen werden
Als Basis für seine App verwendete der Princeton Student eben jene KI-Software, die Professoren auf der ganzen Welt Kopfschmerzen bereitet: GPTZero soll ChatGPT3 quasi mit den eigenen Waffen schlagen, die KI sich selbst entlarven. Eine scheinbar simples, aber geniales Mittel gegen den Missbrauch von GPT3 scheint gefunden zu sein.
Seit der Veröffentlichung von GPTZero Anfang Januar genießt Edward Tian die Aufmerksamkeit von Investoren, Professoren und Journalisten auf der ganzen Welt. Gegenwärtig ist die App kostenfrei und allgemein zugänglich im Netz zu finden.
Kritiker: GPT3 wird lernen, unendeckt zu bleiben
Doch aus Expertenkreisen melden sich kritische Stimmen: So sieht Toby Walsh, Senior-Professor für Künstliche Intelligenz an der Universität South Wales, GPTZero zum Scheitern verurteilt. Die App arbeite langfristig gegen das Vorhaben, KI geschriebene Texte leicht identifizieren zu können.
Der Grund: Da GPTZero dieselbe öffentlich zugängliche OpenAI-Software verwendet wie ChatGPT3 würde die KI so lernen, wie sie am besten unentdeckt bleibt. Die Reaktionen der Nutzer von GPTZero sind darüber hinaus eher durchwachsen: Oft würde die Software einfach nicht funktionieren oder fehlerhafte Ergebnisse liefern.
Erfinder will KI-Einsatz sicherer machen
Tian ist sich dieser Kritik bewusst, sieht selbst GPTZero aber noch in der Testphase - und hofft auf Investoren, um auch diese Kinderkrankheiten beseitigen zu können. Von einem Verbot Künstlicher Intelligenzen wie ChatGPT3 hält der 22-jährige sowieso nichts.
Im Interview mit dem US-Rundfunksyndikat
NPR sagte er, GPTZero solle "kein Werkzeug sein, um den Einsatz von Künstlicher Intelligenz zu verhindern. Aber wie bei jeder neuen Technologie müssen wir in der Lage sein, sie verantwortungsvoll zu nutzen und auch Schutzmaßnahmen gegen Missbrauch etablieren."