Hat Sie die Entwicklung einer Künstlichen Intelligenz (KI) wie ChatGPT persönlich überrascht?
Ich glaube, wir sind alle von der Geschwindigkeit der Entwicklungen überrascht worden, vor allem von der auf den ersten Blick hohen Qualität und die Vielseitigkeit dieses Chat-Systems. Damit hat wohl kaum jemand gerechnet.
Warum?
Die Idee von künstlicher Intelligenz ist eigentlich nicht neu. Aber mit ChatGPT und Bildgeneratoren wie Midjourney oder Dall-E ist die KI nun im Mainstream angekommen. Schon lange hat die KI hat in unserem Alltag Einzug gehalten. Wir bestellen Kinokarten telefonisch per Spracherkennung. Wenn ich einen Text schreibe, korrigiert die Textverarbeitungssoftware meine Rechtschreibung und Grammatik. Und Netflix schlägt mir Filme vor, die mir gefallen sollen. Das alles ist KI, vielleicht besser gesagt, maschinelles Lernen. Mit den aktuellen Entwicklungen hat nun eine neue Ära begonnen, weil KI erstmals Texte und Bilder so realistisch erzeugen kann, dass sie kaum noch als «künstlich» zu erkennen sind.
Wie genau lernen die KIs eigentlich?
Am Anfang «trainiert» man die Systeme mit grossen Datenmengen. Damit lernt dann ein künstliches neuronales Netzwerk oder ein Algorithmus, die Daten zu klassifizieren, zum Beispiel Katzen- von Hundebildern zu unterscheiden. Ausserdem lernt es, welche Eigenschaften der Daten für die Unterscheidung relevant sind. Die Systeme, über die wir heute sprechen, erkennen nicht nur Muster, sie generieren etwas Neues. ChatGPT lernt auf der Grundlage umfangreicher Textdaten, die aus verschiedenen Quellen stammen, wie Bücher, Artikel, Wikipedia und Zeitschriften. Die Internet-Suchmaschine Bing ist bereits mit einem Sprachmodell gekoppelt.
Ist das nicht problematisch angesichts der Tatsache, dass die Informationen im Internet immer eine gewisse Wertung beinhalten?
Der Bias in Trainingsdaten und den Daten im Internet ist immer eine grosse Herausforderung bei der Anwendung von KI. Wenn ich ein Sprachmodell verwende, um mir eine Zusammenfassung eines bestimmten Textes schreiben zu lassen, dann ist Bias kein grosses Problem, weil ich die Datenquelle entsprechend eingegrenzt und definiert habe. Wenn ich aber eine allgemeine Frage stelle, dann wird das Sprachmodell das widerspiegeln, was es aus den Trainingsdaten gelernt und im Internet gefunden hat – mit allen Konsequenzen, die sich daraus ergeben. Eine KI wird somit leicht zu einem Verstärker bestehender Probleme und Ungleichgewichte.
Wie wird damit derzeit umgegangen?
Bei der Entwicklung von ChatGPT werden die Antworten der KI von Mitarbeitern daraufhin bewertet, ob sie unseren Erwartungen in Bezug auf Inhalt und Form entsprechen. Die KI lernt dann aus diesem Feedback «menschlicher» zu antworten, und auch auf bestimmte Fragestellungen besser gar nicht zu reagieren. Dieser Vorgang nennt sich «Alignment», und dies ist gerade ein sehr spannendes Thema im Bereich der KI-Forschung.
Haben Sie ChatGPT selbst schon einmal benutzt?
Natürlich, gleich als es verfügbar war. Mein Augenöffner war letztes Jahr, als ich spät abends Weihnachtskarten geschrieben habe. Ich habe zum Spass bei ChatGPT eingegeben: «Schreibe mir eine Weihnachtskarte für einen früheren Kollegen» und dann festgestellt, dass der vorgeschlagene Text deutlich besser war als mein eigener. Da wurde mir klar, dass wir nun langsam an den Punkt kommen, an dem die KIs auch im Alltag wirklich nützlich werden.
Gilt das auch für die Forschung?
In der Forschung wird KI schon seit vielen Jahren regelmässig eingesetzt. Am meisten fasziniert mich dabei, dass KIs heute nicht mehr nur Aufgaben bewältigen können, die auch wir Menschen beherrschen, wie beispielsweise Schach oder das Brettspiel Go spielen, oder bestimmte Muster in Röntgenbildern erkennen. In meinem Forschungsbereich benutzen wir die KI «AlphaFold» schon länger, um Proteinstrukturen zu modellieren.
Und was kann «AlphaFold»?
Diese KI sagt die 3-dimensionale Struktur eines Proteins mit hoher Genauigkeit vorher, und das funktioniert auch für bisher völlig unbekannte Proteine. Bisher war niemand in der Lage, einen praktisch umsetzbaren Lösungsansatz für die zuverlässige Vorhersage von solchen Proteinstrukturen zu formulieren; die KI hat diese Fähigkeit direkt aus den experimentellen Daten «gelernt». Das finde ich einerseits faszinierend und auf der anderen Seite auch frustrierend. Wir können jetzt zwar 3-dimensionale Proteinstrukturen effizient vorhersagen, aber wir verstehen immer noch nicht so ganz, wie genau die KI das macht und wie der molekulare Mechanismus der Proteinfaltung funktioniert.
Sind auch die KIs, die Texte generieren, ein Zugewinn für die Wissenschaft oder stellen sie eher ein Problem dar?
Ich sehe auch hier eher Chancen. Bei der Recherche wäre es zum Beispiel eine deutliche Arbeitserleichterung, wenn eine KI nicht nur Quellen findet und auflistet, sondern auch eine präzise Zusammenfassung liefern kann. Ich kann mir auch gut vorstellen, dass KIs bald eine Rolle bei der sprachlichen Überarbeitung von wissenschaftlichen Texten spielen und so das Publizieren in einer Fremdsprache erleichtern werden. Die Herausforderung dabei ist natürlich die Qualitätskontrolle. Am Ende muss man als Wissenschaftlerin und Wissenschaftler für die eigene Arbeit geradestehen und kann nicht behaupten, ChatGPT hätte etwas falsch verstanden.
Wie kann man sich vor falschen Informationen schützen, die bei ChatBot-geschriebenen Texten immer auftreten können?
Im Moment sind wir davor nicht komplett gefeit, aber das ist wohl eine Frage der Zeit. Im Bereich der Naturwissenschaften gibt es die ersten Sprachmodelle, die genaue Quellenangaben für Aussagen zu wissenschaftlichen Publikationen mitliefern. Bei GPT-4 auf Bing zum Beispiel kann man wählen, ob man vor allem diese Faktentreue oder lieber kreativere Antworten möchte.
Welchen Stellenwert hat die Thematik ChatGPT für die Universität Basel?
Das Thema hat viele Diskussionen ausgelöst. Derzeit versuchen verschiedene Arbeitsgruppen zu klären, wie wir als Universität damit umgehen sollen.
Gibt es eine Tendenz, in welche Richtung die Handhabung gehen soll?
Speziell in der Lehre gibt es natürlich einige Herausforderungen. Die Arbeitsgruppe «KI in der Lehre» beschäftigt sich mit der Frage, wie KI-basierte Tools für Lehren und Lernen genutzt werden können bzw. welche Anpassungen erforderlich wären, damit solche Tools für die Erstellung studentischer Arbeiten nicht missbraucht werden. Ein generelles Nutzungsverbot wird nicht angestrebt. Aus meiner Sicht sind ChatBots für die Schulen ein grösseres Problem als für Universitäten. Das sprachliche Ausdrucksvermögen sollte eigentlich in der Schule vermittelt worden sein, im universitären Studium hingegen stehen Fähigkeiten wie Sachverhalte kritisch zu hinterfragen, Hypothesen aufzustellen und Probleme zu lösen im Vordergrund.
Ist es denn möglich, ChatBot-generierte Texte zu erkennen?
Ich halte es für illusorisch zu glauben, dass wir irgendwann Algorithmen haben werden, die zuverlässig menschliche von maschinell erstellten Texten unterscheiden können. Der Wettlauf zwischen den generierenden Sprachmodellen und der Erkennungssoftware ist ein fortlaufendes Katz- und Maus-Spiel. Ausser man einigt sich von vornherein darauf, in KI-generierte Texte eine Art «Wasserzeichen» einzubauen.
Könnten Sie sich mit Blick auf das Studium vorstellen, dass ChatGPT oder andere KIs dort integriert werden?
Tatsächlich erinnert mich diese Situation ein wenig an die Einführung der programmierbaren Taschenrechner als ich Matur gemacht habe. Damals diskutierten die Mathelehrer darüber, ob wir Schüler solche programmierbaren Geräte benutzen dürfen oder alles schriftlich rechnen müssen. Rückblickend muss man sagen, dass diejenigen, die damals programmieren gelernt haben, am Ende mehr fürs Leben mitgenommen haben. Ich glaube, wir sind jetzt in einer ähnlichen Situation.
Was können wir daraus für das Hier und Jetzt mitnehmen?
Wir müssen KI-Tools verstehen und lernen, sinnvoll damit umzugehen, denn sie werden nicht mehr verschwinden. Aus meiner Sicht kommt ein modernes Curriculum mittelfristig nicht darum herum, KI-Tools mit einzubeziehen. Anders ausgedrückt: Wenn neue Technologien uns helfen, effektiver und kreativer zu arbeiten, dann sehe ich keinen Grund, sie nicht zu verwenden. Das setzt aber voraus, dass man die Arbeitsweise dieser Tools gut genug versteht, um ihre Grenzen und Probleme zu erkennen.
Die Lehrenden müssen sich also zukünftig bewusst sein, dass die Texte von Studierenden zunehmend auch von KIs generiert sein können…
Richtig. Ich gehe aber davon aus, dass Studierende an die Uni kommen, weil sie etwas lernen und sich intellektuell weiterentwickeln wollen. Dass sich auch einige wenige Durchmogeln möchten, das gab es schon immer. Einer meiner Kollegen hat es mal treffend so formuliert: «Mit ChatBots haben wir eine Demokratisierung des Status quo.»
Was meint er damit?
Bisher konnten sich nur vermögende Studierende einen Ghostwriter für eine Hausarbeit leisten, jetzt hat jeder eine professionelle Hilfestellung zur Hand. Die Frage für den Gutachter bleibt aber die gleiche: Hat die Person ihre Arbeit selbst geschrieben oder nicht?
Sie bewerten die Entwicklungen grundsätzlich also eher positiv. Sehen Sie auch Risiken?
Problematisch finde ich es, wenn wir unkritisch irgendwelche Daten oder das Internet als Abbild der «Realität» beim Training von «machine learning» verwenden. Die KI spiegelt dann schnell mal statt belastbarer Fakten den Bias der Daten oder die Vielfalt der Meinungen im Internet wider. Und wenn die so trainierten KI-Modelle dann wiederum dazu genutzt werden, neue Texte und Bilder zu generieren, die sich von «echten» kaum mehr unterscheiden lassen, dann wird es irgendwann schwierig, Fakten und Fiktion auseinanderzuhalten. Die von einer KI-generierten Bilder vom Papst in modischer Daunenjacke waren ein erster Vorgeschmack auf das, was auf uns zukommt.
Wie könnten wir diesem Kreislauf entkommen?
Es ist wichtig, dass wir verstehen, wie KIs funktionieren und nie aufhören, die praktischen Anwendungen von KI kritisch zu hinterfragen. Ein erster Fortschritt wäre es schon, wenn die Systeme einen Fakten-Check mitliefern und die Ergebnisse generativer KI mit einem Wasserzeichen markiert würden. Die Europäische Union arbeitet gerade an einem rechtlichen Rahmen für KI. Der «Artificial Intelligence Act» soll risikobasierte Regeln für Datenqualität, Transparenz, menschliche Aufsicht und Rechenschaftspflicht definieren. Der Ansatz scheint mir sinnvoller und realistischer zu sein, als das von einigen Experten in einem offenen Brief geforderte Moratorium, das Training von KI-Systemen, die leistungsfähiger als GPT-4 sind, für sechs Monate zu unterbrechen.
Ein Blick in die Zukunft: Verschmelzen Mensch und Maschine immer mehr?
Da sollten wir uns keine Illusionen machen, die Verschmelzung hat bereits angefangen. Ob ich das Smartphone einen Zentimeter über oder unter der Haut trage, macht nicht wirklich einen grossen Unterschied. Schon jetzt haben viele das Gefühl, nicht mehr ohne leben zu können und wir wollen auf die Erweiterung unserer kognitiven Fähigkeiten durch den ständigen Zugang zur Cloud nicht mehr verzichten. Sind wir nicht jetzt schon Cyborgs, und merken es nur noch nicht?
Kontakt: Kommunikation, Katrin Bühler und Heike Sacher