Navigation mit Access Keys

27. April 2023

«Wir müssen lernen, mit KI-Tools wie ChatGPT sinnvoll umzugehen, denn sie werden nicht mehr verschwinden.»

Seit Dezember letzten Jahres macht die Künstliche Intelligenz ChatGPT Schlagzeilen. Sie verfasst selbstständig Texte auf einem so hohen Niveau, dass selbst Experten oft nicht erkennen, ob dahinter der ChatBot oder ein Mensch steht. Prof. Torsten Schwede lehrt und forscht am Biozentrum der Universität Basel. Als Bioinformatiker und Vizerektor Forschung beschäftigt er sich mit den Möglichkeiten und Herausforderungen Künstlicher Intelligenz.

Foto von Torsten Schwede, Professor für Bioinformatik am Biozentrum und Vizerektor Forschung, Universität Basel.

Prof. Dr. Torsten Schwede. © Universität Basel, Florian Moritz

Hat Sie die Entwicklung einer Künstlichen Intelligenz (KI) wie ChatGPT persönlich überrascht?
Ich glaube, wir sind alle von der Geschwindigkeit der Entwicklungen überrascht worden, vor allem von der auf den ersten Blick hohen Qualität und die Vielseitigkeit dieses Chat-Systems. Damit hat wohl kaum jemand gerechnet.

Warum?
Die Idee von künstlicher Intelligenz ist eigentlich nicht neu. Aber mit ChatGPT und Bildgeneratoren wie Midjourney oder Dall-E ist die KI nun im Mainstream angekommen. Schon lange hat die KI hat in unserem Alltag Einzug gehalten. Wir bestellen Kinokarten telefonisch per Spracherkennung. Wenn ich einen Text schreibe, korrigiert die Textverarbeitungssoftware meine Rechtschreibung und Grammatik. Und Netflix schlägt mir Filme vor, die mir gefallen sollen. Das alles ist KI, vielleicht besser gesagt, maschinelles Lernen. Mit den aktuellen Entwicklungen hat nun eine neue Ära begonnen, weil KI erstmals Texte und Bilder so realistisch erzeugen kann, dass sie kaum noch als «künstlich» zu erkennen sind. 

Wie genau lernen die KIs eigentlich?
Am Anfang «trainiert» man die Systeme mit grossen Datenmengen. Damit lernt dann ein künstliches neuronales Netzwerk oder ein Algorithmus, die Daten zu klassifizieren, zum Beispiel Katzen- von Hundebildern zu unterscheiden. Ausserdem lernt es, welche Eigenschaften der Daten für die Unterscheidung relevant sind. Die Systeme, über die wir heute sprechen, erkennen nicht nur Muster, sie generieren etwas Neues. ChatGPT lernt auf der Grundlage umfangreicher Textdaten, die aus verschiedenen Quellen stammen, wie Bücher, Artikel, Wikipedia und Zeitschriften. Die Internet-Suchmaschine Bing ist bereits mit einem Sprachmodell gekoppelt.

Ist das nicht problematisch angesichts der Tatsache, dass die Informationen im Internet immer eine gewisse Wertung beinhalten?
Der Bias in Trainingsdaten und den Daten im Internet ist immer eine grosse Herausforderung bei der Anwendung von KI. Wenn ich ein Sprachmodell verwende, um mir eine Zusammenfassung eines bestimmten Textes schreiben zu lassen, dann ist Bias kein grosses Problem, weil ich die Datenquelle entsprechend eingegrenzt und definiert habe. Wenn ich aber eine allgemeine Frage stelle, dann wird das Sprachmodell das widerspiegeln, was es aus den Trainingsdaten gelernt und im Internet gefunden hat – mit allen Konsequenzen, die sich daraus ergeben. Eine KI wird somit leicht zu einem Verstärker bestehender Probleme und Ungleichgewichte. 

Wie wird damit derzeit umgegangen?
Bei der Entwicklung von ChatGPT werden die Antworten der KI von Mitarbeitern daraufhin bewertet, ob sie unseren Erwartungen in Bezug auf Inhalt und Form entsprechen. Die KI lernt dann aus diesem Feedback «menschlicher» zu antworten, und auch auf bestimmte Fragestellungen besser gar nicht zu reagieren. Dieser Vorgang nennt sich «Alignment», und dies ist gerade ein sehr spannendes Thema im Bereich der KI-Forschung.

Haben Sie ChatGPT selbst schon einmal benutzt?
Natürlich, gleich als es verfügbar war. Mein Augenöffner war letztes Jahr, als ich spät abends Weihnachtskarten geschrieben habe. Ich habe zum Spass bei ChatGPT eingegeben: «Schreibe mir eine Weihnachtskarte für einen früheren Kollegen» und dann festgestellt, dass der vorgeschlagene Text deutlich besser war als mein eigener. Da wurde mir klar, dass wir nun langsam an den Punkt kommen, an dem die KIs auch im Alltag wirklich nützlich werden.

Gilt das auch für die Forschung?
In der Forschung wird KI schon seit vielen Jahren regelmässig eingesetzt. Am meisten fasziniert mich dabei, dass KIs heute nicht mehr nur Aufgaben bewältigen können, die auch wir Menschen beherrschen, wie beispielsweise Schach oder das Brettspiel Go spielen, oder bestimmte Muster in Röntgenbildern erkennen. In meinem Forschungsbereich benutzen wir die KI «AlphaFold» schon länger, um Proteinstrukturen zu modellieren. 

Und was kann «AlphaFold»? 
Diese KI sagt die 3-dimensionale Struktur eines Proteins mit hoher Genauigkeit vorher, und das funktioniert auch für bisher völlig unbekannte Proteine. Bisher war niemand in der Lage, einen praktisch umsetzbaren Lösungsansatz für die zuverlässige Vorhersage von solchen Proteinstrukturen zu formulieren; die KI hat diese Fähigkeit direkt aus den experimentellen Daten «gelernt». Das finde ich einerseits faszinierend und auf der anderen Seite auch frustrierend. Wir können jetzt zwar 3-dimensionale Proteinstrukturen effizient vorhersagen, aber wir verstehen immer noch nicht so ganz, wie genau die KI das macht und wie der molekulare Mechanismus der Proteinfaltung funktioniert.

Sind auch die KIs, die Texte generieren, ein Zugewinn für die Wissenschaft oder stellen sie eher ein Problem dar?
Ich sehe auch hier eher Chancen. Bei der Recherche wäre es zum Beispiel eine deutliche Arbeitserleichterung, wenn eine KI nicht nur Quellen findet und auflistet, sondern auch eine präzise Zusammenfassung liefern kann. Ich kann mir auch gut vorstellen, dass KIs bald eine Rolle bei der sprachlichen Überarbeitung von wissenschaftlichen Texten spielen und so das Publizieren in einer Fremdsprache erleichtern werden. Die Herausforderung dabei ist natürlich die Qualitätskontrolle. Am Ende muss man als Wissenschaftlerin und Wissenschaftler für die eigene Arbeit geradestehen und kann nicht behaupten, ChatGPT hätte etwas falsch verstanden. 

Wie kann man sich vor falschen Informationen schützen, die bei ChatBot-geschriebenen Texten immer auftreten können? 
Im Moment sind wir davor nicht komplett gefeit, aber das ist wohl eine Frage der Zeit. Im Bereich der Naturwissenschaften gibt es die ersten Sprachmodelle, die genaue Quellenangaben für Aussagen zu wissenschaftlichen Publikationen mitliefern. Bei GPT-4 auf Bing zum Beispiel kann man wählen, ob man vor allem diese Faktentreue oder lieber kreativere Antworten möchte.

Welchen Stellenwert hat die Thematik ChatGPT für die Universität Basel? 
Das Thema hat viele Diskussionen ausgelöst. Derzeit versuchen verschiedene Arbeitsgruppen zu klären, wie wir als Universität damit umgehen sollen. 

Gibt es eine Tendenz, in welche Richtung die Handhabung gehen soll?
Speziell in der Lehre gibt es natürlich einige Herausforderungen. Die Arbeitsgruppe «KI in der Lehre» beschäftigt sich mit der Frage, wie KI-basierte Tools für Lehren und Lernen genutzt werden können bzw. welche Anpassungen erforderlich wären, damit solche Tools für die Erstellung studentischer Arbeiten nicht missbraucht werden. Ein generelles Nutzungsverbot wird nicht angestrebt. Aus meiner Sicht sind ChatBots für die Schulen ein grösseres Problem als für Universitäten. Das sprachliche Ausdrucksvermögen sollte eigentlich in der Schule vermittelt worden sein, im universitären Studium hingegen stehen Fähigkeiten wie Sachverhalte kritisch zu hinterfragen, Hypothesen aufzustellen und Probleme zu lösen im Vordergrund. 

Ist es denn möglich, ChatBot-generierte Texte zu erkennen?
Ich halte es für illusorisch zu glauben, dass wir irgendwann Algorithmen haben werden, die zuverlässig menschliche von maschinell erstellten Texten unterscheiden können. Der Wettlauf zwischen den generierenden Sprachmodellen und der Erkennungssoftware ist ein fortlaufendes Katz- und Maus-Spiel. Ausser man einigt sich von vornherein darauf, in KI-generierte Texte eine Art «Wasserzeichen» einzubauen. 

Könnten Sie sich mit Blick auf das Studium vorstellen, dass ChatGPT oder andere KIs dort integriert werden?
Tatsächlich erinnert mich diese Situation ein wenig an die Einführung der programmierbaren Taschenrechner als ich Matur gemacht habe. Damals diskutierten die Mathelehrer darüber, ob wir Schüler solche programmierbaren Geräte benutzen dürfen oder alles schriftlich rechnen müssen. Rückblickend muss man sagen, dass diejenigen, die damals programmieren gelernt haben, am Ende mehr fürs Leben mitgenommen haben. Ich glaube, wir sind jetzt in einer ähnlichen Situation. 

Was können wir daraus für das Hier und Jetzt mitnehmen?
Wir müssen KI-Tools verstehen und lernen, sinnvoll damit umzugehen, denn sie werden nicht mehr verschwinden. Aus meiner Sicht kommt ein modernes Curriculum mittelfristig nicht darum herum, KI-Tools mit einzubeziehen. Anders ausgedrückt: Wenn neue Technologien uns helfen, effektiver und kreativer zu arbeiten, dann sehe ich keinen Grund, sie nicht zu verwenden. Das setzt aber voraus, dass man die Arbeitsweise dieser Tools gut genug versteht, um ihre Grenzen und Probleme zu erkennen.

Die Lehrenden müssen sich also zukünftig bewusst sein, dass die Texte von Studierenden zunehmend auch von KIs generiert sein können…
Richtig. Ich gehe aber davon aus, dass Studierende an die Uni kommen, weil sie etwas lernen und sich intellektuell weiterentwickeln wollen. Dass sich auch einige wenige Durchmogeln möchten, das gab es schon immer. Einer meiner Kollegen hat es mal treffend so formuliert: «Mit ChatBots haben wir eine Demokratisierung des Status quo.» 

Was meint er damit?
Bisher konnten sich nur vermögende Studierende einen Ghostwriter für eine Hausarbeit leisten, jetzt hat jeder eine professionelle Hilfestellung zur Hand. Die Frage für den Gutachter bleibt aber die gleiche: Hat die Person ihre Arbeit selbst geschrieben oder nicht? 

Sie bewerten die Entwicklungen grundsätzlich also eher positiv. Sehen Sie auch Risiken? 
Problematisch finde ich es, wenn wir unkritisch irgendwelche Daten oder das Internet als Abbild der «Realität» beim Training von «machine learning» verwenden. Die KI spiegelt dann schnell mal statt belastbarer Fakten den Bias der Daten oder die Vielfalt der Meinungen im Internet wider. Und wenn die so trainierten KI-Modelle dann wiederum dazu genutzt werden, neue Texte und Bilder zu generieren, die sich von «echten» kaum mehr unterscheiden lassen, dann wird es irgendwann schwierig, Fakten und Fiktion auseinanderzuhalten. Die von einer KI-generierten Bilder vom Papst in modischer Daunenjacke waren ein erster Vorgeschmack auf das, was auf uns zukommt. 

Wie könnten wir diesem Kreislauf entkommen?
Es ist wichtig, dass wir verstehen, wie KIs funktionieren und nie aufhören, die praktischen Anwendungen von KI kritisch zu hinterfragen. Ein erster Fortschritt wäre es schon, wenn die Systeme einen Fakten-Check mitliefern und die Ergebnisse generativer KI mit einem Wasserzeichen markiert würden. Die Europäische Union arbeitet gerade an einem rechtlichen Rahmen für KI. Der «Artificial Intelligence Act» soll risikobasierte Regeln für Datenqualität, Transparenz, menschliche Aufsicht und Rechenschaftspflicht definieren. Der Ansatz scheint mir sinnvoller und realistischer zu sein, als das von einigen Experten in einem offenen Brief geforderte Moratorium, das Training von KI-Systemen, die leistungsfähiger als GPT-4 sind, für sechs Monate zu unterbrechen.

Ein Blick in die Zukunft: Verschmelzen Mensch und Maschine immer mehr?
Da sollten wir uns keine Illusionen machen, die Verschmelzung hat bereits angefangen. Ob ich das Smartphone einen Zentimeter über oder unter der Haut trage, macht nicht wirklich einen grossen Unterschied. Schon jetzt haben viele das Gefühl, nicht mehr ohne leben zu können und wir wollen auf die Erweiterung unserer kognitiven Fähigkeiten durch den ständigen Zugang zur Cloud nicht mehr verzichten. Sind wir nicht jetzt schon Cyborgs, und merken es nur noch nicht?

Kontakt: Kommunikation, Katrin Bühler und Heike Sacher
 

Beispiele KI basierter Projekte und KI-Nutzung an der Universität Basel

  • Ivan Dokmanić, Professor für Data Analytics am Departement Mathematik und Informatik, forscht zur Anwendungen der künstlichen Intelligenz in den Bereichen Big Data, Forschung, medizinischer Bildgebung und Geobildgebung. 
     
  • Malte Helmert, Professor für Künstliche Intelligenz am Departement Mathematik und Informatik forscht zu verschiedenen Aspekten der künstlichen Intelligenz, Schwerpunkt Handlungsplanung und Lösung von Optimierungsproblemen.
     
  • Politikwissenschaftlerin Prof. Stefanie Bailer, Departement Gesellschaftswissenschaften, wertet in ihrem Projekt «Visual Politician – wie zeigen sich Politiker:innen auf Social Media?» Tweets und Fotos von Politikern mit Hilfe von KIs aus. Damit möchte sie Entscheidungsprozesse politischer Akteure auf den Grund gehen.
     
  • Das Center for Data Analytics (CeDA) unterstützt Forschende bei der Anwendung moderner Statistikverfahren und beim Einsatz von KI-Methoden.
     
  • Heiko Schuldt, Professor für Computer Science, hat mit seinem Team eine neuartige Multimedia-Suchmaschine «vitrivr» entwickelt.
     
  • Am Universitären Herzzentrum Basel des Universitätsspital Basel nutzt man KIs zur Erkennung von Herzrhythmusstörungen – dies bereits bevor Apple seine Apple Watch dazu einsetze.
     
  • Zudem kommt KI die der biomedizinischen Bilddiagnostik am Unispital Basel zur Erkennung von Tumoren zum Einsatz.
     
  • Am Biozentrum verwenden die Strukturbiologen die KI «AlphaFold» standardmässig zur Vorhersage von Proteinstrukturen.
     
  • Prof. Nadja Braun-Binder von der juristischen Fakultät untersucht die Rolle von nachvollziehbaren Algorithmen um einen rechtlichen Rahmen für den Einsatz von Künstlicher Intelligenz zu erarbeiten.
     
  • Prof. Sabine Gless untersucht die Mensch-Roboter-Interaktionen im Hinblick auf die gesetzliche und strafrechtliche Schuldfrage.
     
  • Prof. Alfred Früh von der juristischen Fakultät geht der Frage nach, wie der Einsatz von KI bei Erfindungen den Schutz geistigen Eigentums beeinflusst. Projekte
     
  • Der fakultätsübergreifende Forschungsverbund „Responsible Digital Society“ beschäftigt sich mit der digitalen Transformation und ihren gesellschaftlichen, ethischen, rechtlichen, wirtschaftlichen, psychologischen und politischen Folgen. Webseite