Interview zu ChatGPT

Was kann KI wirklich?

Die Dialogsoftware ChatGPT hat eine neue Dimension von Künstlicher Intelligenz sichtbar gemacht. Im März wurde die überarbeitete Fassung ChatGPT-3 auf der Plattform Open AI online gestellt. Wie wird Künstliche Intelligenz Gesellschaft und Demokratie verändern? Und was kann sie wirklich? Ein Gespräch mit Prof. Antonio Krüger, CEO des Deutschen Forschungszentrums für Künstliche Intelligenz (DFKI) in Kaiserslautern.

Herr Krüger, wie wird Künstliche Intelligenz unsere Gesellschaft und das demokratische Miteinander verändern? 

Grundsätzlich sind wir derzeit in einer ähnlichen Situation wie bei der Geburt des Internets. Damals waren viele Menschen unheimlich optimistisch. Sie erhofften sich eine Demokratisierung von Information, weltweiten Austausch, Partizipation für viele, die vorher von Informationen abgeschnitten waren.  Und heute? Ist das Internet in Summe ein Wandel zum Schlechteren oder zum Besseren? Schwer zu sagen. Einerseits hat es Informationen zugänglicher gemacht, andererseits ist es zum Geschäft geworden und verbreitet viel Unsinn. Genauso ist es jetzt mit Künstlicher Intelligenz. Einerseits kann sie unsere Demokratie gefährden, weil sie uns etwa mit Deep Fakes manipuliert. Andererseits hat KI ein riesiges Demokratisierungspotenzial. Denn jetzt kommt zu der reinen Information im Internet, den Fakten, noch die Semantik, und damit der Zugang zu echter Bildung, dem Fundament jeder Demokratie.

Das heißt?

Mit Software wie ChatGPT lassen sich Bildungsinhalte auf eine ganz neue Art erschließen: Im direkten Gespräch mit der KI. Sie kann Lerninhalte des Faches Geschichte etwa der sechsten Klasse zusammenfassen und anschließend mit den Schüler:innen darüber diskutieren. Sie müssen nur Fragen stellen, schon kommt das Gespräch in Gang. Es wird nicht mehr lange dauern, bis solche Angebote in großem Stil verfügbar sind.

Aber wie kann ich wissen, wie gut diese Bildung ist? Welche Daten nutzt die KI, um Lerninhalte zusammenzustellen? 

Ausgabe #2 als PDF erhalten

Gratis Ausgabe für dich

Die Bestseller-Ausgabe “Von Cyborgs und Chatbots” nimmt das Thema künstliche Intelligenz unter die Lupe – hier kannst du dir die Ausgabe gratis als PDF-Download sichern.

Wenn Sie ein Sprachmodell wie ChatGPT zur Geschichte in der Sechsten Klasse fragen, wird es wahrscheinlich auf alle Lehrbücher zurückgreifen, die sonst Lehramtsstudierende in einem Studium verwenden. ChatGPT wurde mit dem Internet bis etwa 2021 und vermutlich auch mit vielen Buchquellen trainiert. Das Modell kommt daher meist zu einigermaßen richtigen Antworten. Allerdings nicht immer, denn im Internet steht auch Quatsch und gerade bei der Interpretation von Geschichte gibt es viele Meinungen. Um gute Bildungsdialoge führen zu können, müsste eine echte Lern-KI daher mit weiteren Bildungsinhalten und Rückmeldungen von Didaktiker:innen trainiert werden. Ein Chatbot-Teacher für Geschichte in der sechsten Klasse wäre dann absolut realistisch.

Nun ist Bildung immer ein diskursiver Prozess. Es gibt oft kein eindeutiges Richtig oder Falsch. Wo liegen die Grenzen einer KI? 

In der Tat, wir müssen uns immer klar darüber sein: Ein KI-System versteht nicht, was es zusammenträgt. Es kann also nicht hinter die Inhalte zurücktreten, bewerten, abwägen, hinterfragen. Der US-amerikanische Philosoph Douglas Hofstadter nennt KI „cluelessly clueless“: Sie hat keine Ahnung davon, dass sie ahnungslos ist. Die KI stellt Inhalte nur nach Wahrscheinlichkeiten zusammen. Sie wertet aus Milliarden Daten aus, welche Wörter, Sätze, Argumentationen statistisch am häufigsten vorkommen. Sie scheint intelligent, ist es aber letzlich eher nicht.

 

Antonio Krüger ist CEO und wissenschaftlicher Direktor des Deutschen Forschungszentrums für Künstliche Intelligenz GmbH (DFKI) sowie wissenschaftlicher Direktor des Forschungsbereichs „Kognitive Assistenzsysteme“ am DFKI. Seit 2009 hat Krüger zudem die Globus-Stiftungsprofessur für Informatik an der Universität des Saarlandes inne, zuvor war er Professor für Informatik und Geoinformatik an der Universität Münster. Schwerpunkt seiner Arbeit ist Künstliche Intelligenz und Mensch-Maschine-Interaktion.

 

Wie könnte KI denn zu echtem Verstehen kommen?

Sie bräuchte dafür eine wirklich tiefe „semantische Repräsentation“ wie wir das in der Wissenschaft nennen. Das heißt, sie müsste selbst Wirklichkeitserfahrungen machen. Denn das ist der wesentliche Unterschied zwischen unseren Gehirnen und den künstlichen Gehirnen, wenn wir sie so nennen wollen: Ihnen fehlt im Moment noch der Bezug zur Realwelt. So gut sie auch sind, sie können derzeit nur abgeleitete Schlussfolgerungen ziehen, die auf den Erfahrungen anderer beruhen. Sie selbst sind gefangen in der digitalen Welt, für sie gibt es kein Außerhalb.

Dein Abo, dein Preis

Werde eine*r von über 5.000 Abonnent*innen und finanziere unsere journalistische Arbeit. Du kannst selbst entscheiden, welcher Preis für dich fair und machbar ist.

  • 6 Ausgaben / Jahr
  • Abos schon ab 35 € / Jahr

Für alle, die sich ein Abo nicht leisten können, bieten wir außerdem kostenlose Soli-Abos.

Weil KI schlicht die Körperlichkeit fehlt? 

Genau, weil sie noch keine Körperlichkeit hat, keinen Zugang zur Welt da draußen. Es fehlt ihr das „Grounding“, die direkte lebendige Erfahrung der Welt.  Eine KI kennt ja nur die Daten, mit denen sie gefüttert wird. Weil ihr der Bezug zur echten Welt fehlt, ist auch ihr Humor nicht besonders gut.

Es gibt Künstliche Intelligenz, die Witze erzählt?

Ja, und meist ist das nicht sehr lustig. Warum können Menschen Witze erzählen? Nicht, weil sie Witzebücher lesen und gelernt haben, wie ein Witz aufgebaut ist. Sondern weil wir beobachten, wie andere Menschen in einer Situation ticken, wie sie reagieren. Weil wir selbst Witze erzählt bekommen. Stück für Stück verstehen wir, was witzig ist, was das mit Situationskomik zu tun hat, mit kulturellen Codes, mit Slapstick. Deshalb sind Kinder meist so schlecht im Witze erzählen, sie stehen noch am Anfang der Wirklichkeitserfahrung, sammeln Erfahrungen. Vieles, das wir über die Welt wissen, beruht auf diesem Grounding. Das Grounding ist meiner Meinung nach eine Voraussetzung von wirklicher Kreativität und der Möglichkeit bedeutende Innovationen hervorzubringen.

Sind KI-Systeme denkbar, die zum Grounding in der Lage sind? 

Wir sind extrem weit davon entfernt, da in der realen Welt Lernprozesse viel langsamer verlaufen als Lernen mit Daten. Aber es wird daran geforscht.

Will man Künstlicher Intelligenz Körper bauen? 

Zumindest Komponenten davon. Es gibt ja Sensoren, die die Welt aufnehmen können, Kameras, die Daten generieren, mit denen wir KI-Modelle trainieren können. Ein Teil der Daten käme direkt aus der Reaktion der Leute und das KI-Systeme könnte direkt wieder reagieren und so weiter lernen. Man könnte sie mit Dutzenden Roboterkomponenten verbinden, damit sie schrittchenweise selbst Erfahrungen in der realen Welt macht.

Wie der Android Commander Data in Star Trek…

… genau. Dann würden KI-Systeme wahrscheinlich noch besser werden. Bisher aber lernt die KI mit neuronalen Netzen, sie wertet ungeheure Mengen von Daten in immer tieferen Schichten aus. Neuronales Lernen ist zwar inspiriert vom biologischen Vorbild, also vom Gehirn. Aber tatsächlich lernen wir anders: Vor allem, indem wir Dinge, die wir wahrnehmen, in Bezug zu dem setzen, was wir schon wissen.

Deswegen kann ein Kind Katzen von Hunden relativ schnell unterscheiden. 

Ja, es reicht schon, wenn es zwei, drei Katzen und Hunde gesehen und gestreichelt hat, die Eltern haben erklärt: Guck, ein Hund, eine Katze. Dann gleicht ein Kind automatisch immer wieder ab, Katze? Hund? Spätestens nach 10, 20 Begegnungen unterscheidet es sicher Katzen und Hunde. Eine KI schafft das vielleicht mit Millionen Daten über Katzen und Hunden, weil ihr die Interaktion mit der realen Welt fehlt. Sie hat nicht die wesentlichen Dinge gelernt hat, in denen sich reale Katzen voneinander unterscheiden. Schon winzige Details können sie daher ins Straucheln bringen.

Weil das Kind viele unterschiedliche Informationsarten gleichzeitig verarbeiten und in Beziehung setzen kann

… dabei mit anderen interagiert, die permanent Feedback geben. Ein KI-Modell ist wie ein Alien, der auf die Erde schaut und anhand des Internets die Menschheit kennenlernen möchte. Es mag dann eine oberflächliche Vorstellung davon haben, was die Menschheit ist. Aber wenn der Alien nicht mit den Leuten gefeiert, geliebt, gelitten, unterschiedliche Kulturen und Leute kennengelernt hat, hat er eigentlich noch gar nichts kapiert vom Menschen.

Auch bei Good Impact: Ist KI eine Gefahr für die Demokratie?

Noch sind wir von KI mit Wirklichkeitserfahrung also weit entfernt, aber schon die neuen Sprachmodelle faszinieren viele. ChatGPT -3 wird von Millionen Menschen genutzt und lernt so dazu, jetzt ist die vierte Version auf dem Markt. Was wird sich mit dieser KI verändern?

Das Internet. Suchmaschinen mit Page-Ranking-Logik könnten ein Auslaufmodell werden. In Zukunft laufen Anfragen im Dialog und viel präziser. Man stellt eine Frage, bekommt einen geschliffenen Text von der KI. Man wird nachfragen können, ah, okay, die Inflationsrate in Deutschland lag 2022 bei 6,9 Prozent, stell mir die Inflationsraten der vergangenen zehn Jahre zusammen. Dann spuckt die KI eine Tabelle mit Quellen aus. Rumsuchen und Dokumente auswerten entfällt.

Klingt nützlich. Aber was ist, wenn Meinungsbeiträge oder tendenziöse Analysen im Internet immer häufiger von einer KI erstellt werden? Schon jetzt beeinflussen Deep Fakes die öffentliche Meinungsbildung. Wie können wir künftig unterscheiden, ob Inhalte von Technik oder von einem Menschen erstellt wurden?

Es rollt da ein riesiges Problem auf uns zu: Vermutlich werden in zwei, drei Jahren die meisten Texte im Internet von einer KI generiert sein und niemand kann es erkennen. Das betrifft alles: Content, Rezensionen, Werbung, Statements von Entscheider:innen und Expert:innen. Bots werden sich geschliffen ausdrücken und auf Rückfragen antworten. Sie werden lauter Kram machen, die sie von einem normalen User nicht unterscheidbar macht. Schon jetzt hat man in den meisten Dialogen, die man mit ChatGPT führt, das Gefühl, dass dahinter ein Mensch steht.

Was lässt sich dagegen tun?

Wir brauchen Verfahren, die Fakes und Herkunft von Inhalten erkennen und markieren. Content könnte mit einem Wasserzeichen gekennzeichnet werden. Ansätze gibt es, die müssen wir verbessern. Eventuell müssten sich große Hersteller von KI-Modellen in sensitiven Anwendungsbereichen wie Medizin verpflichten, sich strengen Audits zu unterziehen. Wenn dies nicht passiert, wird es mittelfristig eine Art Premium Internet geben, in dem alle Anwender bekannt sind und die Quellen offen liegen. Für Entwickler gibt es das längst. Crunch Space etwa ist eine große Programmierer-Plattform, auf der sich die Leute über Codes, Best Practice etc austauschen. KI ist da verboten. Wenn wir keinen Weg finden, KI-generierte Massenware von Qualitätsbeiträgen von Menschen zu unterscheiden,  droht das Internet zu einem grauen Rauschen zu werden, genauso attraktiv wie 150 Kanäle Kabelfernsehen. Wichtige Informationen wird man sich man woanders holen.

Von  Webseiten etwa, die einem garantieren, dass keine maschinell generierten Texte ausgespuckt werden…

… oder nur von solchen, die Menschen zuvor genau überprüft haben und deren Herkunft klar gekennzeichnet ist. Eine Art Qualitätslabel für Chatbots und KI-Texte online wäre eine Möglichkeit. Der AI-Act der EU geht da inzwischen einen ganz guten Weg. Er clustert KI-Systeme in Risikoklassen. Wo ist die Verwendung eines KI-Systems besonders heikel, etwa in der Medizin, wo weniger, wie können wir das überwachen? Entsprechend müssen die Systeme abgesichert werden und unterschiedliche Kriterien erfüllen. Durch Erklärbarkeit, Transparenz und Audits. Ein grundsätzlicher Bann von KI-Technologie wäre allerdings grober Unsinn.

Reden wir über das politische System. Wo könnten wir Künstliche Intelligenz hier sinnvoll einsetzen?

Um komplexe Sachverhalte aufzubereiten, in der Verwaltung zum Beispiel. Oder um Hunderte Seiten Expert:innenbewertung auf zwei herunterzudampfen und so langsam die Qualität politischer Diskurse in der Öffentlichkeit zu verbessern. Was sind die wichtigsten Positionen zum Tempolimit, zu Atomkraft, zu Wasserstoff? Parlamentsdebatten, über die kaum mehr jemand einen Überblick hat, lassen sich mit KI neu erschließen. Auch in der Wissenschaft kann Künstliche Intelligenz eine Hilfe sein, indem sie etwa die relevanten Veröffentlichungen auf einem bestimmten Gebiet zusammenfasst. Die Zahl der Veröffentlichungen steigt ja seit Jahren so massiv, dass es für Forschende immer schwerer wird, einen Überblick zu behalten.

Aber woher weiß ich, dass dieser Zusammenschnitt richtig gewichtet und angemessen wiedergegeben ist?

Da gibt es keine Garantie. Man kommt um Stichproben nicht herum. Vor allem brauchen wir Systeme, die sichtbar machen, wie die KI zu ihrer Auswahl oder einer Entscheidung gekommen ist. Vertrauenswürdige KI also. Das ist derzeit eine zentrale Forschungsfrage. Es gibt dafür noch keine sicheren Verfahren. Was im Inneren dieser Systeme vorgeht, verstehen wir nur ansatzweise.

KI bei der politischen Entscheidungsfindung einzusetzen, wäre also riskant. 

Es ist ja völlig klar: Je mehr wir uns bei politischen Entscheidungen auf KI stützen wollen, desto mehr Transparenz ist nötig. Natürlich sollten wir dann genau wissen, wie sie arbeitet und transparent kommunizieren, wo sie eingesetzt wird.

Einige erhoffen sich vom Einsatz von KI Systemen mehr Handlungsklarheit beim Klimaschutz.

Warum wir keine Paywall haben

Liebe:r Leser:in,

leider kann sich nicht jeder Mensch journalistische Angebote leisten. Mit einer Bezahlschranke würden wir manche Menschen von unserem Online-Magazin ausschließen. Daher gibt es in unserem Online-Magazin keine Paywall. 

Aber auch wir benötigen Einnahmen, um Gehälter und Miete zu bezahlen. Die Lösung: Du entscheidest selbst, ob und wie viel du für unsere journalistische Arbeit bezahlen kannst – und wir verzichten auf Paywall und nervige Werbebanner.

KI kann sehr viel für den Klimaschutz tun, aber ich halte es für sehr heikel den Menschen aus der Gleichung zu streichen und Künstliche Intelligenz politische Entscheidungen treffen zu lassen. Selbst wenn sie besser ist als ein Mensch, handelt man sich am Ende Risiken ein. Die Entscheidungen müssen ja Menschen vermittelt werden. Und werden wir einer KI eher vertrauen als einem Menschen? Werden wir ihr eine Entscheidung über unseren Alltag überlassen, nur weil sie sagt: Das ist jetzt nötig? Wenn ein System sagt, wir machen jetzt dies und jenes, müsste es ja die Leute schon im Jahr eins überzeugen, dass dies der richtige Weg ist, auch wenn sie keine Lust dazu haben. Ob es richtig war, stellt sich aber erst in 20, 30 Jahren heraus. Ich glaube, da hat es ein Robert Habeck leichter, die Menschen zu überzeugen.

Nun, ohnehin ist das Training von KI-Systemen ungeheuer energieaufwändig. Lässt sich dieser Ressourcenaufwand für die Technik rechtfertigen? 

Ja, KI kostet viel Energie. Wir haben einen eigenen Stromanschluss für unser Rechenzentrum in Kaiserslautern. In unserem Gebäude verbraucht die KI dreißig Prozent der Energie. Den hohen Energieverbrauch der Technik müssen wir bei Entscheidungen für oder gegen den Einsatz von KI immer mitdenken. Gleichzeitig müssen wir alle Möglichkeiten optimieren, um KI grüner zu machen, indem wir etwa die Abwärme von Rechenzentren effizienter nutzen. Doch die Uhr tickt. Ich glaube, wir tun gut daran, lieber jetzt etwas mehr CO2 in die Technik zu investieren, damit wir langfristig weniger erzeugen. Ohne KI wird die Energiewende kaum gelingen. Nur mit ihrer Hilfe lassen sich Versorgungssysteme optimal managen. Wenn wir jetzt die Forschung zurückfahren,  riskieren wir die Energiewende – und werden abhängig von Technologie aus anderen Ländern.

 

Bild: Unsplash / John Schnobrich

In zwei bis drei Jahren könnte der meiste Content im Internet von einer KI stammen, sagt Antonio Krüger, CEO des Deutschen Forschungszentrums für Künstliche Intelligenz. (Symbolbild)

Weiterlesen