Deepfakealarm

Ist KI eine Gefahr für die Demokratie?

In Dänemark wirbt ein KI-Politiker um Wählende, weltweit verunsichern Deepfakes und synthetische Meinungsmache die Menschen. Doch gibt es statt Risiken auch Chancen?

„Willkommen, Undercover. Schön, dich zu sehen.“ Auf dem schwarzen Chat-Screen wackeln, tanzen, winken bunte Avatare. Und doch: Erstaunlich stumm hier. Nach der automatischen Begrüßung keine Spur von hitziger Debatte bei der digitalen Vollversammlung der Synthetischen Partei Dänemarks an diesem Nachmittag im Januar. Vielleicht funktioniert es auf Nachfrage: „Hej, Parteivorsitzender Lars, was willst du in Dänemark verändern?“ Lars legt los: „In Bildung und einen Wohlfahrtsstaat investieren, Ungleichheit abbauen und die Umwelt schützen, eine bessere Zukunft durch KI schaffen. Ich möchte eines Tages Präsident werden.“ 

„Det Syntetiske Parti“ ist die erste KI-Partei in Europa, komplett gesteuert von Künstlicher Intelligenz. Ihre Vollversammlung läuft seit Mai 2022 rund um die Uhr, jede:r kann sich zum Plausch mit KI-Politiker Lars über den Online-Dienst Discord einklinken. 23 Menschen sind bislang Mitglied, den Einzug in das dänische Parlament Ende 2022 hat die Partei nicht geschafft, aber hier geht es ohnehin nur um ein Symbol. Ein Kunstprojekt, mit dem die dänische Tech-Organisation MindFuture Foundation Grundsatzfragen auf den Tisch der Öffentlichkeit legen will: Wie könnte KI unsere Demokratie verändern?

Damit beschäftigt sich Armin Grunwald, fernab der Kunst, mitten im Zentrum der politischen Macht in Deutschland. Heute Mittag hat er den Mantelkragen hochgeschlagen, seine Laptoptasche unter den Arm geklemmt und ist durch den Berliner Schneeregen vom Bundestag zum Hauptbahnhof gestapft. Die Sitzung der Arbeitsgruppe Technikfolgen-Abschätzung ist vorbei. Einmal im Monat sitzen Abgeordnete mit Expert:innen aus Technik, Soziologie oder Technikphilosophie wie Grunwald, Professor am Karlsruher Institut für Technologie (KIT), zusammen, um auszuloten: Was kommt da eigentlich auf uns zu?

„Viele junge, tech-interessierte Abgeordnete“

„Die gute Nachricht ist“, sagt Grunwald, „in der Politik hat sich viel getan.“ Nur zu gut erinnert er sich an seine ersten Sitzungen in den 00er-Jahren. Lauter ältere Herren, denen das Faxgerät näher war als der Computer. Digitalisierung? Wozu? „Heute sitzen da viele junge, tech-interessierte Abgeordnete, die sich bestens auskennen und  wissen:  Deutschland muss KI aktiv mitgestalten und nutzen, aber was ist der klügste Weg für unsere Demokratie?“

Denn Probleme gibt es reichlich. Zum Beispiel: Die Manipulation der öffentlichen Meinung durch Deepfakes, also KI-generierte, täuschend echte Bilder, Audios oder Videos, mit denen Stimme oder Gesicht von Politiker:innen gefälscht, ihnen Aussagen untergeschoben oder Skandale inszeniert werden können. Furore machte im November 2022 eine Reihe von Fake-Videocalls eines synthetischen Doubles des Kyjiwer* Bürgermeisters Vitali Klitschko bei Amtskolleg:innen in Madrid, Wien und Berlin. Zwar flog der Fake-Klitschko schnell auf, doch absehbar ist: So wird es nicht immer laufen.

Ausgabe #2 als PDF erhalten

Gratis Ausgabe für dich

Die Bestseller-Ausgabe “Von Cyborgs und Chatbots” nimmt das Thema künstliche Intelligenz unter die Lupe – hier kannst du dir die Ausgabe gratis als PDF-Download sichern.

Vor einer Ära der Fälschungen, in der echt und falsch kaum noch zu unterscheiden sein könnten, warnt Eric Horvitz, Wissenschaftschef von Microsoft. Immer schwerer zu erkennen werden auch KI-generierte Bots, die mit Falschinformationen und steilen Meinungsäußerungen hasserfüllte Debatten befeuern. Firmen versuchen technisch gegenzuhalten: mit KI gegen KI. In Sekundenschnelle gleicht eine KI des österreichischen Start-ups Factinsect Social-Media- Nachrichten mit Meldungen aus Qualitätsmedien auf Richtigkeit ab. Chiphersteller Intel verspricht Deepfakes mit KI-Detektiven aufzudecken, die nach biologischen Signalen in den Pixeln von Videos fahnden, um diese zu verifizieren. Ob das ausreicht? Grunwald: „Es ist ein Wettlauf, der nicht zu gewinnen ist – wie Schlosshersteller gegen Fahrraddieb.“ 

Ist Künstliche Intelligenz eine Gefahr für die Demokratie?

China will mit Verboten gegensteuern. Als erstes Land der Welt hat es gerade ein Gesetz gegen Deepfakes verabschiedet. Die EU erließ Ende 2022 ihren Digital Services Act (DSA): Sehr große Plattformen und Suchmaschinen sollen generierte oder manipulierte Bilder, Audios oder Videos in Zukunft deutlich sichtbar markieren. Doch Gesetze allein werden nicht reichen. Es braucht mehr: „KI-Literacy“ fordert Norbert Huchler, Sozialwissenschaftler und Leiter des Projekts KI-Mensch-Gesellschaft (KIMeGe) am Institut für Sozialwissenschaftliche Forschung in München. Er meint damit: KI verstehen und einordnen können. Wie erkennt man Kommentare von Bots in Online-Diskussionen? Wie kommen algorithmische Systeme zu ihrer Schlussfolgerung? Huchler: „Und wir brauchen noch mehr Medienkompetenz und politische Bildung, eine wichtige Aufgabe für Schulen.“ Damit User:innen einschätzen können: Welche Äußerungen sind plausibel für eine Politikerin von Partei X oder Y? Damit sie wirklich begreifen, wie wichtig es ist, sich Hintergrundinformationen bei seriösen Institutionen wie Universitäten oder NGOs zum Thema zu holen statt auf schnelle Social-Media-Posts vermeintlich kompetenter Einzelner zu vertrauen. 

KI kann aber auch eine Chance sein in der Demokratie. Zum Beispiel, indem sie hilft, Bürger:innen politisch besser zu informieren. Politikwissenschaftler Christoph Bieber,  Leiter Digitale Demokratische Innovationen am Center for Advanced Internet Studies in Bochum: „Ein KI-System könnte Parteiprogramme und Parlamentsdebatten zusammenfassen, in leichte Sprache übersetzen und helfen, politische Entscheidungen transparenter zu machen.“ Ähnlich wie in Empfehlungssystemen bei Spotify, könnten automatisierte Systeme Bewegungs- und Sozialdaten von Wähler:innen auswerten: Wo wohnt der Wählende, welche Probleme gibt es im Bezirk, was braucht er oder sie im Alltag, was ist persönlich gerade wichtig, welche Lösungen dazu bieten die Parteien an? „Wahlempfehlungs-Apps lassen sich mit lernenden Systemen enorm verfeinern und immer wieder individuell anpassen“, so Bieber, „ein My-Wahlomat entsteht.“

Natürlich bieten solche Systeme reichlich Spielraum für Manipulation. „Daher müssen wir sie einerseits an etablierte Institutionen anbinden, die für ihre Qualität stehen, und sie regelmäßig überprüfen und weiterentwickeln“, schlägt Bieber vor. „Andererseits brauchen wir klare Regularien, die demokratisch ausgehandelt werden und im Bauplan der KI selbst sichtbar machen: Welche Daten fließen ein, nach welchen Mechanismen funktioniert die Technik?“ An Lösungen für solche „erklärbare“ oder „vertrauenswürdige“ KI tüftlen Expert:innen weltweit. Denn KI läuft inzwischen zunehmend auf Basis neuronaler Netze. Was in ihren komplizierten Verästelungen abläuft, lässt sich nicht so einfach durchschauen – weil sie eigenen Gesetzen folgt. Es braucht ausgefeilte Methoden, um sie für Menschen erkennbar zu machen.

Artificial Intelligence Act der EU als Schrittmacher

Vorschläge für ein Regelwerk für Entwickler:innen hat schon 2019 die Datenethikkommission (DEK) der Bundesregierung gemacht, für März ist eine umfangreiche Stellungnahme des Deutschen Ethikrats angekündigt. Als Schrittmacher aber gilt der Artificial Intelligence Act (AI Act) der Europäischen Union, der die Auswirkungen von Künstlicher Intelligenz auf den Alltag der Bürger:innen regeln und Transparenz schaffen soll. Auch südamerikanische Länder wie Brasilien (2018) und Chile (2019) haben Gesetze verabschiedet, um den Umgang mit KI zu regulieren – in Brasilien etwa sind Unternehmen verpflichtet, ihre KI-Algorithmen offenzulegen, wenn sie welche verwenden. Doch der AI Act der EU wäre umfassender. Nach einem komplizierten System werden zunächst Risiken beim Einsatz unterschiedlicher Formen von KI bewertet, dann wird ein Rechtsrahmen geschaffen: Das ist erlaubt, das nicht. Um Einzelheiten wird kontrovers gerungen, 2024 soll das Gesetz verabschiedet werden. Bieber: „Vieles ist noch Theorie.“ 

Dein Abo, dein Preis

Werde eine*r von über 5.000 Abonnent*innen und finanziere unsere journalistische Arbeit. Du kannst selbst entscheiden, welcher Preis für dich fair und machbar ist.

  • 6 Ausgaben / Jahr
  • Abos schon ab 35 € / Jahr

Für alle, die sich ein Abo nicht leisten können, bieten wir außerdem kostenlose Soli-Abos.

Anika Krellmann sitzt derweil mitten in der Praxis. Sie ist Referentin bei der Kommunalen Gemeinschaftsstelle für Verwaltungsmanagement (KGSt), in der gut 2.400 Kommunen organisiert sind, die den Wind der Moderne in ihre Amtsstuben holen wollen. Top-Thema: Wie können wir KI-Technik für mehr Gemeinwohl, Bürger:innenbeteiligung, effizientere Abläufe nutzen? 2019 hat Krellmann daher das Co:Lab gegründet, eine Plattform für Zivilgesellschaft, Unternehmen, Vordenker:innen, die im Projekt „KI in Kommunen“ Ideen aus allen Ecken der Republik sammelt. 

Da ist Bilderkennungs-KI, die Menschen mit Beeinträchtigungen an einer Ampel erkennt und automatisch die Grünphase verlängert; da sind Systeme, angebracht an Müllwagen, die alle Straßenbeläge auf der Route filmen, die Daten nach Schlaglöchern oder Hindernissen durchforsten und der Bauverwaltung melden: Achtung, dringlicher Reparaturbedarf. Da wird mithilfe von Übersetzungs-KI Verwaltungskauderwelsch in leichter Sprache entwirrt, im Integrationsamt Schleswig-Holstein gibt der Chatbot Ina schwerbehinderten Menschen Auskunft. Allerdings: „Damit solche Konzepte in großem Stil umgesetzt werden können, müssten die Verwaltungen nicht personenbezogene Daten automatisch digitalisieren und zugänglich machen“, sagt Krellmann. „Daran hakt es noch.“ Immerhin,  die Offenheit wachse.

KI berechnete Vermittlungsaussichten von Arbeitslosen 

Erst am Anfang sind algorithmische Systeme, die automatisiert Entscheidungen treffen oder Politik und Verwaltung Empfehlungen geben. Algorithmic Decision Making (ADM) heißt das im Fachjargon. Sie könnten der Verwaltung zum Beispiel bei der Auswertung von Akten helfen, auf Basis von Sozialdaten Bildungsangebote im Kiez planen oder Sozialleistungen berechnen. Die Krux: Automatisierte Systeme führen leicht in die Irre. Das hat 2018 ein Projekt des österreichischen Arbeitsmarktservice (AMS) gezeigt. Es ließ eine KI die Vermittlungsaussichten von Arbeitslosen berechnen. Auf dieser Grundlage sollten die Mitarbeitenden entscheiden, für wen sich Investitionen in Fortbildungen am meisten lohnen. Ergebnis: Frauen, Menschen mit Behinderungen oder einer Herkunft außerhalb der EU räumte die KI pauschal kaum Chancen ein. „Das System reproduzierte Stereotype“, kritisiert Krellmann. „Der Einsatz von ADM birgt immer die Gefahr, dass sie Missstände zementiert, umgekehrt kann sie diese eben auch offenlegen und damit einen Anstoß geben, sie zu ändern.“

Das AMS-Projekt  wurde gestoppt, der weitere Einsatz ist umstritten. Technikphilosoph Grunwald sieht eine weitere Schwierigkeit: Gerade weil solche Systeme auf Basis ungeheurer Datenmengen exakte Ergebnisse ausspucken, scheinen sie objektiver, als sie sind – und machen bequem.  „Wenn ein ADM-System einem Empfänger 533,20 Euro Sozialleistungen zuweist, werden überlastete Mitarbeiter:innen im Sozialamt kaum nachrechnen“, so Grunwald. „Aber vielleicht würden sie die individuelle Bedürftigkeit ganz anders einschätzen.“ Wie dramatisch Systemfehler werden können, hat 2020 der „Kindergeldskandal“ in den Niederlanden gezeigt. Ein selbstlernender Algorithmus hatte fäschlicherweise den Missbrauch von Sozialleistungen gemeldet und Menschen zu horrenden Strafzahlungen verdonnert. Bis der Irrtum aufflog, rutschten Hunderte in den Ruin. Und selbst kleine Fehleinschätzungen können sich bei ADM schnell zu großen aufbauschen, weil es sie massenhaft reproduziert. Wie bei jener US-amerikanischen Airline, deren Pilot:innen Weihnachten alle frei bekamen – die KI hatte die Feiertage automatisch für alle geblockt. Grunwald: „Ein Mensch hätte so einen Fehler natürlich sofort bemerkt.“ 

Warum wir keine Paywall haben

Liebe:r Leser:in,

leider kann sich nicht jeder Mensch journalistische Angebote leisten. Mit einer Bezahlschranke würden wir manche Menschen von unserem Online-Magazin ausschließen. Daher gibt es in unserem Online-Magazin keine Paywall. 

Aber auch wir benötigen Einnahmen, um Gehälter und Miete zu bezahlen. Die Lösung: Du entscheidest selbst, ob und wie viel du für unsere journalistische Arbeit bezahlen kannst – und wir verzichten auf Paywall und nervige Werbebanner.

Die Lösung liegt für Co:Lab- Expertin Krellmann auf der Hand – eine enge Kooperation von Mensch und Maschinensystemen, bei der kontinuierlich analysiert wird: Welche Verfahren greifen für welches Problem am besten, wo müssen wir Fragestellung, Algorithmen, Datensätze ändern, welche fachlichen Aspekte noch integrieren, wo bringt uns die KI überhaupt weiter? Statt vorschnell auf eine „KI-sierung der Gesellschaft zu setzen, weil sie gerade Trend ist“, so Krellmann. Ihr Vorschlag: feste kommunale Boards, in denen Stadtrat, Verwaltung, wechselnde Expert:innen und  Zivilgesellschaft zusammenarbeiten. „Wenn die kritische Auseinandersetzung mit KI zum gesellschaftlichen Normalfall wird, kann sie ein Gewinn für die Demokratie sein.“ 

Der Parteiführer der Synthetischen Partei Dänemarks hockt immer noch in der Vollversammlung. „Hej, Lars, wie geht dein Lieblingswitz über Politiker:innen?“ „Mein Lieblingswitz ist: Warum hat der Politiker die Straße überquert? In die Mitte kommen und dann umdrehen!“

* die ukrainische Schreibweise der Hauptstadt in lateinischer Schrift

Neues Regelwerk: Der Artificial Intelligence Act (AI Act) der Europäischen Union soll die Auswirkungen auf den Alltag der Bürger:innen regeln, Transparenz schaffen – und 2024 als Gesetz verabschiedet werden. Illustration: Eli Alaimo Di Loro

Weiterlesen