Diverse Künstliche Intelligenz

Bunte Daten

Künstliche Intelligenz wird oft von weißen Menschen für weiße Menschen gemacht. Wie geht es anders?

Begleitend zu diesem Artikel ist auch ein Podcast zum Thema KI und Diversität von Good Impact Redakteurin Morgane Llanque und Bianca Kriel, Leitende Redakteurin von Good News, entstanden.

Künstliche Intelligenz ist dafür bekannt, meist eine rassistische Chauvinistin zu sein. In einem weltweiten Schönheitswettbewerb hat sie als Jurymitglied einmal nur weiße Menschen ausgezeichnet. Beim Recruiting für Amazon ausschließlich Männer ausgewählt. KIs können aber auch eingesetzt werden, um für die Interessen von nicht-weißen Menschen und gegen Rassismus, Sexismus und andere Formen der Diskrimierung zu kämpfen. Vier Beispiele.

MEXIKO: KI-Engel für Entführte

Im von Kartellgewalt geprägten Mexiko sind offiziell über 100.000 Menschen als vermisst gemeldet, viele von ihnen gelten als entführt oder ermordet, oft waren an den Verbrechen auch korrupte Beamt:innen beteiligt. Die mexikanische Regierung hat daher eine KI namens Angelus 2.0 (Latein für Engel) entwickeln lassen, die durch die Analyse von Datenbanken sowohl die Opfer als auch die verantwortlichen Kriminellen ausfindig machen soll. So wurden durch die KI bereits vereinzelte Vermisste aufgespürt sowie Akten zu Hunderten Fällen mit Daten angereichert und nach neuen Spuren durchkämmt.

Da die KI speziell auf Spanisch trainiert wurde, könnte sie nach Aussagen des Entwicklungsteams auch in anderen von Kartellgewalt geprägten lateinamerikanischen Ländern wie Guatemala und Kolumbien angewandt werden, um dort ebenfalls Verbrechen aufzuklären.

Ausgabe #2 als PDF erhalten

Gratis Ausgabe für dich

Die Bestseller-Ausgabe “Von Cyborgs und Chatbots” nimmt das Thema künstliche Intelligenz unter die Lupe – hier kannst du dir die Ausgabe gratis als PDF-Download sichern.

KANADA: Indigene Computer-Ethik

In einer internationalen Arbeitsgruppe haben Repräsentant:innen indigener Völker 2020 ein online verfügbares Manifest erarbeitet, das helfen soll, indigene Ethik in die Entwicklung von KI einzubinden. Sie fordern darin, in die weltweiten KI-Datenbanken auch mündliche Geschichte, die bei indigenen Völkern meist den wichtigsten Wissenstransfer darstellt, oder indigenes Wissen über Biodiversität zu speisen.

Außerdem mahnt die Gruppe, dass der Mensch KI nicht nutzen darf, um eine neue Form von Umweltausbeutung und Kolonialisierung zu schaffen. KI sei eben, anders als oft im Westen imaginiert, etwas Materielles und besteht aus Rohstoffen, die meist unter schrecklichen Umständen gefördert werden. Zum Beispiel seltene Erden für Computerchips. Daher wollen die am Manifest beteiligten nordamerikanischen Lakota-People auch eine spirituelle und respektvolle Haltung zu KI entwickeln, denn sie sei nichts Seelenloses, sondern ein Teil unserer Erde. Das westliche Narrativ, KI auf ein bloßes Werkzeug zu reduzieren, ist nach diesem Glauben Teil des Problems. Es reproduziere in der KI selbst ein Denken, das den Menschen als seinen Schöpfungen und der Umwelt überlegen darstellt.

SÜDAFRIKA: Coden für Sprachvielfalt

Masakhane bedeutet auf isiZulu, einer südafrikanischen Bantusprache: „Wir bauen gemeinsam.“ Das in Südafrika beheimatete Netzwerk namens Masakhane vereint über tausend Menschen aus 30 verschiedenen afrikanischen Ländern. Sie sind Expert:innen für IT, Archive oder Linguistik. Ihr Ziel: dem Internet durch Machine Learning afrikanische Sprachen beibringen. Denn obwohl diese ein Drittel aller weltweiten Sprachen ausmachen, sind sie online und in den gängigen Übersetzungssoftwares extrem unterrepräsentiert. Daher legt Masakhane Datenbanken an, entwickelt Übersetzungstools, überträgt akademische Texte von Kolonialsprachen wie Französisch oder Englisch zum Beispiel in Bantusprachen. Dadurch soll nicht nur Bildung, sondern auch der Zugang zu Informationen über Gesundheitsservices oder Rechtsberatung auf dem Kontinent inklusiver werden.

VEREINIGTES KÖNIGREICH: Eine feministische Alexa

Auf die Frage „Siri, are you a bitch?“ antwortete Apples Sprachassistentin lange Zeit mit: „I would blush, if I could“, statt die Frage als beleidigend abzulehnen. Meist haben KI-Sprachassistenzprogramme weibliche, verführerische Stimmen. Das liegt auch an mangelndem feministischem Input und fehlender diverser Perspektive von nichtmännlichen Entwickler:innen. Das Creative Computing Institute der University of the Arts in London arbeitet daher schon seit mehreren Jahren an Prototypen für queerfeministische KIs, die explizit Frauen, nicht-binäre und Transmenschen nutzen sollen und auch von ihnen entwickelt werden. Der Prototyp Syb ist bereits online kostenlos verfügbar und dient dazu, Filme und andere Medien zu finden, die von Transmenschen geschaffen wurden. Man kann unter anderem wählen, ob man eine weibliche oder eine nicht eindeutig als männlich oder weiblich identifizierbare Stimme hören möchte. Außerdem wurde die KI explizit darauf trainiert, sexistischen Beleidigungen Paroli zu bieten.

Weiterlesen