Wie künstliche Intelligenz Rassismus befördert

  • Künstliche Intelligenz gilt gemeinhin als besonders objektiv und neutral.
  • Dabei sind Algorithmen immer auch ein Spiegel der Gesellschaft.
  • Und so können sie Diskriminierung und Rassismus reproduzieren.
|
Anzeige
Anzeige

Hannover. Den Mythos ihrer Neutralität zu entkräften fällt nicht schwer. Zu zahl­reich sind inzwischen die Beispiele für Diskriminierung durch künstliche Intelligenz (KI). So sollte eine Soft­ware Richterinnen und Richtern in den USA dabei helfen zu beurteilen, ob ein vorzeitig entlassener Häftling wieder straf­fällig wird. Die Recherchen des Journalisten­netzwerks Propublica zeigten, dass das Risiko bei weißen Häftlingen geringer eingestuft wurde als bei dunkel­häutigen.

Der Grund dafür liegt nicht in einer tatsächlich höheren Gefahr für die Gesellschaft. Dunkel­häutige Menschen werden aber in den USA häufiger verhaftet. So waren sie auch überproportional in den Daten­sätzen vertreten, auf deren Basis die KI ihre Sozial­prognose trainierte. „Künstliche Intelligenz hat keine Meinung oder ein Bewusstsein, sondern handelt nach dem, was wir ihr vorgeben. Diese Daten und Informationen sind oft ein Spiegel der Gesellschaft und reproduzieren so auch Vorurteile, zum Beispiel durch Über- und Unterrepräsentation“, erklärt Tobias Matzner, Medien­wissenschaftler an der Universität Paderborn.

Im Personal­wesen sollen Algorithmen dabei helfen, Bewerbungen nach ihrer Pass­genauigkeit vorzusortieren, sie fairer zu beurteilen, vielleicht so ganz nebenbei für mehr Diversität zu sorgen. Doch das klappt nicht immer. So kann es vorkommen, dass Frauen allein wegen ihres Geschlechts weniger Bewerbungs­chancen als Männer haben. Passiert ist das unter anderem beim Online­händler Amazon. Dort hatte man die Bewerbungen von erfolgreich eingestellten Mitarbeitenden als KI‑Trainings­grundlage genutzt. Das Problem: Es wurden vor allem Männer eingestellt, der Algorithmus hielt „männlich“ also für ein positives Einstellungs­kriterium.

Sind faire Algorithmen eine Illusion?

Doch wie lässt sich solche automatisierte Diskriminierung verhindern? Bernhard Beckert, Professor am Karlsruher Institut für Technologie, sieht darin nicht nur eine technische Frage. „Komplett faire Algorithmen halte ich für eine Illusion. Fairness ist ja keine funktionale Eigenschaft, die sich einfach programmieren lässt. Wir brauchen im ersten Schritt eine Antwort auf die Frage, wie viel Fairness ist uns wichtig und wie viel Diskriminierung lassen wir zu“, sagt er. Je nach eigenem Anspruch oder gesetzlichen Rahmen­bedingungen kann und muss dann die Auswahl der nötigen Daten strenger oder laxer sein. Im Prinzip sei die Frage mit dem Daten­schutz vergleichbar, so Beckert. Auch hier nutzen wir bereitwillig Anwendungen mit fragwürdigen Datenschutz­grundsätzen, solange der persönliche Nutzen überwiegt.

Anzeige
Tobias Matzner © Quelle: Privat

Genau solche Abwägungen über die verantwortungs­volle Entwicklung und Nutzung können wir jedoch nur treffen, wenn wir früh­zeitig darüber sprechen. Das gilt in besonderem Maße für die künstliche Intelligenz, die nicht nur welt­weit verfügbar ist, sondern das Potenzial hat, unser Leben und die Arbeits­welt grundlegend zu verändern – im Positiven und im Negativen. Doch vor der Debatte braucht es erst mal ein Problem­bewusstsein – auch bei den Entwicklern.

Anzeige

Eine gute Diskriminierungs­prävention ist eine bewusste Auswahl der Daten­sätze, mit denen die KI trainieren soll. Hierbei braucht es einen genauen Blick dafür, ob Minderheiten ausreichend repräsentiert sind oder ob die Daten rassistisch oder sexistisch sortiert sind. Wenn eine Gesichts­erkennungs­software vornehmlich mit Bildern von weißen Männern trainiert – nur weil es von diesem Teil der Gesellschaft eben besonders viele Bilder gibt – kann das Programm am Ende mit 99-prozentiger Sicherheit männliche Weiße erkennen, nicht aber schwarze Frauen.

Entwickler­teams sind oft nicht divers genug aufgestellt

Weil die Auswahl der Daten von Menschen getroffen wird, ist es wichtig, sich zu fragen, wer mit welchen „Vorurteilen“ an der Entwicklung digitaler Anwendungen beteiligt ist. Oder anders formuliert: Ist das Entwickler­team nicht besonders divers aufgestellt, fehlt ihm oft der Blick für die Belange zahl­reicher gesellschaftlicher Gruppen.

„Wir brauchen dringend ein größeres Bewusstsein für daten­basierte Diskriminierung. Es sollte ein verpflichtendes Thema für IT‑Studien­gänge werden, ähnlich wie es Daten­schutz an vielen Hoch­schulen schon ist“, sagt Matzner. Auch die Schaffung von IT‑Diskriminierungs­beauftragten und Qualitäts­standards zu Daten­qualität oder Transparenz wäre sinnvoll – in Unternehmen, aber auch in staatlichen Institutionen. Sie könnten bei der Entwicklung helfen und Orientierung bieten und im Zweifel auch zum Anwalt der Anwender werden. Das ist nur ein Schritt. Angesichts der Trag­weite neuer Technologien sollten nicht nur die Menschen im Studier­zimmer oder in IT‑Abteilungen über die Dimensionen grundlegender Technologie entscheiden. Gerade die Anwendung von KI im Alltag sollte in allen Dimensionen auch in die breite Öffentlichkeit getragen werden. So entstehen Debatten und ein gesellschaftlicher Konsens, den die Politik in Gesetzen umsetzen kann.

Doch für diesen Konsens braucht es auch mündige Bürgerinnen und Bürger, die selbst über ihre Daten und deren Nutzung entscheiden und sich im Zweifel auch zur Wehr setzen können. Neben Entwicklung und Testung ist die dafür nötige Transparenz von Daten und deren Funktionen ein großer Knack­punkt. Werde ich in einer Firma oder von einer Behörde offen diskriminiert, besteht noch eine gewisse Transparenz und ich kenne im Zweifel sogar den Verursacher, einen Sach­bearbeiter oder Kunden­betreuer zum Beispiel.

Eine flächen­deckende Diskriminierung ist seltener zu erkennen. Bei Entscheidungen durch häufig verwendete KI kann aus einem Einzel­fall schnell ein großes Problem werden, dessen Ursachen für den Anwender völlig intransparent bleiben. Entweder ist der Programmier­code zu komplex oder bleibt als Betriebs­geheimnis für Außen­stehende unsichtbar. Genau deshalb wären auch verlässliche Regeln, Zertifikate oder Prüfungen durch Daten­diskriminierungs­stellen sinnvoll. Davon sind wir aber noch ein ganzes Stück entfernt.

EU‑Kommission ist aktiv geworden

Einen ersten Schritt in diese Richtung hat die EU‑Kommission immerhin im Frühjahr getan. So ist in dem KI‑Gesetzes­vorschlag nicht nur ein generelles Verbot von Massen­überwachung vorgesehen. Auch Anwendungen, die kritischer Infra­struktur wie der Justiz oder Polizei helfen oder die Bewerberinnen und Bewerbern für einen Job auswählen, sollen verwendete Daten und ihre Nutzung transparent machen und zusätzlich von Menschen überwacht werden.

Matzner hält diesen Schritt für wichtig. „Technologie frühzeitig zu reglementieren, ist enorm wichtig. Das bedeutet ja nicht, sie gleich zu verteufeln. Im Gegen­teil, durch KI können wir auch bestehende Diskriminierung ausmachen oder bestimmte Prozesse fairer gestalten“, sagt er. So hilft künstliche Intelligenz inzwischen auch dabei, Hass­rede im Netz aufzufinden und zu löschen oder Stellen­ausschreibungen so zu formulieren, dass sich niemand wegen seines Geschlechts, seiner sexuellen Orientierung oder Herkunft abgeschreckt fühlt. Noch sind es vor allem Projekte in der Nische. Um mehr von solchen konstruktiven Lösungen zu entwickeln, müssen wir uns des Problems noch bewusster werden.

  • Laden Sie jetzt die RND-App herunter, aktivieren Sie Updates und wir benachrichtigen Sie laufend bei neuen Entwicklungen.

    Hier herunterladen