Künstliche Intelligenz: Unsere Zukunft oder der drohende Ruin?

  • Künstliche Intelligenz kann das Leben von Menschen einfacher und sicherer machen.
  • Allerdings kann sie auch Vorurteile reproduzieren und sogar zum Töten eingesetzt werden.
  • Richtlinien sollen das verhindern. Einen Konsens gibt es allerdings noch nicht.
|
Anzeige
Anzeige

Hannover. Darf man einen Menschen töten, um fünf zu retten? Der Weichenstellerfall (Trolley-Problem) ist ein bekanntes moralisches Gedankenexperiment. Früher ging es dabei oft um eine Straßenbahn, die unaufhaltsam auf eine Gruppe von fünf Personen zurast. Der arme Weichensteller muss sich nun entscheiden: Tut er nichts und lässt die fünf Menschen sterben, oder lenkt er die Bahn auf eine Strecke um, auf der sie nur eine Person tötet?

Heute scheint das Problem aktueller denn je. Dabei geht es aber nicht mehr um Straßenbahnen und Weichensteller, sondern um selbstfahrende Autos. In Zeiten, in denen Maschinen immer häufiger selbstständig Entscheidungen fällen, scheint es eine wichtige Frage zu geben: Sollte ein selbstfahrendes Auto im Ernstfall einen Fußgänger überfahren, um das Leben der Insassen zu retten? Eine relevante Frage, sollte man meinen. Aber Meredith Whittaker hat nicht viel für sie übrig. Sie ist KI-Expertin, ehemalige Google-Mitarbeiterin und Gründerin des AI Now Institute, das sich mit den sozialen Auswirkungen von künstlicher Intelligenz (KI) befasst. Als solche kritisiert Whittaker: Das Weichenstellerproblem reduziert extrem komplexe Probleme auf eine simple Entweder-oder-Frage. Hilfreich ist das nicht, vor allem aber lenkt es von den eigentlichen Pro­blemen ab.

Künstliche Intelligenz: In unserem Alltag längst keine Seltenheit mehr

Weiterlesen nach der Anzeige
Anzeige

Der Milliardär Elon Musk hat Angst vor der KI-Apokalypse. Vor einer künstlichen Intelligenz, die so mächtig wird, dass sie die Menschheit versklavt. Es ist eine ferne, unwahrscheinliche Zukunft. Aber auch von einer Welt, in der Autos selbstständig durch die Straßen steuern, sind wir im Jahr 2019 noch weit entfernt. Die Frage, wie Algorithmen ihre Entscheidungen treffen, stellt sich dagegen schon heute.

Denn die Algorithmen um uns herum beeinflussen schon längst unser Leben. Algorithmen sind, so beschreibt es die Mathematikerin Hannah Fry, ebenso Teil der modernen Infrastruktur wie Brücken, Gebäude und Fabriken. Sie arbeiten in Krankenhäusern, auf Polizeiwachen oder in Supermärkten. Sie helfen bei der Suche nach passenden Bewerbern oder bei der Bewertung von Kreditanträgen. Dabei können die künstlichen Intelligenzen – so nennt man vereinfacht gesagt, einen Algorithmus, der selbstständig lernt – einen tollen Job machen. Sie können Filme empfehlen, Hautkrebszellen erkennen und Hasspostings auf Facebook löschen.

Wenn Daten verzerrt werden: Die Schattenseite der Technologie

Anzeige

Das Problem ist nur: KI ist eine Technologie, die man ebenso einsetzen kann, um automatische Waffensysteme zu bauen, die selbst die Entscheidung treffen, ob sie einen Menschen töten. Oder um, wie es etwa in China schon praktiziert wird, Menschen anhand verschiedener Merkmale zu bewerten. Problematisch wird es auch, wenn Algorithmen Vorurteile reproduzieren und unfaire Entscheidungen treffen. Menschen tendieren dazu, die Empfehlungen eines Algorithmus für neutral zu halten. Tatsächlich aber hängt viel davon ab, mit welchen Daten er trainiert wird. „Enthalten die Daten eine Verzerrung, kann die KI menschliche Vorurteile indirekt weitergeben“, erklärt Philosophieprofessor Thomas Metzinger von der Universität Mainz. Dann bevorzugt ein Algorithmus zum Beispiel männliche Bewerber oder empfiehlt Afroamerikaner seltener für eine Entlassung auf Kaution.

Das zu verhindern ist gar nicht so einfach. Ein Algorithmus denkt nicht wie ein Mensch, mit der Nachvollziehbarkeit ist es oft schwierig. „Selbst die Entwickler können sehr oft nicht erklären, wie genau es zu einer Entscheidung gekommen ist“, sagt Metzinger. Und oft wollen die Unternehmen das auch gar nicht.

Anzeige

Nur mit vielen Daten werden schlaue Algorithmen geschaffen

„Die KI, die derzeit unser Leben und unsere Institutionen berührt, ist eine Unternehmenstechnologie“, sagt Whittaker in einem Vortrag auf der Falling Walls Conference in Berlin. Um schlaue Algorithmen zu erschaffen, braucht man viel Rechenleistung und viele Daten, mit denen man sie trainieren kann. Nur eine Handvoll Unternehmen, darunter Amazon, Microsoft und Google, verfügten über diese Voraussetzungen, sagt Whittaker. Dazu kommen Staaten wie China. Sie alle sind nicht gerade für ihre Transparenz bekannt.

Experten haben Verbesserungsvorschläge für den Einsatz künstlicher Intelligenz

Dabei gibt es Ideen, wie man es besser machen könnte. Vorstellbar ist zum Beispiel, dass man den Einsatz von KI in bestimmten Bereichen einfach verbietet. „28 Länder haben etwa die Entwicklung tödlicher autonomer Waffensysteme verboten“, sagt Metzinger. „Deutschland gehört nicht dazu.“ Man könne auch regeln, dass eine KI in bestimmten Situationen nicht ohne Prüfung durch einen Menschen Entscheidungen treffen darf. Und um sicherzustellen, dass eine KI keine – zumindest offensichtlichen – Vorurteile reproduziert, könnte man sie vor ihrer Anwendung durch Ethiker, Datenschutzexperten oder Juristen überprüfen.

KI-Technologie: Hemmen strengere Regeln Innovationen?

Anzeige

An Vorschlägen mangelt es also nicht – auch nicht in Deutschland: Das Arbeitsministerium plant etwa einen KI-TÜV. Von einem KI-Konsens ist man aber noch weit entfernt. „Es gibt weltweit inzwischen weit über 80 verschiedene Ethikrichtlinien – die von Unternehmen gar nicht mit eingerechnet“, sagt Metzinger. „Doch die meisten davon sind butterweich und quasi inhaltsleer, eher als Marketingmaßnahmen zu verstehen.“ Zu Recht, würden Kritiker vielleicht sagen, strengere Regeln hemmten schließlich Innovationen. Metzinger dagegen befürchtet, dass es in einem solchen Umfeld zu einem globalen Unterbietungswettlauf kommen könnte. Vom Bericht der deutschen Datenethikkommission ist er aber sehr angetan, und auch in die EU setzt er – wie Whittaker – große Hoffnung.

Ein Lichtblick sei, dass Google, Amazon und Co. für ihre Software „nicht einfach 18 verschiedene Versionen erstellen können”, sagt Whittaker. So können regionale Gesetze wie etwa die EU-Datenschutz-Grundverordnung plötzlich eine globale Wirkung haben. Denn Alternativen, die solche Gesetze unterlaufen, sind nicht so leicht zu programmieren.

“Staat, Sex, Amen”
Der neue Gesellschaftspodcast mit Imre Grimm und Kristian Teetz
  • Laden Sie jetzt die RND-App herunter, aktivieren Sie Updates und wir benachrichtigen Sie laufend bei neuen Entwicklungen.

    Hier herunterladen