• Startseite
  • Digital
  • USA: Tod von George Floyd - IBM beendet Geschäft mit Gesichtserkennung

Nach gewaltsamen Tod von George Floyd: IBM beendet Geschäft mit Gesichtserkennung

  • Wegen Bedenken bezüglich rassistischer Klischees will der US-Computerkonzern IBM auf die Entwicklung von Gesichtserkennungssoftware verzichten.
  • Nicht nur der Verkauf, auch die Forschung auf entsprechendem Feld soll eingestellt werden.
  • Dies teilte die Geschäftsführung in einem Brief an den US-Kongress mit.
Anzeige
Anzeige

IBM hat angekündigt, sich aus dem Geschäft mit Gesichtserkennungssoftware zurückzuziehen. Unternehmenschef Arvind Krishna hatte sich dazu am Montag in einem Brief an den US-Kongress gewandt.

“IBM lehnt die Verwendung jeglicher Gesichtserkennungstechnologie, einschließlich der von anderen Anbietern, zum Zweck der Massenüberwachung, des Racial Profiling, der Verletzung grundlegender Menschenrechte und Freiheiten sowie zu jeglichem Zweck, der nicht mit unseren Werten und Grundsätzen des Vertrauens und der Transparenz vereinbar ist, entschieden ab und wird dies auch nicht dulden”, heißt es in dem Schreiben. Anlass für den Brief ist der gewaltsame Tod von George Floyd und die US-weiten Massenproteste.

Video
Amazon gibt Gesichtserkennungssoftware nicht mehr an die Polizei weiter
1:04 min
Das US-Unternehmen will zunächst stärkere Regelungen für den Einsatz der Software, um ethisch fragwürdigen Gebrauch auszuschließen.  © Reuters
Weiterlesen nach der Anzeige
Anzeige

Das Unternehmen werde keine Gesichtserkennung mehr anbieten und die Forschung in diesem Bereich nicht weiter fortsetzen. Supportvereinbarungen mit bereits bestehenden Kunden werde man aber weiterhin nachkommen. “Wir glauben, dass es jetzt an der Zeit ist, einen nationalen Dialog darüber zu beginnen, ob und wie Gesichtserkennungstechnologie von ansässigen Strafverfolgungsbehörden eingesetzt werden sollten”, heißt es weiter.

Programme neigen zu Vorurteilen

Der Einsatz von Gesichtserkennungssoftware sorgt immer wieder für Kritik. Unter anderem beleuchtete eine Analyse der IT-Expertinnen Joy Buolamwini und Timnit Gebru aus dem Jahr 2018, dass viele derartige Programme voreingenommen handeln. So erkannten die Softwares Bilder von weißen Männern mit einer Fehlerquote von 0,3 Prozent besonders gut. Bei Männern mit dunkler Hautfarbe lag die Fehlerquote bei 6 Prozent, bei schwarzen Frauen lagen die Programme sogar in 30,3 Prozent der Fälle falsch. Auch geschlechterspezifische Klischees machen den Algorithmen zu schaffen. Erst kürzlich hatte sich Google deshalb dafür entschieden, bei der Bilderkennung nicht mehr zwischen Geschlechtern zu unterscheiden.

In der Debatte um Gesichtserkennungen hatte IBM im Frühjahr vergangenen Jahres selbst für negative Schlagzeilen gesorgt. Damals nutzte das Unternehmen unerlaubt Hunderttausende Flickr-Bilder, um seine KI zu trainieren. Urheber der Bilder wurden nicht darüber informiert. Zudem soll IBM den Datensatz auch an andere Forschungseinrichtungen weitergegeben haben.

RND/mkr

“Staat, Sex, Amen”
Der neue Gesellschaftspodcast mit Imre Grimm und Kristian Teetz
  • Laden Sie jetzt die RND-App herunter, aktivieren Sie Updates und wir benachrichtigen Sie laufend bei neuen Entwicklungen.

    Hier herunterladen