Sind Sie bereits Abonnent? Hier anmelden

Nach gewaltsamen Tod von George Floyd: IBM beendet Geschäft mit Gesichtserkennung

IBM steigt aus dem Geschäft mit Gesichtserkennung aus.

IBM steigt aus dem Geschäft mit Gesichtserkennung aus.

IBM hat angekündigt, sich aus dem Geschäft mit Gesichtserkennungssoftware zurückzuziehen. Unternehmenschef Arvind Krishna hatte sich dazu am Montag in einem Brief an den US-Kongress gewandt.

Weiterlesen nach der Anzeige
Weiterlesen nach der Anzeige

“IBM lehnt die Verwendung jeglicher Gesichtserkennungstechnologie, einschließlich der von anderen Anbietern, zum Zweck der Massenüberwachung, des Racial Profiling, der Verletzung grundlegender Menschenrechte und Freiheiten sowie zu jeglichem Zweck, der nicht mit unseren Werten und Grundsätzen des Vertrauens und der Transparenz vereinbar ist, entschieden ab und wird dies auch nicht dulden”, heißt es in dem Schreiben. Anlass für den Brief ist der gewaltsame Tod von George Floyd und die US-weiten Massenproteste.

Amazon gibt Gesichtserkennungssoftware nicht mehr an die Polizei weiter

Das US-Unternehmen will zunächst stärkere Regelungen für den Einsatz der Software, um ethisch fragwürdigen Gebrauch auszuschließen.

Das Unternehmen werde keine Gesichtserkennung mehr anbieten und die Forschung in diesem Bereich nicht weiter fortsetzen. Supportvereinbarungen mit bereits bestehenden Kunden werde man aber weiterhin nachkommen. “Wir glauben, dass es jetzt an der Zeit ist, einen nationalen Dialog darüber zu beginnen, ob und wie Gesichtserkennungstechnologie von ansässigen Strafverfolgungsbehörden eingesetzt werden sollten”, heißt es weiter.

Weiterlesen nach der Anzeige
Weiterlesen nach der Anzeige

Programme neigen zu Vorurteilen

Der Einsatz von Gesichtserkennungssoftware sorgt immer wieder für Kritik. Unter anderem beleuchtete eine Analyse der IT-Expertinnen Joy Buolamwini und Timnit Gebru aus dem Jahr 2018, dass viele derartige Programme voreingenommen handeln. So erkannten die Softwares Bilder von weißen Männern mit einer Fehlerquote von 0,3 Prozent besonders gut. Bei Männern mit dunkler Hautfarbe lag die Fehlerquote bei 6 Prozent, bei schwarzen Frauen lagen die Programme sogar in 30,3 Prozent der Fälle falsch. Auch geschlechterspezifische Klischees machen den Algorithmen zu schaffen. Erst kürzlich hatte sich Google deshalb dafür entschieden, bei der Bilderkennung nicht mehr zwischen Geschlechtern zu unterscheiden.

In der Debatte um Gesichtserkennungen hatte IBM im Frühjahr vergangenen Jahres selbst für negative Schlagzeilen gesorgt. Damals nutzte das Unternehmen unerlaubt Hunderttausende Flickr-Bilder, um seine KI zu trainieren. Urheber der Bilder wurden nicht darüber informiert. Zudem soll IBM den Datensatz auch an andere Forschungseinrichtungen weitergegeben haben.

RND/mkr

Mehr aus Digital

 
 
 
 
 
Anzeige
Anzeige
Empfohlener redaktioneller Inhalt

An dieser Stelle finden Sie einen externen Inhalt von Outbrain UK Ltd, der den Artikel ergänzt. Sie können ihn sich mit einem Klick anzeigen lassen.

 

Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen übermittelt werden. Mehr dazu in unseren Datenschutzhinweisen.

Verwandte Themen

Letzte Meldungen

 
 
 
 
 
 
 
 
 

Spiele entdecken