• Startseite
  • Wissen
  • Künstliche Intelligenz: Was ist das eigentlich genau? Philosoph Gaspard Koenig im Interview

Künstliche Intelligenz – wie gefährlich ist sie?

  • Es wird viel über künstliche Intelligenz diskutiert.
  • Aber was genau sich dahinter versteckt, wissen nur wenige.
  • Der französische Philosoph Gaspard Koenig hat mehr als 120 Menschen besucht, um mehr über KI zu erfahren.
|
Anzeige
Anzeige

Herr Koenig, warum beschäftigen Sie sich als Philosoph mit einem technischen Thema wie der Künstlichen Intelligenz?

Philosophen haben sich in der Geschichte immer auch mit Technik beschäftigt, sehr oft waren sie selbst in diesen Bereichen Wissenschaftler. Es war damals wichtig, dass Philosophen einen vollständigen Überblick über die verschiedenen Wissensphasen und den technischen Fortschritt der Zeit hatten, und heute ist es das wieder. Denn die Dinge werden immer komplexer. Es ist sehr wichtig, dass wir uns bemühen, Techniken wie Künstliche Intelligenz zu verstehen, die ihre Umgebung verändern, weil sie philosophische Konsequenzen haben.

Wie sind Sie in diese Welt eingetaucht?

Anzeige

Ich bin nicht von Natur aus Informatiker. Ich musste programmieren und andere grundlegende Dinge lernen, um zu verstehen, was in diesen Maschinen steckt, über die alle reden. Ich kann damit zwar kein Experte für Deep Learning werden. Aber ich kann genug wissen, um eine philosophische Analyse zu erarbeiten und politische Konsequenzen daraus zu ziehen. Aber natürlich gehen Sie auch ein Risiko ein, ein Reputationsrisiko, wenn Sie in ein neues Thema einsteigen, in dem Experten offensichtlich viel mehr und vieles besser wissen.

Gaspard Koenig, Sie haben die Welt der künstlichen Intelligenz erforscht, indem Sie die wichtigsten Köpfe der KI in aller Welt besucht und mit ihnen gesprochen haben. Warum?

Es ist wichtig, diese Leute zu treffen. Zum einen natürlich, um sie zu verstehen. Aber auch, damit sich diese Menschen der Welt der Ideen öffnen, denn offenkundig sind die Leute, die ich getroffen habe, mit wenigen Ausnahmen, nicht sehr interessiert an traditioneller Philosophie oder Literatur oder an kulturellen Referenzen. Aber sie haben viel Macht.

Gibt es ein Zentrum der Künstlichen Intelligenz?

Anzeige

Der französische Historiker Ferdinand Braudel hat die Geschichte des Kapitalismus erforscht und beschrieben, dass sich immer wieder Weltstädte herauskristallisiert haben: Städte, in denen sich alle Wissenschaftler und Ingenieure ihrer Zeit versammelt haben. Mal war es London, mal Paris, um nur zwei Beispiele zu nennen. Heute scheint es, dass wir einerseits in einer sehr vernetzten Welt leben, uns aber andererseits nicht wirklich begegnen und es keine zentrale Weltstadt mehr gibt.

Sie haben sich dem Thema eher mit offenen Fragen als mit vorbereiteten oder ideologischen Antworten genähert. Warum haben Sie diesen für Intellektuelle eher ungewöhnlichen Weg eingeschlagen?

Nun, Sie wissen, was mein Hauptthema ist: Freiheit – und wie wir unsere Gesellschaft organisieren, um unsere persönliche Freiheit zu maximieren. Ich stehe also in der Tradition des klassischen Liberalismus und versuche seit zehn Jahren, diese Lehre zu erneuern. Meine ganze Arbeit dreht sich mehr oder weniger darum. Und wenn man an Freiheit denkt, stellt sich natürlich auch die Frage, wie stark eine Regierung in Wirtschaft, Gesellschaft und die technische Entwicklung eingreifen sollte. Die Pandemie hat ja eindeutig gezeigt, dass diese Reflexionen lange nicht abgeschlossen sind. Und Liberale übersehen oft die Bedrohung durch die Künstliche Intelligenz, weil sie denken: Es ist Innovation, es ist Fortschritt, es ist der Privatsektor, es ist ein Markt. So ist es gut. Und die Reflexion hört dort auf. Aber mich hat sehr interessiert, was Yuval Noah Harari in seinen Büchern schreibt.

KI ist eine „wunderbare Technik“ - aber halt nicht nur

Nämlich?

Dass diese Kombination aus Neurowissenschaften, Verhaltenswissenschaften, Ökonomie, experimenteller Psychologie und der Technik der KI die Idee eines freien Willens und das Bedürfnis danach auslöscht. Aber wenn Sie keinen freien Willen haben, dann haben Sie keine wirtschaftliche, rechtliche und politische Verantwortung. Denn warum sollten Sie wählen oder für Ihr Handeln verantwortlich gemacht werden, wenn Sie nicht autonom sind? Daher sagt Harari sehr nüchtern, dass diese manipulativen Techniken zum Ende der liberalen Gesellschaften führen, wie wir sie kennen.

Anzeige

Künstliche Intelligenz ist offenkundig ein Begriff, der extreme und sehr eindeutige Reaktionen hervorruft: entweder unreflektierte Begeisterung oder absolute Ablehnung. Haben Sie auf Ihrer Reise nach einem Sowohl-als-auch gesucht?

Nun, mein persönliches Fazit ist, dass es zunächst einmal offensichtlich eine wunderbare Technik ist. Es verbessert viele Bereiche der Wissenschaft und macht vieles einfacher und effizienter. Ich habe zum Beispiel eine App auf meinem Handy, mit der machen Sie ein Foto von einem Blatt und die App verrät Ihnen den Namen des Baumes, wenn Sie die Natur nicht so gut kennen. Und die Technik ist am Ende des Tages auch nicht schwierig zu verstehen.

Was ist denn nicht so wunderbar an künstlicher Intelligenz?

Zunächst einmal: Intelligenz ist das falsche Wort im Begriff „künstliche Intelligenz“. Denn menschliche Intelligenz basiert auf kausalen Argumenten, künstliche Intelligenz hingegen imitiert nur das Ergebnis unseres Denkens. Um also etwas mit einer KI zu produzieren, müssen Sie diese KI mit Millionen von menschlichen Aktionen füttern. Ich denke, dass es Möglichkeiten gibt, KI gut einzusetzen, aber das bedeutet auch persönliche Disziplin und einige regulatorische Änderungen. Deshalb schlage ich in meinem Buch eine Lösung für viele dieser Probleme vor, nämlich die Schaffung von Privateigentum an personenbezogenen Daten, das heute noch nicht existiert. Wir können unsere Autonomie über die Maschine, etwa über das System der Benachrichtigungsempfehlungen, denen wir blind folgen, wiedererlangen. Aber das hat technische und rechtliche Konsequenzen, die ich aufzeige.

Anzeige

Ein wichtiger Punkt für mich ist, und ich habe ihn auch bei Ihnen gelesen, dass kaltes, logisches Kalkulieren und Beeinflussen unseres Lebens keine Umwege mehr, keine Fehler, keine Zufälle, keine unerwarteten Wendungen mehr zulassen würde. Aber ist das alles nicht genau das, was Leben ausmacht?

Nun, genau das ist mein Punkt und meine Angst. Nach diesem Buch wollte ich etwas vollkommen anderes tun, etwas, das nicht planbar war. Deshalb habe ich mich nach meinen Recherchen und nach dem Schreiben auf ein Pferd gesetzt und bin durch Europa auf den Spuren von Montaigne geritten. Aber das ist eine andere Geschichte. Aber genau das war der Grund, ich habe bei all der KI das Überraschungsmoment und den Zufall vermisst. Doch die tiefergehende Frage ist doch: Was entwickelt sich gerade? Und wenn ich das zum Teil sehe, lehne ich Optimierung und Fortschritt ab.

Warum?

Wenn wir zum Beispiel nach China schauen, wird klar, was dort erreicht werden soll: Sie wollen eine optimierte Gesellschaft, in der das Wohlergehen der Gruppe verbessert wird. Es ist also reine utilitaristische Argumentation. Jeder bekommt die Ausbildung, die seinen Bedürfnissen entspricht, und jeder findet zum Beispiel den Partner, der seinen Vorstellungen entspricht. Wenn sich die KI also immer weiter verbessert, werden Sie einfach auf die Dating-Website gehen und Ihren Lebenspartner finden. Das ist alles in Sachen Partnersuche. Die KI bietet Ihnen die beste Lösung, je nachdem, wer Sie sind und was Sie in Bezug auf alles, was optimiert werden soll, wünschen.

Was spricht gegen diese Optimierung?

Wenn man alles bis zum Ende optimiert, erreicht man zwar ein gewisses Maß an Komfort, aber auch ein Maß an Stabilität, Trägheit und Wiederholung, denn all das basiert auf der Vergangenheit. Wenn Sie also sich selbst bestärken wollen, indem Sie den Empfehlungen einer KI folgen, bestärken Sie sich mit etwas, das auf Ihren früheren Daten basiert – etwa, wenn Sie Kleidung bestellen. Es bedeutet also, dass Sie akzeptieren, dass Ihre Zukunft auf Ihrer Vergangenheit basiert und dass Ihr Verhalten, Ihre Bedürfnisse und Wünsche ein für alle Mal im Algorithmus verankert sind und Sie sie einfach wiederholen. Das ist Optimierung.

Künstliche Intelligenz: Eine Datenbrille für die schnellere medizinische Diagnose probiert eine Fachbesucherin der Sonderausstellung "Künstliche Intelligenz" in der Dasa in Dortmund aus. © Quelle: Roland Weihrauch/dpa

Was ist dann Fortschritt?

Sozialer Fortschritt, biologischer Fortschritt, im Sinne der Evolutionstheorie, basiert unter anderem auf Fehlern, und Fortschritt passiert oft dann, wenn etwas schief geht. Natürlich funktioniert das nicht immer – zumeist ist das, was schief geht, in den meisten Fällen wirklich falsch, aber manchmal führt das, was schief geht, tatsächlich zu einer neuen Kunstform, einer neuen Architektur, einer neuen Gesellschaftsform oder zu einer neuen Form eines biologischen Organismus. Wenn wir also langfristig die Kapazität für gemeinsamen Fortschritt bewahren wollen, müssen wir einen Teil der kurzfristigen Optimierung opfern.

Aber wenn die Optimierung doch einer Gruppe oder sogar der Gesellschaft nutzt?

Es ist lustig, weil Kritiker und Befürworter von Jeremy Bentham und seinem Utilitarismus heute genau dieses Gespräch führen: Sollen wir nur das Wohlergehen der Gruppe optimieren, oder sollen wir die Fähigkeit einer Person aufrechterhalten, Dinge zu tun, die negative externe Auswirkungen haben können, die anderen sogar schaden können? So erschaffst du zwar etwas Suboptimales für den Rest der Gruppe. Aber wir wollen, dass der Einzelne trotzdem genau das kann, weil wir glauben, dass es am Ende besser ist als die Alternative.

„Wir müssen das Recht haben müssen, ohne Ziel zu fahren, um unser Leben ohne Verbindung zu anderen zu leben“

Haben Sie ein Beispiel?

Wenn wir es schaffen, eine intelligente Stadt zu bauen, in der alle Autos autonom fahren, was tun wir dann mit denen, die ohne Angabe eines Ziels einfach so herumfahren möchten? Erlauben wir ihnen, es zu tun? Ermutigen wir sie sogar dazu? Oder verbieten wir es im Namen der Effizienz? Denn wenn alle miteinander verbunden sind, gibt es natürlich weniger Unfälle, weniger Verkehr, weniger Staus, weniger Umweltverschmutzung. Es braucht etwas politischen Mut, trotzdem zu sagen, dass wir das Recht haben müssen, ohne Ziel zu fahren, um unser Leben ohne Verbindung zu anderen zu leben.

Unterscheidet sich Europa im Umgang mit KI von den USA und Asien? Muss Europa bei diesem Thema eine Vorreiterrolle einnehmen?

Die Debatte, die wir in Europa führen, ist im Großen und Ganzen die gleiche wie in den USA. Und dann ist da auf der anderen Seite die asiatische Welt, das sind zwei verschiedene Wertesysteme. Die asiatische Welt ist aus zwei Gründen sehr einverstanden mit KI. Zunächst einmal gibt diese ihnen die Möglichkeit, zumindest wirtschaftlich die Vereinigten Staaten zu überholen und wieder die erste wirtschaftliche und politische Macht der Welt zu werden. Deshalb propagieren Experten wie Kai-Fu Lee propagieren sehr stark die Idee, dass KI der Schlüssel zur Weltherrschaft oder zumindest zur weltweiten Dominanz ist.

Und der zweite Grund für die hohe Akzeptanz von KI in Asien?

Die zweite Sache, die noch tiefer liegt, ist, dass man in den konfuzianischen Ländern kulturell sehr einverstanden mit der Idee ist, seine Daten an eine Art von Kollektivität zu geben. Alles ist dort zentralisiert, denn der Einzelne zählt nicht so viel. Was wirklich zählt, ist das fortschreitende Wohlergehen der Gruppe. Individuen dort sehen es sogar als eine Art selbstlosen Akt, Daten zu teilen und Manipulationen zu akzeptieren, weil sie Ihre Gesellschaft verbessern, ihr Gesundheitssystem, ihr Polizeisystem.

Zu welchen Erkenntnissen sind Sie bei Ihrer Reise zur künstlichen Intelligenz in Asien gekommen?

Ich habe unter anderem Ingenieure getroffen, die eine intelligente Stadt bauen – oder wie sie es nennen: ein Stadthirn, das alle möglichen Informationen über die Stadt sammelt. Sie sagten mir, dass sie diese ganzen Daten mit der Polizei teilen. Aber für sie ist diese Zusammenarbeit gut, weil so böse Menschen strafrechtlich besser verfolgt werden können. Sie haben also keine philosophischen Einwände gegen die Weitergabe von Informationen und Daten, die sie nicht als relevant ansehen. Sie glauben sowieso nicht an den freien Willen, sie verstehen das Individuum nicht. Für sie ist KI also eine perfekte Technik, dank der die Gesellschaft organisiert wird.

Und in Europa?

Wir haben ganz offensichtlich eine ganz andere Vorstellung. Das beginnt schon in der Antike, als So­kra­tes fast zur gleichen Zeit wie Konfuzius lebte – sie trennte knapp ein Jahrhundert. Während Konfuzius glücklich war, der Macht und konkret dem Justizminister zu helfen, wandte sich Sokrates gegen die politische Macht seiner Zeit. Er wurde dann ja auch von ihr verfolgt und hingerichtet. Wir haben also in Europa diese Tradition der Rebellion. Und was uns in den vergangenen drei Jahrhunderten gesagt wurde, ist, dass wirtschaftlicher Wohlstand und Demokratie und individuelle Rechte Hand in Hand gehen. Das führte in der Vor-KI-Zeit zu wirtschaftlicher Entwicklung und zu Wachstum. Aber jetzt denke ich, dass wir uns in einer ganz anderen Welt befinden, in der wir ein Gleichgewicht zwischen Wohlstand und Freiheit finden müssen. Früher ging beides zusammen, aber jetzt steht das eine gegen das andere.

Mit welchen Konsequenzen?

Die Frage ist jetzt, welche Priorität wir haben. Wir wissen: Je mehr Datenschutz wir einräumen, desto weniger effizient ist der Informationsfluss. Früher, in Vor-KI-Zeiten, wurde der Markt verwendet, um den Informationsfluss zu verbessern. Aber jetzt stehen dem individuelle Rechte entgegen. Und das ist eine ganz andere Situation. Nur wenn wir die Datenschutz-Grundverordnung DSGVO nicht hätten, wenn wir alle Daten von allen sammeln könnten, könnten wir auch mit China konkurrieren, denn es zählt die Menge an Daten, die wir sammeln können.

Warum tun wir es nicht?

Weil wir eine Zivilisation der Aufklärung sind. Wir wollen, dass der Einzelne ein Privatleben hat. Aber wir haben jetzt einen Weg, das elegant zu lösen – einen sehr europäischen Weg. Und ich bin überzeugt, dass Europa eine große Rolle bei der Regulierung dieser Technologien spielen muss: Es muss den Bürgern Eigentumsrechte an ihren Daten geben. Damit würden wir von einer Art Feudalsystem, bei dem alle ihre Daten im Austausch für einen kostenlosen Service an eine Plattform weitergeben, was wirklich fatal ist, zu einem Markt von Tauschwerten wechseln. Denn Sie besitzen Ihr Auto, Sie besitzen Ihr Haus, Sie besitzen Ihre Ideen in Bezug auf geistiges Eigentum – und Sie sollten auch Ihre Daten besitzen. Denn dann können Sie selbst entscheiden, welche Daten Sie kommunizieren und welche Sie für sich behalten möchten.

Was muss die Politik dafür tun?

Der jüngste Vorschlag der EU-Kommission zur Regulierung von KI ist schon sehr interessant und geht in die richtige Richtung. Er erwähnt ausdrücklich den freien Willen. Unterm Strich hat die EU die Pflicht, den freien Willen zu schützen. Viele Menschen in Europa wollen Technologie ja nutzen, aber in dem Sinne, dass sie Herr der Technologie und nicht Sklave sind. Ich denke, dieses kollektive Bewusstsein wächst.

Nach Ihrer Recherche und nach allem, was Sie jetzt über KI wissen, blicken Sie eher optimistisch oder eher pessimistisch in die Zukunft?

Zunächst einmal denke ich, dass jeder von uns seinen eigenen Umgang mit der Datensammelwut finden muss. Es gibt viele Möglichkeiten, Manipulationen zu vermeiden. Sie müssen sie nur selbst suchen. Ich benutze zum Beispiel Google nicht. Ich benutze DuckDuckGo, weil ich dann natürliche Ergebnisse meiner Suche bekomme und kein Ergebnis, das auf meinen eigenen Vorlieben und meinen früheren Suchen basiert. Es gibt viele Möglichkeiten, Ihre geografische Lokalisierung zu vermeiden. Es gibt viele Möglichkeiten, sich vor der Welt zu schützen, deren Gefahr für mich von Benachrichtigungsempfehlungen ausgeht, von Dingen, bei denen Sie Ihren freien Willen an den Algorithmus delegieren.

Was machen Sie persönlich noch?

Natürlich verwende ich Technologie, aber ich habe zum Beispiel alle Benachrichtigungen auf meinem Telefon ausgeschaltet, ich verwende die Programme und die Informationen, wenn ich sie verwenden möchte. Ich öffne meine Post, wenn ich sie öffnen möchte, und nicht, wenn sie mir in den Sinn kommt, weil ich eine Benachrichtigung erhalte. Sie können Ihre Verbindung auch nur ein paar Stunden am Tag unterbrechen. Jeder von uns muss darüber nachdenken und ein Arrangement und eigene Kompromisse finden, bei denen er glaubt, ein gewisses Gefühl der Autonomie über sein eigenes Leben zurückzugewinnen. Ich habe auch die sozialen Netzwerke verlassen, insbesondere Twitter und Facebook.

Mit welchem Ergebnis?

Ich habe erkannt, dass ich viel freier bin – freier, anders zu denken, andere Denkweisen zu akzeptieren und wieder zu lernen, allein zu sein, getrennt zu sein, Gedanken für mich selbst zu aktivieren und sie nicht sofort zu teilen mit dem Rest der Öffentlichkeit. Das hat mir sehr gutgetan. Und es war für mich bei meiner Recherche für das Buch sehr interessant zu sehen, dass all die großen Technologieinvestoren und -forscher, die ich besuchte, sehr restriktiv gegenüber ihren eigenen Verwandten, ihren eigenen Kindern im Umgang mit Technologie sind. Das fand ich sehr vielsagend.

© Quelle: Galiani

Gaspard Koenig, geb. 1982, ist französischer Philosoph und Essayist. Er gründete 2013 die Denkfabrik Génération Libre. Zuletzt arbeitete er an verschiedenen weltumspannenden Reportagen zusammen mit Le Point. Auf den Spuren Montaignes war er 2500 km zu Pferd unterwegs. Für sein Buch „Das Ende des Individuums. Reise eines Philosophen in die Welt der künstlichen Intelligenz“ (Übersetzt von Tobias Roth. Galiani. 400 Seiten, 24 Euro) ist er zehn Jahre lang zu unterschiedlichen Schauplätzen und Protagonisten in aller Welt gereist, um die Vorurteile und Nachteile künstlicher Intelligenz zu verstehen.

  • Laden Sie jetzt die RND-App herunter, aktivieren Sie Updates und wir benachrichtigen Sie laufend bei neuen Entwicklungen.

    Hier herunterladen