Sind Sie bereits Abonnent? Hier anmelden

Entwicklung künstlicher Intelligenz

Experte: „Eine Art Kampf zwischen Mensch und Maschine“

Laut Mark Nitzberg, geschäftsführender Direktor des Center for Human-Compatible AI an der UC Berkeley, sind fortgeschrittene Computerlösungen bereits auf allen Ebenen menschlichen Handelns integriert.

Laut Mark Nitzberg, geschäftsführender Direktor des Center for Human-Compatible AI an der UC Berkeley, sind fortgeschrittene Computerlösungen bereits auf allen Ebenen menschlichen Handelns integriert.

Wie bewahren wir die Menschlichkeit in einer Welt der intelligenten Maschinen? Wie bringen wir künstliche allgemeine Intelligenz, eine Programmierung mit den kognitiven Fähigkeiten des menschlichen Gehirns, mit humanistischen Werten in Einklang? Wie lässt sich die Ausbreitung der von Big Tech ausgehenden Gefahren eindämmen? Diese Fragen beschäftigen den KI-Forscher Mark Nitzberg.

Weiterlesen nach der Anzeige
Weiterlesen nach der Anzeige

Er ist geschäftsführender Direktor des Center for Human-Compatible AI (CHAI) an der UC Berkeley und Leiter der Technologieforschung am Berkeley Rundtischforum für internationale Wirtschaft. Zusammen mit Olaf Groth veröffentlichte Mark Nitzberg das Buch „The AI Generation: Shaping Our Global Future With Thinking Machines“. Im Interview mit dem RedaktionsNetzwerk Deutschland (RND) spricht der 60-Jährige in Berkeley über die Macht der Algorithmen und den globalen Wandel durch künstliche Intelligenz.

Herr Nitzberg, Sie schreiben von der „schönen neuen Welt der Maschinen-Meritokratie“, die künstliche Intelligenz mit sich bringt. Wie wird diese Welt aussehen? (Das Wort „Meritokratie“ leitet sich aus dem lateinischen „das Verdienst“ und dem altgriechischen „herrschen“ ab; „Maschinen-Meritokratie“ ist also eine Metapher für die Weltordnung, in der Maschinen auf der Grundlage ihrer „Verdienste“ dominieren, Red.).

Weiterlesen nach der Anzeige
Weiterlesen nach der Anzeige

Mark Nitzberg: Die einfache Antwort lautet: Sie ist bereits da. Fortgeschrittene Computerlösungen sind auf allen Ebenen menschlichen Handelns integriert. Wir haben stark vernetzte Systeme. Sie führen von zentralisierten Rechenzentren in die Hosentaschen der Menschen. In Ihre Tasche, wenn Sie ein Handy haben.

Roboter Atlas meistert Hindernisparcours

Atlas ist ein Humanoid-Roboter aus dem Hause Boston Dynamics und besticht durch seine flüssig anmutenden menschlichen Bewegungen.

Sehr hohe Rechenleistung, Netzsynergien und extrem schnelle technologische Fortschritte prägen das Bild. Was ist grundlegend neu an den Veränderungen, die wir jetzt erleben?

Große Transformationen hat es schon früher gegeben. Die Entwicklung des Luftverkehrs, die ersten Automobile. Aber dieser Wandel ist viel umfassender und betrifft viel mehr Bereiche. Die Hälfte der Weltbevölkerung schaut morgens beim Aufwachen auf einen kleinen Bildschirm. Und das ist nicht mit einer Zeitung zu vergleichen. Algorithmen bestimmen, was man zuerst sieht und was man als Nächstes sieht. Sie optimieren für ein bestimmtes Ziel, und zwar nicht unbedingt in unserem Interesse. Die Idee ist, dass sie etwas für Ihren Geschmack finden sollten.

Aber wie die jüngsten Facebook-Enthüllungen gezeigt haben, geht es letztlich um die Optimierung des Firmenprofits. Die Benutzer sind von untergeordneter Bedeutung. Im Vordergrund steht die Frage: Wie kann das Unternehmen Sie nutzen und verändern, um finanziell erfolgreicher zu sein?

Die Generation der „Digital Natives“ kennen wir bereits. Werden auch „AI Natives“ dazukommen?

Weiterlesen nach der Anzeige
Weiterlesen nach der Anzeige

Das ist bereits der Fall. Wir sind bereits auf Algorithmen angewiesen. Sie bringen uns von A nach B, verbinden uns mit einer Antwort auf eine Frage. Sie helfen uns zu entscheiden, was wir als Nächstes essen. Sie lassen uns wissen, woran unsere Freunde gerade denken. Dies wird als Verstärkungslernen bezeichnet. Es ist eine Art Kampf zwischen Mensch und Maschine, und die Maschine gewinnt immer. Wir müssen sehr genau darauf achten, wofür wir optimieren. Das ist es, womit ich mich bei CHAI beschäftige.

Der Oxforder Zukunftsdenker Nick Bostrom hat bereits 2003 vor der „Superintelligenz“ gewarnt, also der möglichen Entstehung einer KI, die in jeder Hinsicht intelligenter wäre als der Mensch …

Dies ist eine Art Gedankenexperiment, das es schon lange gibt. Wir müssen bis zum Golem, vor viertausend Jahren, zurückblicken. Bei den heutigen technologischen Fortschritten geht es nicht um individuelle Intelligenz, nicht darum, dass wir eine Maschine mit Superintelligenz schaffen. Es geht um verteilte Systemintelligenz, die auch ganz anders funktionieren kann, als wir denken. Milliarden von Jahren evolutionärer Entwicklung sind in unsere Gehirne geflossen, aber der breitere Kontext ist, dass Milliarden von Menschen, die mit bestimmten Arten von Algorithmen verbunden sind, Superintelligenz in großem Maßstab ermöglichen.

In gewisser Hinsicht haben wir dies bereits erreicht. Systeme, die für einfache Ziele optimieren, können ungewollt sehr große Auswirkungen auf die Gesellschaft haben. Wir müssen einen Weg finden, die unbeabsichtigten Folgen, die negativen Konsequenzen, zu messen und sie dann in das System zurückzuleiten, um sicherzustellen, dass seine Ziele angepasst werden und unseren Wünschen entsprechen.

Gehirne im Stress: Haben wir das Lesen verlernt?

Netflix-Serie oder Buch – wofür entscheiden wir uns lieber? Die Buchumsätze gehen zurück und die Streamingdienste boomen.

Weiterlesen nach der Anzeige
Weiterlesen nach der Anzeige

Am Center for Human-Compatible AI arbeiten Sie an der Mensch-Maschine-Anpassung in der KI. Was hoffen Sie damit zu erreichen?

Bis vor Kurzem, vor etwa fünf Jahren, haben wir nicht einmal ansatzweise darüber nachgedacht, wie wir Systeme bauen können, die nachweislich mit unseren Interessen als Individuen und als Gesellschaft übereinstimmen. Nehmen wir als Beispiel ein System, das das Fahrverhalten der Menschen beeinflusst. Wie können wir sicherstellen, dass es sicher ist? Bei CHAI versuchen wir, KI auf eine neue Grundlage zu stellen, um die Sicherheit zu verbessern, Standards zu schaffen und Aufsichtsgremien für Algorithmen einzurichten, wie es in anderen Technologiebereichen bereits der Fall ist.

Im Vorwort zu Ihrem Buch schreibt Admiral James Stavridis, dass fortschrittliche kognitive Technologien sowohl ein Allheilmittel als auch die Büchse der Pandora sind …

Wenn wir etwas wirklich Mächtiges bauen … Und wir haben noch nie etwas in dem Ausmaß gebaut, wie wir es jetzt tun. Dies ist das größte technologische System, das der Mensch je geschaffen hat. Was es alles anrichten könnte, ist sehr schwer vorherzusagen, und wenn es in die Hände eines Gegners gerät … Admiral Stavridis hat ein Buch darüber geschrieben. „2034: A Novel of the Next World War“. In den falschen Händen könnte so viel Macht die Art von Schaden anrichten, die wir im Atomzeitalter fürchten. Bei CHAI können wir Systeme bauen, die nachweislich sicher sind. Aber dann wird es Leute geben, die diese Sicherheitsvorkehrungen nicht nutzen werden, und wir müssen diese Risiken reduzieren.

Bei Systemen mit maschinellem Lernen geht es oft um den Black-Box-Ansatz, aber der Markt scheint sich nach berechenbareren und transparenteren Lösungen zu sehnen …

Weiterlesen nach der Anzeige
Weiterlesen nach der Anzeige

Dies ist ein sehr wichtiges Thema. Wir stellen auf maschinellem Lernen basierende Systeme zusammen, füttern sie mit Daten, und sie treffen Entscheidungen. Aber wir können nicht wirklich erklären, warum sie in bestimmten Situationen bestimmte Entscheidungen treffen. Dieser Forschungsbereich wird „erklärbare KI“ genannt. Wir werden diese Systeme nicht einfach aufgeben, weil sie eine fast magische Effizienz haben. Aber wir müssen einen Weg finden, um sicherzustellen, dass wir eine Erklärung bekommen, wenn etwas schiefläuft.

Der andere Aspekt ist, ob wir Systeme erforschen werden, die so leistungsfähig sind, dass sie großen Schaden anrichten können. Es gibt Bereiche der Wissenschaft, in denen eine echte Gefahr besteht. Die Genbearbeitung ist zum Beispiel ein solcher Bereich. In Berkeley ermöglicht uns das CRISPR-System die Veränderung von Genen. Jennifer Doudna forscht auf diesem Gebiet. Wir werden immer von leistungsfähigen Systemen fasziniert sein, und wir werden die Forschung nicht aufgeben, aber wir werden Standards einführen wollen. Gleichzeitig gibt es einige Bereiche, in denen wir meiner Meinung nach eine harte Linie ziehen müssen. Mein Kollege Stuart Russell und ich sind uns einig: Die Tatsache, dass wir völlig autonome tödliche Waffen bauen können, bedeutet nicht, dass wir dies zulassen sollten.

Wo sehen Sie die größten Herausforderungen bei der Implementierung von KI? Das sie zu Social Engineering führen könnte? Zu Arbeitsplatzoptimierung und Umschulung?

Das Problem mit den Arbeitsplätzen gibt es schon seit Beginn der Automatisierung. Wir mussten eine Menge sozialer Veränderungen vornehmen, um uns zu schützen. Die Automatisierung harter Arbeit hat aber einen positiven Aspekt. Bei CHAI wissen wir nicht, wie viele Arbeitsplätze wegfallen werden. Sicherlich werden einige Aufgaben wegfallen, aber nicht unbedingt ganze Arbeitsplätze. In Norwegen muss jedes Unternehmen seine Mitarbeiter für den nächsten Job ausbilden und sie dafür bezahlen. Ich denke, das ist Teil des Erfolgskonzepts.

Sie schreiben über die grundlegende Entwicklung der KI durch die drei Cs – „Cognition, Consciousness und Conscience“ („Erkenntnis, Bewusstsein und Gewissen“). Bei „Consciousness“ geht es darum, dass KI unser Leben, unsere Gesellschaft und unsere Wirtschaft beeinflusst. Bei „Conscience“ geht es um ethische Festlegungen zum Beispiel durch die Ausarbeitung einer KI-Charta …

Die drei Cs waren ein absolut großartiges Konzept für ein Buch. Wir befinden uns jetzt in einer Zeit, in der viele kognitive Tests mit KI-Tools entwickelt werden. „Consciousness“ ist eher eine philosophische Betrachtung. „Conscience“ aber … Wir sind Zeugen der ersten wirklich ernsthaften KI-Regelungen, abgesehen von der KI-Bill-of-Rights in den USA, also einer Reihe von Grundsätzen, die uns leiten werden. China hat letzten Monat einige ziemlich ernsthafte Vorschriften erlassen. Das zeigt, dass sich das „Conscience“ dort in konkreten Gesetzen manifestiert.

Weiterlesen nach der Anzeige
Weiterlesen nach der Anzeige

Werden künftige Fortschritte im Bereich der künstlichen Intelligenz die Machtverhältnisse in der Welt verändern?

Ob der nächste Durchbruch in der künstlichen Intelligenz dies tun wird? Ich glaube nicht, dass das Land, das dahintersteht, einen Vorteil haben wird. Es gibt zum Beispiel diese großen KI-Sprachmodelle: China hat Wu Dao 2.0 mit 1,75 Billionen Parametern, das amerikanische GPT-3 muss mit „nur“ 175 Milliarden Parametern auskommen. Das Problem ist, dass das chinesische Modell das Äquivalent von drei vollen Tagen Strom aus der Drei-Schluchten-Talsperre benötigt, um trainiert zu werden. Und da es in China bereits eine Stromknappheit gibt, wollen sie nicht einfach Energie verschwenden.

Wo stehen Europa und Deutschland in diesem Rennen?

Deutschland und Europa spielen eine sehr wichtige Rolle bei der Bewältigung der ethischen und gesellschaftlichen Herausforderungen, die mit dem Aufstieg der KI verbunden sind. Deutsche Politiker gehörten zu den ersten, die im Silicon Valley und im AI Lab in Berkeley Fragen zu Standards für autonomes Fahren stellten. Wir hatten Besuche aus dem Wirtschaftsministerium und von Bundestagsabgeordneten. Sie haben sich aktiv mit großen Unternehmen und Universitäten ausgetauscht. Deutschland muss das tun, was es besonders gut kann. Und das sind vor allem Produktion und Technologie. Deshalb muss es sich auf KI- Anwendungen in diesen Bereichen konzentrieren. Außerdem müssen sowohl die USA als auch Europa herausfinden, wie sie bei der Herstellung der nächsten Generation von KI-Chips unabhängig bleiben können. Und das ist eine transatlantische Aufgabe.

Was ist Ihre wichtigste Erkenntnis aus den Jahren der Arbeit mit KI?

Weiterlesen nach der Anzeige
Weiterlesen nach der Anzeige

Dass wir nicht schlafwandelnd in Situationen geraten, in denen wir unseren eigenen Freiraum aufgeben. Wir müssen unseren Gedanken freien Lauf lassen, anstatt auf einen Bildschirm oder ein System zu schauen, das das Denken für uns übernimmt.

Die Recherche für diesen Text wurde durch die Unterstützung des Transatlantic Media Fellowship der Heinrich-Böll-Stiftung, Washington, DC, ermöglicht.

Mehr aus Wissen

 
 
 
 
 
Anzeige
Empfohlener redaktioneller Inhalt

An dieser Stelle finden Sie einen externen Inhalt von Outbrain UK Ltd, der den Artikel ergänzt. Sie können ihn sich mit einem Klick anzeigen lassen.

 

Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen übermittelt werden. Mehr dazu in unseren Datenschutzhinweisen.

Letzte Meldungen