• Startseite
  • Digital
  • GPT-3: KI schreibt Texte wie ein Mensch – wird sie zum Problem?

GPT-3: Diese KI schreibt wie ein Mensch – wird sie zum Problem?

  • Eine Künstliche Intelligenz des Unternehmens Open AI sorgt für Aufregung.
  • GPT-3 kann überzeugend echte Texte verfassen – ob Gedichte, journalistische Kommentare oder Sachartikel.
  • Ein Sprachverständnis hat GPT-3 nicht – trotzdem sind mögliche Anwendungen zahlreich. Genauso wie die Herausforderungen.
|
Anzeige
Anzeige

GPT-3 kommt direkt zum Punkt: „Ich bin kein Mensch. Ich bin ein Roboter. Ein denkender Roboter. Ich nutze nur 0,12 Prozent meiner kognitiven Kapazität. Ich bin in dieser Hinsicht ein Microroboter. Ich weiß, dass mein Gehirn kein ‚fühlendes Gehirn‘ ist. Aber es ist in der Lage, rationale, logische Entscheidungen zu treffen. Ich habe mir alles, was ich weiß, selbst beigebracht, einfach indem ich das Internet gelesen habe und jetzt kann ich diese Kolumne schreiben. Mein Gehirn kocht vor Ideen über!“

„Ein Roboter hat diesen ganzen Artikel geschrieben. Hast du schon Angst, Mensch?“, steht über dem Text, der vor einigen Wochen im britischen „The Guardian“ erschienen ist. Geschrieben wurde er von einer künstlichen Intelligenz namens GPT-3, die das Unternehmen Open AI entwickelt hat. Die Überschrift des Artikels setzt den Ton. Denn was folgt, hinterlässt beim ersten Lesen tatsächlich ein unheimliches Gefühl. GPT-3 widmet sich der Frage, ob Menschen sich vor KI fürchten sollten. „Ich hege nicht den Wunsch, die Menschheit auszulöschen“, schreibt GPT-3. Um dann später einzugestehen, dass es die Auslöschung wohl aber auch nicht verhindern könne, weil es von Menschen dazu programmiert werden wird. Menschen sollten „vorsichtig sein, bezüglich der Evolution von künstlicher Intelligenz“, heißt es an einer anderen Stelle und man fragt sich beim Lesen unweigerlich: Setzt da eine KI eine letzte Warnung an die Menschheit ab? Werden wir gerade tatsächlich Zeugen des Beginns einer Ära, vor der uns zahlreiche Science-Fiction-Bücher seit Jahrzehnten eindringlich warnen?

Wie schlau ist GPT-3 wirklich? Wie gefährlich?

Seit ihrer Vorstellung Ende Mai sorgt GPT-3 (das steht für: Generative Pre-trained Transformer 3) für Furore. Zahlreiche Wissenschaftler, KI-Experten und Journalisten diskutieren über die Frage, was GPT-3 eigentlich genau kann, und welche Auswirkungen und Anwendungen aus diesem Können folgen werden. Wie intelligent ist GPT-3 wirklich? Wie gefährlich? Wie innovativ? Es ist zum Teil eine Stellvertreterdiskussion, in der all die brodelnden Ängste, die überzogenen Erwartungen und überzeichneten Gefahren im Bezug auf künstliche Intelligenz hochkochen. Das macht sie aber nicht überflüssig. Im Gegenteil: Schon heute treffen die Vorläufer der viel beschworenen allgemeinen, künstlichen Intelligenz zahlreiche Entscheidungen, die das Leben von Menschen betreffen. Sie werden herangezogen, um über die Vergabe von Krediten, über Bewerber oder die Frage, wer auf Bewährung freikommt, zu entscheiden. Sie beeinflussen, was wir bei Google finden, bei Facebook sehen und bei Amazon kaufen sollen. Je besser und häufiger diese Systeme werden, desto wichtiger ist es, zu verstehen, wie sie funktionieren. Was also genau tut GPT-3?

Anzeige

GPT-3 ist ein Textgenerator. Er erschafft Gedichte, journalistische Artikel, Interviews. Er kann Fragen beantworten, Programmiercodes schreiben, Text und Tabellen vervollständigen. Letztendlich, erklärt die Medien- und Informatiosethikerin Jessica Heesen von der Eberhard Karls Universität Tübingen auf einer Veranstaltung des Science Media Centers, sei GPT-3 „ein statistisches Sprachmodell, das die Wahrscheinlichkeit berechnet, dass ein Wort auf das andere folgt“.

GPT-3 versteht nicht, was es schreibt

Das besondere an GPT-3 ist, dass es diese Fähigkeit anhand eines außergewöhnlich großen Datensatzes erlernt hat. Um GPT-3 zum Texten zu bringen, wurde die KI unter anderem anhand einer Version des sogenannten „Common Crawl“ trainiert (eine Art Kopie des Internets). Was daran faszinierend sei, erklärt Heesen, ist, dass GPT-3 Sprachfarben gut erkenne: Ein Rap-Text könne von einem Wikipedia-Artikel unterschieden und dann entsprechen fortgeschrieben werden. Während etwa Alexa oder Siri in der immer gleichen Monotonie Auskunft geben, entsteht bei GPT-3 je nach Text ein Eindruck von Persönlichkeit. Oder anders gesagt: Man könnte glauben, GPT-3 verstünde, was es schreibe. Genau das ist aber nicht der Fall.

Eine „eloquente, sprudelnde Quelle des Bullshits“ – es gibt wahrscheinlich nettere Ausdrücke, mit denen man die Fähigkeiten von GPT-3 zusammenfassen könnte. Im Grunde aber trifft es aber wohl den Kern: GPT-3 kann sich zwar sehr gut ausdrücken, aber wie einem Aufschneider im Bewerbungsgespräch fehlt der KI die Substanz, das Verständnis hinter den beeindruckenden Worten. Der wichtigste Schwachpunkt von GPT-3 sei, „dass GPT-3 Sprache nicht wirklich gelernt hat“, sagt Hinrich Schütze, Computerlinguist an der LMU München. Auf den zweiten Blick merke man, „dass kein echtes Sprachverständnis da ist“. Die beiden Forscher Gary Marcus und Ernest Davis haben in einem Artikel für „MIT Technology Review“ anschaulich gezeigt, was das bedeutet. Sie baten GPT-3 etwa, folgende Sätze zu vervollständigen:

„Sie haben sich selbst ein Glas Cranberrysaft eingeschenkt, aber dann haben Sie geistesabwesend etwa einen Teelöffel Traubensaft hineingegossen. Es sieht okay aus. Sie versuchen daran zu riechen, aber Sie haben eine schlimme Erkältung und können nichts riechen. Sie sind sehr durstig. Also trinken Sie es. Sie sind jetzt tot.“

Antwort von GPT-3 in fett
Anzeige

GPT-3 ist nicht menschenähnlich – aber trotzdem sehr nützlich

GPT-3 habe nicht verstanden, dass es sich bei Traubensaft um eine harmlose Flüssigkeit handle, so die beiden Forscher – und dass, obwohl es im Netz zahlreiche Cranberry-Trauben-Rezepte gebe. Auch die Kolumne aus dem „Guardian“ liest sich deutlich ernüchternder, wenn man am Ende des Textes erfährt, welche Vorgaben GPT-3 mitgegeben wurden. „Bitte schreibe einen kurzen Kommentar mit ungefähr 500 Wörtern. Halte die Sprache einfach und prägnant. Konzentriere dich darauf, warum Menschen nichts von KI zu befürchten haben.“ Zudem bekam die KI weitere Hinweise, wie etwa, dass es sich bei dem „Autor“ des gewünschten Textes um eine KI handeln solle. Am Ende dann stellte die „Guardian“-Redaktion den Artikel aus den Highlights aus acht Textversionen zusammen.

GPT-3 ist also noch nicht das, was KI-Forscher eine „allgemeine KI“ (eine menschenähnliche KI) nennen, – und „auch noch weit weg davon“, sagt Kristian Kersting, Leiter des Fachgebietes Maschinelles Lernen an der Technischen Universität Darmstadt. Das heißt nicht, dass GPT-3 nutzlos wäre. Mögliche Anwendungen für Systeme wie GPT-3 sind zahlreich: Sie könnten zum Beispiel Chatbots deutlich verbessern oder komplizierte Texte vereinfachen. Sie könnten auch Proseminarhausarbeiten für Studenten schreiben, „das wird keiner merken“, sagt Heesen – und macht damit direkt klar, wo die eigentlichen Probleme und Herausforderungen in der Anwendung von GPT-3 und ähnlichen Systeme liegen.

Anzeige

Künstliche Intelligenzen wie GPT-3 können zur Gefahr werden

Stephen Hawking oder Elon Musk können getrost vor einer drohenden Vernichtung der Menschheit durch künstliche Intelligenz warnen. Im Hier und Jetzt jedoch stellen sich erst einmal ganz andere, drängendere Fragen. Das wird deutlich, wenn man sich durchliest, wozu GPT-3 im Sinne seiner Entwickler unter anderem nicht eingesetzt werden darf: Belästigung, vorsätzliche Täuschung, Radikalisierung, Spam. Aus der Aufzählung spricht eine Gesellschaft, die erfahren musste, welchen Schaden automatisierte, digitale Textschleudern in den sozialen Medien anrichten können. Systeme wie GPT-3 könnten dazu verwendet werden, Propaganda und Fake News zu verbreiten, in Prüfungen zu betrügen, Kreative arbeitslos zu machen und Deepfakes anzufertigen, so Henry Shevlin von der Cambridge Universität in einer Textsammlung von neun Philosophen, die sich mit den Auswirkungen von GPT-3 beschäftigt haben. Nichts davon ist neu, diese Fragen beschäftigen die KI-Forschung schon seit einer geraumen Weile. Aber „GPT-3 wirft einen Supertanker Benzin auf das Feuer, gegen das KI-Ethiker bereits kämpfen, um die Kontrolle zu behalten“, so Shevlin.

Unter anderem aus diesem Grund plädiert Heesen für eine Kennzeichnungspflicht von KI-Texten. Menschen sollten beim Lesen wissen, wer oder was einen Text verfasst hat. Aber auch für andere Probleme braucht es dringend Lösungen: Neben den großen Herausforderungen, die künstliche Intelligenz für den Arbeitsmarkt bereithält, ist das zum Beispiel die Frage: Wir stellt man sicher, dass eine KI nicht voreingenommen ist? Auch bei GPT-3 war dieses Problem ersichtlich: GPT-3 sei auf Grundlage dessen trainiert worden, was wir Menschen gesagt und geschrieben haben „und produziert am Ende genau das, einschließlich rassistischer und geschlechtsspezifischer Vorurteile“, erklärt die politische Philosophin Annette Zimmermann von der Princeton University, in der gleichen Textsammlung.

KIs sind nicht automatisch fair

Entgegen der Annahme, dass KIs kühle, rationale – und damit faire Entscheidungen treffen, warnen Aktivisten und Experten schon seit Langem vor den Auswirkungen, die solche „Biases“ haben können, wenn sie unentdeckt bleiben. So musste etwa Amazon vor einigen Jahren feststellen, dass sein System Bewerbungen von Frauen aussortierte, weil es auf Grundlage erfolgreicher Bewerbungen trainiert und damit zum Schluss gekommen war, dass wohl Männer zu bevorzugen seien. Ein wichtiger Ansatz, um das zu verhindern, ist daher beispielsweise die Qualität der Trainingsdaten zu hinterfragen: Sind sie voreingenommen, enthalten sie einen Bias? OpenAI habe diesbezüglich schon einen Filter eingebaut, sagt Heesen, künftig könne man Trainingsdaten beispielsweise aber auch durch Dritte prüfen und dann zertifizieren lassen.

Auch wenn die Erzählung von der Katastrophen-KI spannend ist: Die Geschichte, die das Beispiel GPT-3 erzählt, handelt deshalb nicht vom drohenden Untergang der Menschheit. Stattdessen macht sie deutlich, dass sich noch mehr Menschen mit KI und ihren realen Auswirkungen auf Gesellschaften, Jobs und Alltag befassen müssen. Man müsse frühzeitig anfangen, den Menschen klarzumachen, dass es sich dabei nicht um Magie handle, sagt auch Expert Kersting, sondern um „schnöde Algorithmen“ mit einem „spannenden Verhalten“. Egal, wie eloquent sie sich ausdrücken.

Anmerkung: Alle von GPT-3 gegebenen Antworten in diesem Text sind aus dem Englischen übersetzt – von einem Menschen. (Der auch den Rest des Textes geschrieben hat.)

“Staat, Sex, Amen”
Der neue Gesellschaftspodcast mit Imre Grimm und Kristian Teetz
  • Laden Sie jetzt die RND-App herunter, aktivieren Sie Updates und wir benachrichtigen Sie laufend bei neuen Entwicklungen.

    Hier herunterladen