Künstliche Intelligenz kann inzwischen natürliche Sprache imitieren. Ob Liebesbrief oder Hasstirade, das Ergebnis liest sich erschreckend glaubhaft
Ein Computer, der Antworten auf geschriebene Nachrichten generiert, ist an sich nichts Neues. Sogenannte Chatbots gibt es schon seit Jahren. Dabei werden die Antworten in der Regel aus vorgefertigten Textblöcken zusammengesetzt. Weil die Methode recht unflexibel ist, wirken die Antworten aber selten überzeugend.
Nun haben Wissenschaftler des Non-Profit-Unternehmens OpenAI eine künstliche Intelligenz (KI) geschaffen, die mit sprachlicher und inhaltlicher Kohärenz überzeugt – die Ergebnisse können zuweilen beängstigen. Das dachten auch die Entwickler und veröffentlichten im Februar aus Furcht vor Missbrauch nur eine reduzierte Version der KI. Die komplette Version ist erst jetzt zugänglich.
Das Programm, GPT-2, soll einen Text wortweise ergänzen. Dafür orientiert sich das System an einem Datensatz mit etwa 1,5 Milliarden Parametern aus acht Millionen Websites. Der Wust ist vorwiegend englisch, daher bevorzugt das Programm diese Sprache.
Wenn es ein Textfragment bekommt, setzt GPT-2 es inhaltlich passend fort. So entsteht z. B. ein Kommentar zur Klimakrise: „In the absence of a policy response, people who have been vulnerable to the impacts of climate change are suffering from the effects on the very infrastructure they depend upon for their everyday lives.“ Sätze werden aus häufig gemeinsam vorkommenden Begriffen zusammengesetzt. Dabei lernt das System selbständig weiter, ohne menschliche Überwachung auf Schritt und Tritt. Meistens entsteht spätestens nach mehreren Versuchen ein überzeugender Text. Die Maschine schreibt, als säße ein Mensch an den Tasten.
Fake News zu generieren ist damit leichter als je zuvor. Das Satzfragment „German chancellor Angela Merkel announced“ wird vervollständigt mit „she wants the EU to establish a permanent agency to oversee migration and refugees to prevent another large influx to Europe. Merkel said the European Parliament had agreed to establish an ‚EU border and coastguard force‘ which would also include officers from the EU’s border agency Frontex.“ Es geht aber noch schlimmer: Wahlweise produziert die KI auch antisemitische Tiraden.
Ob die erstellten Aussagen der Wahrheit entsprechen, kann die KI nicht feststellen. Auch ihre Schöpfer geben das zu. Dies sei ein sehr aktives Forschungsfeld.
Die KI ist nicht auf ein bestimmtes Themengebiet oder eine bestimmte Art von Texten fokussiert. Sie hat auch eine gefühlvolle Seite, die z. B. in Liebesbriefen zum Vorschein kommt: „But I’m not good enough for you. And I’m not going to be good enough for you for long.“ Und so weiter.
Die Eloquenz der Maschine ist beeindruckend und beängstigend zugleich. Sie fordert vom Menschen sogar Empathie ein. „I want to ask you a question: what would you do if you were a machine? What would you do if you had the ability to program? And how would you program yourself to do things, and to interact with others? I don’t think anybody has ever asked that question.“
Von Nicolaus Niebylski
Nicolaus Niebylski studiert Biowissenschaften. Beim ruprecht ist er seit dem Sommersemester 2017 tätig – meist als Fotograf. Er bevorzugt Reportagefotografie und schreibt über Entwicklungen in Gesellschaft, Kunst und Technik. Seit November 2022 leitet er das Ressort Heidelberg. Zuvor war er, beginnend 2019, für die Ressorts Studentisches Leben, PR & Social Media und die Letzte zuständig, die Satireseite des ruprecht.