Neuestes Heft: Jetzt bestellen!

UTOPIE Verkehrswende
ChatGPT: Alles- und Nichtskönner

(c) Alexandra Koch/Pixabay

Polarisierung und Spaltung

ChatGPT: Alles- und Nichtskönner 

Die künstliche Intelligenz ist da. Jüngst freigeschaltete Programme wie etwa ChatGPT oder Dall-E überraschen mit Texten und Bildern, über die selbst Fachleute zuweilen staunen. Wohin führt das?

Digitale Revolutionen gab es schon einige. Welche das sind, hängt auch davon ab, wen man fragt. Junge Leute Anfang zwanzig werden etwa weder Google noch Wikipedia nennen. Beide waren zu ihren Lebzeiten schon da und werden eher als Selbstverständlichkeiten genommen. Was sich für sie geändert hat, ist zum Beispiel die Materialität der Musik: von Musikkassetten über CD-ROMs zu ersten Downloads aus dem Netz, die anfangs oft illegal und mit dem Risiko von Viren behaftet waren, ehe die Musikindustrie das Streaming als Geschäftsmodell etablierte.

Einige der „großen“ Revolutionen: Schon 1963 wurde die erste Computermaus erfunden, aber erst 1983 bot Apple mit dem Macintosh den ersten Rechner mit graphischer Benutzeroberfläche an. Den konnte man einfach mit „Klicks“ bedienen, statt kryptische Befehle wie „format c:/“ in die Tastatur einzugeben. Andere Hersteller zogen schnell nach, die Nachfrage nach Computern außerhalb von Büros stieg.

1991 wurde am europäischen Kernforschungszentrum CERN in der Schweiz das World Wide Web erfunden, damit die dortigen Wissenschaftler auf einfache Weise ihre Forschungsergebnisse veröffentlichen konnten. Das „Hypertext“-Format bot die Möglichkeit, mit „Links“ auf andere Dokumente zu verweisen, die man dann wiederum mit einem Mausklick aufrufen konnte. Heute kennt dieses Prinzip jeder, aber es setzte sich nicht wegen seiner Nützlichkeit durch, sondern ganz einfach, weil niemand am CERN auf die Idee kam, für die Nutzung Lizenzgebühren zu verlangen. In der Folge wandelte sich das Internet von einem Netz der Entwickler, Informatiker und Ingenieure zu einem Alltagsmedium. Es krankt bis heute daran, dass für die Wissenschaftler Fragen der Sicherheit und der Monetarisierung keine Rolle spielten. Aber Größe und Verbreitung des WWW wachsen stetig. Eine der Folgen ist das Verschwinden von Zeitungen und Printprodukten. Die Axel Springer SE machte laut Geschäftsbericht 2019 mehr als 70 Prozent ihrer Umsätze mit digitalen Produkten. Bezeichnenderweise heißt der Konzern heute gar nicht mehr „Verlag“.

Um die Jahrtausendwende wurden brauchbare Suchmaschinen programmiert, und die ersten „sozialen“ Netze kamen auf. Die Suche nach Informationen und Personen wurde vermeintlich leichter. Dadurch entstanden ganz neue Berufe, etwa die Suchmaschinenoptimierer und die Influencer. Es bekam aber auch die Frage Gewicht: Wer entscheidet, was Menschen auf ihren Bildschirmen zu sehen bekommen? Multinationale Konzerne und deren Algorithmen wurden zum Problem.

2007 kam das iPhone auf den Markt, das erste Smartphone. Die Folge waren Selfies und das mobile (also omnipräsente) Internet. Eine der Folgen des mobilen Internet ist die politische Polarisierung, wie Studien aus den USA zeigen. Eine andere ist ein bilderfokussiertes Netz wie Instagram. Dinge und Orte werden nach ihrer „Instagrammability“ bewertet. Reiseziele, und seien sie noch so abgelegen, werden teilweise überlaufen. An Orten, die im Netz als einsam präsentiert werden, stehen Instagrammer Schlange für ein Selfie.

Es dauerte lange, teilweise Jahre, ehe das Potenzial einer solchen Revolution jeweils klar wurde.

Das ist jetzt anders. Im November 2022 schaltete die Firma OpenAI (AI steht für „Artificial Intelligence“, künstliche Intelligenz) das Programm „ChatGPT“ für die allgemeine Nutzung frei. Es kann Texte schreiben. Ebenso das Programm „Dall-E“, das Bilder erzeugt, und noch weitere Software.1 Zur selben Zeit kamen Produkte von Mitbewerbern auf den Markt. Es ist wohl die erste digitale Revolution, deren Folgen so schnell zu spüren sind. Denn die Ergebnisse dieser KI-basierten Software setzen auch Fachleute in Erstaunen.

ChatGPT steht für „Generative Pretrained Transformer“, zu Deutsch etwa „[Sätze] erzeugender vortrainierter Umwandler“. Damit ist treffend beschrieben, was diese Software kann: aus Sätzen andere Sätze erzeugen. Neue Sätze.

Etwas salopp gesagt, kann diese Art von Software alles und nichts. Ein mit ChatGPT erzeugter Text hat jüngst eine Juraklausur einer amerikanischen Universität mit der Note drei bestanden.² Müssen die Juristen darüber nachdenken? Ganz sicher! Fragt man nach einem wissenschaftlichen Text, wird dieser mit Quellenangaben geliefert. Und die darin zitierten Bücher gibt es tatsächlich. Aber andere Texte derselben Software sind leicht zu erkennender blühender Blödsinn. Warum und wie geht das?

Etwas anderes als Suchmaschinen

KI-basierte Software ist etwas fundamental anderes als Suchmaschinen. Eine Suchmaschine durchsucht permanent den Teil des Internet, den ihre Suchprogramme („Bot“, „Crawler“ oder „Spider“ genannt) sozusagen mit Mausklicks erreichen können: das sogenannte Surface Web. Das ist die riesige Ansammlung von Webseiten, die Menschen veröffentlichen. Solange es nicht Inhalte von Datenbanken sind, Seiten hinter Paywalls oder passwortgeschützte Inhalte – denn da kommen die Bots nicht ran.

Suchmaschinen kopieren diese „offenen“ (also erreichbaren) Inhalte und untersuchen sie dabei: Welche Wörter kommen wo vor, welche stehen in Überschriften, welche Bilder sind wo eingebunden etc. Aus einer riesigen Menge unstrukturierter Daten entsteht so der „Index“ der Suchmaschine, eine Datenbank, in der die Kopie eines Teils des Internet strukturiert abgelegt ist.

Dadurch, dass sie diese Informationen strukturieren, können Suchmaschinen richtige Antworten auf die Frage geben, was wo im Web zu finden ist – das ist ihre Basisfunktion. Aber sie können noch viel mehr: Sie ermitteln, welche Wichtigkeit eine Webseite hat, weil sie messen, wie oft diese verlinkt wird – und auch, wie wichtig die Webseiten selbst sind, von denen diese Links stammen. Sie können feststellen, welche Dokumente anderen wie weit ähneln, oder ob sie gar bloße Kopien derer sind. Sie können abschätzen, wie relevant ein Suchergebnis voraussichtlich für welche Nutzer ist; sei dies etwa aufgrund von räumlicher Nähe oder aufgrund des bisherigen Suchverhaltens der Nutzer – beides setzt allerdings voraus, Informationen über diese Nutzer zu sammeln. Suchmaschinen sind damit unverzichtbar für Nutzer des Internet geworden.

KI-basierte Software arbeitet völlig anders, einerlei, ob damit Texte oder Bilder erzeugt werden. Auch diese Softwareklasse nutzt die Daten aus dem Internet. (Welche genau und wie im Detail, wird gerade hinterfragt und muss noch weiter hinterfragt werden.) Allerdings bauen diese Programme keinen Index auf, sie arbeiten mit neuronalen Netzen. Diese lernen anhand von Beispielen aus dem Netz, was in einem Satz die nächsten Worte sein können. Mit genügend Beispielen aus dem Netz und ausreichender Rechenleistung funktioniert das erstaunlich gut. Bei Bildern lernen die Netze, wie welche Inhalte aussehen können oder der Stil eines Malers aussieht. So werden aus vorhanden Texten neue Texte geschrieben, aus vorhanden Bildern neue erzeugt. Die Ergebnisse sind jedes Mal neu (auch bei gleichen, aufeinanderfolgenden Anfragen), es sind folglich keine Kopien oder Plagiate. Dementsprechend sind sie mit Software zum Aufspüren von Plagiaten auch nicht zu finden.

Der Umgang mit der KI-Software scheint denkbar einfach: Zunächst muss man einen Account anlegen, das ist kostenfrei möglich. Dann gibt man einen „Promt“ ein, das ist eine textliche Beschreibung, welchen Text oder welches Bild man haben möchte. Diese Beschreibung sollte selbstverständlich ­möglichst detailliert sein. Kurz darauf liefert die Software das Ergebnis.

Allerdings nicht immer das Gewünschte: Die Bildsoftware Dall-E 2 lieferte auf das Prompt „Gedeckter Teetisch im Stil des magischen Realismus von Franz Radziwill, Ölgemälde“ auch nach mehrfachen Versuchen nichts, das auch nur entfernt an die Werke des Dangaster Malers erinnert. Vorlagen davon findet man im Netz zur Genüge. Ein „Gedeckter Teetisch im Stil von Picasso, Ölgemälde“ kommt schon eher hin. (Picasso-Experten mögen diesen Satz verzeihen!) (Abb. oben).

Bei Texten verhält es sich ähnlich. Orthographisch und grammatikalisch immer in Ordnung, sind sie mal gut verwendbar, mal gar nicht. Ganz wichtig: Wie „gelungen“ das Ergebnis auch immer ist, sagt das noch nichts über dessen Wahrheitsgehalt aus. Die Software liefert zuweilen falsche Informationen, zu denen Suchmaschinen gar nicht in der Lage wären (s. u.).

Gefilterte Ergebnisse, Datenquellen und Urheberrechtsfragen

Die Ergebnisse der Software sind gefiltert. Wer ein Bild „Joe Biden und Xi Jinping prügeln sich auf dem Petersplatz in Rom, Pressefoto“ bestellt, bekommt nichts geliefert. Das Missbrauchspotenzial dürfte zu hoch sein. Und schon vor der ersten Benutzung weist die Software selbst darauf hin, aus welchen Gründen die Ergebnisse ungebührend sein können. Unter anderem, weil das aktuelle Trainingsmaterial vom September 2021 stammt – für ChatGPT ist Olaf Scholz folglich Bundesminister der Finanzen.

Und es gibt ein schmutziges Geheimnis, das das Time Magazine in einer exklusiven Recherche aufdeckte.³ „Software trainieren“, das hört sich nach Mischung aus Computerlabor und Sporthalle an, jedenfalls sauber. Tatsächlich aber beauftragte OpenAI über eine Subfirma kenianische Arbeiter damit, das Trainingsmaterial aus dem Internet von toxischen Inhalten wie Gewalt und Missbrauch zu reinigen. Die Arbeiter wurden dafür dürftig bezahlt: mit bis zu zwei Dollar pro Stunde.

Für diesen Artikel bat ich ChatGPT, den Artikel von der Website des Time Magazine auf Deutsch zusammenzufassen. Die Antwort des Chatprogrammes ist eine krasse Ansammlung von Falschinformationen. Auf die Frage: „Welche Firmen sind in dem Artikel genannt?“ antwortet ChatGPT „… das Unternehmen BRCK …“ – tatsächlich nennt Time die Firma „Sama“. Auf die Nachfrage: „Wie viel verdienen die Arbeiter?“ heißt es: „Der Artikel gibt keine Informationen darüber, wie viel die Arbeiter verdienen.“ (Abb. rechts)

Glatt gelogen, würde man sagen, käme die Antwort von einem Menschen. Aus dem Time-Artikel geht hervor, dass die Firma Sama pro Arbeitsstunde 12,50 Dollar von OpenAI kassiert, wovon sie 1,32 bis 2 Dollar an die Arbeiter weiterreicht. Ob das so stimmt, ist nicht entscheidend. Entscheidend ist, dass es in dem Artikel so steht, den ChatGPT zusammenfassen sollte. Derartige Fehler werden Suchmaschinen nicht passieren. Vielleicht also nicht glatt gelogen, aber krachend gescheitert. Gescheitert daran, eine Webseite anhand ihrer Adresse (URL) einzulesen und deren Inhalt korrekt wiederzugeben.

Klar jedenfalls, dass eine neue Art von Fehlern auch zu neuen Formen der Faktenprüfung führen muss. Klar ebenso, dass die Frage nach dem Trainingsmaterial eine große Rolle für die Qualität der Ergebnisse spielt. Das oben erwähnte, frei zugängliche „Surface Web“ steckt voll von guten, validen Informationen. Aber ebenso voll von fehlerhaften, veralteten oder auch bewusst gefälschten. Das zu unterscheiden, braucht kundige Rezipienten, manchmal Experten. Dieses Material nur durch schlecht bezahlten Arbeiter vom offensichtlichsten Müll reinigen zu lassen, reicht nicht. Zudem: In einem anderen Teil des Web, dem „Deep Web“ finden sich deutlich bessere und bereits geprüfte Informationen: etwa in vielen Datenbanken, in wissenschaftlichen Zeitschriften, Studien, Büchern. Die aber sind für einfache Suchprogramme nicht zugänglich.

Zudem stellen sich Urheberrechts­fragen: Vieles von dem Material, auf das KI-basierte Software Zugriff hat, ist zwar frei verfügbar, aber dennoch urheberrechtlich geschützt. Getty Images, eine Bildagentur aus den USA, hat bereits die Firma Stability AI verklagt, weil deren KI-Bildgenerator „Stable Diffusion“ Bilder von Getty verwendete.⁴ Erste Klagen von Künstlern gibt es ebenfalls bereits.⁵

Neue Formen der Überwachung?

Da die verschiedenen Programme nur mit einem Account genutzt werden können, wissen deren Betreiber selbstverständlich genau, wer welches Bild und welchen Text erzeugen ließ, womit man experimentierte, woran man Interesse zeigte. Das kann zur Überwachung der Nutzer dienen. Bei Suchmaschinen ist dieses Problem seit langem recht genau bekannt, aber noch lange nicht zufriedenstellend gelöst. Dieser Aspekt darf in der jetzt beginnenden Debatte über KI nicht vergessen werden.

Die Software wird genutzt, was sonst?

Die verschiedenen KI-basierten Programme werden schon jetzt genutzt. Die Frage nach einem Verbot erübrigt sich, der Geist ist aus der Flasche. Wie viele Studenten und Schüler schon jetzt ihre Hausarbeiten KI-basiert erstellen (lassen), weiß niemand. Klar aber, dass die Frage, was Bildung ist, neu diskutiert werden muss. Lehre und Prüfungen werden sich ändern müssen.

Der britische Informatiker Alan Turing ersann 1950 den „Turing-Test“, um zu ermitteln, ob eine Maschine intelligent sei – nämlich dann, wenn ein Mensch, der sich ohne direkten Kontakt mit jemandem unterhält, nicht wisse, ob der Gesprächspartner ein Mensch oder eine Maschine war. Dieser Punkt scheint erreicht: Selbst Experten tun sich schwer damit, menschliche und KI-generierte Texte zu unterscheiden.⁶

Schulen und Lehrer müssen schon jetzt damit klarkommen, dass man in der Wikipedia viele Antworten in Sekundenschelle finden kann. Wikipedia deswegen zu verbieten, wie oft geschehen, ist eine ganz schlechte Lösung. Besser ist es, den Lernenden beizubiegen, wie man kompetent mit der freien Enzyklopädie umgeht. Was voraussetzt, dass die Lehrenden das selber wissen.

Dem amerikanischen Tech-Portal „CNET“ wurde gerade nachgewiesen, dass die dortigen Finanzartikel bereits seit Monaten von ChatGPT stammen.⁷ So etwas wird häufiger vorkommen. Mit allen Konsequenzen für diejenigen, die bisher von ihren Texten oder Bildern leben.

Die Programme können viel, je nach Perspektive beglückend oder beängstigend viel: Texte erzeugen, Bilder ebenso, Texte übersetzen, Fragen beantworten, Code schreiben und nach Hinweis auf Fehler verbessern … und selbstverständlich auch Malware, schädliche Software. Natürlich können sie auch Phishing-Mails schreiben, um andere zu betrügen. Ein Werkzeug ist niemals gut oder schlecht – das ist nur seine Verwendung.

KI-basierte Software steht jetzt im Wettkampf mit anderer Software, Suchmaschinen und Übersetzungsprogrammen. Je nach Test – es werden ja noch viele folgen – schneiden sie mal besser, mal schlechter ab, oft auch miserabel.

Was meines Wissens noch niemand versucht hat: KI in der Verwaltung anzuwenden. Wie wäre es denn, wenn die KI meinen Verwaltungskram wie Buchhaltung und Korrespondenz mit Behörden übernimmt, damit ich wieder mehr Zeit zum Lesen und Schreiben habe?

[1]  https://openai.com/

[2]  ZDF heute: ChatGPT besteht Jura-Prüfung in Minnesota (25.01.2023)

https://www.zdf.de/nachrichten/panorama/chatgpt-jura-pruefung-minnesota-100.html

[3]  Exclusive: OpenAI Used Kenyan Workers on Less Than $2 Per Hour to Make ChatGPT Less Toxic. By Billy Perrigo. – Time, 18.01.2023

https://time.com/6247678/openai-chatgpt-kenya-workers/

[4]  Kunst oder Klau: Getty Images verklagt KI-Bildermacher Stability.ai. Von Malte Kirchner. – heise Newsticker, 17.01.2023

https://www.heise.de/news/Kunst-oder-Klau-Getty-Images-verklagt-KI-Bildermacher-Stability-ai-7461617.html

[5]  Kunst gegen KI – Drei Künstlerinnen verklagen die Entwickler der KI-Bildgeneratoren Midjourney und Stable Diffusion. Der Ausgang des Falls könnte die gesamte KI-Branche beeinflussen. Von Eike Kühl. – Zeit Online, 24.01.2023

https://www.zeit.de/digital/internet/2023-01/ki-bildgeneratoren-klage-kuenstler-urheberrecht-verletzung/komplettansicht

[6]  Interview: Wie ChatGPT die Lehre verändert – Wenn KI-Systeme wie GPT-3 und ChatGPT ganze Studienarbeiten in Sekunden verfassen, muss die Lehre Begriffe wie „Bildung“ und „Leistung“ neu definieren. Von Jo Bager. – c’t Magazin, 16.01.2023

https://www.heise.de/news/Interview-Wie-ChatGPT-die-Lehre-veraendert-7451975.html

[7]  CNET Is Quietly Publishing Entire Articles Generated By AI. by Frank Landymore. – The Byte, 11.01.2023

https://futurism.com/the-byte/cnet-publishing-articles-by-ai

Ähnliche Beiträge