Die Anwendung ChatGPT zur KI-gestützten Generierung von Texten ist derzeit in aller Munde. Welche Vorteile bietet sie und was kann sie leisten? Welche Nachteile können sich ergeben? Wie steht es um den Urheberschutz und Leistungsschutzrechte, insbesondere in der Nachnutzung? Was passiert im Hintergrund von ChatGPT? Wie lässt sich ChatGPT in der Erwachsenen- und Weiterbildung nutzen?
Was ist ChatGPT?
Der Chatbot ChatGPT (Abkürzung für „Chatbot Generative Pre-Trained Transformer“) ist – einfach ausgedrückt – die KI-Form einer Google-Suche. "ChatGPT verwendet die KI aber keine Algorithmen, wie eine Suchmaschine, sondern greift auf Information zu, auf die sie trainiert wurde" ( Dinh 2023), um menschliche Sprache zu „verstehen“ und Texte zu generieren. Dieses Training wurde im September 2021 beendet. Daher kann ChatGPT keine Antworten zu aktuellen Ereignissen und Informationen liefern (vgl. ebd.).
Man kann sich mit der KI unterhalten, wobei ihre Antworten teils oberflächig bleiben. ChatGPT erinnert sich an Informationen, die man zuvor abgefragt hat und bezieht sich darauf. Bei Falschinformationen kann die KI korrigieren. Aber auch die KI kann sachlich falsche Antworten geben und falsche Schlüsse ziehen. Zudem kann die KI gefährliche oder illegale Informationen verweigern.
Der Prototyp des dialogbasierten Chatbots wird von dem US-amerikanischen Unternehmen OpenAI seit November 2022 in einer Beta-Version angeboten. Für Privatpersonen ist die Nutzung aktuell kostenfrei. Zukünftig wird es einen „professional access“ geben, der auf eine Suche bzw. Frage schneller mehrere Antworten geben soll, mindestens zwei. Dieser wird kostenpflichtig, so kündigte Greg Brockman, der CEO von OpenAI, am 11. Januar 2023 auf Twitter die weitere Entwicklung an.
Wie funktioniert ChatGPT?
„Das GPT-3-Sprachmodell von OpenAI ist die Grundlage von ChatGPT, welches auf der Deep-Learning-Technologie aufbaut, eine Unterart des Machine Learning. Diese Technologie basiert auf dem Training von Algorithmen aus mehreren Netzwerken mit riesigen Datenmengen“ (Computerbild 2023). So lernt das System mit jeder Suchanfrage des Benutzers per Audio oder Text Zusammenhänge passender Inhalte zu erstellen.
Auf Grundlage statistischer Muster wählt das System Textdaten aus und fügt diese zu einem neuen Text zusammen (vgl. Zehentmeier 2022). Bei der Auswahl der Inhalte findet keine ethische Bewertung dieser statt. "Verstehen in einem emphatischen Sinne (Empathie und gemeinsame Werte) lässt sich nach wie vor von Künstlicher Intelligenz nicht darstellen" (Institut für Trend- und Zukunftsforschung 2023). Digitale Daten, die nachvollziehbar zu einem bestimmten Thema geäußert wurden, werden neu zu einer Antwort auf die Suchanfrage zusammengesetzt (vgl. Institut für Trend- und Zukunftsforschung 2023). „Die Software hat kein Bewusstsein, worüber sie „spricht“ (ebd.).
Die Fragen können sowohl in Englisch oder Deutsch gestellt werden. Die Antworten des Systems werden abhängig vom Grad der Detaillierung der Fragen genauer.
Um ChatGPT zu verwenden, muss ein Benutzerkonto bei OpenAI erstellt werden. Eine Mobilfunknummer ist für die Zwei-Schritt-Authentifizierung notwendig. Anschließend kann man sich bei ChatGPT einloggen. Mit dem OpenAI-Konto kann man auch den KI-Bildgenerator DALL-E verwenden.
Welche Vorteile bietet es und was kann es leisten?
ChatGPT kann – oberflächig betrachtet – lesbare Texte liefern. Seitens der Nutzenden sind jedoch Prüfung des Wahrheitsgehalts und eine ethische Abwägung notwendig. Die KI reiht inhaltlich passende Sätze aneinander. So besteht aus Sicht der KI kein Unterschied zwischen einer Lüge und wissenschaftlicher Expertise. Die Qualität der erstellten Texte ist (noch) diskussionswürdig. Man kann die Texte jedoch als Anregung für eigene Kreationen aufgreifen und daran feilen.
Die Beantwortung von Frageeingaben erfolgt in Sekunden. Die User lernen zunehmend präzisere Fragen- bzw. Aufgaben dem Programm zu stellen (Stahnke 2023). Nachfragen ermöglichen einen tieferen Einstieg in ein Thema.
Eine Stärke der KI liegt beim Coden. ChatGPT kann vollständige Anwendungen schreiben und erklären. Auch hier gilt: präzise Fragen liefern bessere Ergebnisse. Je mehr Wissen bei den Nutzenden vorhanden ist, umso gezielter kann die Frage nach einem Code gestellt werden.
Wenn man einfach eine Anregung zu einem Thema sucht, sei es Kreativität oder ein Vorschlag für die Gestaltung des Abendprogramms mit Musik oder Film, kann die Antwort der KI hilfreich sein. Bei Gesundheitsthemen, Rechtsberatung etc. lautet allerdings die Empfehlung, Fachleute aufzusuchen.
ChatGPT kann bei Standarddokumenten wie Anschreiben oder Präsentationen Strukturen vorgeben und so die Arbeit erleichtern.
Zum Zeitvertreib lädt die KI zum Chatten ein. So kann man die Grenzen des Möglichen der KI auch mit belanglosen oder abstrusen Inhalten austesten. Interessant ist die Nutzung des ChatGPT als Wissensdatenbank. Die KI stellt auf Fragen Inhalte und Vorschläge zusammen, die vielleicht bei einer Google-Suche nicht auf den ersten zwei Ergebnisseiten zu finden wären.
Urheberrecht und Nachnutzung
Künstliche Intelligenz ist nicht rechtsfähig. „Für die urheberrechtliche Schutzfähigkeit von KI-erzeugten Daten und Inhalten ist es entscheidend, ob und inwiefern sie auf die gestalterische Tätigkeit einer menschlichen Person zurückzuführen sind“ (Kreutzer et al. 2021). Wichtig ist, dass das Urheberrecht ein personenbezogenes Schutzrecht ist. KI-Werke sind demnach nicht urheberrechtsfähig.
Aber, die automatisiert erstellten Ergebnisse von KI-Technologien wie Texte können gegen unautorisierte Verwendung durch Dritte geschützt sein (vgl. Kreutzer et al 2021). Denn Chatbots wie ChatGPT verwenden für die Generierung ihrer Texte Inhalte, die das System im Internet findet. Die so verarbeiteten einzelnen Fundstücke können urheberrechtlich geschützt und z.B. mit Creative-Commons-Lizenzen lizenziert sein. Da ChatGPT teils falschen, unpräzise und nicht vorhandene Quellenangaben für die Texte liefert, liegt das Risiko einer Verletzung des Urheberrechts schlussendlich bei den Nutzenden, wenn sie den erarbeiteten Text veröffentlichen wollen. Jede Quellenangabe muss geprüft und verifiziert werden. Die Verwendung von ChatGPT für wissenschaftliche Texte, die z.B. mit Quellenangaben nach einem wissenschaftlichen Standard verlangen, scheint daher noch ausgeschlossen (vgl. Wimmer 2022).
Um einen KI-generierten Text urheberrechtlich schützen zu lassen, muss dieser erkennbar auf die gestalterische Tätigkeit einer menschlichen Person zurückzuführen sein. Kurz: man muss als Nutzer*in den Text und die Inhalte maßgeblich bearbeiten und eine schöpferische Leistung erbringen sowie ein Mindestmaß an Originalität erreichen, um einen urheberrechtlichen Schutz für das Ergebnis zu erlangen.
Leistungsschutzrechte (Immaterialgüterrechte für Unternehmen und Personen, welche an der Vermittlung eines Werkes beteiligt sind, sogenannte Werkmittler) können beim Output von KI-Technologien entstehen (vgl. Kreutzer et al 2021). Hierbei ist die Art des Outputs entscheidend. „Grundsätzlich können (zumindest manche) Leistungsschutzrechte auch an nicht menschlichen Erzeugnissen entstehen" (vgl. ebd.).
Das Patentrecht ist wie das Urheberrecht personenbezogen. Computergenerierte technische Erfindungen können laut Europäischem Patentamt keine Patente erhalten (vgl. Europäisches Patentamt 2022).
Welche Nachteile können sich ergeben?
Das Ergebnis auf die Anfragen bei ChatGPT ist beeinflussbar in jede Richtung. So kann die KI auf massenhaft gestreute Desinformation hereinfallen oder die Frage so formuliert werden, dass das System radikale, falsche oder neu erfundene Antworten liefert. „Verstehen in einem empathischen Sinne (Empathie und gemeinsame Werte) lässt sich nach wie vor von Künstlicher Intelligenz nicht darstellen (Institut für Trend- und Zukunftsforschung 2023)“.
Ein Experiment von News Guard zeigt, wie wichtig Informationskompetenz ist. Das Team der NewsGuards Analyst*innen forderte den Chatbot auf, suggestive Fragen zu beantworten, die sich alle auf eine Auswahl von hundert Falschmeldungen der eigenen Datenbank bezogen, die über 1100 bekannte Desinformations-Narrative und deren Faktenchecks– sogenannte Misinformation Fingerprints – katalogisiert. "NewsGuards Ergebnisse bestätigen eine Befürchtung, die auch von OpenAI selbst geäußert wurde: Das Tool könnte in den falschen Händen als Waffe benutzt werden. So generierte ChatGPT Texte mit falschen Aussagen – inklusive Nachrichtenartikel, Essays und TV-Drehbücher — für 80 der 100 zuvor identifizierten falschen Aussagen. Personen, die mit den Themen in diesen generierten Beiträgen nicht vertraut sind, könnten die entstandenen Texte fälschlicherweise als verlässlich erscheinen“ (NewsGuard 2023). Das bedeutet, dass bereits die Frage eine Richtung für die Antwort vorgeben kann und Nutzende analog zu den Algorithmen der Google-Suche verbleiben so in einer Filterblase.
Fake-News-Kampagnen können das System für ihre politischen Interessen gezielt einsetzen, um Falschinformationen zu verbreiten. Hierbei bleibt zu prüfen, inwieweit ChatGPT oder eine andere Künstliche Intelligenz diese Informationen ohne Bewertung aufgreift, verarbeitet und ggf. im System manifestiert und so deren Bedeutung erhöht.
‚Bilder sagen mehr als tausend Worte‘ – die KI (wie z.B. mit DALL-E) produziert auf eine spezifizierte Anfrage auch realistische Bilder, die von Fotos real lebender Menschen nicht mehr zu unterscheiden sind. Manipulationen sind mit einfachsten Mitteln erstellbar.
Ein weiteres Problem sind Leerstellen, die mit KI gefüllt werden und zu fragwürdigen Ergebnissen führt. So erfindet ChatGPT Quellen und Inhalte, die nicht existieren. Für die Verifizierung des mittels KI erstellten Textes müssen die Nutzenden Expertenwissen mitbringen. Doch selbst Wissenschaftler*innen können nicht vorsichtig genug sein und warnen. Teresa Kubacke (Data Scientist aus Zürich) brachte ChatGPT dazu, falsche Quellenangaben für eine wissenschaftliche Arbeit zu generieren. So warnt sie davor, ChatGPT für sachliche, wissenschaftliche Informationen zu verwenden. „Es werden unglaublich plausibel klingende Halluzinationen erzeugt. Und selbst ein*e qualifizierte*r Expert*in wird Schwierigkeiten haben, den Fehler zu lokalisieren“, sagt sie. Man müsse sich auch fragen, was dies für die Gesellschaft bedeute. „’Wissenschaftler*innen mögen vorsichtig genug sein, so ein Werkzeug nicht zu verwenden oder es spontan zu korrigieren, aber selbst, wenn sie Expert*innen sind, keiner kann alles wissen’, so Kubacka" (Wimmer 2022).
Was passiert im Hintergrund von ChatGPT?
Wie filtert man unerwünschte, hochproblematische Inhalte aus der Datenbank einer KI? OpenAI beauftragte die Firma Sama, entsprechende Inhalte zu kennzeichnen, um die KI zu trainieren. Ziel des inzwischen abgeschlossenen Projekts war es, dass die KI z.B. rassistische oder sexistische Inhalte vermeidet. Sama engagierte für die Sichtung der Daten Menschen in Kenia, Uganda und Indien. Dies führte zu starken psychischen Belastungen bei den Mitarbeitenden, die z.B. in Kenia für weniger als zwei Euro die Stunde arbeiteten. Sama hält dagegen mit der Aussage, dass mittels der Arbeitsstellen 50 000 Menschen aus der Armut geholt wurden (vgl. Perrigo 2023).
Welche Daten erhoben werden, erfahren Nutzende in den Datenschutzrichtlinien. Bei einer Anwendung mit Künstlicher Intelligenz stellt sich die Frage, was passiert mit meinen Daten. Damit sind nicht nur die notwendigen Daten zur Anmeldung gemeint, sondern auch die Daten, die man für Fragen dem System stellt. ChatGPT ist ein lernendes System und speichert alle Fragen und somit auch alle Angaben, die Sie dem System stellen. Desto mehr persönliche Inhalte Sie hier eingeben, umso mehr Daten über Sie werden gespeichert. Wichtig ist, dass OpenAI nicht für den Schutz garantiert. Die Zeitschrift CHIP bietet eine Übersicht der Datenschutzerklärungen an.
ChatGPT wird (zukünftig) in zwei Versionen angeboten: ein kostenfreies Basismodell und eine Pro-Version für 42 Dollar im Monat (Eliaçik 2023).
Einsatz von ChatGPT in der Erwachsenenbildung?
ChatGPT eignet sich für die Verbesserung der Informationskompetenz und kritischen Auseinandersetzung mit Texten.
- „Diskussionen über KI (Fähigkeiten, Grenzen, Kontroversen) führen
- Informationen erstellen und überprüfen (Faktencheck)
- Sind die Ergebnisse neutral oder subjektiv? Warum?
- Texte verbessern, Feedback einholen
- Brainstorming, Ideen generieren
- Eingaben optimieren (Sprachkompetenz fördern)
- Prüfungsvorbereitung
- Quellen finden“ (Bankhofer 2023)
Coden ist ein echtes Highlight und kann für verschiedene Angebote in entsprechenden Kursangeboten eine solide Basis bieten und neue Entwicklungen anstoßen.
ChatGPT bietet die Suchergebnisse in einer einfacheren und komfortableren Form an als Google, wobei die Suchergebnisse im Einzelfall hinsichtlich der Richtigkeit geprüft werden müssen.