Fünf Dinge, die bei der Texterstellung mit ChatGPT wichtig sind

Christina Horst
Christina Horst

Christina Horst ist Senior-Content-Managerin bei Claneo. Sie unterstützt B2C- und B2B-Kund:innen aus dem DACH-Raum bei der Content-Erstellung und gibt Workshops für das Upskilling von SEO-Redaktionsteams. Bei Claneo ist sie unter anderem für die Tests von AI-Tools für die Content-Erstellung verantwortlich.
Mail?

Mehr von diesem AutorArtikel als PDF laden
Matthäus Michalik
Matthäus Michalik

Matthäus Michalik ist Gründer und Geschäftsführer von Claneo, einer SEO- und Content-Marketing-Agentur mit Sitz in Berlin. Mit seiner Expertise berät er Start-ups, KMU und Konzerne in den Bereichen Suchmaschinenoptimierung (SEO) und Content-Marketing. Neben der Beratung großer und internationaler Kunden fällt seine Verantwortlichkeit vor allem in die Bereiche Agenturmarketing und New Business. Gemeinsam mit einem starken Team prägt er die Agentur und definiert deren zukünftige und strategische Ausrichtung.

Mehr von diesem AutorArtikel als PDF laden

ChatGPT sorgt seit einigen Monaten für einen unvergleichlichen Hype: Millionen von Menschen erkunden mit dem Chatbot von OpenAI die Möglichkeiten der KI-basierten Texterstellung. Oft sorgen die Ergebnisse für Begeisterung, mitunter aber auch für Frust. Der ließe sich in vielen Fällen vermeiden – vorausgesetzt, man weiß, was man von solch einem Tool erwarten kann und was nicht. Dieser Artikel bringt essenzielles Wissen über ChatGPT und generative KI im Allgemeinen auf den Punkt – genauer: auf fünf Punkte.

Generative künstliche Intelligenz – das ist die „KI-Familie“, zu der ChatGPT gehört – kommt in diesen Zeiten mit großem Medienecho in der breiten Masse an. Vom Freelancer bis zur Konzernchefin fragt sich jeder, wie er die Technologie in seine Prozesse einbauen kann. So gut wie jede Branche will profitieren. In dieser Situation ist Grundlagenwissen über ChatGPT & Co. nicht nur „nice to know“: Es ist notwendig, um die Fähigkeiten und Grenzen der Tools und ihre Auswirkungen auf den Job und alle anderen Lebensbereiche richtig einordnen zu können. Eine der wichtigsten Fragen in diesem Zusammenhang ist: Wie genau funktioniert eigentlich ChatGPT?

ChatGPT ist nicht intelligent, sondern gut in Statistik

Immer häufiger liest man im Zusammenhang mit ChatGPT den Satz: Sprachmodelle sind keine Wissensmodelle. Doch was ist damit eigentlich gemeint? Um das zu verstehen, ist ein kleiner Exkurs zur Funktionsweise von ChatGPT notwendig. Es wird ein kleines bisschen technisch, doch das Verständnis dieser Grundlagen ist der Schlüssel zur verantwortungsvollen und erfolgreichen Nutzung von ChatGPT und vergleichbaren Tools.

ChatGPT basiert auf einem sogenannten Sprachmodell (engl.: Large Language Model, LLM), genauer auf dem GPT-Modell des US-Anbieters OpenAI. GPT steht für Generative Pre-trained Transformer, was wiederum den Aufbau und die Funktionsweise des Sprachmodells näher beschreibt. Vereinfacht gesagt ist ChatGPT ein Assistent, mit dem Nutzende in natürlicher Sprache interagieren können. GPT ist das „Gehirn“ dieses Assistenten.

Info: Auf GPT von OpenAI basieren auch viele andere KI-Textgeneratoren, beispielsweise Jasper, Frase und Neuroflash. Andere Unternehmen haben eigene Sprachmodelle entwickelt, darunter Google (LaMDA, Bard, PaLM 2, Gemini), Meta (LLaMA) und der deutsche Anbieter Aleph Alpha (Luminous).

Sprachmodelle sind künstliche neuronale Netze, die gewisse Ähnlichkeiten mit dem menschlichen Nervensystem haben. Darum ist auch die Rede von künstlicher Intelligenz (KI). Ein Sprachmodell ist in der Lage, in Daten, mit denen es trainiert wird, Muster zu erkennen und das Gelernte auf neue Situationen anzuwenden. Bei den Trainingsdaten handelt es sich um riesige Mengen Text aus Internetseiten und Büchern.

Ein einfaches Beispiel: GPT lernt anhand der Texte, mit denen es gefüttert wurde, dass der Satz „Ein Delfin kann …“ am häufigsten mit dem Wort „schwimmen“ vervollständigt wird. Auf die Frage „Was kann ein Delfin?“ wird ChatGPT entsprechend antworten – zumindest in den meisten Fällen (siehe Abbildung 1). Denn tatsächlich hat ein Sprachmodell „unter der Haube“ Einstellungen, die ein gewisses Maß an Zufall bei der Auswahl der Wörter erlauben. Das erweckt den Anschein, ChatGPT sei kreativ. Weil man den Bot zu jedem Thema befragen kann und häufig (zumindest auf den ersten Blick) sinnvolle Antworten erhält, erscheint er mitunter sogar allwissend. Doch das ist ein Trugschluss.

Denn es gibt einen bedeutenden Unterschied zwischen künstlichen neuronalen Netzen und dem menschlichen Gehirn. Zwar hat ein Sprachmodell viel mehr „gelesen“, als ein Mensch in seiner Lebenszeit lesen kann. Doch denken kann es nicht. ChatGPT und vergleichbare Tools sind deshalb weder in der Lage, den Wahrheitsgehalt einer Information einzuschätzen noch die eventuelle Voreingenommenheit von Quellen zu beurteilen oder sich aus einer Vielzahl an Blickwinkeln eine eigene Meinung zu bilden.

So beeindruckend es auch ist, wenn ChatGPT Texte generiert: Letztlich reiht der Bot einfach Wörter (eigentlich: Tokens, siehe Abbildung 2) aneinander, die im jeweiligen Kontext die wahrscheinlichste Antwortmöglichkeit darstellen. Hier und da funkt der Zufall dazwischen. Mag der Bot auch manchmal kreativ, humorvoll, empathisch oder moralisch erscheinen: All das ist letztlich Statistik kombiniert mit bestimmten Systemeinstellungen. Was sich an Meinungen oder Absichten herauslesen lässt, rührt von den Trainingsdaten her: Das ist der sogenannte Bias, die Voreingenommenheit der Ursprungstexte, die sich im Output niederschlägt.

Der Effekt des Ganzen ist für die Texterstellung problematisch. Denn was Tools wie ChatGPT schreiben, klingt oft plausibel. Doch es gibt keine Garantie dafür, dass die Aussagen richtig sind. Wer sich im entsprechenden Themengebiet auskennt, entdeckt häufig Fehler, Ungenauigkeiten, falsche Zusammenhänge – und sogar Dinge, die das Sprachmodell einfach herbeifantasiert hat. „Halluzinieren“ ist der Fachbegriff dafür. Ein Faktencheck ist deshalb bei KI-generierten Texten zwingend notwendig.

Den ultimativen Prompt gibt es nicht

Der Prompt ist das, was die Nutzerin oder der Nutzer in die Eingabezeile von Tools wie ChatGPT schreibt: in der Regel eine Frage oder Aufforderung, je nach Komplexität mit etwas Kontext angereichert. Wer gute Prompts schreibt, bekommt guten (nun ja, zumindest besseren) Output. Andersherum und ein bisschen deutlicher gesagt: „Shit in, shit out.“

Das Schreiben guter Prompts erfordert ein wenig Übung. ChatGPT macht es Nutzenden bereits recht leicht, denn wie der Namensbestandteil „Chat“ suggeriert, ist der Bot speziell für Konversationen in natürlicher Sprache trainiert. Diese hat es aber nun mal an sich, dass sie mitunter mehrdeutig ist. Hinzu kommt, dass es oft gar nicht so einfach ist, die eigenen Gedanken in Worte zu fassen. Sich präzise auszudrücken, ist beim Verfassen von Prompts aber essenziell.

Um diesen neuerdings von immer mehr Menschen benötigten Skill hat sich bereits ein ganzes Geschäftsfeld gebildet: Prompt Engineering (auch: Prompt Design). Ziel dieser Disziplin ist es, ChatGPT und anderen Text- oder auch Bildgeneratoren durch ausgefeilte Aufforderungen immer bessere Ergebnisse zu entlocken. Damit lässt sich sogar Geld verdienen: Auf Prompt Marketplaces werden fertig getextete Prompts für diverse Tools und Anwendungsfälle zum Kauf angeboten. Ebenso werden seit dem fulminanten Start von ChatGPT im November 2022 zahllose Prompt-Engineering-Anleitungen geteilt. Gefühlt will jeder das Rezept für den ultimativen Mega-Prompt entwickelt haben.

Es wäre schön, wenn es so einfach wäre! Wer die vermeintlich unfehlbaren Hacks ausprobiert, vielleicht sogar einen Prompt käuflich erworben hat, wird angesichts der Ergebnisse womöglich enttäuscht sein. Denn dass KI-Content selbst bei sorgfältig erstellten Prompts umfassend nachbearbeitet werden muss, ist eher die Regel als die Ausnahme. Auch hierzu gibt es einen passenden Spruch: „A fool with a tool is still a fool.“ Wer sein Handwerk nicht beherrscht – sei es Texten, Grafikdesign oder Coding –, für den wird ein KI-Tool nur bedingt von Nutzen sein.

Für einzigartige und qualitativ hochwertige Texte gilt es also, selbst Zeit in die Prompt-Entwicklung und in die Veredelung des Outputs zu investieren – und das bei jedem Projekt aufs Neue, denn was bei einem Anwendungsfall funktioniert, kann beim nächsten gänzlich ineffektiv sein. Ohne Zweifel gibt es aber eine Reihe hilfreicher Tipps, mit denen sich in ChatGPT bessere Ergebnisse erzielen lassen. Eine sehr gute Ressource dafür ist Kai Spriestersbachs Buch „Richtig texten mit KI“, aus dem er einige Tipps in der Website Boosting teilt.

Drei Prompting-Techniken zum Ausprobieren 

Zero-, One- und Few-Shot-Prompting: Mit „Shots“ sind Beispiele gemeint. Prompts ohne Beispiel (Zero Shot) funktionieren oft gut für einfache Fragen mit kurzen Antworten, die nicht in einem speziellen Format benötigt werden (wie die in Abbildung 1). Bei speziellen Anwendungsfällen oder einem bevorzugten Output-Format zahlt es sich jedoch meistens aus, ChatGPT ein oder mehrere Beispiele zu geben. Abbildung 3 zeigt ein Beispiel für einen Few-Shot-Prompt.

Follow-up-Prompting: Nicht gleich aufgeben, wenn die erste Antwort von ChatGPT nicht so gelungen ist! Oft lässt sich mit gezielten Nachfragen und verfeinerten Vorgaben der Output verbessern. Am besten geht man ohnehin Schritt für Schritt vor. So könnten die mit ChatGPT zurückgelegten Zwischenstationen auf dem Weg zum KI-gestützten Text aussehen:

  1. Brainstorming machen
  2. Outline erstellen
  3. Überschriften formulieren
  4. Absätze erstellen
  5. Zusammenfassung schreiben
  6. Häufige Fragen beantworten
  7. Bildvorschläge machen

Solange all das in der gleichen Konversation passiert, berücksichtigt ChatGPT nicht nur die jeweils letzte Eingabe, sondern auch den bisherigen Verlauf der Unterhaltung – zumindest bis zu einer gewissen Grenze. Bei langen Chatverläufen „vergisst“ der Bot den Anfang. Wichtig: An den Faktencheck denken und bei Bedarf den Schreibstil optimieren.

Tipp

„Es ist wichtig zu beachten, dass …“, „Zusammenfassend lässt sich sagen …“ – das sind typische KI-Floskeln. Häufig fallen auch inhaltliche Wiederholungen, Passivkonstruktionen und viel Konjunktiv II („könnte“) auf. Solche stilistischen Makel sollten unbedingt ausgebessert werden, denn sonst lesen sich alle KI-Texte gleich und das geschulte Auge erkennt sie allein schon an diesen Formulierungen.

Chain-of-thought-Prompting: Diese Technik ist der Versuch, einen Einblick in die „Denkweise“ des Sprachmodells zu gewinnen. Dazu ergänzt man die Aufgabe mit einer Aufforderung wie „Erkläre mir deinen Lösungsweg Schritt für Schritt“. Obwohl kein wirklicher Denkprozess dahintersteckt, kommen ChatGPT & Co. durch Chain-of-thought-Prompting interessanterweise eher zum richtigen Ergebnis. Eingesetzt wird diese Methode vor allem bei Rechenoperationen, für die Sprachmodelle nicht gemacht sind und mit denen sie häufig Schwierigkeiten haben – wie Abbildung 4 erkennen lässt.

Wer, wie, was? ChatGPT Kontext geben

Kontext ist alles, was über den eigentlichen Prompt, also die konkrete Aufforderung oder Frage, hinausgeht. So könnte der Prompt etwa lauten: „Erstelle ein Skript für einen Podcast zum Thema Sprachmodelle.“ Diese Aufforderung lässt ChatGPT jedoch sehr viel Raum zur Interpretation, was mit hoher Wahrscheinlichkeit dazu führt, dass das Ergebnis nicht den eigenen Erwartungen entspricht. Wichtig wären hier zum Beispiel die Anzahl der Sprecherinnen und Sprecher sowie die Rollenverteilung (zum Beispiel ein Interviewer, eine Expertin), die Zielgruppe des Podcasts und die geplante Länge. Möglich wäre es auch, ChatGPT einen oder mehrere Texte als Grundlage für die Skript-Entwicklung mitzugeben.

Tipp

Es kann laut OpenAI helfen, den Kontext mit sogenannten Separatoren vom Prompt abzutrennen. So versteht ChatGPT, dass nun eine neue Sinneinheit folgt. Als Separatoren eignen sich vor allem Sonderzeichen, zum Beispiel drei gerade Anführungszeichen oben (""") wie in Abbildung 5 gezeigt.

Ein gewisses Maß an Kontext ist bereits in den Systeminstruktionen des Sprachmodells hinterlegt: Bei ChatGPT ist das beispielsweise die Anweisung, stets die Rolle eines hilfreichen Assistenten einzunehmen. Für spezielle Anwendungsfälle benötigt der Bot allerdings noch weitere Informationen. Der Prozess des Kontextgebens wird auch als „Priming“ bezeichnet.

Eine Funktion, die das Priming des Chatbots vereinfachen kann, sind die „Custom Instructions“ in ChatGPT Plus, seit August 2023 auch in Europa verfügbar (siehe Abbildung 6). Mithilfe des Features können Nutzende ChatGPT etwas über sich selbst mitteilen und dem Bot vorgeben, wie er antworten soll. Sobald die Anweisungen in den beiden dafür vorgesehenen Eingabefeldern hinterlegt sind (jeweils sind um die 300 Wörter möglich), berücksichtigt der Bot sie für alle neuen Chats. Die Instruktionen können jederzeit geändert oder gelöscht werden. Mithilfe von Browser-Erweiterungen ist es möglich, verschiedene Custom Instructions als Profile zu speichern.

Achtung: Unter Umständen teilt OpenAI die Custom Instructions mit Unternehmen, die Plug-ins für ChatGPT bereitstellen. Wer solche Zusatzprogramme aktiviert hat, sollte das im Hinterkopf behalten. Zudem verwendet OpenAI die Custom Instructions ebenso wie den Input über die Eingabezeile zur Verbesserung seines Sprachmodells. Wie sich dies verhindern lässt, steht im letzten Abschnitt.

Pimp my AI – Plug-ins erweitern ChatGPTs Funktionalität

Die Benutzung der kostenfreien Version von ChatGPT ist ein bisschen wie eine Zeitreise. Das Training von GPT-3.5 war im Herbst 2021 abgeschlossen. Neuere Daten kennt das Modell nicht, auf das Internet kann die Free-Version (zumindest ohne ein Plug-in wie WebChatGPT) nicht zugreifen. ChatGPT ohne Internet zu nutzen, bedeutet: Angela Merkel ist noch Bundeskanzlerin und Olaf Scholz Finanzminister. Wer aktuellere Informationen im Text braucht, muss sie eigenhändig ergänzen.

ChatGPT Plus bietet eine integrierte Lösung: Hier können Nutzende mit GPT-4 arbeiten und das Beta-Feature „Browse with Bing“ aktivieren. Damit bekommt der Chatbot Zugriff auf das Internet, was seine Verwendungsmöglichkeiten stark erweitert. Allerdings kann das Browsing vorübergehend deaktiviert sein, weil das Feature mitunter Probleme verursacht. So fiel im Juli 2023 auf, dass sich damit hinter Paywalls versteckter Website-Content ausspähen ließ.

Noch mehr Möglichkeiten eröffnen Plug-ins für ChatGPT von externen Anbietern. Dabei handelt es sich um kleine Zusatzprogramme, die die Funktionalität des KI-Chatbots um bestimmte Aufgaben erweitern. Mit Plug-ins lassen sich zum Beispiel Diagramme erstellen, in Sekundenschnelle Transkripte von YouTube-Videos anfertigen, Inhalte von PDFs oder Präsentationen auslesen, mathematische Berechnungen durchführen oder Prompts für den KI-Bildgenerator Midjourney erstellen. Verfügbar sind die kleinen Helfer allerdings wie „Browse with Bing“ nur mit ChatGPT Plus und GPT-4 (Schritt-für-Schritt-Anleitung in Abbildung 7 bis 11).

Zahlreiche Unternehmen springen gerade auf den Zug auf und bieten Plug-ins für ChatGPT an. Nicht alle liefern tatsächlich Mehrwert: Einige Entwicklungen scheinen eher getrieben von der berühmten „FOMO“ (Fear of missing out), also der Angst vor Wettbewerbsnachteilen für diejenigen, die nicht in ChatGPT präsent sind. Doch in der Masse an Plug-ins – Hunderte gibt es bereits und es werden täglich mehr – verstecken sich doch einige „Nuggets“, die es sich auszuprobieren lohnt. Eine bessere Übersicht als ChatGPT selbst bieten externe Verzeichnisse, beispielsweise von The AI Advantage (myaiadvantage.com/the-ultimate-chatgpt-plugin-database).

ChatGPT und Datenschutz

Wie das immer so ist bei digitalen Tools, die einem den Alltag erleichtern: Einerseits will man nicht zu viel von sich preisgeben, andererseits ist es doch so herrlich bequem, blitzschnell eine Antwort auf seine Frage zu bekommen. Dass man sich mit ChatGPT unterhalten kann wie mit einem Menschen, lädt erst recht dazu ein, vielleicht etwas zu offenherzig zu sein. Wer ChatGPT nutzt, sollte wissen, dass der eigene Input von OpenAI zum Training des Sprachmodells verwendet wird. Das gilt sowohl für Prompts bzw. Konversationen als auch für die Custom Instructions, die sich in den Einstellungen hinterlegen lassen.

Ein Opt-out ist zwar möglich (siehe Abbildung 12), damit verzichten Nutzende jedoch automatisch auf die Chathistorie (die Anzeige früherer Konversationen in der Seitenleiste links). Ohne Opt-out besteht zum einen das Risiko, dass die eingegebenen Daten durch eine Sicherheitslücke bei OpenAI oder Plug-in-Anbietern kompromittiert werden. Zum anderen könnten Versatzstücke des Inputs im Output anderer Userinnen und User auftauchen, nachdem das Sprachmodell damit trainiert wurde.

Im Business-Kontext ist die Verwendung des User-Inputs vor allem im Hinblick auf Geschäftsgeheimnisse problematisch. Viele Unternehmen unterbinden derzeit die Nutzung von ChatGPT und vergleichbaren Tools – wohl aus Angst vor einem Datenleck, wie es im Frühjahr 2023 bei Samsung auftrat. Wie das Nachrichtenmagazin The Economist berichtete, hatten Mitarbeitende sensible Daten in ChatGPT eingegeben – der Konzern verbot seiner Belegschaft daraufhin die Nutzung generativer KI.

OpenAI reagierte inzwischen mit ChatGPT Enterprise auf die bisherige Zurückhaltung von Unternehmen: Die Lösung verspricht mehr Sicherheit, mehr Leistung und mehr Personalisierung – Preis auf Anfrage und für die meisten kleinen oder mittleren Unternehmen vermutlich über dem Budget. Die Möglichkeit, das Sprachmodell mit eigenen Daten zu trainieren, ist in ChatGPT Enterprise offenbar noch nicht enthalten, doch dürften solche maßgeschneiderten Lösungen in Zukunft zumindest in Konzernen zum Standard werden.

Fazit

Die heute verbreiteten Anwendungen generativer KI – von denen ChatGPT das wohl bekannteste Beispiel ist – haben einige Schwächen. Doch viele dieser „Pain Points“ sind gleichzeitig die Basis für zukünftige Geschäftsmodelle. Und die brauchen Anbieter wie OpenAI – denn die Kosten, die Large Language Models vor allem durch das Training und das Cloud-Computing verursachen, sind immens. Für bestimmte Herausforderungen wird es in naher Zukunft Lösungen geben, wenn sie auch für „Otto Normalverbraucher“ und KMU schwer erschwinglich sein dürften. Wir stehen am Anfang der Phase, in der generative KI unseren privaten und geschäftlichen Alltag immer mehr durchdringen wird – und die jüngere Vergangenheit zeigt: Die Entwicklung geht rasant voran.