Alle Beiträge von Albrecht Maximilian Dimanski

Können Programme gute Texte schreiben?

Mit dieser Frage beschäftigt sich Phillipe Wampfler in seinem gleichnamigem Artikel von November 2021. In meinem Kommentar gebe ich die bei ihm durchgehend implizierte Antwort vorweg: Ja und Nein. Was heißt das?

In gewissen Punkten verhält sich der Lern- und Schreibprozess wie beim Menschen: Grundregeln von Sprache und Schrift werden erlernt und angewendet, und durch Wiederholen verbessert. Das war es dann auch. Eine KI funktioniert letzten Endes ganz anders als unser subjektiv arbeitendes Bewusstsein. 

Gehen wir die Geschichte der künstlichen Textproduktion durch – vom  Poesieautomaten von Enzensberger, über die Markow-Kette, bis zu ChatGPT –, fehlen zwei entscheidende Faktoren, um einen selbstständig und bewusst guten Text zu schreiben: die Kreativität, so wie wir sie verstehen; und das Bewusstsein um den semantischen Gehalt der Sprache. Wo kein Bewusstsein, da keine Kreativität. Was meine ich mit „Kreativität, so wie wir sie verstehen“?

Interessanterweise antwortet mir ChatGPT auf die Frage „Kannst du kreativ sein?“ Folgendes:

Als KI-Modell kann ich kreativ sein, aber auf eine andere Art als Menschen. Meine Kreativität basiert auf der Fähigkeit, Muster in den Daten zu erkennen, die ich während meines Trainings gelernt habe, und diese Muster auf neue Weise zu kombinieren, um Texte zu generieren, die für menschliche Leser interessant und ansprechend sein können. Während meine Kreativität nicht mit der von Menschen identisch ist, kann ich dennoch auf vielfältige Weise neue Texte und Ideen erzeugen.

Die KI ist sich demnach ihrer Bewusstlosigkeit bewusst. Und sie greift hier auch Inhalte aus Wampflers Artikel auf, nämlich wie textbasierte Programme eigentlich die Sprache lernen, ohne sie zu verstehen. Obwohl selbst neuronale Netzwerke viel weiter differenzieren, wie Sprache funktioniert (als der Poesieautomat, welcher eher auf Wortlisten zurückgreift, oder die Markow-Kette, welche bestehende Muster reproduziert) und deren Algorithmen mit über 170 Milliarden Parametern die Regeln für – und die Strukturen von Texten gelernt haben, verstehen Diese ihre eigenen Erzeugnisse nicht. 

Denn wie Kathrin Passig schreibt; es brauche ein Hervorbringer- und ein Bewertungssystem, um die Qualität eines Textes zu evaluieren. Das Hervorbringersystem ist unser hier behandelter Gegenstand, die Künstliche Textproduktion. Die Bewertung bleibt der Mensch. Da die Qualität eines Textes auch mitunter eine subjektive Bewertung ist, kann die Bewertung natürlich nur von einer subjektiven Instanz erfolgen. Die KI kann ohne uns als Beurteilende keine guten Texte schreiben, weil es ohne uns als Rezipient*innen keinen Bewertungsmaßstab zwischen gut und schlecht gibt. So fragt sich Wampfler gegen Ende, „(…) wozu es den automatisierten Text überhaupt braucht (…), wenn wir diese Rolle nicht mehr einnehmen müssen (…)“.

Zum Abschluss ein weiteres Zitat, welches ich den Lesenden nicht vorenthalten will. Ich habe einfach ChatGPT aus Spaß gefragt „Können Programme gute Texte schreiben?“ und ChatGPT fasst Wampflers Ausführungen erstaunlich gut zusammen.

Programme wie ich können durchaus Texte schreiben, die von Menschen als qualitativ hochwertig und ansprechend empfunden werden. Jedoch gibt es einige Einschränkungen und Überlegungen:

  1. Verständnis des Kontexts: Programme können Informationen auf der Grundlage der Daten verarbeiten, die sie gelernt haben. Sie können jedoch den Kontext nicht immer vollständig erfassen oder die Bedeutung hinter den Informationen verstehen, was zu gelegentlichen Fehlinterpretationen führen kann.
  2. Kreativität: Programme können kreative Texte generieren, basierend auf den Mustern und Strukturen, die sie aus den Trainingsdaten gelernt haben. Allerdings fehlt ihnen oft das echte Verständnis von Kreativität, das menschliche Autoren haben, und sie können manchmal stereotypische oder vorhersehbare Inhalte produzieren.
  3. Korrekturlesen und Überarbeitung: Programme können Texte schnell generieren, aber sie sind nicht in der Lage, den kritischen Blick eines menschlichen Redakteurs zu ersetzen. Die Endqualität des Textes hängt oft davon ab, wie gut der Text überarbeitet und korrigiert wird.
  4. Ethische Überlegungen: Bei der Verwendung von KI-generierten Texten müssen ethische Überlegungen berücksichtigt werden, insbesondere in Bezug auf die Authentizität und die mögliche Verbreitung von Fehlinformationen.

Insgesamt können Programme wie ich hochwertige Texte generieren, aber es ist wichtig, ihre Grenzen zu erkennen und menschliche Intervention und Überprüfung in den Prozess einzubeziehen, um die bestmögliche Qualität sicherzustellen.