Archiv für den Monat: April 2024

Können wir aus Suchmaschinen Antwortmaschinen entwickeln ?

Die einen bezeichnen es als Revolution, andere sehen die aufkommenden oder bestehenden Probleme, welche kontrovers diskutiert werden sollten – es handelt sich um KI-Systeme, welche zum ersten mal den Kit zwischen der „Tech-Blase“ und den Menschen, die nie etwas mit Sprachmodellen am Hut hatten, bilden. 

Die Chance, welche hierbei gesehen wird ist, Sprachmodelle mit Suchmaschinen zu koppeln, sodass es den Menschen leicht gemacht wird, ihre Worte, welche sie sich formulieren lassen, auch mit Quellen zu belegen. Das alles klingt in der Theorie recht revolutionär und simpel, man könnte fast meinen, man bräuchte somit keine hunderte Klicks mehr durch Google, um an seine Recherche zu kommen. 

Das Problem, was sich hierbei jedoch ergibt ist, dass KI-Systeme noch eine hohe Fehlerquote haben und falsche Aussagen treffen. Beispielsweise liegt diese genannte Fehlerquote bei GPT 4 bei 20-30%. Da ist dann die Frage, ob man nun die Richtigkeit auswürfelt oder der Quelle ver- oder misstraut. Wenn man nun den Grundlagen richtig auf den Leim gehen möchte und nicht nur „Hard Facts“ erfahren will, muss man nur Fragen in Richtung Mythen oder Verschwörungstheorien eingeben und die Sprachmodelle kommen an ihre Grenzen. Denn Moral und persönliche Meinung spielen bei den KI-Systemen keine Rolle. 

Wie es im Text auch steht kann man sagen: „Spoiler: Keine der KI-gestützten Suchmaschinen kann derzeit mit einem Menschen mithalten, der die Antworten im Netz recherchiert.“ 

Wie bei allem steckt nicht nur Praktisches, oder eben Unpraktisches, wenn man es zynisch betrachten möchte, dass man jede Quelle eigentlich noch einmal selbst überprüfen sollte, sondern auch kapitalistisches Denken dahinter. Denn mit dem Einzug der Sprachmodelle in die Suchmaschinen ergeben sich auch ganz neue Möglichkeiten für Werbung, beispielsweise mit einer Einebnung dieser in mögliche Antwortmöglichkeiten, wie Microsoft experimentiert. Daraus entsteht allerdings auch eine neue Gefahr – die „Prompt Injections“. „Suchmaschinen füttern ihre Sprachmodelle mit dem Quelltext der gefundenen Webseiten. Angreifer können dort beliebige Prompt-Befehle für ein Sprachmodell verstecken und nicht nur Suchmaschinen, sondern auch Nutzer angreifen“ (c`t Artikel). Auf gut deutsch bedeutet das, dass hierbei alle persönlichen Daten völlig missbraucht werden können, ohne dafür gehackt werden zu müssen.

Beim Stichpunkt Moral und Ethik wird es spannend, wenn man auf die aktuellen Themen wie Gender oder Sexualität schaut oder auch einfach nur auf grundlegende Dinge, die eine Gesellschaft zwangsläufig tangiert – zum Beispiel Politik aber auch Religion. Da ist es spannend, wie diese einfach ignoriert werden können. Hier ein Beispiel: 

Doch bei all der Kritik ist es doch wesentlich zu hinterfragen, ob es denn eine Traumvorstellung ist, aus Such- Antwortmaschinen zu machen. Probleme werden ganz klar definiert und es steht fest, dass es bei den ersten Versuchen auch noch einen langen Weg darstellt, diese Vorstellung wahr werden zu lassen. 

Dennoch wurden diese Gattungen von Suchmaschinen einmal genauer unter die Lupe genommen, denn wenn man mal ehrlich ist, konnten noch nie so viele Menschen an Fortschritt teilnehmen. Und was wäre Fortschritt ohne Probleme? 

Deshalb wurden folgende Suchdienste verglichen: 

  • Bing 
  • Friday
  • Kagi
  • Neeva
  • Perplexity AI 
  • Phind 
  • you.com 

ChatGPT wurde mit allen anderen zusammen zum Vergleich herangezogen, jedoch nicht detailliert erforscht, da es sich hier um einen Anbieter ohne Quellenangabe handelt. 

Im Artikel sind alle Vor- und Nachteile kurz und kompakt zusammengefasst. 

Spannender ist jedoch zu sagen, dass KI-gestützte Suchmaschinen momentan vor allem auf eines setzen – Kreativität. Die Antworten sind randomisiert und somit kann sich einmal völlig „random“ großer Quatsch, ein anderes Mal richtige Fakten generieren.

Die Frage, ob es realistisch ist, auf KI- gestützte Suchdienste zu vertrauen, kann man abschließend nicht ganz klären, denn momentan sollte man sich nicht darauf verlassen, bei all den Halluziationen und Macken der „Suchknechte“. Allerdings sollte man sich auch nicht davor verschließen, denn man kann ein gewissen Potential erkennen, sich einige Zeit zu ersparen. Und anscheinend machen das die Menschen auch nicht, denn es gründen sich täglich tausende von neuen Start – Ups, nur allein dafür, die Revolution der „Antwortmaschinen“ voranzutreiben. 

Feedback und Schreibunterstützung durch KI

Nach kurzer Zeit haben SuS festgestellt, dass die durch KI entstehenden Texte die Erwartungen von Lehrpersonen erfüllen. Dies führte dann dazu, dass die Lehrpersonen nicht mehr wussten, ob die Texte von SuS stammen oder eben nicht und dazu, dass die SuS den Sinn nicht mehr erkannt haben, warum sie selbst noch Texte schreiben sollen. Gleichzusetzen ist dieses Problem ungefähr mit dem Taschenrechner. 
Lehrpersonen sind aber relativ schnell darauf gestoßen, dass KI-Texte fehlerhaft sind und menschliche Arbeit doch besser ist. 

Natürlich entwickelt sich die KI ständig weiter und Fehler und Probleme werden behoben, aber nicht alles kann behoben werden bzw. noch nicht. Ein Problem ist, dass die KI auch Texte generiert, obwohl sie zu dem Thema gar kein Wissen hat. Vor allem wenn mehrdeutige Aufgaben ohne Muster verwendet werden, gerät die KI an ihre Grenzen und bemerkt dies noch nicht mal. Ein weiteres Problem liegt im Erfinden von Rechtschreibfehlern und bei Texten mit Dialekten vor.  Anzunehmen ist, dass diese Fehler trotz stetiger Weiterentwicklung der KI nie völlig verschwinden werden. 
Kritisch betrachtet werden muss auch, dass die Algorithmen nicht mit Wahrnehmung und sozialer und emotionaler Intelligenz gekoppelt sind. In diesem Zusammenhang ist auch anzumerken, dass KI nicht auf Kontextwissen zugreifen kann. 

Während Lehrkräfte die Fehler der aktuellen KI-Version überschätzen, unterschätzen die SuS die Fehler der KI.
SuS sollen Texte verfassen, um ihnen eine kommunikative Funktion zu geben und diese Schreibanlässe können von KI-Tools nicht bearbeitet werden. Ziel muss es also sein, dass die SuS das Schreiben als wertvollen Prozess wahrnehmen. Dabei können KI-Tools helfen, indem sie für einen Prozessschritt eingesetzt werden und KI-Tools können behindern, wenn Schreibprozesse übersprungen werden. 
KI-Tools haben zur Folge, dass Lehrpersonen hinterfragen müssen, wie und warum SuS schreiben sollen. Der Fokus muss auf Lernprozesse gelegt werden und die Bewertung muss in den Hintergrund gerückt werden, denn dies hilft, prozessorientierte Kompetenzen in die Beurteilung einzubeziehen. 

Festzuhalten ist, dass es sich um junge und dynamische Tools handelt, mit denen SuS und Lehrpersonen noch nicht vertraut sind. Deshalb sollte guter Schreibunterricht eine Heranführung an KI leisten und Möglichkeiten von diesen Tools aufzeigen. KI-Tools sollten prozessbezogen genutzt werden und nicht als Abkürzung. 

Wie die KI-Suchen die Welt erklären – ein kritischer Artikel von Hartmut Gieselmann

Hartmunt Giselmann, welcher seit über 20 Jahren für Europas größtes Computermagazin c’t schreibt, beäugt die Digitalisierung in Hinblick auf ihre Auswüchse kritisch. Einer seiner Themenschwerpunkte ist die Künstliche Intelligenz. Genauer gesagt, KI-gestützte Suchmaschinen, die laut ihm über das Potential verfügen, das gesamte Internet auf den Kopf zu stellen und die Dominanz von Google zu brechen, wenn sie so optimiert werden, dass sie auf Knopfdruck Fragen beantworten und direkt auf ihre genutzten Quellen verweisen.

In seinem Artikel Wie die KI-Suchen die Welt erklären von April 2023 verweist Giselmann auf neue Probleme und Gefahren von KI-Suchmaschinen, u.a. hinsichtlich der Verbreitung von Unwahrheiten aufgrund fehlerhafter Internetquellen. Sein Artikel verdeutlicht die potenzielle Gefahrenlage von KI-gestützten Suchmaschinen für Nutzer. Im Folgenden erhältst du einen Einblick in die von Giselmann charakterisierten Grundproblemen von KI-Suchmaschinen.

Er hält zunächst fest, dass es trotz des atemberaubenden Entwicklungstempos von KI, u.a. ChatGPT nicht möglich ist, seinen Nutzern zu 100 Prozent vertrauenswürdige Antworten zu geben, weshalb zu einer manuellen Überprüfung der Aussagen, sprich einem akribischem Check, angeraten wird. Aktuell entsprechen 20 bis 30 Prozent der Antworten der textgenerativen Sprachmodelle nicht der Wahrheit, dennoch ist es für Giselmann denkbar, dass in nicht allzu langer Zukunft die Quote der falschen Aussagen auf unter 5 Prozent oder sogar auf einen 1 Prozent sinkt, was dazu führen würde, dass kaum noch jemand überprüft, was KI-gestützte Suchmaschinen sagen, sondern ihnen einfach zu glauben.  

Neben der Gefahr, dass KI-Suchmaschinen nicht zwischen wahren Aussagen und ihren Halluzinationen, für Textgeneratoren scheinbar korrekte Daten, unterscheiden können, kann es passieren, dass Sprachmodelle bei der Zusammenfassung von langen bzw. mehreren Texten frei erfundene Pseudoaussagen in ihre Antworten einbeziehen, die nicht immer als solche für die Nutzer erkenntlich sind. Trotz dessen, dass sich Hersteller bemühen, die Suchergebnisse durch den Einsatz von Filtern zu kontrollieren bzw. zu optimieren,  um somit Letzterem entgegenzuwirken, können Kontrollen dieser Art auch dazu führen, dass Filter KI den Zugang zu Wissen erschweren, wodurch Antworten textgenerativer Sprachmodelle lückenhaft bzw. fehlerhaft sein können. Dabei sei angemerkt, dass einige Wissenschaftler der Auffassung sind, dass eine derartige Kontrolle über Sprachmodelle gar nicht erst existiert. Das heißt, es sei lediglich eine Illusion der Hersteller, die volle Kontrolle über die Antworten der Textgeneratoren zu haben. Dies ist besorgniserregend, da Angriffe von Kriminellen auf Sprachmodelle demnach nicht abwegig sind. Giselmann hält fest, dass es Angreifern durchaus leicht möglich ist, die von den Herstellern gesetzten Sicherheitssysteme, sprich die Filter, zu umgehen und die Wissensgenerierung von KI-gestützten Suchmaschinen nach Belieben zu manipulieren.  

Mit der fehlerhaften Generierung von Texten aus dem Web und dem zunehmend blinden Vertrauen in (schnelle) Antworten der KI geht die rechtliche Auseinandersetzung zwischen Suchmaschinenbetreibern und Verlegern einher, denn für Nachrichtenseiten, Blogs und anderen Webanbietern besteht laut Giselmann die Gefahr, dass diese den Großteil ihrer bisherigen Kundschaft an KI-gestützte Suchmaschinen verlieren, was sich in einem Rückgang ihrer Bezahl- und Werbeeinnahmen widerspiegelt. Falk Steiner hält im Punkt Wie sich Autoren gegen KI-Bots wehren des Artikels fest, dass KI-gestützte Suchmaschinen beliebig auf Inhalte von Websites zugreifen und diese passend zur Suchanfrage generieren bzw. umformulieren. Dabei gibt ChatGPT bei Antworten noch nicht einmal die Quellen der Daten an, was zum Ärger seitens der Verleger und Autoren ist. Betroffenen müssen demnach Kontroll- bzw. Abwehrmaßnahmen zu gestanden werden, um KI den beliebigen Zugriff auf Inhalte zu untersagen, damit Sprachmodelle wie ChatGPT, nach Falk Steiner, nicht ungefragt Texte im Web abgrasen und somit die Urheberrechte verletzten. Dies ist jedoch leichter gesagt als getan, da sich die Rechtslage als kompliziert erweist. Der Forderung nach eingeschränktem Zugriff auf Verlagsangebote durch KI-Sprachmodule, sprich der Schutz der Rechte von Urhebern, steht entgegen der von der EU gewollten Förderung der KI-Entwicklung, für die authentische Trainingsdaten wiederum benötigt werden.

Was es mit den KI-Bots auf sich hat und welche weiteren spannenden Punkte hinsichtlich der Funktionsweise und potentieller Gefahren von KI-Suchdiensten ausgeführt werden, erfährst du im vollständigen c’t-Artikel. Es lohnt sich!

Hier findest du den vollständigen Artikel:

https://www.heise.de/ratgeber/Fragen-statt-googlen-Wie-die-neuen-KI-Suchmaschinen-die-Welt-erklaeren-8645105.html

Philippe Wampfler (2021): Können Programme gute Texte schreiben?

Können Programme gute Texte schreiben?

Mit dieser Frage setzt sich Philippe Wampfler in seinem 2021 erschienenen, gleichnamigen Text auseinander und nimmt die Leser*innen dabei mit auf einen „Streifzug durch die Welt der schreibenden Maschinen“ (Wampfler 2021, 132).

Die Reise beginnt dabei konkret in den 1970er-Jahren: Hans Magnus Enzensberger konzipiert den sogenannten Poesieautomat, mit dem Ziel, Texte maschinell erstellen zu können. 2000 realisiert er sein Projekt: Indem eine Liste an Wörtern nach bestimmten Regeln miteinander kombiniert werden, werden eine Vielzahl unterschiedlicher Gedichte per Knopfdruck generiert. Der Großteil dieser erzeugten Gedichte kann jedoch nicht als besonders gut bezeichnet werden. Dies hängt damit zusammen, dass Enzensberger Poesieautomat keine Möglichkeit hat, die Auswahl oder die Kombination der vorgegeben Wörter zu beeinflussen.

Wampfler geht einen Schritt weiter und nimmt die Smartphones näher in den Blick. Auch hier lässt sich ein generierter Text erzeugen, nutzt man die Worterkennungsfunktion. Die automatischen Wortvorschläge beruhen auf der Markow-Kette. Nach jedem Wort berechnet das Gerät, welches Wort am wahrscheinlichsten auf das vorherige folgen wird. Das Programm reproduziert damit die bestehenden Muster der Sprachverwendung der Nutzer*innen. So schlägt mir mein Handy folgenden Satz vor:

„Ich bin gerade in der Uni und werde mich dann wohl erstmal etwas ausruhen und …“

Sicherlich ist dies ein korrekter Satz, welcher durch ein paar einfache Klicks entstanden ist – allerdings weiß der Algorithmus nichts über den eigentlichen Gesprächskontext. Ob der Satz zu diesem passt, kann das Gerät nicht einschätzen. Der letzte Vorschlag war erneut ein „und“. Genau diese Schwäche wird auch von Wampfler als zweites angesprochen: Die Sätze könnten ewig fortgeführt werden – so entsteht eine Schleife. Wie auch der Poesieautomat ist es somit auch hier weniger möglich, auf diese Weise einen guten Text zu erzeugen.

Eine dritte Möglichkeit der maschinellen Texterzeugung wird vorgestellt – vielleicht liegt hierin die Lösung zu Frage?

Es handelt sich um die Verwendung Neuronaler Netzwerke und Machine Learning. Solche Netzwerke benötigen zunächst einen Input – hier in Form von Texten. Anschließend sucht das Netzwerk nach bestimmten Mustern und Regeln und lernt durch diese Analyse selbst hinzu und kann das Gelernte anschließend umsetzen und wiederrum einen Output (in Form von eigenen Texten) erzeugen. So funktioniert unter anderem auch der Chatbot Chat-GPT von OpenAI. ChatGPT greift auf alle Texte zu, welche im Internet verfügbar sind und nutzt diese als Datenquelle für seine Texte. Aber auch hier stellt sich erneut die Frage, ob diese Texte als „gut“ eingeschätzt werden können.

Können Programme also überhaupt gute Texte schreiben? Wampflers Antwort auf die Frage lautet (wenig überraschend): Ja und nein. „Algorithmen schreiben dann gute Texte, wenn sie recht genaue Vorgaben bekommen und diese durch Rückgriff auf bereits geschriebene Texte erfüllen können“ (Wampfler 2021, 138). Trotzdem gibt es ein großes Problem, welches für die Erzeugung guter Texte notwendig ist: Denn den Algorithmen selbst fehlt es an Kreativität.

Sprach – KI als Unterstützung in Schreibprozessen? Wampflers Möglichkeiten zur Umsetzung

Wie verändert künstliche Intelligenz den Unterricht? Diese Frage stellt Philippe Wampfler eingangs und erläutert die Verunsicherung von Lehrenden und Lernenden der KI gegenüber. Weiterhin schildert er die Fehler und Beschränkungen der KI, vor allem die Vergleiche von KI-Antworten im April 2023 zu Oktober 2023 sind drastisch und mitunter erschreckend. Dabei geht er auch auf die Ursachen dieser Unterschiede ein, welche Grenzen es auch jetzt noch gibt und mögliche Fehlerquellen. Wampflers Hauptanliegen zeigt sich jedoch darin begründet, zu zeigen, wie KI-Tools zum Erstellen von Texten genutzt werden sollten, nämlich so, wie es alle Gruppen in der letzten Sitzung in ihren fiktiven Planungen und Aufgabenstellungen zum Erstellen eines Textprodukts getan haben: als unterstützenden Instanz. Eine Gruppe ließ die Lernenden ein KI-Tool nutzen, um Informationen zu beschaffen, mit denen die Schülerinnen und Schüler anschließend eigenständig weiterarbeiten sollten. Eine andere Gruppe nutze ein anderes Tool als zweite Kontrollinstanz, um einen Text auf grammatische, orthographische und stilistische Fehler zu überprüfen. 

Intuitiv wandte jede Gruppe das an, was Wampfler in diesem Artikel am Herzen liegt: KI als prozessbegleitende Unterstützung zu nutzen, die Leistung der Lernenden als wichtig und nicht durch die Maschine ersetzbar definieren und den Prozess der Textentstehung in den Vordergrund stellen, nicht das fertige Endprodukt.  

Beim Einsatz von KI im Unterricht sollte nicht vergessen werden, warum es genutzt wird. Nicht, um seiner Selbstwillen, nur um irgendeine künstliche Intelligenz in der Schule zu nutzen, um irgendetwas damit zu erstellen. Bei Nutzung einer KI sollte deren Einsatz logischerweise überlegt und nachvollziehbar sein. Darüber hinaus müssen die Schülerinnen und Schüler den Umgang damit erlernen, Möglichkeiten, Grenzen und Fehlerquellen kennenlernen. Beispielsweise ist es wichtig, selbst die Erfahrung zu machen, inwiefern sich bei veränderter Promteingabe, beziehungsweise abgeänderter Formulierung die Ergebnisse unterscheiden oder einzelne Aspekte unterschiedlich gewichtet werden.  Ebenso entscheidend ist es auch, die Bedeutung des Künstlichen hervorzuheben. Während es in der letzten Seminarsitzung viel darum ging, inwiefern KI-Tools unterstützen oder in einigen Bereichen auch Arbeit abnehmen können, sollte man nicht aus den Augen verlieren, welche Leistung die KI nicht erbringen kann. Warum ist es also wichtig, dass Schülerinnen und Schüler einen Text selbst verfassen und KI nur zur Unterstützung im Schreibprozess verwenden? Was kann nur ein Mensch und nicht die Maschine zu Papier bringen? Was unterscheidet uns als Wesen davon? An welcher Stelle können wir aber getrost auf die Unterstützung durch die KI zurückgreifen, um einfacher Informationen zu beschaffen, eine weitere Kontrollinstanz zu haben und Anregungen zum Schreiben schaffen?

Es ist also eine weitere Herausforderung im Umgang mit KI in der Schule, wenn nicht sogar die wichtigste, den Schülerinnen und Schülern ihre Leistung als Mensch, ihre Einzigartigkeit zu verdeutlichen, um zu begründen, warum Schreiben weiterhin sinnvoll ist und nicht vollständig von der KI übernommen werden kann (und sollte).

Die Auswirkungen einer KI auf das Schreiben von Texten. Eine kurze Zusammenfassung zum Beitrag „ChatGPT oder Überlegungen zu den Veränderungen des Schreibens in der Schule“ von Kirsten Schindler (2023).

Hinweis: Der folgende Beitrag stellt eine kurze Zusammenfassung über einen Artikel von Kirsten Schindler über die Veränderung des Schreibens in der Schule aus dem Jahr 2023 dar.

Wie kann eine KI angelernt werden?

Schindler (2023) schreibt dazu, dass ChatGPT über vier Trainingsschritte angelernt wurde, nämlich über ein generatives, unüberwachtes Vortraining, ein überwachtes Feintuning, einem reward modelling sowie einem inforcement leraning. Dabei  muss von menschlichen Ratern sichergestellt werden, dass weder gewaltbezogene, noch diskriminierende oder strafrechtlich relevante Inhalte produziert werden können (Schindler, 2023). Im ersten Schritt wird das System unter anderem mit Wikipediaartikeln angelernt, also mit im Internet frei verfügbaren digitalen Texten aus dem Trainingsjahr (Schindler, 2023). Um aber einen eigenen Text generieren zu können, muss das System Sprache fortführen können (Schindler, 2023). Dazu werden, vom Nutzer eingegebene Inhalte untersucht und mögliche folgende Inhalte über eine Wahrscheinlichkeitsverteilung errechnet, sodass das System dann eine Antwort, in Form eines fortlaufenden Textes formulieren kann (Schindler, 2023).

Welche Gefahren und Möglichkeiten können aus der KI-Nutzung resultieren?

Schindler (2023) macht darauf aufmerksam, dass die Textausgabe der KI, aufgrund komplexer, mehrschichtiger Rechenprozesse, von Menschen nicht prognostiziert werden kann. Des Weiteren lässt sich feststellen, dass minimale Abweichungen im Input, also in der Eingabe beispielsweise einer Fragestellung, deutliche Abweichungen im Output, also im ausgegebenen Text, produzieren (Schindler, 20203). Das macht deutlich, wie schwer es nachzuvollziehen ist, was der Nutzer von ChatGPT eingegeben haben muss, um den ausgegebenen Text als Endprodukt zu erhalten. Die Texte, die die KI produziert, sind aufgrund ihres Trainings mit von Menschen generierten Texten häufig schlüssig, da das System wahrscheinliche und typische Sprache reproduziert (Schindler, 2023). Auch bemerkenswert ist, dass die KI keine Plagiate, sondern Originale erschafft (Schindler, 2023). Das deutet auch auf eine enorme Herausforderung für Schule und Lehre hin, da es fast unmöglich ist den Lernenden nachzuweisen, ob sie gewisse Texte in Eigenleistung oder mit Hilfe von ChatGPT oder anderen KI-Softwares produziert haben. Weiterhin konnte ChatGPT das bayrische Abitur mit einer Note von 2 abschließen (Schindler, 2023). Das verdeutlicht, wozu KI bei intensivem und richtigem Training in der Lage sein kann und stellt vorhandene Prüfungsformate, wie Haus- und Abschlussarbeiten, in Frage.

Welche Rolle spielt das Medium beim Schreiben von Texten?

Schindler (2023) orientiert sich bei der Einteilung der Medien an den sechs Dimensionen technisch-medial, physisch kognitiv, sozial, semiotisch und textuell-diskursiv, die Steinhoff im Jahr 2022 in seinem Beitrag „Die digitale Transformation des Schreibens“ festlegte.

Über digitale Texte lässt sich zunächst sagen, dass sie sich aufgrund ihrer technisch-medialen Facette fundamental von analogen Texten unterscheiden (Schindler, 2023).
Sie sind für eine maschinelle Verarbeitung geeignet, was impliziert, dass sie automatisch in Verbindung mit anderen Texten gesetzt, neu strukturiert, durchsucht, berechnet und manipuliert werden können (Schindler, 2023). Die Nutzung von KI-Tools ermöglicht eine automatisierte Weiterbearbeitung digitaler Texte, was einerseits eine enorme Arbeitserleichterung bedeuten kann (Schindler, 2023). Andererseits kann die KI-Nutzung zu einem möglichen Kompetenzverlust in bestimmten Fertigkeiten wie dem Exzerpieren, Paraphrasieren und Zusammenfassen führen, was als Deskilling bezeichnet wird (Schindler, 2023).

Die physische Dimension spielt beim digitalen Schreiben eine ähnliche Rolle wie beim analogen Schreiben, die aber auf andere Weise wirken (Schindler, 2023). Schindler (2023) macht darauf aufmerksam, dass das Tippen oder Wischen auf Touchscreens die Bewegung des Fingers in den Fokus gerückt hat, wodurch eine Vereinheitlichung der Bewegungsabläufe entsteht und keine Unterscheidung auf Graphemebene mehr erfolgt. Mit der Verbreitung von Spracherkennungstechnologien, so Schindler (2023), könnte das Diktieren als Alternative zum handschriftlichen oder getippten Schreiben weiter an Bedeutung gewinnen, womit die Abnahme der Bedeutung handschriftlicher Übungen und die Entwicklung von Brain-Computer-Interfaces die Zukunft des Schreibens beeinflussen könnten.

Schindler (2023) bezieht sich bei der Beschreibung der kognitiven Dimension auf Hayes & Flower (1980) und sagt, dass sich diese darin zeigt, dass in vielen Schreibprozessmodellen das Textverfassen als Denkprozess betrachtet wird, der verschiedene Teilprozesse wie Planen, Strukturieren und Überarbeiten umfasst. Wenn Teile dieses Denkprozesses vom System übernommen werden können, könnte dies laut Limburger et al. (2023) bedeuten, dass der eigentliche Akt des Denkens beim Schreiben nicht mehr in gleichem Maße erforderlich ist. Schindler (2023) bezieht sich auch auf Sturm (2022) und sagt, dass diese Veränderungen nicht nur grundlegende Schreibfertigkeiten, sondern auch komplexe Kompetenzen wie das Strukturieren und Argumentieren in Texten betreffen könnten.

Schindler (2023) stellt fest, dass Steinhoffs Konzept der sozialen Facette des Schreibens mit Stadlers Theorie der Digitalität korreliert, was vor allem den Aspekt der Gemeinschaftlichkeit betrifft. Nach Schindler (2023) sind Referenzialität, Gemeinschaftlichkeit und Algorithmizität grundlegende Muster für die Bedeutungsgenerierung und gemeinsame Bedeutungsverhandlung in digitalen Gesellschaften. Im schulischen Schreiben bietet die Gemeinschaftlichkeit durch kooperatives Schreiben Schindler (2023) zufolge vielfältige Möglichkeiten, sowohl zwischen Schreibenden als auch in Interaktion mit KI-Tools. Jedoch bleibt fraglich, inwieweit technische Systeme tatsächlich soziale Rollen beim gemeinsamen Schreiben übernehmen können (Schindler, 2023).

Schindler (2023) sagt, dass das Schreiben untrennbar mit Schrift verbunden ist, auch wenn diese diktiert wird. Sie weißt darauf hin, dass Steinhoff eine genauere Berücksichtigung semiotischer Faktoren beim Schreiben fordert, indem er auf Diskussionen aus der Schriftlinguistik, insbesondere zum interaktionsorientierten Schreiben, eingeht (Schindler, 2023). Schindler führt weiterhin an, dass die kreative Nutzung von Schrift durch Grundschüler, um Bedeutung zu vermitteln darauf hindeutet, dass sich möglicherweise auch traditionelle Vorstellungen von Schrift und deren Bedeutung ändern, während die Gestaltdimension von Schrift vermehrt in den Fokus rückt, unterstützt durch die Vielfalt an Gestaltungsmöglichkeiten in Textverarbeitungsprogrammen und KI-Tools.

Schindler (2023) legt dar, dass Steinhoff die textuell-diskursive Facette als eine weitere Dimension des Schreibens identifiziert, wobei digitale soziale Medien wie Instagram zeigen, dass wir in einer visuellen Kultur leben, in der Bilder und Text-Bild-Bezüge entschlüsselt werden müssen. Die Bedeutung visueller Elemente im Text, schreibt sie, hat möglicherweise angesichts der zunehmenden Alphabetisierung der Gesellschaft weniger Aufmerksamkeit erhalten, obwohl neue Textsorten wie Blogs, Tweets und TikToks sowie der Wechsel zwischen verschiedenen Modalitäten wie Text, Sprache und Bild die Textlandschaft verändern. Einige Experten, Schindler (2023) führt hier Limbur et al. (2023) an, erwarten eine höhere Fluidität des Textkonzepts im Zeitalter von KI, während andere vermuten, dass sich die Art und Weise, wie wir Text produzieren, verändern wird.

Im weiteren Verlauf des Textes geht Kirsten Schindler auf veränderte Bedingungen für das Schreiben in der Schule ein und gibt dazu Einblicke in Handreichung zu Nutzung von KI im Unterricht für Lehrkräfte verschiedener Bundesländer.

Quelle: Schindler, Kirsten (2023): ChatGPT oder Überlegungen zu den Veränderungen des Schreibens in der Schule. In: Medien im Unterricht, 6.

Können Programme gute Texte schreiben?

Mit dieser Frage beschäftigt sich Phillipe Wampfler in seinem gleichnamigem Artikel von November 2021. In meinem Kommentar gebe ich die bei ihm durchgehend implizierte Antwort vorweg: Ja und Nein. Was heißt das?

In gewissen Punkten verhält sich der Lern- und Schreibprozess wie beim Menschen: Grundregeln von Sprache und Schrift werden erlernt und angewendet, und durch Wiederholen verbessert. Das war es dann auch. Eine KI funktioniert letzten Endes ganz anders als unser subjektiv arbeitendes Bewusstsein. 

Gehen wir die Geschichte der künstlichen Textproduktion durch – vom  Poesieautomaten von Enzensberger, über die Markow-Kette, bis zu ChatGPT –, fehlen zwei entscheidende Faktoren, um einen selbstständig und bewusst guten Text zu schreiben: die Kreativität, so wie wir sie verstehen; und das Bewusstsein um den semantischen Gehalt der Sprache. Wo kein Bewusstsein, da keine Kreativität. Was meine ich mit „Kreativität, so wie wir sie verstehen“?

Interessanterweise antwortet mir ChatGPT auf die Frage „Kannst du kreativ sein?“ Folgendes:

Als KI-Modell kann ich kreativ sein, aber auf eine andere Art als Menschen. Meine Kreativität basiert auf der Fähigkeit, Muster in den Daten zu erkennen, die ich während meines Trainings gelernt habe, und diese Muster auf neue Weise zu kombinieren, um Texte zu generieren, die für menschliche Leser interessant und ansprechend sein können. Während meine Kreativität nicht mit der von Menschen identisch ist, kann ich dennoch auf vielfältige Weise neue Texte und Ideen erzeugen.

Die KI ist sich demnach ihrer Bewusstlosigkeit bewusst. Und sie greift hier auch Inhalte aus Wampflers Artikel auf, nämlich wie textbasierte Programme eigentlich die Sprache lernen, ohne sie zu verstehen. Obwohl selbst neuronale Netzwerke viel weiter differenzieren, wie Sprache funktioniert (als der Poesieautomat, welcher eher auf Wortlisten zurückgreift, oder die Markow-Kette, welche bestehende Muster reproduziert) und deren Algorithmen mit über 170 Milliarden Parametern die Regeln für – und die Strukturen von Texten gelernt haben, verstehen Diese ihre eigenen Erzeugnisse nicht. 

Denn wie Kathrin Passig schreibt; es brauche ein Hervorbringer- und ein Bewertungssystem, um die Qualität eines Textes zu evaluieren. Das Hervorbringersystem ist unser hier behandelter Gegenstand, die Künstliche Textproduktion. Die Bewertung bleibt der Mensch. Da die Qualität eines Textes auch mitunter eine subjektive Bewertung ist, kann die Bewertung natürlich nur von einer subjektiven Instanz erfolgen. Die KI kann ohne uns als Beurteilende keine guten Texte schreiben, weil es ohne uns als Rezipient*innen keinen Bewertungsmaßstab zwischen gut und schlecht gibt. So fragt sich Wampfler gegen Ende, „(…) wozu es den automatisierten Text überhaupt braucht (…), wenn wir diese Rolle nicht mehr einnehmen müssen (…)“.

Zum Abschluss ein weiteres Zitat, welches ich den Lesenden nicht vorenthalten will. Ich habe einfach ChatGPT aus Spaß gefragt „Können Programme gute Texte schreiben?“ und ChatGPT fasst Wampflers Ausführungen erstaunlich gut zusammen.

Programme wie ich können durchaus Texte schreiben, die von Menschen als qualitativ hochwertig und ansprechend empfunden werden. Jedoch gibt es einige Einschränkungen und Überlegungen:

  1. Verständnis des Kontexts: Programme können Informationen auf der Grundlage der Daten verarbeiten, die sie gelernt haben. Sie können jedoch den Kontext nicht immer vollständig erfassen oder die Bedeutung hinter den Informationen verstehen, was zu gelegentlichen Fehlinterpretationen führen kann.
  2. Kreativität: Programme können kreative Texte generieren, basierend auf den Mustern und Strukturen, die sie aus den Trainingsdaten gelernt haben. Allerdings fehlt ihnen oft das echte Verständnis von Kreativität, das menschliche Autoren haben, und sie können manchmal stereotypische oder vorhersehbare Inhalte produzieren.
  3. Korrekturlesen und Überarbeitung: Programme können Texte schnell generieren, aber sie sind nicht in der Lage, den kritischen Blick eines menschlichen Redakteurs zu ersetzen. Die Endqualität des Textes hängt oft davon ab, wie gut der Text überarbeitet und korrigiert wird.
  4. Ethische Überlegungen: Bei der Verwendung von KI-generierten Texten müssen ethische Überlegungen berücksichtigt werden, insbesondere in Bezug auf die Authentizität und die mögliche Verbreitung von Fehlinformationen.

Insgesamt können Programme wie ich hochwertige Texte generieren, aber es ist wichtig, ihre Grenzen zu erkennen und menschliche Intervention und Überprüfung in den Prozess einzubeziehen, um die bestmögliche Qualität sicherzustellen.

Ein Blick in die Gegenwart & Zukunft der Texterstellung

Können Programme gute Texte schreiben? 

Wir wagen einen Blick in die Gegenwart und Zukunft der Digitalität und Bildung:

In dieser Welt ist die Frage, ob Programme gute Texte schreiben können, von großer Bedeutung. Mit der Entwicklung von Markow-Algorithmen begann die automatische Erzeugung von Texten. Diese Algorithmen, die über einen großen Textspeicher verfügen,  erzeugen Texte schematisch – ohne aber tieferes Verständnis für die Materie.

Der eigentliche Game Changer zur Texterstellung sind aber neuronale Netzwerke, die Maschinen das Lernen ermöglichen. Durch die Verarbeitung von Input und die Erzeugung von Output, in Abgleich mit großen Datenmengen, haben sich Plattformen wie GPT und OpenAI mit ihren leistungsfähigen Algorithmen etabliert.

Ihre Trainingsgrundlage bilden quasi alle im Netz verfügbaren Texte, was ihnen eine beeindruckende Flexibilität in der Texterzeugung verleiht. So kann GPT beispielsweise problemlos Zeitungsartikel für den ‚The Guardian‘ verfassen, die sich über komplexe Themen wie Genderfragen erstrecken.

Trotz dessen benötigen derlei Algorithmen genaue Vorgaben, um gute Texte zu schreiben – der Rückgriff auf bereits vorhandene Texte ist dabei unerlässlich. Die Ergebnisse zeigen – erstaunlicherweise- , dass diese maschinell verfassten Texte  oft nicht von denen zu unterscheiden sind, die von uns Menschen geschrieben wurden. Allerdings bestehen weiterhin Herausforderungen bezüglich Kategorien wie Kreativität oder das Entwickeln längerer Handlungsgerüste. Ein Beispiel hierfür ist das Schreiben von Serien und Romanen, was für Algorithmen – noch nicht! – möglich ist. Es ist eher so, dass sie dabei als Inspirationsquelle dienen. Allein das Verfassen argumentativer Texte mit klaren, konkreten Vorgaben ist möglich. 

Wie sieht die Zukunft aus? Die Perspektive ist, dass Texte zunehmend von resp. mithilfe von Algorithmen verfasst werden, was einen Wandel von Schreibweisen und Erwartungen bedeutet – mehr fragmentarisch und musterhaft. Dieses Phänomen zeigt sich bereits in Untertiteln für Filme: Früher manuell erstellt, werden sie heute maschinell generiert, wodurch leider die Tonalität eines Films an Bedeutung verliert – es erfolgt lediglich eine Verarbeitung von rohen Sprachdaten.

Es stellt sich am Ende die Frage , ob das Schreiben eine Aufgabe wird, die der Mensch an Maschinen abgeben kann. Möglich ist in jedem Fall, dass schreibende Menschen in Zukunft immer mehr mit Maschinen zusammenarbeiten werden. Dabei unterscheidet sich die Kooperation eigentlich gar nicht so sehr von der Zusammenarbeit mit anderen schreibenden Menschen. Algorithmen helfen uns, brauchen uns Menschen aber – Gott sei Dank- noch  als Textverantwortliche, um die Qualität und Relevanz der Inhalte zu gewährleisten.

In diesem Sinne ist die Zukunft der Texterstellung eine spannende Symbiose aus menschlicher Kreativität und maschineller Effizienz, die das Potenzial hat, die Art und Weise, wie wir kommunizieren und lernen, zu revolutionieren. 

(vgl. Mampfler 2021)

23.04.: Sitzungszusammenfassung

In der Seminarsitzung am 23.04.2024 widmenten wir Studierenden uns den Möglichkeiten zum Einsatz von textgenerativen KI´s im Deutschunterricht. Die elementaren Arbeitsergebnisse wurden im Nachfolgenden im Rahmen eines fiktiven Interviews zusammengestellt:

Interview: Die Rolle textgenerativer KI im Deutschunterricht

Interviewer (I): Guten Tag! Heute haben wir das Thema, wie textgenerative KI im Deutschunterricht eingesetzt werden kann. Ich freue mich, Frau Bäcker begrüßen zu dürfen, eine erfahrene Deutschlehrerin, die diese Technologie aktiv nutzt. Frau Bäcker, könnten Sie uns zunächst einen Überblick geben, wie Sie textgenerative KI in Ihrem Unterricht einsetzen?

Antwort (A): Guten Tag! Natürlich. In meinem Deutschunterricht verwende ich textgenerative KI, um verschiedene Sprachaspekte zu vertiefen und die Kreativität der Schülerinnen und Schüler zu fördern. Zum Beispiel lassen wir die KI Texte generieren, die wir dann gemeinsam analysieren, sei es Gedichte, Kurzgeschichten oder Essays. Dadurch können die Schülerinnen und Schüler unterschiedliche Perspektiven und Interpretationen kennenlernen.

I: Das klingt wirklich faszinierend! Könnten Sie uns ein konkretes Beispiel geben, wie Sie diese Methode im Unterricht umsetzen?

A: Natürlich. Nehmen wir zum Beispiel die Analyse von Gedichten. Die Lernenden wählen ein Gedicht aus, geben es in die KI ein und erhalten dann verschiedene Interpretationsansätze. Wir diskutieren diese gemeinsam und vergleichen sie mit unseren eigenen Interpretationen. Das fördert nicht nur das Verständnis der Texte, sondern regt auch zu kritischem Denken an.

I: Das klingt nach einer sehr interaktiven Methode. Gibt es noch andere Möglichkeiten, wie Sie textgenerative KI im Deutschunterricht einsetzen?

A: Absolut! Eine weitere Anwendung ist die Unterstützung von Schreibübungen. Die Lernenden können beispielsweise kurze Geschichten schreiben und die KI kann sie dann auf Grammatik- und Rechtschreibfehler überprüfen. Dies ermöglicht den Schülerinnen und Schülern, ihre Fähigkeiten zu verbessern und gleichzeitig von sofortigem Feedback zu profitieren.

I: Das klingt nach einer effektiven Möglichkeit, das Schreiben zu fördern. Gibt es noch andere Vorteile, die Sie sehen?

A: Ja, definitiv. Durch den Einsatz von textgenerativer KI können wir den Unterricht personalisieren. Die KI kann den Lernfortschritt der Lernenden verfolgen und individuelle Lernmaterialien oder Übungen vorschlagen, die ihren Bedürfnissen entsprechen. Auf diese Weise können wir sicherstellen, dass alle Schülerinnen und Schüler optimal gefördert werden.

I: Das klingt sehr vielversprechend. Gibt es denn auch Herausforderungen bei der Nutzung von KI im Deutschunterricht?

A: Natürlich gibt es Herausforderungen. Einige Schülerinnen und Schüler könnten beispielsweise zu sehr von der KI abhängig werden und ihre eigenen Fähigkeiten vernachlässigen. Außerdem ist die Qualität der generierten Texte nicht immer perfekt und erfordert manchmal zusätzliche Überprüfung und Diskussion.

I: Verstehe. Es ist also wichtig, die KI als Werkzeug zu betrachten und nicht als Ersatz für menschliche Lehrkräfte. Vielen Dank, Frau Bäcker, für diese Einblicke in die Verwendung von textgenerativer KI im Deutschunterricht. Es scheint, dass KI viele Möglichkeiten bietet, den Unterricht zu bereichern und die Lernerfahrung zu verbessern.

A: Genau. Ich bin fest davon überzeugt, dass die Integration von KI-Technologien den Deutschunterricht noch dynamischer und effektiver gestalten kann. Es war mir eine Freude, darüber zu sprechen.

Wie funktionieren Programme, die Texte generieren?

Genau diese Frage stellt Philippe Wampfler in seinem Text „Können Programme gute Texte schreiben? Dieser Titel stellt leitet schon die nächste Frage ein, somit steht fest, dass sich bei dem Thema KI-generierte Texte viele Fragen ergeben. Vielleicht können einige mithilfe dieser kurzen Zusammenfassung des Textes beantwortet werden. 

Eine weitere Frage (dieser Beitrag lässt erkennen, dass immer mehr Fragen entstehen), die mich schon immer beschäftigt hat, ist wie mein Smartphone mir all diese Vorschläge an Worten unterbreitet, wenn ich eine Textnachricht verschicken möchte. Diese Frage kann Wampfler beantworten. Für diese Vorschläge ist der Markow-Algorithmus verantwortlich, dieser berechnet aufgrund der eigenen Sprachverwendung mit welcher Wahrscheinlichkeit ein Wort auf ein anderes folgt. Hier ein Beispiel meines eigenen Smartphones, wenn ich das Wort Morgen eingebe. 

Morgen früh muss er noch einmal zur Schule.

Da stellt sich mir die Frage, wer morgen früh noch zur Schule muss 🤔 Das kann ganz einfach erklärt werden, denn der Markow-Algorithmus weiß nichts über den Kontext, in dem die Nachricht verfasst werden soll und erzeugt eine unendliche Schleife, da er nie einen Punkt setzt und immer neue Wörter vorschlägt, die auf das vorher erzeugte Wort folgen. Somit wird klar, dass dieses Verfahren keine guten Texte erzeugen wird. Aber können dann überhaupt gute KI-generierte Texte entstehen? 

Neuronale Netzwerke und Machine Learning sind die Antwort darauf. Die Netzwerke sind Input gesteuert und erzeugen Output – der Input besteht aus einer Menge an verschiedenen Texten, die auf ihre Muster untersucht werden, denn die Programme haben kein eigenes Wissen über grammatische Regeln oder ähnliches. GPT-3 greift für seine Textproduktion auf alle Texte im Internet zurück, um aus diesen zu lernen. Jedoch ist eine Kohärenz in längeren Texten nur schwer möglich – also einen Zusammenhang in der Oberflächenstruktur eines Textes. 

Wie ist das nun? Können Programme gute Texte verfassen? Die Antwort lautet jein. Erhält das Programm möglichst genaue Vorgaben und kann es auf viele verschiedene Texte zurückgreifen, können die Texte gut werden. Jedoch können solche Programme keine kreativeren, freien Texte erstellen oder längere Handlungsgerüste entwickeln. Also ist es bisher eher weniger möglich Drehbuchautorin für großartige Blockbuster zu werden, ohne selbst Texte schreiben zu müssen. Dann wird es wohl doch bei Deutschlehrerin bleiben… aber vielleicht wird es ja in der Zukunft noch möglich werden. 

KI greift auf den Input zurück
Der Input aller Texte