Archiv der Kategorie: Allgemein

Können wir aus Suchmaschinen Antwortmaschinen entwickeln ?

Die einen bezeichnen es als Revolution, andere sehen die aufkommenden oder bestehenden Probleme, welche kontrovers diskutiert werden sollten – es handelt sich um KI-Systeme, welche zum ersten mal den Kit zwischen der „Tech-Blase“ und den Menschen, die nie etwas mit Sprachmodellen am Hut hatten, bilden. 

Die Chance, welche hierbei gesehen wird ist, Sprachmodelle mit Suchmaschinen zu koppeln, sodass es den Menschen leicht gemacht wird, ihre Worte, welche sie sich formulieren lassen, auch mit Quellen zu belegen. Das alles klingt in der Theorie recht revolutionär und simpel, man könnte fast meinen, man bräuchte somit keine hunderte Klicks mehr durch Google, um an seine Recherche zu kommen. 

Das Problem, was sich hierbei jedoch ergibt ist, dass KI-Systeme noch eine hohe Fehlerquote haben und falsche Aussagen treffen. Beispielsweise liegt diese genannte Fehlerquote bei GPT 4 bei 20-30%. Da ist dann die Frage, ob man nun die Richtigkeit auswürfelt oder der Quelle ver- oder misstraut. Wenn man nun den Grundlagen richtig auf den Leim gehen möchte und nicht nur „Hard Facts“ erfahren will, muss man nur Fragen in Richtung Mythen oder Verschwörungstheorien eingeben und die Sprachmodelle kommen an ihre Grenzen. Denn Moral und persönliche Meinung spielen bei den KI-Systemen keine Rolle. 

Wie es im Text auch steht kann man sagen: „Spoiler: Keine der KI-gestützten Suchmaschinen kann derzeit mit einem Menschen mithalten, der die Antworten im Netz recherchiert.“ 

Wie bei allem steckt nicht nur Praktisches, oder eben Unpraktisches, wenn man es zynisch betrachten möchte, dass man jede Quelle eigentlich noch einmal selbst überprüfen sollte, sondern auch kapitalistisches Denken dahinter. Denn mit dem Einzug der Sprachmodelle in die Suchmaschinen ergeben sich auch ganz neue Möglichkeiten für Werbung, beispielsweise mit einer Einebnung dieser in mögliche Antwortmöglichkeiten, wie Microsoft experimentiert. Daraus entsteht allerdings auch eine neue Gefahr – die „Prompt Injections“. „Suchmaschinen füttern ihre Sprachmodelle mit dem Quelltext der gefundenen Webseiten. Angreifer können dort beliebige Prompt-Befehle für ein Sprachmodell verstecken und nicht nur Suchmaschinen, sondern auch Nutzer angreifen“ (c`t Artikel). Auf gut deutsch bedeutet das, dass hierbei alle persönlichen Daten völlig missbraucht werden können, ohne dafür gehackt werden zu müssen.

Beim Stichpunkt Moral und Ethik wird es spannend, wenn man auf die aktuellen Themen wie Gender oder Sexualität schaut oder auch einfach nur auf grundlegende Dinge, die eine Gesellschaft zwangsläufig tangiert – zum Beispiel Politik aber auch Religion. Da ist es spannend, wie diese einfach ignoriert werden können. Hier ein Beispiel: 

Doch bei all der Kritik ist es doch wesentlich zu hinterfragen, ob es denn eine Traumvorstellung ist, aus Such- Antwortmaschinen zu machen. Probleme werden ganz klar definiert und es steht fest, dass es bei den ersten Versuchen auch noch einen langen Weg darstellt, diese Vorstellung wahr werden zu lassen. 

Dennoch wurden diese Gattungen von Suchmaschinen einmal genauer unter die Lupe genommen, denn wenn man mal ehrlich ist, konnten noch nie so viele Menschen an Fortschritt teilnehmen. Und was wäre Fortschritt ohne Probleme? 

Deshalb wurden folgende Suchdienste verglichen: 

  • Bing 
  • Friday
  • Kagi
  • Neeva
  • Perplexity AI 
  • Phind 
  • you.com 

ChatGPT wurde mit allen anderen zusammen zum Vergleich herangezogen, jedoch nicht detailliert erforscht, da es sich hier um einen Anbieter ohne Quellenangabe handelt. 

Im Artikel sind alle Vor- und Nachteile kurz und kompakt zusammengefasst. 

Spannender ist jedoch zu sagen, dass KI-gestützte Suchmaschinen momentan vor allem auf eines setzen – Kreativität. Die Antworten sind randomisiert und somit kann sich einmal völlig „random“ großer Quatsch, ein anderes Mal richtige Fakten generieren.

Die Frage, ob es realistisch ist, auf KI- gestützte Suchdienste zu vertrauen, kann man abschließend nicht ganz klären, denn momentan sollte man sich nicht darauf verlassen, bei all den Halluziationen und Macken der „Suchknechte“. Allerdings sollte man sich auch nicht davor verschließen, denn man kann ein gewissen Potential erkennen, sich einige Zeit zu ersparen. Und anscheinend machen das die Menschen auch nicht, denn es gründen sich täglich tausende von neuen Start – Ups, nur allein dafür, die Revolution der „Antwortmaschinen“ voranzutreiben. 

Feedback und Schreibunterstützung durch KI

Nach kurzer Zeit haben SuS festgestellt, dass die durch KI entstehenden Texte die Erwartungen von Lehrpersonen erfüllen. Dies führte dann dazu, dass die Lehrpersonen nicht mehr wussten, ob die Texte von SuS stammen oder eben nicht und dazu, dass die SuS den Sinn nicht mehr erkannt haben, warum sie selbst noch Texte schreiben sollen. Gleichzusetzen ist dieses Problem ungefähr mit dem Taschenrechner. 
Lehrpersonen sind aber relativ schnell darauf gestoßen, dass KI-Texte fehlerhaft sind und menschliche Arbeit doch besser ist. 

Natürlich entwickelt sich die KI ständig weiter und Fehler und Probleme werden behoben, aber nicht alles kann behoben werden bzw. noch nicht. Ein Problem ist, dass die KI auch Texte generiert, obwohl sie zu dem Thema gar kein Wissen hat. Vor allem wenn mehrdeutige Aufgaben ohne Muster verwendet werden, gerät die KI an ihre Grenzen und bemerkt dies noch nicht mal. Ein weiteres Problem liegt im Erfinden von Rechtschreibfehlern und bei Texten mit Dialekten vor.  Anzunehmen ist, dass diese Fehler trotz stetiger Weiterentwicklung der KI nie völlig verschwinden werden. 
Kritisch betrachtet werden muss auch, dass die Algorithmen nicht mit Wahrnehmung und sozialer und emotionaler Intelligenz gekoppelt sind. In diesem Zusammenhang ist auch anzumerken, dass KI nicht auf Kontextwissen zugreifen kann. 

Während Lehrkräfte die Fehler der aktuellen KI-Version überschätzen, unterschätzen die SuS die Fehler der KI.
SuS sollen Texte verfassen, um ihnen eine kommunikative Funktion zu geben und diese Schreibanlässe können von KI-Tools nicht bearbeitet werden. Ziel muss es also sein, dass die SuS das Schreiben als wertvollen Prozess wahrnehmen. Dabei können KI-Tools helfen, indem sie für einen Prozessschritt eingesetzt werden und KI-Tools können behindern, wenn Schreibprozesse übersprungen werden. 
KI-Tools haben zur Folge, dass Lehrpersonen hinterfragen müssen, wie und warum SuS schreiben sollen. Der Fokus muss auf Lernprozesse gelegt werden und die Bewertung muss in den Hintergrund gerückt werden, denn dies hilft, prozessorientierte Kompetenzen in die Beurteilung einzubeziehen. 

Festzuhalten ist, dass es sich um junge und dynamische Tools handelt, mit denen SuS und Lehrpersonen noch nicht vertraut sind. Deshalb sollte guter Schreibunterricht eine Heranführung an KI leisten und Möglichkeiten von diesen Tools aufzeigen. KI-Tools sollten prozessbezogen genutzt werden und nicht als Abkürzung. 

Wie die KI-Suchen die Welt erklären – ein kritischer Artikel von Hartmut Gieselmann

Hartmunt Giselmann, welcher seit über 20 Jahren für Europas größtes Computermagazin c’t schreibt, beäugt die Digitalisierung in Hinblick auf ihre Auswüchse kritisch. Einer seiner Themenschwerpunkte ist die Künstliche Intelligenz. Genauer gesagt, KI-gestützte Suchmaschinen, die laut ihm über das Potential verfügen, das gesamte Internet auf den Kopf zu stellen und die Dominanz von Google zu brechen, wenn sie so optimiert werden, dass sie auf Knopfdruck Fragen beantworten und direkt auf ihre genutzten Quellen verweisen.

In seinem Artikel Wie die KI-Suchen die Welt erklären von April 2023 verweist Giselmann auf neue Probleme und Gefahren von KI-Suchmaschinen, u.a. hinsichtlich der Verbreitung von Unwahrheiten aufgrund fehlerhafter Internetquellen. Sein Artikel verdeutlicht die potenzielle Gefahrenlage von KI-gestützten Suchmaschinen für Nutzer. Im Folgenden erhältst du einen Einblick in die von Giselmann charakterisierten Grundproblemen von KI-Suchmaschinen.

Er hält zunächst fest, dass es trotz des atemberaubenden Entwicklungstempos von KI, u.a. ChatGPT nicht möglich ist, seinen Nutzern zu 100 Prozent vertrauenswürdige Antworten zu geben, weshalb zu einer manuellen Überprüfung der Aussagen, sprich einem akribischem Check, angeraten wird. Aktuell entsprechen 20 bis 30 Prozent der Antworten der textgenerativen Sprachmodelle nicht der Wahrheit, dennoch ist es für Giselmann denkbar, dass in nicht allzu langer Zukunft die Quote der falschen Aussagen auf unter 5 Prozent oder sogar auf einen 1 Prozent sinkt, was dazu führen würde, dass kaum noch jemand überprüft, was KI-gestützte Suchmaschinen sagen, sondern ihnen einfach zu glauben.  

Neben der Gefahr, dass KI-Suchmaschinen nicht zwischen wahren Aussagen und ihren Halluzinationen, für Textgeneratoren scheinbar korrekte Daten, unterscheiden können, kann es passieren, dass Sprachmodelle bei der Zusammenfassung von langen bzw. mehreren Texten frei erfundene Pseudoaussagen in ihre Antworten einbeziehen, die nicht immer als solche für die Nutzer erkenntlich sind. Trotz dessen, dass sich Hersteller bemühen, die Suchergebnisse durch den Einsatz von Filtern zu kontrollieren bzw. zu optimieren,  um somit Letzterem entgegenzuwirken, können Kontrollen dieser Art auch dazu führen, dass Filter KI den Zugang zu Wissen erschweren, wodurch Antworten textgenerativer Sprachmodelle lückenhaft bzw. fehlerhaft sein können. Dabei sei angemerkt, dass einige Wissenschaftler der Auffassung sind, dass eine derartige Kontrolle über Sprachmodelle gar nicht erst existiert. Das heißt, es sei lediglich eine Illusion der Hersteller, die volle Kontrolle über die Antworten der Textgeneratoren zu haben. Dies ist besorgniserregend, da Angriffe von Kriminellen auf Sprachmodelle demnach nicht abwegig sind. Giselmann hält fest, dass es Angreifern durchaus leicht möglich ist, die von den Herstellern gesetzten Sicherheitssysteme, sprich die Filter, zu umgehen und die Wissensgenerierung von KI-gestützten Suchmaschinen nach Belieben zu manipulieren.  

Mit der fehlerhaften Generierung von Texten aus dem Web und dem zunehmend blinden Vertrauen in (schnelle) Antworten der KI geht die rechtliche Auseinandersetzung zwischen Suchmaschinenbetreibern und Verlegern einher, denn für Nachrichtenseiten, Blogs und anderen Webanbietern besteht laut Giselmann die Gefahr, dass diese den Großteil ihrer bisherigen Kundschaft an KI-gestützte Suchmaschinen verlieren, was sich in einem Rückgang ihrer Bezahl- und Werbeeinnahmen widerspiegelt. Falk Steiner hält im Punkt Wie sich Autoren gegen KI-Bots wehren des Artikels fest, dass KI-gestützte Suchmaschinen beliebig auf Inhalte von Websites zugreifen und diese passend zur Suchanfrage generieren bzw. umformulieren. Dabei gibt ChatGPT bei Antworten noch nicht einmal die Quellen der Daten an, was zum Ärger seitens der Verleger und Autoren ist. Betroffenen müssen demnach Kontroll- bzw. Abwehrmaßnahmen zu gestanden werden, um KI den beliebigen Zugriff auf Inhalte zu untersagen, damit Sprachmodelle wie ChatGPT, nach Falk Steiner, nicht ungefragt Texte im Web abgrasen und somit die Urheberrechte verletzten. Dies ist jedoch leichter gesagt als getan, da sich die Rechtslage als kompliziert erweist. Der Forderung nach eingeschränktem Zugriff auf Verlagsangebote durch KI-Sprachmodule, sprich der Schutz der Rechte von Urhebern, steht entgegen der von der EU gewollten Förderung der KI-Entwicklung, für die authentische Trainingsdaten wiederum benötigt werden.

Was es mit den KI-Bots auf sich hat und welche weiteren spannenden Punkte hinsichtlich der Funktionsweise und potentieller Gefahren von KI-Suchdiensten ausgeführt werden, erfährst du im vollständigen c’t-Artikel. Es lohnt sich!

Hier findest du den vollständigen Artikel:

https://www.heise.de/ratgeber/Fragen-statt-googlen-Wie-die-neuen-KI-Suchmaschinen-die-Welt-erklaeren-8645105.html

Philippe Wampfler (2021): Können Programme gute Texte schreiben?

Können Programme gute Texte schreiben?

Mit dieser Frage setzt sich Philippe Wampfler in seinem 2021 erschienenen, gleichnamigen Text auseinander und nimmt die Leser*innen dabei mit auf einen „Streifzug durch die Welt der schreibenden Maschinen“ (Wampfler 2021, 132).

Die Reise beginnt dabei konkret in den 1970er-Jahren: Hans Magnus Enzensberger konzipiert den sogenannten Poesieautomat, mit dem Ziel, Texte maschinell erstellen zu können. 2000 realisiert er sein Projekt: Indem eine Liste an Wörtern nach bestimmten Regeln miteinander kombiniert werden, werden eine Vielzahl unterschiedlicher Gedichte per Knopfdruck generiert. Der Großteil dieser erzeugten Gedichte kann jedoch nicht als besonders gut bezeichnet werden. Dies hängt damit zusammen, dass Enzensberger Poesieautomat keine Möglichkeit hat, die Auswahl oder die Kombination der vorgegeben Wörter zu beeinflussen.

Wampfler geht einen Schritt weiter und nimmt die Smartphones näher in den Blick. Auch hier lässt sich ein generierter Text erzeugen, nutzt man die Worterkennungsfunktion. Die automatischen Wortvorschläge beruhen auf der Markow-Kette. Nach jedem Wort berechnet das Gerät, welches Wort am wahrscheinlichsten auf das vorherige folgen wird. Das Programm reproduziert damit die bestehenden Muster der Sprachverwendung der Nutzer*innen. So schlägt mir mein Handy folgenden Satz vor:

„Ich bin gerade in der Uni und werde mich dann wohl erstmal etwas ausruhen und …“

Sicherlich ist dies ein korrekter Satz, welcher durch ein paar einfache Klicks entstanden ist – allerdings weiß der Algorithmus nichts über den eigentlichen Gesprächskontext. Ob der Satz zu diesem passt, kann das Gerät nicht einschätzen. Der letzte Vorschlag war erneut ein „und“. Genau diese Schwäche wird auch von Wampfler als zweites angesprochen: Die Sätze könnten ewig fortgeführt werden – so entsteht eine Schleife. Wie auch der Poesieautomat ist es somit auch hier weniger möglich, auf diese Weise einen guten Text zu erzeugen.

Eine dritte Möglichkeit der maschinellen Texterzeugung wird vorgestellt – vielleicht liegt hierin die Lösung zu Frage?

Es handelt sich um die Verwendung Neuronaler Netzwerke und Machine Learning. Solche Netzwerke benötigen zunächst einen Input – hier in Form von Texten. Anschließend sucht das Netzwerk nach bestimmten Mustern und Regeln und lernt durch diese Analyse selbst hinzu und kann das Gelernte anschließend umsetzen und wiederrum einen Output (in Form von eigenen Texten) erzeugen. So funktioniert unter anderem auch der Chatbot Chat-GPT von OpenAI. ChatGPT greift auf alle Texte zu, welche im Internet verfügbar sind und nutzt diese als Datenquelle für seine Texte. Aber auch hier stellt sich erneut die Frage, ob diese Texte als „gut“ eingeschätzt werden können.

Können Programme also überhaupt gute Texte schreiben? Wampflers Antwort auf die Frage lautet (wenig überraschend): Ja und nein. „Algorithmen schreiben dann gute Texte, wenn sie recht genaue Vorgaben bekommen und diese durch Rückgriff auf bereits geschriebene Texte erfüllen können“ (Wampfler 2021, 138). Trotzdem gibt es ein großes Problem, welches für die Erzeugung guter Texte notwendig ist: Denn den Algorithmen selbst fehlt es an Kreativität.

Können Programme gute Texte schreiben?

Mit dieser Frage beschäftigt sich Phillipe Wampfler in seinem gleichnamigem Artikel von November 2021. In meinem Kommentar gebe ich die bei ihm durchgehend implizierte Antwort vorweg: Ja und Nein. Was heißt das?

In gewissen Punkten verhält sich der Lern- und Schreibprozess wie beim Menschen: Grundregeln von Sprache und Schrift werden erlernt und angewendet, und durch Wiederholen verbessert. Das war es dann auch. Eine KI funktioniert letzten Endes ganz anders als unser subjektiv arbeitendes Bewusstsein. 

Gehen wir die Geschichte der künstlichen Textproduktion durch – vom  Poesieautomaten von Enzensberger, über die Markow-Kette, bis zu ChatGPT –, fehlen zwei entscheidende Faktoren, um einen selbstständig und bewusst guten Text zu schreiben: die Kreativität, so wie wir sie verstehen; und das Bewusstsein um den semantischen Gehalt der Sprache. Wo kein Bewusstsein, da keine Kreativität. Was meine ich mit „Kreativität, so wie wir sie verstehen“?

Interessanterweise antwortet mir ChatGPT auf die Frage „Kannst du kreativ sein?“ Folgendes:

Als KI-Modell kann ich kreativ sein, aber auf eine andere Art als Menschen. Meine Kreativität basiert auf der Fähigkeit, Muster in den Daten zu erkennen, die ich während meines Trainings gelernt habe, und diese Muster auf neue Weise zu kombinieren, um Texte zu generieren, die für menschliche Leser interessant und ansprechend sein können. Während meine Kreativität nicht mit der von Menschen identisch ist, kann ich dennoch auf vielfältige Weise neue Texte und Ideen erzeugen.

Die KI ist sich demnach ihrer Bewusstlosigkeit bewusst. Und sie greift hier auch Inhalte aus Wampflers Artikel auf, nämlich wie textbasierte Programme eigentlich die Sprache lernen, ohne sie zu verstehen. Obwohl selbst neuronale Netzwerke viel weiter differenzieren, wie Sprache funktioniert (als der Poesieautomat, welcher eher auf Wortlisten zurückgreift, oder die Markow-Kette, welche bestehende Muster reproduziert) und deren Algorithmen mit über 170 Milliarden Parametern die Regeln für – und die Strukturen von Texten gelernt haben, verstehen Diese ihre eigenen Erzeugnisse nicht. 

Denn wie Kathrin Passig schreibt; es brauche ein Hervorbringer- und ein Bewertungssystem, um die Qualität eines Textes zu evaluieren. Das Hervorbringersystem ist unser hier behandelter Gegenstand, die Künstliche Textproduktion. Die Bewertung bleibt der Mensch. Da die Qualität eines Textes auch mitunter eine subjektive Bewertung ist, kann die Bewertung natürlich nur von einer subjektiven Instanz erfolgen. Die KI kann ohne uns als Beurteilende keine guten Texte schreiben, weil es ohne uns als Rezipient*innen keinen Bewertungsmaßstab zwischen gut und schlecht gibt. So fragt sich Wampfler gegen Ende, „(…) wozu es den automatisierten Text überhaupt braucht (…), wenn wir diese Rolle nicht mehr einnehmen müssen (…)“.

Zum Abschluss ein weiteres Zitat, welches ich den Lesenden nicht vorenthalten will. Ich habe einfach ChatGPT aus Spaß gefragt „Können Programme gute Texte schreiben?“ und ChatGPT fasst Wampflers Ausführungen erstaunlich gut zusammen.

Programme wie ich können durchaus Texte schreiben, die von Menschen als qualitativ hochwertig und ansprechend empfunden werden. Jedoch gibt es einige Einschränkungen und Überlegungen:

  1. Verständnis des Kontexts: Programme können Informationen auf der Grundlage der Daten verarbeiten, die sie gelernt haben. Sie können jedoch den Kontext nicht immer vollständig erfassen oder die Bedeutung hinter den Informationen verstehen, was zu gelegentlichen Fehlinterpretationen führen kann.
  2. Kreativität: Programme können kreative Texte generieren, basierend auf den Mustern und Strukturen, die sie aus den Trainingsdaten gelernt haben. Allerdings fehlt ihnen oft das echte Verständnis von Kreativität, das menschliche Autoren haben, und sie können manchmal stereotypische oder vorhersehbare Inhalte produzieren.
  3. Korrekturlesen und Überarbeitung: Programme können Texte schnell generieren, aber sie sind nicht in der Lage, den kritischen Blick eines menschlichen Redakteurs zu ersetzen. Die Endqualität des Textes hängt oft davon ab, wie gut der Text überarbeitet und korrigiert wird.
  4. Ethische Überlegungen: Bei der Verwendung von KI-generierten Texten müssen ethische Überlegungen berücksichtigt werden, insbesondere in Bezug auf die Authentizität und die mögliche Verbreitung von Fehlinformationen.

Insgesamt können Programme wie ich hochwertige Texte generieren, aber es ist wichtig, ihre Grenzen zu erkennen und menschliche Intervention und Überprüfung in den Prozess einzubeziehen, um die bestmögliche Qualität sicherzustellen.

Ein Blick in die Gegenwart & Zukunft der Texterstellung

Können Programme gute Texte schreiben? 

Wir wagen einen Blick in die Gegenwart und Zukunft der Digitalität und Bildung:

In dieser Welt ist die Frage, ob Programme gute Texte schreiben können, von großer Bedeutung. Mit der Entwicklung von Markow-Algorithmen begann die automatische Erzeugung von Texten. Diese Algorithmen, die über einen großen Textspeicher verfügen,  erzeugen Texte schematisch – ohne aber tieferes Verständnis für die Materie.

Der eigentliche Game Changer zur Texterstellung sind aber neuronale Netzwerke, die Maschinen das Lernen ermöglichen. Durch die Verarbeitung von Input und die Erzeugung von Output, in Abgleich mit großen Datenmengen, haben sich Plattformen wie GPT und OpenAI mit ihren leistungsfähigen Algorithmen etabliert.

Ihre Trainingsgrundlage bilden quasi alle im Netz verfügbaren Texte, was ihnen eine beeindruckende Flexibilität in der Texterzeugung verleiht. So kann GPT beispielsweise problemlos Zeitungsartikel für den ‚The Guardian‘ verfassen, die sich über komplexe Themen wie Genderfragen erstrecken.

Trotz dessen benötigen derlei Algorithmen genaue Vorgaben, um gute Texte zu schreiben – der Rückgriff auf bereits vorhandene Texte ist dabei unerlässlich. Die Ergebnisse zeigen – erstaunlicherweise- , dass diese maschinell verfassten Texte  oft nicht von denen zu unterscheiden sind, die von uns Menschen geschrieben wurden. Allerdings bestehen weiterhin Herausforderungen bezüglich Kategorien wie Kreativität oder das Entwickeln längerer Handlungsgerüste. Ein Beispiel hierfür ist das Schreiben von Serien und Romanen, was für Algorithmen – noch nicht! – möglich ist. Es ist eher so, dass sie dabei als Inspirationsquelle dienen. Allein das Verfassen argumentativer Texte mit klaren, konkreten Vorgaben ist möglich. 

Wie sieht die Zukunft aus? Die Perspektive ist, dass Texte zunehmend von resp. mithilfe von Algorithmen verfasst werden, was einen Wandel von Schreibweisen und Erwartungen bedeutet – mehr fragmentarisch und musterhaft. Dieses Phänomen zeigt sich bereits in Untertiteln für Filme: Früher manuell erstellt, werden sie heute maschinell generiert, wodurch leider die Tonalität eines Films an Bedeutung verliert – es erfolgt lediglich eine Verarbeitung von rohen Sprachdaten.

Es stellt sich am Ende die Frage , ob das Schreiben eine Aufgabe wird, die der Mensch an Maschinen abgeben kann. Möglich ist in jedem Fall, dass schreibende Menschen in Zukunft immer mehr mit Maschinen zusammenarbeiten werden. Dabei unterscheidet sich die Kooperation eigentlich gar nicht so sehr von der Zusammenarbeit mit anderen schreibenden Menschen. Algorithmen helfen uns, brauchen uns Menschen aber – Gott sei Dank- noch  als Textverantwortliche, um die Qualität und Relevanz der Inhalte zu gewährleisten.

In diesem Sinne ist die Zukunft der Texterstellung eine spannende Symbiose aus menschlicher Kreativität und maschineller Effizienz, die das Potenzial hat, die Art und Weise, wie wir kommunizieren und lernen, zu revolutionieren. 

(vgl. Mampfler 2021)

23.04.: Sitzungszusammenfassung

In der Seminarsitzung am 23.04.2024 widmenten wir Studierenden uns den Möglichkeiten zum Einsatz von textgenerativen KI´s im Deutschunterricht. Die elementaren Arbeitsergebnisse wurden im Nachfolgenden im Rahmen eines fiktiven Interviews zusammengestellt:

Interview: Die Rolle textgenerativer KI im Deutschunterricht

Interviewer (I): Guten Tag! Heute haben wir das Thema, wie textgenerative KI im Deutschunterricht eingesetzt werden kann. Ich freue mich, Frau Bäcker begrüßen zu dürfen, eine erfahrene Deutschlehrerin, die diese Technologie aktiv nutzt. Frau Bäcker, könnten Sie uns zunächst einen Überblick geben, wie Sie textgenerative KI in Ihrem Unterricht einsetzen?

Antwort (A): Guten Tag! Natürlich. In meinem Deutschunterricht verwende ich textgenerative KI, um verschiedene Sprachaspekte zu vertiefen und die Kreativität der Schülerinnen und Schüler zu fördern. Zum Beispiel lassen wir die KI Texte generieren, die wir dann gemeinsam analysieren, sei es Gedichte, Kurzgeschichten oder Essays. Dadurch können die Schülerinnen und Schüler unterschiedliche Perspektiven und Interpretationen kennenlernen.

I: Das klingt wirklich faszinierend! Könnten Sie uns ein konkretes Beispiel geben, wie Sie diese Methode im Unterricht umsetzen?

A: Natürlich. Nehmen wir zum Beispiel die Analyse von Gedichten. Die Lernenden wählen ein Gedicht aus, geben es in die KI ein und erhalten dann verschiedene Interpretationsansätze. Wir diskutieren diese gemeinsam und vergleichen sie mit unseren eigenen Interpretationen. Das fördert nicht nur das Verständnis der Texte, sondern regt auch zu kritischem Denken an.

I: Das klingt nach einer sehr interaktiven Methode. Gibt es noch andere Möglichkeiten, wie Sie textgenerative KI im Deutschunterricht einsetzen?

A: Absolut! Eine weitere Anwendung ist die Unterstützung von Schreibübungen. Die Lernenden können beispielsweise kurze Geschichten schreiben und die KI kann sie dann auf Grammatik- und Rechtschreibfehler überprüfen. Dies ermöglicht den Schülerinnen und Schülern, ihre Fähigkeiten zu verbessern und gleichzeitig von sofortigem Feedback zu profitieren.

I: Das klingt nach einer effektiven Möglichkeit, das Schreiben zu fördern. Gibt es noch andere Vorteile, die Sie sehen?

A: Ja, definitiv. Durch den Einsatz von textgenerativer KI können wir den Unterricht personalisieren. Die KI kann den Lernfortschritt der Lernenden verfolgen und individuelle Lernmaterialien oder Übungen vorschlagen, die ihren Bedürfnissen entsprechen. Auf diese Weise können wir sicherstellen, dass alle Schülerinnen und Schüler optimal gefördert werden.

I: Das klingt sehr vielversprechend. Gibt es denn auch Herausforderungen bei der Nutzung von KI im Deutschunterricht?

A: Natürlich gibt es Herausforderungen. Einige Schülerinnen und Schüler könnten beispielsweise zu sehr von der KI abhängig werden und ihre eigenen Fähigkeiten vernachlässigen. Außerdem ist die Qualität der generierten Texte nicht immer perfekt und erfordert manchmal zusätzliche Überprüfung und Diskussion.

I: Verstehe. Es ist also wichtig, die KI als Werkzeug zu betrachten und nicht als Ersatz für menschliche Lehrkräfte. Vielen Dank, Frau Bäcker, für diese Einblicke in die Verwendung von textgenerativer KI im Deutschunterricht. Es scheint, dass KI viele Möglichkeiten bietet, den Unterricht zu bereichern und die Lernerfahrung zu verbessern.

A: Genau. Ich bin fest davon überzeugt, dass die Integration von KI-Technologien den Deutschunterricht noch dynamischer und effektiver gestalten kann. Es war mir eine Freude, darüber zu sprechen.

KI im Alltag – eine Einleitung

Noch nie war die Nutzung von KI im Alltag einfacher als jetzt. Alles, was man tun muss, ist einem beliebigen KI-Programm eine Frage zu stellen oder einen Befehl zu erteilen und et voilà: ChatGPT lässt einen völlig neuen Fließtext innerhalb von Sekunden per Geisterhand entstehen, perfekt auf die gestellte Frage angepasst. Alexa spielt den nächsten Song oder erzählt Witze. Ai-Photomaker erstellt ein neues Bild in dem gewünschten Art style. Und damit das E-Mail Postfach nicht vor lauter Spam-Nachrichten zwischen den wichtigen Nachrichten überquillt, filtert ein KI-System genau diese heraus.

KI ist mittlerweile so in unserem Alltag in Deutschland integriert, dass wir sie bewusst teilweise gar nicht mehr wahrnehmen. Doch, so hilfreich, wie KI auch sein kann, birgt sie viele Tücken. Beispielsweise ist das, was ChatGpt entwirft, nicht immer vollkommen richtig oder ausreichend. Wenn man den richtigen Umgang mit KI nicht lernt oder sich vollkommen auf sie verlässt, ohne ihr kritisch gegenüber zu stehen, kann dementsprechend der Umgang mit ihr deutlich erschwert werden. Je früher man also den Umgang mit KI lernt, desto besser.

Die Bildung in schulischen Einrichtungen ist hierfür teilweise jedoch noch nicht weit genug fortgeschritten, weswegen uns dieses Seminar auf die Zukunft mit KI – besonders im Schulalltag – sehr gut vorbereiten kann.

Einleitend für das Seminar war der Film „AI – Künstliche Intelligenz“ (2001). Steven Spielberg hat den Alltag mit KI in seinem Film auf die Spitze getrieben und gezeigt, wohin die KI – Forschung führen kann: Ein Roboterjunge namens David wurde hergestellt, um seine Mutter für alle Zeit zu lieben. Wobei die Möglichkeit eines Roboters zu Lieben etwas unrealistisch erscheint, ist doch bereits in dem Begriff „Roboter“ mitinbegriffen, dass er künstlich erschaffen wurde – und damit auch jegliche „Gefühle“ seinerseits. Liebe kann man nicht erzwingen, nicht (durch eine „Prägung“ im Film) festlegen und schon gar nicht programmieren. Selbst der menschlichen „Mutter“ Monika scheint es schwergefallen zu sein, David wirklich zu lieben, was in Anbetracht seiner quasi nicht vorhandenen Charaktereigenschaften, bzw. nur programmierten Charakteristika, nicht allzu schwer nachzuvollziehen ist. Die Roboter im Film wurden als Teil der Gesellschaft ebenso nur anerkannt, weil sie die Menschen dienen. Als gleichwertig wurden sie nie betrachtet, weswegen es unmöglich ist, sie wirklich zu lieben.

Es wäre nicht verwunderlich, wenn irgendwann Roboter in den Klassenzimmern stehen würden – hoffentlich nur zur Unterstützung der menschlichen Lehrkraft und nicht zur Ersetzung. Zunächst soll sich jedoch erstmal mit KI als Programm am Laptop oder Ähnlichem beschäftigt werden. So kann auch der Lehrerberuf erleichtert werden, indem man Arbeitsblätter erschaffen und Inhalte zusammensuchen und bereitstellen oder auch KI Leistungen der Schülerinnen und Schüler hinsichtlich der Grammatik und der Rechtschreibung überprüfen lassen kann.

Allerdings gibt es hinsichtlich der sinnvollen Bildung mit KI mehrere zu erfüllende Voraussetzungen, die Probleme darstellen könnten. Beispielsweise stellt sich die Frage, ob an den jeweiligen Bildungseinrichtungen die nötigen Materialien und die technische Ausstattung für das Arbeiten mit KI vorhanden ist: Haben alle Schülerinnen und Schüler Zugriff auf technische Geräte und das Internet? Welche Lernorte eignen sich und welche nicht? Wie kann man sich mit ethischen Fragen auseinandersetzen und was ist mit Datenschutz? Und die wichtigste Frage: Haben Bildungseinrichtungen personell überhaupt die richtigen Voraussetzungen?

KI-Programme im Unterricht (dieses Bild wurde von einer KI zur Bildgenerierung auf der Webseite Canvas erstellt)
KI-Programme im Unterricht (dieses Bild wurde von einer KI zur Bildgenerierung auf der Webseite Canvas erstellt)

KI in der Bildung: Eine Einführung in die Zukunft des Lernens?

In einer Ära, in der künstliche Intelligenz (KI) nahezu jeden Aspekt unseres Lebens beeinflusst, ist es nicht überraschend, dass sie auch im Bildungswesen immer mehr an Bedeutung gewinnt. Von personalisierten Lernprogrammen bis hin zu automatisierten Bewertungssystemen bietet KI eine Fülle von Möglichkeiten, das Lernen zu verbessern und die Bildung zugänglicher zu machen. Doch während einige die Vorteile dieser Technologie betonen, werfen andere berechtigte Fragen und Bedenken auf.

Mit diesen haben sich in einer ersten Einführung Studierende der Martin- Luther-Universität in einem vom Germanistischen Institut angebotenen Seminar mit dem Titel: „KI and Me – Künstliche Intelligenzen vom Sprachmodell bis ins Klassenzimmer“ beschäftigt.

Das Thema bietet einen in mehreren Jahrzehnten angehäuften Begriffs- und Fragenhorizont, den es für die Studierenden zunächst systematisch zu ordnen galt: Eine der ersten zentralen Fragen lautete: Welche konkreten Anwendungen hat KI bereits im Bildungsbereich gefunden? Die Antworten darauf reichten von KI-gestützten Lernprogrammen, die sich individuell an die Bedürfnisse jedes Schülers anpassen, bis hin zu automatisierten Bewertungssystemen, die Lehrern Zeit und Ressourcen sparen können.

Doch während der Einsatz von KI das Potenzial hat, das Lernen zu revolutionieren, gab es auch Bedenken hinsichtlich Datenschutz, Ethik und der Rolle des Lehrers. Wie kann man sicherstellen, dass Schülerdaten angemessen geschützt werden und dass die Technologie nicht dazu führt, dass einige Schüler benachteiligt werden?

Eine weitere Frage betraf die Rolle des Lehrers im Zeitalter der KI. Während einige argumentierten, dass KI-Technologien Lehrern ermöglichen, sich stärker auf individuelle Unterstützung zu konzentrieren, befürchteten andere, dass die Technologie die menschliche Interaktion im Klassenzimmer verringern könnte.

Man stellte sich auch die Frage, wie Lehrer und Schulen sicherstellen können, dass KI-Technologien gerecht und ausgewogen eingesetzt werden. Welche Maßnahmen können ergriffen werden, um sicherzustellen, dass KI-gestützte Bewertungssysteme objektiv und fair sind?

Das Seminar lebte bereits in der Einführung von diskursreichen Gesprächen zu unterschiedlichen, aber elementaren thematischen Fragen. In einem Punkt waren sich jedoch alle Studierenden einig: Um diesen Fragen zu begegnen, ist es entscheidend, dass Lehrer und Schüler auf den Einsatz von KI im Unterricht vorbereitet sind. Schulen und Bildungseinrichtungen müssen Wege finden, um Lehrer und Schüler mit den Grundlagen der KI vertraut zu machen und gleichzeitig ethische Standards und Datenschutzrichtlinien zu betonen.

Die Diskussion über den Einsatz von KI in der Bildung ist komplex und nuanciert, aber sie ist von entscheidender Bedeutung, um sicherzustellen, dass alle Schüler die best- mögliche Bildung erhalten.

Das Seminar wird sich noch im gesamten Sommersemester mit diesen und vielen weiteren Fragen des Einsatzes von KI im Klassenzimmer widmen. Die Arbeitsergebnisse des Seminars werden dann übrigens am 05. Juli 2024 bei der Langen Nacht der Wissenschaften präsentiert.