RSS-Feed abonnieren

Passwort vergessen?

v Anmelden

30. Apr 2024

Wie die KI-Suchen die Welt erklären – ein kritischer Artikel von Hartmut Gieselmann

Verfasst von

Hartmunt Giselmann, welcher seit über 20 Jahren für Europas größtes Computermagazin c’t schreibt, beäugt die Digitalisierung in Hinblick auf ihre Auswüchse kritisch. Einer seiner Themenschwerpunkte ist die Künstliche Intelligenz. Genauer gesagt, KI-gestützte Suchmaschinen, die laut ihm über das Potential verfügen, das gesamte Internet auf den Kopf zu stellen und die Dominanz von Google zu brechen, wenn sie so optimiert werden, dass sie auf Knopfdruck Fragen beantworten und direkt auf ihre genutzten Quellen verweisen.

In seinem Artikel Wie die KI-Suchen die Welt erklären von April 2023 verweist Giselmann auf neue Probleme und Gefahren von KI-Suchmaschinen, u.a. hinsichtlich der Verbreitung von Unwahrheiten aufgrund fehlerhafter Internetquellen. Sein Artikel verdeutlicht die potenzielle Gefahrenlage von KI-gestützten Suchmaschinen für Nutzer. Im Folgenden erhältst du einen Einblick in die von Giselmann charakterisierten Grundproblemen von KI-Suchmaschinen.

Er hält zunächst fest, dass es trotz des atemberaubenden Entwicklungstempos von KI, u.a. ChatGPT nicht möglich ist, seinen Nutzern zu 100 Prozent vertrauenswürdige Antworten zu geben, weshalb zu einer manuellen Überprüfung der Aussagen, sprich einem akribischem Check, angeraten wird. Aktuell entsprechen 20 bis 30 Prozent der Antworten der textgenerativen Sprachmodelle nicht der Wahrheit, dennoch ist es für Giselmann denkbar, dass in nicht allzu langer Zukunft die Quote der falschen Aussagen auf unter 5 Prozent oder sogar auf einen 1 Prozent sinkt, was dazu führen würde, dass kaum noch jemand überprüft, was KI-gestützte Suchmaschinen sagen, sondern ihnen einfach zu glauben.  

Neben der Gefahr, dass KI-Suchmaschinen nicht zwischen wahren Aussagen und ihren Halluzinationen, für Textgeneratoren scheinbar korrekte Daten, unterscheiden können, kann es passieren, dass Sprachmodelle bei der Zusammenfassung von langen bzw. mehreren Texten frei erfundene Pseudoaussagen in ihre Antworten einbeziehen, die nicht immer als solche für die Nutzer erkenntlich sind. Trotz dessen, dass sich Hersteller bemühen, die Suchergebnisse durch den Einsatz von Filtern zu kontrollieren bzw. zu optimieren,  um somit Letzterem entgegenzuwirken, können Kontrollen dieser Art auch dazu führen, dass Filter KI den Zugang zu Wissen erschweren, wodurch Antworten textgenerativer Sprachmodelle lückenhaft bzw. fehlerhaft sein können. Dabei sei angemerkt, dass einige Wissenschaftler der Auffassung sind, dass eine derartige Kontrolle über Sprachmodelle gar nicht erst existiert. Das heißt, es sei lediglich eine Illusion der Hersteller, die volle Kontrolle über die Antworten der Textgeneratoren zu haben. Dies ist besorgniserregend, da Angriffe von Kriminellen auf Sprachmodelle demnach nicht abwegig sind. Giselmann hält fest, dass es Angreifern durchaus leicht möglich ist, die von den Herstellern gesetzten Sicherheitssysteme, sprich die Filter, zu umgehen und die Wissensgenerierung von KI-gestützten Suchmaschinen nach Belieben zu manipulieren.  

Mit der fehlerhaften Generierung von Texten aus dem Web und dem zunehmend blinden Vertrauen in (schnelle) Antworten der KI geht die rechtliche Auseinandersetzung zwischen Suchmaschinenbetreibern und Verlegern einher, denn für Nachrichtenseiten, Blogs und anderen Webanbietern besteht laut Giselmann die Gefahr, dass diese den Großteil ihrer bisherigen Kundschaft an KI-gestützte Suchmaschinen verlieren, was sich in einem Rückgang ihrer Bezahl- und Werbeeinnahmen widerspiegelt. Falk Steiner hält im Punkt Wie sich Autoren gegen KI-Bots wehren des Artikels fest, dass KI-gestützte Suchmaschinen beliebig auf Inhalte von Websites zugreifen und diese passend zur Suchanfrage generieren bzw. umformulieren. Dabei gibt ChatGPT bei Antworten noch nicht einmal die Quellen der Daten an, was zum Ärger seitens der Verleger und Autoren ist. Betroffenen müssen demnach Kontroll- bzw. Abwehrmaßnahmen zu gestanden werden, um KI den beliebigen Zugriff auf Inhalte zu untersagen, damit Sprachmodelle wie ChatGPT, nach Falk Steiner, nicht ungefragt Texte im Web abgrasen und somit die Urheberrechte verletzten. Dies ist jedoch leichter gesagt als getan, da sich die Rechtslage als kompliziert erweist. Der Forderung nach eingeschränktem Zugriff auf Verlagsangebote durch KI-Sprachmodule, sprich der Schutz der Rechte von Urhebern, steht entgegen der von der EU gewollten Förderung der KI-Entwicklung, für die authentische Trainingsdaten wiederum benötigt werden.

Was es mit den KI-Bots auf sich hat und welche weiteren spannenden Punkte hinsichtlich der Funktionsweise und potentieller Gefahren von KI-Suchdiensten ausgeführt werden, erfährst du im vollständigen c’t-Artikel. Es lohnt sich!

Hier findest du den vollständigen Artikel:

https://www.heise.de/ratgeber/Fragen-statt-googlen-Wie-die-neuen-KI-Suchmaschinen-die-Welt-erklaeren-8645105.html


Archive

Kategorien