Entschlüsselte Mythen oder die Grenzen der KI
Zu Ihrer Schulzeit waren Hausarbeiten noch reine Kopfarbeit. Abgesehen von den wenigen Malen, als Sie von Ihrem Schulfreund abschreiben mussten. Heute genügt es, dass Schüler ein, zwei Sätze in den Computer eingeben – und im Handumdrehen entstehen ganze Aufsätze. Wahrscheinlich haben Sie ChatGPT auch schon mal ausprobiert oder nutzen es regelmäßig. Dennoch bleibt da ein leichtes Unbehagen, wenn Sie beobachten, wie selbstverständlich und arglos Ihre Kinder die Künstliche Intelligenz nutzen. Ist Ihre Skepsis berechtigt, wenn Sie sich fragen, ob KI uns das Denken, und vor allem unseren Kindern das Begreifen und Lernen abnimmt? Was kann die KI tatsächlich leisten? Und wo stößt sie an ihre Grenzen?
Die Autoren Julius-David Friedrich, Jens Tabor und Martin Wan vom Hochschulforum Digitalisierung haben in einem Diskussionspapier neun Mythen über generative KI entschlüsselt. Speziell ChatGPT haben sie dabei genau unter ihre Lupe genommen. Hier sind ihre Ergebnisse in unserer Kurzfassung:
Mythos 1: Generative KI-Sprachmodelle sind fehlerfrei
Generative KI-Systeme haben gelernt, Sprache auf eine möglichst natürliche Weise zu imitieren. Sie reihen Wörter nach Wahrscheinlichkeiten aneinander. Die Antworten der KI erscheinen oft sinnvoll, können jedoch inhaltlich falsch sein. Sprachmodelle, so die Autoren, liefern keine Wahrheiten, sondern wohlklingende und plausibel wirkende Texte. Deshalb ist es wichtig, KI-Ergebnisse stets auf inhaltliche Richtigkeit zu überprüfen.
Mythos 2: KI versteht Bedeutungen
Genau das tut sie nicht. KI entdeckt Muster und Beziehungen, aber keine tatsächlichen Bedeutungen. Sie erzeugt Texte, die den Eindruck erwecken können, die KI habe „Verständnis“ oder ein Gemeinschaftsgefühl. In Wirklichkeit arbeitet KI mit Korrelationen.
Ein Beispiel: Die KI erkennt, dass „Auto“ häufig mit „Fahrer“ und „Straße“ vorkommt (Korrelation) versteht aber nicht, was diese Wörter bedeuten. Ersetzt man „Fahrer“ durch „Pilot“, könnte die KI fälschlicherweise auf „Flugzeug“ schließen, weil „Pilot“ eher mit „Flugzeug“ korreliert. Würde die KI die Wörter Auto und Kaffee oft in denselben Texten vorfinden, würde sie eine falsche Verbindung ziehen und meinen, die beiden hätten etwas gemein (Scheinkorrelation). Solche Fehler machen deutlich, warum KI-Ergebnisse stets kritisch hinterfragt werden müssen.
Mythos 3: KI wird immer klüger
Der Aufbau großer KI-Modelle erfordert immense Datenmengen: frei zugängliche Daten wie Wikipedia-Artikel, Patentdatenbanken oder Nachrichtenseiten genauso wie kopiergeschütztes Material. Doch ein Großteil dieser Daten ist bereits „abgegrast". Wenn also KI-Modelle mit ihren eigenen Daten trainiert werden, entsteht eine Rückkopplung, die mittelfristig zu Qualitätsverlusten führt.
Mythos 4: KI ist kreativ
Generative KI mag den Anschein erwecken, kreativ zu sein; wenn sie in Sekundenschnelle neue Bilder oder Texte erstellt. Tatsächlich handelt es sich dabei jedoch um die Neukombination bestehender Inhalte – eine Art Remix. Die „Kreativität“ der KI ist also auf menschliche Vorlagen angewiesen. Ein sinnvoller Umgang mit solchen Tools besteht darin, sie als „Inspirationsmaschinen“ zu nutzen. Bahnbrechend Neues wird KI jedoch nicht erschaffen können, da ihre Möglichkeiten auf mathematischen Operationen beruhen.
Mythos 5: KI hat ein Bewusstsein
Einige Techno-Optimisten erwecken den Eindruck, wir stünden kurz davor, mithilfe von KI ein künstliches Bewusstsein zu erschaffen. In eine ähnliche Richtung gehen auch Vorstellungen einer „Artificial General lntelligence", einer Art AllzweckKI, die eigenständig sämtliche Probleme zu lösen imstande wäre. Diese Vorstellungen sind jedoch reine Spekulation. Die Idee, dass größere Modelle Probleme lösen können, auf die sie nicht explizit trainiert wurden, wird oft als Beweis für eine Art „Eigenständigkeit“ der KI interpretiert. Doch bei näherer Betrachtung zeigt sich, dass dies schlicht darauf zurückzuführen ist, dass länger trainierte Modelle komplexere Aufgaben bewältigen können als kürzer trainierte.
Joseph Weizenbaum (1923–2008) beobachtete bereits 1966, dass Menschen sich von simpler Technologie täuschen lassen, wenn sie den Eindruck eines Gegenübers erweckt. Die Reaktion seiner Mitarbeiter auf seinen rudimentären Chatbot ELIZA verstörte ihn so sehr, dass er zum frühen IT-Skeptiker wurde. Sein Anliegen war, das Bewusstsein für den kritischen Umgang mit KI zu schärfen und ethische Fragen zur Nutzung von Computern, insbesondere in der Psychotherapie, anzustoßen.
Mythos 6: KI kann in die Zukunft blicken
Datenbasierte Vorhersagen stützen sich zwangsweise auf Daten aus der Vergangenheit. In vielen Szenarien können so wahrscheinliche Entwicklungen antizipiert werden (z. B. beim Kundenverhalten im Einzelhandel über historische Verkaufsdaten). Da es allerdings auch unwahrscheinliche, aber folgenschwere Ereignisse gibt, mit denen niemand rechnen kann, stößt die Fortschreibung der Zukunft mit Daten aus der Vergangenheit nicht selten an ihre Grenzen. Egal ob Vorhersagen nun als zuverlässig oder als vage gelten, sie bleiben immer mit Unsicherheiten behaftet, unabhängig davon, wie gut und vollständig die Datenbasis erscheint und wie durchdacht das Berechnungsmodell ist. Die Zukunft bleibt offen und sie überrascht. Auch der Einsatz von KI-Systemen, die in den oben aufgeführten Beispielen bereits zum Einsatz kommen, ändert nichts daran: Dennoch scheinen diese Grenzen oft ignoriert zu werden, was nicht selten zu einer Überschätzung von Kl-basierten Vorhersagen führt.
Mythos 7: Wissenschaftliches Arbeiten wird unzeitgemäß
Wir leben in einem Zeitalter der Nachrichtenüberflutung. Doch nicht alle Informationen, auf die wir stoßen, sind notwendigerweise zuverlässig. Der Fähigkeit der Beurteilung, welche Information zuverlässig und relevant ist, kommt daher eine besondere Bedeutung zu.
Wenn es um wissenschaftliches Arbeiten geht, umfasst dieses jedoch mehr als das Anhäufen und die Reproduktion von Wissen. Die Rekombination bestehender Materialien ist entsprechend nur der erste Schritt, denn Wissenschaft bedeutet, daraus neue Erkenntnisse zu gewinnen, eigene Ideen zu entwickeln. Und genau das kann generative KI nicht (siehe hierzu auch Mythos 5 "KI ist kreativ"). Selbst für die bloße Reproduktion bestehenden Wissens sind weiterhin im akademischen Kontext nicht geeignet: Weist man KI an, aktuelle Wissensstände reproduzierende Essays unter Angabe von Quellen zu generieren, sind diese Quellen weiterhin oft frei erfunden. KI-Sprachmodelle werden voraussichtlich wissenschaftliche Schreibpraktiken verändern. KI-Tools produzieren kostenfrei bzw. kostengünstige Texte, die sprachlich gut sind und sich zunehmend von menschlichen Texten nicht mehr unterscheiden lassen.
Mythos 8: KI ist eine Blackbox
Weil Laien nicht verstehen, wie generative KI-Modelle die riesigen Datenmengen (GPT.3.4 etwa 670 GB Textmaterial) nutzen und wie sie diese nutzen, bleibt sie für sie eine Blackbox. Also ein Gerät oder ein Programm, dessen interne Prozesse und Mechanismen nicht bekannt sind. Man kennt nur die Eingaben, die man macht, und die Ausgaben, die man erhält. Dies liegt an der Vielzahl unklarer Parameter und der undurchsichtigen Datenbasis. XAI, die Disziplin der „erklärbaren KI", versucht, KI-Modelle transparenter zu machen, aber diese Erklärbarkeit ist nicht immer verfügbar, besonders für Laien.
Mythos 9: KI führt zu mehr Arbeitslosigkeit
Sobald eine neue Technologie in der Öffentlichkeit wahrgenommen wird, die in Teilbereichen menschliche Fähigkeiten erreichen bzw. übersteigen soll, folgt mit großer Zuverlässigkeit eine Debatte über die Vernichtung von Arbeitsplätzen. Dieses Muster lässt sich medial gut zurückverfolgen. Auch mit der Veröffentlichung von ChatGPT findet diese Debatte wieder Einkehr in die Berichterstattung.
Die Geschichte zeigt bisher aber immer wieder, dass die jeweilige Technologie nicht unmittelbar zu mehr Arbeitslosigkeit führt, sondern die Arbeitspraxis verändert. Damit geht natürlich einher, dass bestimmte Jobprofile aus der Zeit fallen, modifiziert oder neu interpretiert werden müssen. Völlig neue Jobs entstehen. Dass jedoch menschliche Arbeitskraft im Zuge technologischer Entwicklung überflüssig werden könnte, hat sich bislang weder für die Industrie noch für die Kreativ- oder Finanzbranche gezeigt.
Stattdessen wird anhand der bereits entkräfteten Mythen sichtbar, dass generative KI zum jetzigen Stand viele menschliche Eigenschaften, die in Arbeitskontexten erforderlich sind, nicht gänzlich in der Lage sind zu ersetzen. Ob dies in Zukunft der Fall sein wird und in der Summe dazu führen kann, dass tatsächlich irgendwann gesagt werden kann, 'KI vernichtete Arbeitsplätze', ist reine Spekulation und überblendet die viel konstruktivere Perspektive: die der wechselseitigen Interaktion zwischen Maschine und Menschen, in der die Autonomie des Menschen erhalten bleibt.
Es muss nicht immer ChatGPT sein…
Le Chat: Das französische Pendant zu ChatGPT. Vom Aufbau sehr ähnlich
ChatABC: mit zusätzlichen Funktionen wie Teamzusammenarbeit, Prompt Library und Never-Down-Service.
ChatPDF: KI-Anwendung, um PDF-Dateien hochzuladen und dann die KI zu den PDF-Inhalten zu befragen.
Deepl Write: KI-Schreibassistent, der dabei unterstützt, bessere Texte zu schreiben.
GPT4All: ChatGPT-Alternative, die lokal auf dem Rechner ausgeführt werden kann.
Grammarly überprüft Rechtschreib-, Grammatik-, Interpunktions-, Klarheits- und Übermittlungsfehler und sucht Ersatz
Hugging Face: rege Community, die auf Basis von ChatGPT und GPT4all eigene Sprachmodelle baut
Microsofts Bing Chat: Microsoft hat seine Suchmaschine Bing mit einer künstlichen Intelligenz kombiniert.
Neuroflash: KI-Text- und Bildgenerator – allerdings vor allem für Marketingtexte.
Perplexity AI: Suchmaschine, ähnlich ChatGPT aber auch Quellen angibt.
Smodin: Tool für die automatische Textgenerierung. Das Tool bietet außerdem einen Plagiatscheck.
You.com: KI-Chatbot der Suchmaschine You.com