KI-Modelle werden immer fehlerhaft sein!

Das Bauchgefühl sagt uns: KI-Systeme können die Realität nicht abbilden, deshalb liefern sie Falschinformationen oder versuchen, das „Unwissen“ zu kaschieren, indem sie etwas erfinden. Betrachtet man das Ganze etwas abstrakter, dann geht es doch um die Grundsatzfrage: Was kann man mit Modellen tatsächlich abbilden? Lässt sich die Realität („Wissen“) überhaupt „mathematisch“ modellieren und wie weit kann das gehen? Zu diesem Thema hat der theoretische Physiker Ulf Danielsson ein interessantes Buch geschrieben, welches vor dem allgegnwärtigen KI-Hype publiziert wurde: „Die Welt an sich. Und wie wir sie begreifen können.

Fasst man die Argumente zusammen, dann kommt man zu folgenden Schlüssen (betreffend KI-Systeme):

Die "Fehlerhaftigkeit" von KI ist also nicht primär eine Frage von Bugs oder unzureichendem Training, sondern eine unvermeidbare Konsequenz der Tatsache, dass formale Systeme keine eindeutige semantische Interpretation haben können. KI-Modelle bleiben prinzipiell unbestimmt in dem, was sie "wirklich" repräsentieren oder "meinen" - sie sind gefangen in der semantischen Unbestimmtheit.

Anwendung auf KI-Modelle

Diese Erkenntnisse haben direkte Implikationen für KI-Systeme wie Claude, ChatGPT oder Gemini:

1. Semantische Unbestimmtheit: KI-Modelle arbeiten mit formalen Sprachsystemen und statistischen Mustern. Selbst wenn ein Modell perfekt alle Trainingsdaten „passt“ und alle beobachtbaren Verhaltensweisen korrekt reproduziert, bleibt die Referenz seiner Ausgaben prinzipiell unbestimmt. Es gibt keine eindeutige Zuordnung zwischen den Tokens, die das Modell verarbeitet, und den Bedeutungen, die wir ihnen zuschreiben.

2. Multiple Interpretationen: Nach dem Löwenheim-Skolem-Theorem können die „Überzeugungen“ oder „Repräsentationen“ eines KI-Modells durch radikal verschiedene semantische Modelle interpretiert werden. Was wir als „Wissen über die Welt“ interpretieren, könnte ebenso gut eine völlig andere Struktur repräsentieren, die nur zufällig dieselben Vorhersagen macht.

Dies bedeutet, dass auch noch so gut trainierte Modelle nie die Realität abbilden können, selbst wenn man die Datenbasis radikal  reduziert und optimiert.

3. Keine privilegierte Interpretation: Es gibt keinen „Gottesblick“, keine externe Perspektive, von der aus wir feststellen könnten, was ein KI-Modell „wirklich“ meint oder repräsentiert. Jede Interpretation ist relativ zu unserem eigenen Bezugsrahmen.

Die theoretische Grundlage: Das Löwenheim-Skolem-Theorem und seine Bedeutung

Das Löwenheim-Skolem-Theorem aus der mathematischen Logik besagt im Wesentlichen: Wenn eine abzählbare erststellige Theorie überhaupt ein Modell hat, dann hat sie Modelle in jeder unendlichen Kardinalität. Dies führt zum sogenannten Skolem-Paradox: Selbst eine Mengenlehre, die beweist, dass es überabzählbare Mengen gibt, kann durch ein abzählbares Modell erfüllt werden.

Die philosophische Konsequenz ist radikal: Erststellige formale Systeme können die Kardinalität ihrer Modelle nicht eindeutig festlegen. Es gibt keine „absolute“ Interpretation – multiple, grundlegend verschiedene Modelle können dieselbe Theorie erfüllen.

Die Kombination aus Löwenheim-Skolem-Theorem und Putnams Argument zeigt:

  1. Semantische Unbestimmtheit ist unvermeidbar: KI-Modelle können keine eindeutige Bedeutung oder Referenz haben, weil formale Systeme prinzipiell multiple Interpretationen zulassen.
  2. Kein „wahres Verstehen“: Was als „Wissen“ oder „Verständnis“ erscheint, ist nur eine von vielen möglichen Interpretationen statistischer Muster.
  3. Strukturelle Limitation: Dies ist keine technische Unvollkommenheit, die durch bessere Algorithmen behoben werden kann, sondern eine fundamentale logisch-philosophische Grenze formaler Systeme.

Putnams modelltheoretisches Argument

Hilary Putnam erweiterte diese logische Einsicht zu einem Argument über semantische Unbestimmtheit:

Putnams zentrale These lautet, dass operationale und theoretische Beschränkungen allein nicht ausreichen, um eine eindeutige Referenzbeziehung zwischen sprachlichen Ausdrücken und der Realität festzulegen. Jede Theorie, die unsere Beobachtungen und unser Wissen erfasst, kann durch multiple verschiedene Interpretationen erfüllt werden – es gibt keine privilegierte „beabsichtigte“ Interpretation.

Das bedeutet: Es gibt keine absolute Referenz, keine eindeutige Bedeutungszuordnung. Was unsere Wörter "wirklich" bedeuten, ist prinzipiell unbestimmt.

 

Danielssons Perspektive

Ulf Danielsson warnt vor der „Vermenschlichung“ von KI-Technologie. Seine Beobachtungen passen zu dieser philosophischen Analyse: „When much is left open-ended and the rules are not really clear, things don’t go well“ bei KI-Systemen.

KI-Modelle funktionieren als Mustererkennungssysteme, nicht als semantische Verstehenssysteme. Die persistierenden Mängel von Systemen wie ChatGPT sind kein temporäres technisches Problem, sondern reflektieren eine fundamentale philosophische Grenze: Es ist nicht sicher, dass Mustererkennungs-KI-Systeme die wirklich grossen Entdeckungen machen werden, weil ihnen das zugrunde liegt, was Putnam als „determinate reference“ bezeichnete.

 

1 Reply to “KI-Modelle werden immer fehlerhaft sein!”

  1. Der Artikel „spricht mir aus der Seele“ und bestätigt einen anderen kürzlich gelesenen Artikel über „KI“, die datenschutzrechtliche Verträge bzw. Texte prüfen soll.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert