Technologie

Warum ChatGPT jetzt wie ein Mensch denkt: Die Neuigkeiten über das o3-Modell

2025-03-28

Autor: Mia

Wenn man das neue o3-Modell von ChatGPT fragt, was der Fachbegriff „Reasoning“ bedeutet, zeigt das Modell einen ausgegrauten Text, der seinen inneren Monolog offenbart: Die Erklärung ist faszinierend: Anstatt sofort eine Antwort zu geben, zerlegt die KI beim Reasoning ein Problem in mehrere Schritte, um es einfacher zu lösen. Dr. Imanol Schlag, ein Forscher am AI Center der ETH Zürich, erklärt: „Das ähnelt dem menschlichen Vorgehen: Viele Menschen können auf Anhieb keine dreistellige Zahl multiplizieren. Doch wenn sie die einzelnen Lösungsschritte aufschreiben, gelingt es ihnen.“ Diese Strategie hat nicht nur zur Folge, dass die KI viel effizienter wird, sondern sie wird auch transparenter in ihren Denkprozessen.

Ein großer Fortschritt ist, dass die KI erkennt, wenn sie sich in eine falsche Richtung bewegt. „Es kann merken, wenn es auf dem Holzweg ist“, sagt Schlag, „und macht dann einen Schritt zurück, um etwas Neues auszuprobieren. Auf diese Weise werden die Ergebnisse verlässlicher.“

Revolution in Mathematik und Physik

In bestimmten klar definierten Bereichen wie Mathematik oder Physik zeigt die KI erstaunliche Fähigkeiten, die menschliches Argumentieren nachahmen oder sogar übertreffen können. Aber es gibt auch Schwächen. In anderen weniger strukturierten Bereichen hat die KI Schwierigkeiten, sogar bei einfachen Aufgaben. Experten sind sich einig, dass diese unterschiedlichen Leistungen auf die fundamentalen Unterschiede zwischen Mensch und Maschine hinweisen.

Ein kritischer Punkt ist, dass KI-Modelle nicht denken wie Menschen. Während sie eine beeindruckende Menge an Informationen verarbeiten können, erfolgt dies durch statistische Wahrscheinlichkeitsberechnungen und nicht durch echtes Verständnis oder Bewusstsein. So wusste das KI-Modell beispielsweise dank umfangreicher Trainingsdaten, welches Wort oder welcher Satz statistisch wahrscheinlich auf eine bestimmte Eingabe folgt, aber es begreift nicht die zugrunde liegende Bedeutung.

Wissenschaftler von Apple haben neu gezeigt, dass die Zuverlässigkeit der KI stark abnimmt, wenn sie mit Aufgaben konfrontiert wird, die ihr neu oder unbekannt sind. Dr. Schlag kommentiert: „Das zeigt, dass das Modell keinen allgemeinen Algorithmus entwickelt hat, um Probleme zu lösen.“ Es handelt sich lediglich um Mustererkennung basierend auf Wahrscheinlichkeiten und nicht um echtes Problemverständnis.

Ein Assistent mit Unzulänglichkeiten

Eine bemerkenswerte Eigenschaft der neuen Modelle ist, dass sie, wenn sie eine falsche Antwort geben, tatsächlich einen inneren Konflikt zeigen können, während sie um eine Entschuldigung ringen. Der Dialog kann dann so klingen: „Es tut mir leid, ich habe einen Fehler gemacht. Lassen Sie mich es richtigstellen.“

Das zeigt, wie weit die Technologiefortschritte bereits fortgeschritten sind; gleichwohl bleibt das KI-Modell ein eifriger, aber nicht immer zuverlässiger Assistent. Die Herausforderung und die Verantwortung für den Endbenutzer bleiben bestehen. Grundsätzlich sollte man die KI nicht als allwissendes Genie betrachten, sondern als eine Unterstützung, die genau wie ein Mensch in Lernphasen steckt.