ChatGPT & Co.

    5749 Aufrufe 5749 0 Kommentare 0 Kommentare

    Brilliant, aber unzuverlässig: Das Halluzinationsproblem moderner KI-Modelle

    ChatGPT wird immer schlauer, aber seine Halluzinationen werden immer schlimmer: So eine aktuelle Studie von OpenAI.

    Für Sie zusammengefasst
    ChatGPT & Co. - Brilliant, aber unzuverlässig: Das Halluzinationsproblem moderner KI-Modelle

    An ChatGPT werden immer mehr Fragen gestellt. Immer öfter kommt es aber vor, dass die KI falsche Antworten liefert. Das legt zumindest eine Untersuchung von OpenAI nahe, über die The New York Times aktuell berichtet.

    Halluzinationen, also erfundene Fakten oder Unwahrheiten, begleiten KI-Chatbots seit ihrer Entstehung. Theoretisch sollten Verbesserungen der Modelle diese Fehler reduzieren – doch das Gegenteil scheint der Fall zu sein.

    Anzeige 
    Handeln Sie Ihre Einschätzung zu Alphabet A!
    Long
    152,77€
    Basispreis
    1,26
    Ask
    × 11,83
    Hebel
    Zum Produkt
    Blatt
    Short
    179,80€
    Basispreis
    1,21
    Ask
    × 11,43
    Hebel
    Zum Produkt
    Blatt
    Präsentiert von

    Den Basisprospekt sowie die Endgültigen Bedingungen und die Basisinformationsblätter erhalten Sie bei Klick auf das Disclaimer Dokument. Beachten Sie auch die weiteren Hinweise zu dieser Werbung.

    Die neuesten Flaggschiff-Modelle von OpenAI, GPT o3 und o4-mini, wurden mit dem Ziel entwickelt, menschliches Denkvermögen nachzuahmen. Anders als ihre Vorgänger, die primär auf flüssige Textgenerierung ausgerichtet waren, sollen o3 und o4-mini Aufgaben Schritt für Schritt durchdenken. Der aktuelle Bericht zeichnet ein deutlich ernüchterndes Bild.

    So stellte OpenAI fest, dass das Modell GPT o3 in einem Benchmark-Test zu öffentlichen Persönlichkeiten in einem Drittel der Fälle halluzinierte – doppelt so häufig wie das Vorgängermodell o1. Das kompaktere o4-mini schnitt noch schlechter ab: Es halluzinierte bei 48 Prozent der Aufgaben.

    Bei allgemeinen Wissensfragen im SimpleQA-Benchmark stiegen die Halluzinationsraten sogar auf 51 Prozent bei o3 und auf alarmierende 79 Prozent bei o4-mini. Das ist nicht nur ein technisches Rauschen – das ist ein echter Identitätsverlust. Von einem System, das mit "Reasoning-Fähigkeiten" beworben wird, würde man erwarten, dass es seine eigene Logik überprüft, bevor es Antworten erfindet. Doch genau das passiert nicht.

    Eine Theorie, die derzeit in der KI-Forschung kursiert, lautet: Je mehr ein Modell versucht zu "denken", desto mehr Gelegenheiten hat es, sich zu verirren. Einfachere Modelle bleiben bei hochsicheren Vorhersagen – Reasoning-Modelle hingegen wagen sich in komplexere Pfade, verknüpfen lose Fakten und improvisieren. Und Improvisation rund um Fakten ist eben oft nichts anderes als Erfindung.

    OpenAI teilte der Times mit, dass die Zunahme an Halluzinationen nicht zwingend auf die neuen Reasoning-Modelle zurückzuführen sei. Vielmehr seien diese einfach ausdrucksstärker und experimentierfreudiger. Da sie nicht nur Fakten wiedergeben, sondern auch spekulieren, verschwimmt bei ihnen leicht die Grenze zwischen Theorie und Fiktion. Leider sind viele dieser "Möglichkeiten" komplett losgelöst von der Realität.

    Gerade das ist ein Problem für OpenAI – und auch für Konkurrenten wie Google oder Anthropic. Wenn ein Chatbot als Assistent oder Copilot beworben wird, erwarten Nutzer hilfreiche und keine gefährlichen Antworten. 

    Man kann nicht behaupten, Zeit zu sparen, wenn Nutzer jede Antwort mühsam überprüfen müssen. Obwohl die Modelle beeindruckend arbeiten.

    Bis diese Probleme gelöst sind, gilt: Man sollte jede Antwort eines KI-Modells mit einer gehörigen Portion Skepsis begegnen. Denn der menschliche Faktor schleicht sich auch in die auf Pefektion getrimmte Maschine: Beinahe beruhigend.

    Autor: Krischan Orth, wallstreetONLINE Redaktion

    Die Alphabet Aktie wird zum Zeitpunkt der Veröffentlichung der Nachricht mit einem Plus von +4,18 % und einem Kurs von 141,4EUR auf Tradegate (12. Mai 2025, 14:21 Uhr) gehandelt.


    Reports
    Die USA haben fertig! 5 Aktien für den China-Boom
    5 Aktien für den China-Boom



    wallstreetONLINE Redaktion
    0 Follower
    Autor folgen
    Mehr anzeigen

    Melden Sie sich HIER für den Newsletter der wallstreetONLINE Redaktion an - alle Top-Themen der Börsenwoche im Überblick! Verpassen Sie kein wichtiges Anleger-Thema!


    Für Beiträge auf diesem journalistischen Channel ist die Chefredaktion der wallstreetONLINE Redaktion verantwortlich.

    Die Fachjournalisten der wallstreetONLINE Redaktion berichten hier mit ihren Kolleginnen und Kollegen aus den Partnerredaktionen exklusiv, fundiert, ausgewogen sowie unabhängig für den Anleger.


    Die Zentralredaktion recherchiert intensiv, um Anlegern der Kategorie Selbstentscheider relevante Informationen für ihre Anlageentscheidungen liefern zu können.


    Mehr anzeigen

    Verfasst vonRedakteurKrischan Orth

    ChatGPT & Co. Brilliant, aber unzuverlässig: Das Halluzinationsproblem moderner KI-Modelle ChatGPT wird immer schlauer, aber seine Halluzinationen werden immer schlimmer: So eine aktuelle Studie von OpenAI.