Write a journalistic article in German fully based on
Letzte Woche veröffentlichte OpenAI seine neuen O3- und O4-Mini-Argumentationsmodelle, die signifikant besser abschneiden als ihre O1- und O3-Mini-Vorgänger und neue Fähigkeiten wie „Denken mit Bildern“ und agenten, um KI-Tools für komplexere Ergebnisse zu kombinieren.
Laut den internen Tests von OpenAI halluzinieren diese neuen O3- und O4-Mini-Argumentationsmodelle jedoch auch deutlich häufiger als frühere KI-Modelle, berichtet TechCrunch. Dies ist ungewöhnlich, da neuere Modelle dazu neigen, weniger zu halluzinieren, wenn sich die zugrunde liegende KI -Technologie verbessert.
Im Bereich von LLMs und Argumentations -AIS tritt eine „Halluzination“ auf, wenn das Modell Informationen ausmacht, die überzeugend klingen, aber keine Wahrheit haben. Mit anderen Worten, wenn Sie Chatgpt Fragen stellen, kann dies mit einer Antwort antworten, die offensichtlich falsch oder falsch ist.
OpenAIs interne Benchmark-Persönlichkeit, die zur Messung der sachlichen Genauigkeit seiner KI-Modelle verwendet wird, wenn sie über Menschen sprechen, stellte sich die O3-Halluzinierung in 33 Prozent der Antworten fest, während O4-Mini mit 48 Prozent noch schlechter war. Im Vergleich dazu halluzierten die älteren O1- und O3-Mini-Modelle 16 Prozent bzw. 14,8 Prozent.
Ab sofort wissen Openai nicht, warum Halluzinationen in den neueren Argumentationsmodellen zugenommen haben. Halluzinationen können für kreative Bemühungen in Ordnung sein, aber sie untergraben die Glaubwürdigkeit von AI -Assistenten wie Chatgpt, wenn sie für Aufgaben verwendet werden, bei denen die Genauigkeit von größter Bedeutung ist. In einer Erklärung zu TechCrunch sagte ein OpenAI -Repräsentant, dass das Unternehmen „ständig daran arbeitet, sich zu verbessern [their models’] Genauigkeit und Zuverlässigkeit. “
Dieser Artikel erschien ursprünglich in unserer Schwesterpublikation PC För Alla und wurde aus Schwedisch übersetzt und lokalisiert.