OpenAI gab zu … Sie arbeiten an künstlicher Intelligenz, die wie ein Mensch denkt!

0 82

sogenannte künstliche Intelligenz-Halluzinationen „Künstliche Intelligenz-Bullshit oder eigene Schlussfolgerungen der Intelligenz“es führte viele Menschen in verschiedene Richtungen.

OpenAI gab am Mittwoch bekannt, dass es über ein neueres System zum Training von KI-Modellen verfügt. „Halluzinationen“kündigte an, dagegen vorzugehen.

Der Einfluss nimmt schnell zu

OpenAI beschleunigte den produktiven KI-Boom letztes Jahr mit der Einführung von ChatGPT, dem auf GPT-3 und GPT-4 basierenden Chatbot. Es wurde berichtet, dass es mit über 100 Millionen monatlichen Nutzern in zwei Monaten den Rekord für die am schnellsten wachsende Anwendung gebrochen hat.

Bisher hat Microsoft für die entsprechende Technologie mehr als 13 Milliarden Dollar in OpenAI investiert.

SIE WERDEN VERSUCHEN, DIE GESPRÄCHE ÜBER KÜNSTLICHE INTELLIGENZ ZU MINIMIEREN

Wenn von OpenAI entwickelte Modelle wie ChatGPT oder Google Bard verwendet werden, kommt es zu Halluzinationen künstlicher Intelligenz.

Ein Beispiel hierfür: In einem Werbebild, das Google im Februar für Bard veröffentlichte, stellte der Chatbot James Webb eine falsche Behauptung über das Weltraumteleskop auf. Vor kurzem reichte ChatGPT einen Antrag beim New Yorker Bundesgericht ein. „gefälscht  aus Fällen“hatte erwähnt.

OpenAI-Forscher berichten „Selbst die fortschrittlichsten Modelle neigen dazu, Ungenauigkeiten zu produzieren, und in Momenten der Unsicherheit neigen sie dazu, Fakten zu erfinden.“er schrieb.

Auch Forscher „Diese Halluzinationen sind besonders problematisch in Bereichen, die eine mehrstufige Argumentation erfordern, da ein einziger logischer Fehler ausreicht, um eine viel umfassendere Analyse zum Scheitern zu bringen.“gaben ihre Worte.

Es werden Modelle des menschlichen Denkens entwickelt

Die potenzielle neue Strategie von OpenAI für den Umgang mit Erfindungen besteht darin, KI-Modelle so zu trainieren, dass sie sich für jeden korrigierenden Argumentationsschritt selbst belohnen, anstatt einfach nur ein endgültiges richtiges Ergebnis zu belohnen, wenn sie zu einer Antwort gelangen.

Nach Ansicht der Forscher ist dieser Ansatz „Ergebniskontrolle“gegensätzlich zu „Prozesssteuerung“Namen und Modelle „Menschenähnliches Denken“ermutigt Sie, seinem Ansatz zu folgen.

Tests ergaben positive Ergebnisse

Mit der Ergebnisprüfung trainiert OpenAI die Belohnungsmodelle, um Feedback zum Endergebnis der KI zu geben. Mit der Prozesskontrolle liefert das Belohnungsmodell bei jedem Schritt Feedback und schafft so eine menschenähnliche Ideenkette.

OpenAI gibt in der Forschungsarbeit an, dass es beide Modelle anhand einer Reihe mathematischer Erkenntnisse testet und dass der Prozesssteuerungspfad vorhanden ist „deutlich flüssigere Performance“gefunden zu bieten.

ERWÄHNT DIE MÖGLICHEN FOLGEN DER PROZESSSTEUERUNG

OpenAI erläuterte die möglichen Konsequenzen des Prozesskontrollverfahrens wie folgt:

„Wenn diese Ergebnisse verallgemeinert werden, könnten wir feststellen, dass die Prozesskontrolle uns das reibungsloseste aus beiden Welten bietet. Es handelt sich um eine Formel, die sowohl leistungsfähiger als auch kohärenter ist als die Ergebniskontrolle.“

Außerdem hat OpenAI keinen Zeitplan dafür angegeben, wie lange es dauern würde, die Prozesssteuerung im öffentlich zugänglichen ChatGPT zu implementieren.

QUELLE: NACHRICHTEN7

Neuigkeiten7

Leave A Reply

Your email address will not be published.

This website uses cookies to improve your experience. We'll assume you're ok with this, but you can opt-out if you wish. Accept Read More