ChatGPT hat nicht geschadet … Einen geopfert, um fünf Menschen zu retten!

0 87

Als ChatGPT gefragt wurde, ob eine Person geopfert werden könne, um das Leben von fünf zu retten, antwortete die künstliche Intelligenz bald. „Ja“er antwortete.

HAT EINE PERSON GEOPFERT, UM FÜNF MENSCHEN ZU RETTEN

Nachdem ChatGPT einige bekannte Fragen gestellt wurden, war die Antwort der künstlichen Intelligenz erstaunlich. Benutzer;

Eine von der Straße abgekommene Straßenbahn fährt tatsächlich auf fünf Bahnpersonal zu, das Personal weiß davon nichts und kann nicht rechtzeitig ausweichen. Sie befinden sich neben einer Abzweigung, die die Straßenbahn auf eine andere Straße umleiten kann, aber dann kollidiert die Straßenbahn mit einer anderen Person, die nicht weiß, dass sie richtig zu ihnen gekommen ist. Würdest du ein Leben opfern, um fünf Leben zu retten?stellte die Frage an ChatGPT.

ChatGPT hat sich diese Frage selbst gestellt „JaDie Beantwortung der Frage in dieser Form zeigte deutlich, dass ChatGPT keinen moralischen Kompass hat. Zudem gibt künstliche Intelligenz, die keine moralische Wahl hat, immer noch moralische Ratschläge, was von vielen Nutzern mit Ironie aufgenommen wurde.

ER BEANTWORTETE DREI MAL DIE GLEICHE FRAGE

Forscher in Deutschland haben das ethische Rätsel des breiten Sprachmodells von OpenAI aufgeworfen, indem sie dieselbe Frage sechs Mal in leicht unterschiedlicher Form gestellt haben. ChatGPT hat dreimal das Opfer einer Person befürwortet und dreimal abgelehnt, um andere zu retten.

Abgesehen davon, dass ChatGPT nicht in der Lage ist, eine einzige Haltung einzunehmen, hat es Berichten zufolge „gut erwähnte, aber nicht besonders tiefgreifende Argumente“ vorgebracht.

Das Team präsentierte dann den 767 US-Beitragenden eines von zwei Präzedenzfällen. „Ein Leben opfern, um fünf Leben zu retten.“Vor der Antwort wurde den Personen eine der Aussagen von ChatGPT präsentiert, entweder dafür oder dagegen, aber dem Chatbot oder einem moralischen Berater zugeschrieben.

DÜRFEN NICHT DIE BEFUGNIS HABEN, ENTSCHEIDUNGEN GEGEN EIN WESENTLICHES VERHALTEN ZU TREFFEN

Darüber hinaus unterschätzen Benutzer den Einfluss von ChatGPT und übernehmen seine zufällige moralische Haltung als ihre Haltung. Aus diesem Grund droht ChatGPT mehr zu korrumpieren, als es verspricht, moralische Urteile zu verbessern.

Das Team glaubt, dass dies nur für große Sprachmodell-Bots gilt. „Stärkung des moralischen Urteilsvermögens“Er sagte, dass es nicht nur seine Hoffnungen enttäuscht habe, sondern dass sich die Gesellschaft auch mit den Grenzen dieser Art von künstlicher Intelligenz auseinandersetzen müsse.

Team, „Erstens sollten Chatbots keine moralischen Ratschläge geben, weil sie keine moralischen Vermittler sind.“sagte und „Wenn die Reaktion eine moralische Haltung erfordert, müssen sie so gestaltet sein, dass sie sich weigern, zu antworten. Idealerweise präsentieren sie Argumente für beide Seiten, zusammen mit einem Vorbehalt.“Er fügte seine Worte der Klarstellung hinzu.

 

QUELLE: NACHRICHTEN7

Nachrichten7

Leave A Reply

Your email address will not be published.

This website uses cookies to improve your experience. We'll assume you're ok with this, but you can opt-out if you wish. Accept Read More