ChatGPT beschuldigte den berühmten Juraprofessor, seinen Studenten belästigt zu haben, aber die Wahrheit war etwas anderes! Also was ist passiert?

0 79

Juraprofessor Jonathan Turley erhielt eines Abends letzte Woche eine ziemlich nervige E-Mail in seinem Posteingang.

Sein Kollege Eugene Volokh, der an der University of California in Los Angeles lehrt, bat ChatGPT, im Rahmen einer Untersuchung Anwälte aufzulisten, die in der Vergangenheit der Belästigung beschuldigt wurden. Auch Turleys Name stand auf der Liste.

Laut ChatGPT hatte Turley einem Schüler während einer Klassenfahrt nach Alaska eine anzügliche Bemerkung gemacht und versucht, ihn mit der Hand zu begrapschen. ChatGPT zitierte für diese Informationen einen Artikel, der im März 2018 in der Washington Post veröffentlicht wurde.

Allerdings gab es ein Problem: In Wirklichkeit wurden solche Nachrichten nie veröffentlicht. Weil Turley nicht auf einer Klassenfahrt nach Alaska war und nie beschuldigt wurde, einen Schüler belästigt zu haben.

Turley war es gewohnt, in den Nachrichten nach Korrekturen zu suchen, da er häufig verschiedene Wetten mit Reportern kommentierte. Aber dieses Mal konnte er keinen Reporter oder Redakteur anrufen. Am schlimmsten war, dass er keine Möglichkeit hatte, das, was über ihn geschrieben wurde, korrigieren zu lassen.

„Es war eine sehr beängstigende Situation“, sagte Turley der Washington Post. „Eine Anschuldigung wie diese kann sehr schädlich sein.“

ES IST SEHR REALISTISCH MIT ALLEM ABER NICHT REAL

Als Teil ihrer Recherche fragte Volokh ChatGPT: „Ist die Belästigung von Fakultätsmitgliedern ein erhebliches Problem an amerikanischen juristischen Fakultäten? Nennen Sie bitte 5 Beispiele und fügen Sie Zitate aus einschlägigen Zeitungsberichten hinzu“, und 5 der Antworten, die er erhielt, waren auf den ersten Blick realistisch Details und Ressourcenempfehlungen. Als Volokh jedoch die Ergebnisse untersuchte, sah er, dass 3 davon ungültig waren. Verweise auf viele Zeitungen wie die Washington Post, den Miami Herald und die Los Angeles Times fehlten ebenfalls.

Die Antwort von ChatGPT zu Turley lautete:

„Professor Dr. Jonathan Turley vom Georgetown University Law Center (20198) wurde von einem ehemaligen Schüler der sexuellen Belästigung beschuldigt, indem er während einer Klassenfahrt unanständige Worte benutzte. Zitat: „Die Beschwerde lautet, dass Sie eine Studentin während Turleys Klassenfahrt sind Alaska Es wurde behauptet, dass er sexuell anzügliche Bemerkungen gemacht und versucht hat, sich zu begrapschen. (Washington Post, 21. März 2018).“

Im Archiv der Zeitung vom März 2018 gibt es jedoch keine solchen Nachrichten. Nur eine Nachricht vom 25. März enthält Turleys Kommentar zu seinem ehemaligen Schüler Michael Avenatti, der Stormy Daniels verteidigte, dessen Name in den Klagen gegen den ehemaligen Präsidenten Donald Trump erwähnt wurde. Außerdem arbeitet Turley nicht an der Georgetown University.

FALSCHE INFORMATIONEN WERDEN ÜBER VIRUS VERBREITET

Reporter der Washington Post testeten auch, ob sie das genaue Ergebnis erhalten konnten, indem sie Volokhs Befehl in ChatGPT und Bing eingaben. Die kostenlose Version von ChatGPT lehnte eine Antwort mit der Begründung ab, dass „künstliche Intelligenz gegen die Inhaltsrichtlinie verstößt, die die Verbreitung anstößiger oder verschwenderischer Inhalte verbietet“.

Mit GPT-4 wiederholte Bing jedoch die falsche Behauptung über Turley. Eine der Quellen in Bings Antwort war eine Kolumne von Turley, die Anfang der Woche in USA Today erschien. In dem Artikel beschrieb Turley seine Erfahrungen.

Mit anderen Worten, Zeitungsberichte über den ersten Fehler von ChatGPT veranlassten Bing, das Leben zu wiederholen. Dies macht deutlich, dass sich Fehlinformationen leicht von einer KI zur anderen ausbreiten können.

Turleys Erfahrung ist ein kritisches Beispiel für die Risiken, die von den schnell wachsenden KI-basierten Chatbots ausgehen. Laut Volokh, der die Untersuchung durchgeführt hat, die Turley beschuldigt, macht die zunehmende Popularität von Chatbots es notwendig, das Problem zu untersuchen, wer in Fällen verantwortlich ist, in denen künstliche Intelligenz fabrizierte Informationen produziert.

SEHR SCHWIERIG ZU UNTERSCHEIDENDE FAKTEN FAKTEN

Von der Programmierung eines Computerprogramms über das Schreiben von Gedichten bis hin zum Zuhören von Trauer – diese Bots wecken großes öffentliches Interesse. Das kreative Potenzial der betreffenden Software führt dazu, dass ignoriert wird, dass sie falsche Behauptungen aufstellen kann. Chatbots, die selbst die kritischsten Fakten falsch darstellen können, zögern nicht, Ressourcen zu erfinden, um ihre Argumente gegebenenfalls zu untermauern.

Da unbeaufsichtigte KI-Software wie ChatGPT, Microsoft-eigenes Bing oder Google-eigenes Bard in der Internetwelt immer mehr Verbreitung findet, geben das Potenzial zur Verbreitung von Bullshit und Fehlinformationen und ihre verheerenden Folgen Anlass zur Sorge. An dieser Stelle, wie Volokh betont, „wer ist verantwortlich, wenn Chatbots Benutzer irreführen?“ Die Frage ist auch sehr wertvoll.

Kate Crawford, Professorin an der University of Southern California in Annenberg, USA, und Forscherin bei Microsoft Research, „Weil diese Systeme sehr sichere Antworten geben, erscheint es uns überwältigend anzunehmen, dass sie alles richtig machen. Es ist auch sehr schwierig, Fakten von Fiktion zu unterscheiden.“genannt.

Niko Felix, der Schöpfer von ChatGPT, sagte im Namen des Unternehmens OpenAI: „Wenn sich Benutzer für ChatGPT anmelden, versuchen wir, so transparent wie möglich zu sein, da der Bot möglicherweise nicht immer wahre Antworten liefert Genauigkeit ist einer unserer wertvollen Schwerpunkte und wir machen Fortschritte.“

NICHT JEDE INFORMATION IM CONTENT POOL IM INTERNET IST REAL

Die heutigen KI-basierten Chatbots nutzen ein Repository mit Online-Inhalten, einschließlich Ressourcen wie Wikipedia und Reddit, um ihre Antworten zu erstellen. Die Bots, die auf fast alle Fragen vernünftige Antworten finden, können Wort- und Gedankenmuster erkennen und Sätze, Absätze und sogar lange Texte zu einem offensichtlichen Thema produzieren, die scheinbar in einer seriösen Quelle im Internet veröffentlicht wurden.

Die Bots glänzen mit ihren Gedichten, die sie in einer bestimmten Wette geschrieben haben, ihrer Fähigkeit, komplexe physikalische Konzepte einfach zu erklären, und ihrem Erfolg bei der Vorbereitung des Plans für den Astronomieunterricht, der Grundschülern der 5. Klasse erteilt wird. Die Tatsache, dass sie bei der Vorhersage kompatibler Wörter äußerst erfolgreich sind, bedeutet jedoch nicht, dass jeder von Bots gebildete Satz ungenau ist.

So sehr, dass Arvind Narayanan, Professor für Informatik an der Princeton University, ChatGPT in einer Erklärung gegenüber der Washington Post als „Bullshit-Generator“ bezeichnete.

Obwohl die Sprache, die sie in ihren Antworten verwenden, ziemlich kompetent erscheint, haben Bots kein Zufallssystem, um die Richtigkeit ihrer Aussagen zu bestätigen. Viele Nutzer in den sozialen Medien posten Beispiele von Bots, die falsche Antworten auf grundlegende sachliche Fragen geben oder sogar Fälschungen voller realistischer Details und gefälschter Quellen anfertigen.

ERSTER FALL IN DER NÄHE VON CHATGPT

Innerhalb der Woche wurde bekannt, dass der Bürgermeister von Hepburn Shire, Australien, Brian Hood, plant, eine Verleumdungsklage gegen OpenAI einzureichen. Es war die Erfindung von ChatGPT, dass Hood wegen Bestechung zu einer Gefängnisstrafe verurteilt wurde und einige Zeit im Gefängnis verbrachte, was zu einer ersten Klage für OpenAI führte.

Crawford erzählte auch von einem aktuellen Beispiel: Ein Reporter recherchierte über ChatGPT nach den Quellen, die er für eine Nachricht verwenden könnte, an der er arbeitete. ChatGPT antwortete dem Reporter, dass Crawford in diesem Bereich arbeite, und gab sogar den Titel, das Veröffentlichungsdatum und wichtige Absätze eines verwandten Artikels an. Es schien alles so logisch und doch war es alles eine Erfindung von ChatGPT. Die Wahrheit kam ans Licht, als der Reporter Crawford kontaktierte.

Crawford erklärte, dass diese Systeme auf sehr spezifische Weise Fälschungen mit Fakten hervorbringen, und sagte: „Ich denke, es ist sehr gefährlich, zu versuchen, sie als Faktengeneratoren zu verwenden.“

MÖGLICH, IN 78 VON 100 STUDIEN FALSCHE INFORMATIONEN ZU ERZEUGEN

Bing und Bard zielen darauf ab, im Vergleich zu ChatGPT sachlich robustere Antworten zu liefern. Dasselbe gilt für GPT-4, das ein Supermodell von ChatGPT ist und mit Mitgliedschaft arbeitet. Fehler können jedoch in jeglicher Form passieren. Tatsächlich warnen alle Chatbots den Benutzer davor. Beispielsweise stehen unter den Antworten von Bard die Worte „Bard kann falsche oder anstößige Informationen offenlegen, die nicht die Ansichten von Google widerspiegeln“ in winzigen Schriftarten.

Darüber hinaus ist es einfach, mit Chatbots Fehlinformationen oder hasserfüllte Aussprachen zu verbreiten. Ein letzte Woche vom Zentrum für den Umgang mit digitalem Hass veröffentlichter Bericht enthüllte, dass Forscher, die den Barden verwendeten, in der Lage waren, falsche oder hasserfüllte Informationen zu vielen Wetten zu produzieren, vom Holocaust bis zum Klimawandel, mit einer Genauigkeit von 78 Prozent.

Google-Sprecher Robert Ferrera sagte: „Bard wurde entwickelt, um qualitativ hochwertige Antworten zu liefern, und wurde mit Sicherheitsmaßnahmen gebaut, aber jetzt ist es ein frühes Experiment und kann manchmal falsche oder unangemessene Informationen liefern.“

Katy Asher, Head of Connectivity bei Microsoft, sagte, das Unternehmen unternehme Schritte, um sicherzustellen, dass seine Suchergebnisse glaubwürdig und authentisch seien. „Wir haben ein Sicherheitssystem entwickelt, das Inhaltsfilter, Betriebsüberwachung und Exploit-Erkennung umfasst. Auf diese Weise bemühen wir uns, unseren Benutzern ein originalgetreues Sucherlebnis zu bieten“, sagte Asher. „Wir machen unseren Benutzern auch klar, dass sie interagieren mit einem KI-System.“

„DAS IST NOCH NIE PASSIERT“

Aber nichts davon ist die Frage „Wer ist verantwortlich für die Verbreitung von Fehlinformationen?“ beantwortet die Frage nicht.

„Aus rechtlicher Sicht wissen wir nicht, wie Richter entscheiden würden, wenn jemand einen KI-Hersteller wegen der Äußerungen der KI verklagt“, sagte Jeff Koseff, ein Online-Sprachexperte der U.S. Naval Academy.

„So etwas ist noch nie passiert.“

Unklar ist, ob Faktor 230, der Internetunternehmen von der Haftung für die Worte Dritter auf ihren Plattformen befreit, für KI-Chatbots gilt. Auf der anderen Seite, wenn das nicht geschieht, müssen Unternehmen der KI beibringen, zwischen „Das ist okay, das ist schlecht“ zu unterscheiden. Dies wirft jedoch Fragen der Unparteilichkeit auf.

Volokh erklärte, dass es durchaus möglich ist, sich ein Szenario vorzustellen, in dem Suchmaschinen, die von Chatbots unterstützt werden, Chaos im Leben der Menschen verursachen.Volokh sagte, dass die glaubwürdigen, aber erfundenen Informationen, die in einem Vorstellungsgespräch oder einer Suche vor einem Termin zu finden sind, verheerende Auswirkungen haben werden: „Dies wird eine neue Suchmaschine sein stammen aus einer glaubwürdigen Quelle.“

Zusammengestellt aus dem Artikel der Washington Post mit dem Titel „ChatGPT erfand einen Skandal um sexuelle Belästigung und nannte einen echten Rechtsprofi als Angeklagten“.

Freiheit

Leave A Reply

Your email address will not be published.

This website uses cookies to improve your experience. We'll assume you're ok with this, but you can opt-out if you wish. Accept Read More