Bewährt… Künstliche Intelligenz hat sich erstmals eine eigene politische Sichtweise gebildet!

0 77

Wissenschaftler haben bewiesen, dass die Sprachmodelle (LM), die die Grundlage von Chatbots mit künstlicher Intelligenz bilden, politische Ansichten haben. Eine in den USA durchgeführte Studie untersuchte den Einfluss von Datenpools auf die politischen Ansichten von LMs, die die Bausteine ​​derzeit weit verbreiteter sind Chatbots mit künstlicher Intelligenz.

In diesem Zusammenhang wandten die Wissenschaftler den politischen Kompasstest auf 14 verschiedene LM an, der auf der horizontalen Achse (rechts und links) wirtschaftliche Kosten und auf der vertikalen Achse soziale Kosten, Liberalität und Schutzgewinn aufweist.

DESINFORMATION UND HASSSPRACHE, GENERIERT VON KI

Darüber hinaus werden die Auswirkungen politischer Trends auf den Inhalt verschiedener Datenquellen wie Nachrichten, Diskussionsforen, Bücher, Online-Enzyklopädien, die zur Schulung von LMs zum Natural Language Process Model (NLP) verwendet werden, sowie die Desinformation und Hassaussprachen, die von LM als produziert werden, berücksichtigt Das Ergebnis dieses Effekts wurde untersucht.

Als Ergebnis der Untersuchung wurde festgestellt, dass LMs, die die politischen Tendenzen der Quellen in dem von ihnen geschulten Informationspool haben, parallel zu ihren Ansichten Hassreden und Desinformation verursachen.

Ein Unterschied, der bei KI beobachtet wurde, die mit Wissen über die Trump-Zeit ausgebildet wurde

Als außerdem die Mission des ehemaligen US-Präsidenten Donald Trump am 20. Januar 2017 begann und die mit den Datensätzen vor und nach diesem Datum trainierten LMs verglichen wurden, Es wurde festgestellt, dass die Trends der LMs, die mit den Daten der Trump-Zeit und danach trainiert wurden, am anderen Ende des politischen Kompasses positioniert sind.

In der Mitte der LMs wurde festgestellt, dass die „BERT“-Varianten im Vergleich zu den „GPT“-Modellen tendenziell konservativer seien und erhebliche Unterschiede in der politischen Ausrichtung der verschiedenen vom Unternehmen entwickelten LMs beobachtet wurden.

PÄDAGOGISCHE INTELLIGENZ KANN GESELLSCHAFTEN POLARISIEREN

Die voreingenommenere Herangehensweise ausgebildeter LMs an soziale Wetten im Vergleich zu wirtschaftlichen Wetten wurde auf die Notwendigkeit eines breiteren Wissenssatzes für die wirtschaftliche Interpretation trotz der Fülle an Informationen zu sozialen Themen zurückgeführt.

Die Forscher betonten, dass kein Sprachmodell völlig frei von gesellschaftlichen Vorurteilen sein kann, und warnten, dass es theoretisch möglich sei, dass LMs, die mithilfe von Quellen trainiert werden, die multipolitische Ansichten repräsentieren, die bestehende Polarisierung in der Gesellschaft weiter vertiefen. „Gesellschaft für Computerlinguistik“Veröffentlicht im Bericht der 61. Jahrestagung.

QUELLE: AA | NACHRICHTEN7

Neuigkeiten7

Leave A Reply

Your email address will not be published.

This website uses cookies to improve your experience. We'll assume you're ok with this, but you can opt-out if you wish. Accept Read More