Strenge Regeln kommen… Die EU krempelt die Ärmel hoch für künstliche Intelligenz!

0 111

Die Europäische Union (EU) versucht, den Geltungsbereich des Gesetzes festzulegen, das strenge Regeln für verschiedene Technologien der künstlichen Intelligenz auferlegt, wie beispielsweise den Chatbot ChatGPT, der sich in der letzten Zeit weit verbreitet hat.

Angesichts des weit verbreiteten Einsatzes künstlicher Intelligenz in verschiedenen Bereichen wie Produktion, Gesundheit, Finanzen, Bildung, Transport und Sicherheit ist es wichtig, die Regeln für diese Technologie klar zu definieren.

Die EU hat jetzt keine Verordnung über künstliche Intelligenzsysteme wie ChatGPT oder ähnliches, aber das EU-Komitee hat vor 2 Jahren den ersten Legislativvorschlag vorbereitet, der den Rahmen neuer Regeln für künstliche Intelligenz enthält, und ihn den Mitgliedsstaaten und der Europäischen vorgelegt Parlament (EP).

Dieser Vorschlag führte einige Beschränkungen und Transparenzregeln für die Nutzung von Systemen der künstlichen Intelligenz ein. Wenn dieser Vorschlag Gesetz wird, müssen auch Systeme der künstlichen Intelligenz wie ChatGPT in Übereinstimmung mit diesen Regeln verwendet werden.

NEUE REGELN GEGEN RISIKEN KÜNSTLICHER INTELLIGENZ

Die neuen Regeln für künstliche Intelligenz, die in allen Mitgliedsländern exakt umgesetzt werden sollen, bringen einen risikobasierten Ansatz.

Im Vorschlag der Kommission werden Systeme der künstlichen Intelligenz in 4 Hauptcluster eingeteilt: inakzeptables Risiko, hohes Risiko, begrenztes Risiko und minimales Risiko.

Systeme der künstlichen Intelligenz, die als eindeutige Bedrohung für die Lebenssicherheit, die Existenzgrundlagen und die Rechte der Menschen angesehen werden, befinden sich im inakzeptablen Risikocluster. Der Einsatz von Systemen in diesen Bereichen soll voraussichtlich verboten werden.

Ebenfalls verboten sind Systeme oder Anwendungen künstlicher Intelligenz, die gegen den freien Willen Einzelner verstoßen, menschliches Verhalten manipulieren oder Social Scoring durchführen.

Kritische Infrastruktur, Bildung, Chirurgie, Lebenslaufbewertung im Rekrutierungsprozess, Bonitätsprüfung, Beweisführung, Einwanderung, Asyl- und Grenzverwaltung, Prüfung von Reisedokumenten, biometrische Identifikationssysteme, gerichtliche und demokratische Verfahren fallen in das Hochrisikocluster.

KANN NICHT IN BIOMETRISCHEN IDENTIFIZIERUNGSSYSTEMEN VERWENDET WERDEN

Während an Bereiche des Hochrisikoclusters strenge Anforderungen gestellt werden, gelten strenge Anforderungen, die künstliche Intelligenzsysteme in diesem Cluster erfüllen müssen, bevor sie auf den Markt gebracht werden. Diese Systeme müssen diskriminierungsfrei sein, die Ergebnisse müssen beobachtbar sein und einer ausreichenden menschlichen Überwachung unterliegen.

Sicherheitseinheiten im Geltungsbereich der Vorschriften Es wird in der Lage sein, biometrische Identifikationssysteme in öffentlichen Bereichen in Sonderfällen wie Terrorismus und schwerer Kriminalität einzusetzen.Diese medizinischen Anwendungen von Systemen künstlicher Intelligenz bleiben jedoch begrenzt und unterliegen der Genehmigung der genannten Organisation.

Auch Systeme der künstlichen Intelligenz im Cluster mit begrenztem Risiko müssen der Transparenzpflicht nachkommen.

Auch Chatbots sind im Vorschlagsvorschlag in den Kluster mit begrenztem Risiko einbezogen. Das Ziel hier ist es, den Benutzern bewusst zu machen, dass sie mit einem Computer interagieren, während sie sich mit Chatbots unterhalten.

Anwendungen wie Videospiele mit künstlicher Intelligenz oder Spamfilter sind dem geringsten Risiko ausgesetzt. In die Systeme der künstlichen Intelligenz in diesem Cluster, die ein geringes oder kein Risiko für die Rechte oder die Sicherheit von Personen darstellen, wird nicht eingegriffen.

REKORDSTRAFE KANN KOMMEN, WENN DIE REGELN NICHT BEFOLGT WERDEN

Der Vorschlag sieht Bußgelder von bis zu 30 Millionen Euro oder 6 Prozent ihrer weltweiten Gewinne für Verstöße gegen das KI-Gesetz vor.

Die Arbeiten am Gesetz über künstliche Intelligenz, das für sein Inkrafttreten der Zustimmung des EP und der Mitgliedstaaten bedarf, dauern noch an. In diesem Bereich haben die EU-Mitgliedstaaten Ende letzten Jahres eine gemeinsame Position bezogen.

Die EU-Länder forderten einige Änderungen in Bezug auf verbotene Anwendungen künstlicher Intelligenz und weiteten das Verbot der Verwendung künstlicher Intelligenz für das Social Scoring auf den Privatsektor aus.

Ausweitung des Geltungsbereichs der Entscheidung zum Verbot der Verwendung von Systemen der künstlichen Intelligenz, die die Schwachstellen eines bestimmten Clusters ausnutzen.

Die Verwendung von biometrischen Echtzeit-Fernerkennungssystemen an öffentlichen Orten durch Strafverfolgungsbehörden wurde ausnahmsweise gestattet. Die EU-Länder einigten sich darauf, nationale Sicherheits-, Verteidigungs- und militärische Zwecke nicht in den Geltungsbereich des Gesetzes über künstliche Intelligenz aufzunehmen.

GEMEINSAMER MASSNAHMENBESCHLUSS DES EUROPÄISCHEN PARLAMENTS

Die AP hingegen hat in dieser Frage noch keine gemeinsame Haltung bezogen. Abgeordnete arbeiten noch am Gesetz zur künstlichen Intelligenz. Abgeordnete, hier, um eine gemeinsame Einstellung zu ermitteln, in welche Risikocluster Systeme wie Chat GPT fallen werden.Gespräche führen.

Auf diesem Gebiet tätige Mitglieder des AP sind der Meinung, dass Systeme der künstlichen Intelligenz, die derzeit komplexe Texte ohne menschliche Überwachung produzieren, ein Modul der Hochrisikoliste sein sollten.

Nachdem das Parlament seine Position zu dem Gesetz festgelegt hat, wird es mit den Mitgliedsstaaten an den Verhandlungstisch sitzen.

AI-INTERVIEWS SIND VORAUSSICHTLICH IN DIESEM JAHR ZU FÜHREN

Nachdem sich das EP und die Mitgliedstaaten auf einen gemeinsamen Text geeinigt haben, wird erwartet, dass dem Sektor mit dem zu genehmigenden Gesetz eine zweijährige Übergangsfrist eingeräumt wird.

Große Technologieunternehmen wie Microsoft und Google, die in diesem Bereich erheblich investiert haben, verfolgen die neuen Regeln im Bereich der künstlichen Intelligenz genau.

CHATGPT, DAS AUF DER TAGESORDNUNG BLEIBT, IST AUF DEM RADAR DER EU

Der European Information Retention Council, in dem sich die nationalen Datenschutzinstitutionen der EU-Staaten zusammengeschlossen haben, hat auf seiner letzten Sitzung den von OpenAI entwickelten Chat-Roboter mit künstlicher Intelligenz ChatGPT evaluiert.

Bei dem Treffen wurde beschlossen, eine spezielle Task Force einzurichten, um die Zusammenarbeit und den Informationsaustausch bei den auf ChatGPT durchgeführten Untersuchungen zu verstärken.

Im vergangenen Monat leitete die italienische Datenschutzbehörde eine Untersuchung des Chatbots mit künstlicher Intelligenz ChatGPT wegen des Verdachts ein, gegen die Regeln zur Erfassung personenbezogener Daten zu verstoßen, und stoppte den Zugriff auf die Anwendung.

Behörden in Deutschland gaben zudem an, dass sie ChatGPT, den auf künstlicher Intelligenz basierenden Chatbot, aufgrund von Datenschutzbedenken bei Bedarf grundsätzlich blockieren könnten.

Gleichzeitig kontaktierten Datenschutzbehörden in Frankreich und Irland die italienische Datenschutzbehörde, um ihre Ergebnisse zu besprechen.

In diesem Fall scheint es unvermeidlich, dass die EU ihre Herangehensweise an ChatGPT bald klarstellt und strenge Regeln für ähnliche Technologien der künstlichen Intelligenz auferlegt.

QUELLE: AA, NACHRICHTEN7

Neuigkeiten7

Leave A Reply

Your email address will not be published.

This website uses cookies to improve your experience. We'll assume you're ok with this, but you can opt-out if you wish. Accept Read More