„Alle Länder“ sind sich erstmals einig: Das sind die Maßnahmen, die sie gegen die große Gefahr ergreifen!

Während rasante Fortschritte in der künstlichen Intelligenz das Potenzial haben, die Gesellschaft umzugestalten, nimmt die Debatte über die Regulierung immer komplexer werdender KI-Systeme zu.

Es zeigt sich, dass das Potenzial der künstlichen Intelligenz zur Verwirklichung von Sicherheits-, Effizienz-, Wirtschafts- und Sozialzielen heute zu einem der wertvollsten Elemente der digitalen Wirtschaft geworden ist.

Es wird als eine Gefahr angesehen, die einem Atomkrieg gleichkommt

Sam Altman, CEO von OpenAI, Eigentümer von ChatGPT, warnte zusammen mit Führungskräften von Googles Abteilung für künstliche Intelligenz DeepMind und Microsoft im Mai, dass künstliche Intelligenz ein Risiko der Ausrottung der Menschheit darstellt, das einem Atomkrieg gleichkommt, und betonte, dass diese Risiken gemindert werden sollten .

Neben den positiven Auswirkungen dieser Technologie auf die gesamte Wirtschaft und die Menschheit bestehen auch große Bedenken hinsichtlich der möglichen Risiken, die durch ihre unkontrollierte Anwendung entstehen können.

Während viele Länder und Unternehmen nach Möglichkeiten suchen, die Vorteile dieser schnell wachsenden Technologie zu nutzen, sind auch die Aufforderungen zur Regulierung als Reaktion auf Implikationen, Urheberrechtsverletzungen, Störungen bestehender Geschäftsabläufe, Diskriminierung und andere Risiken größer.

Da Fortschritte in der KI die breite Öffentlichkeit erreichen und drohen, ganze Branchen zu stören, ist die Art und Weise, wie Regierungen KI regulieren sollten, eine der Herausforderungen auf der ganzen Welt, die sofort angegangen werden muss.

„VERANTWORTUNGSVOLLE UND ETHISCHE“ ENTWICKLUNG DER KÜNSTLICHEN INTELLIGENZ VON EXPERTEN

Während weiterhin darüber diskutiert wird, ob künstliche Intelligenz in Zukunft unter Kontrolle gehalten werden kann und ob künstliche Intelligenztechnologien, die über den Namen von Menschen entscheiden, neben ethischen Kosten auch eine direkte Bedrohung darstellen, verbreitet sich diese Technologie durch Chatbots von Tag zu Tag weiter , autonome Fahrzeuge und digitale Assistenten, die mit Sprachbefehlen arbeiten.

Während sich die Fortschritte in der künstlichen Intelligenz beschleunigen, holen einige Regierungen die Meinung von Experten und der Öffentlichkeit ein, um Instrumente der künstlichen Intelligenz zu regulieren, und einige bereiten sich auf eine gesetzliche Regulierung vor.

Experten weisen darauf hin, dass die gesetzliche Regulierung künstlicher Intelligenz Vor- und Nachteile hat. Sie weisen darauf hin, dass Gesetze einen Rahmen für ethische Praktiken, Informationssicherheit und Verbraucherrechte bieten können, den Fortschritt jedoch verlangsamen können, indem sie Innovationen behindern.

Künstliche Intelligenz-Technologie „Verantwortungsvoll und ethisch“Experten betonen, dass es irgendwie weiterentwickelt werden muss, und sagen, dass es sehr wertvoll ist, zwischen Regulierung und Innovation Stabilität zu finden.

SCHNELLE FORTSCHRITTE MACHEN REGIERUNGSVORSCHRIFTEN SCHWIERIG

Die Führungskräfte von KI-Unternehmen werden immer häufiger dazu aufgefordert, ihre Aktivitäten durch Regierungen zu regulieren, allerdings gibt es in dieser Hinsicht einige Schwierigkeiten bei der Regulierung.

Einer Analyse der Brookings Institution zufolge liegen diese Schwierigkeiten in der Geschwindigkeit der Entwicklungen im Bereich der künstlichen Intelligenz, in der Trennung der Komponenten dessen, was reguliert werden soll, und in der Festlegung, wer die Regulierungen wie umsetzen wird.

Schnelle Fortschritte in diesem Bereich erschweren die Bemühungen der Regierungen, Klauseln zu schaffen, die den Einsatz von Technologien der künstlichen Intelligenz regeln.

CHINESISCH

China hat im Juli eine Reihe diskontinuierlicher Maßnahmen zur Verwaltung seiner produktiven KI-Branche erlassen und Dienstanbieter dazu verpflichtet, Sicherheitsbewertungen durchzuführen und die Verfahren zur Einreichung von Algorithmen zu befolgen. Chinas Cyberspace-Regulierungsbehörde kündigte im April Maßnahmenentwürfe zur Verwaltung produktiver KI-Dienste an und sagte, sie verlange von Unternehmen, den Behörden Sicherheitsbewertungen vorzulegen, bevor sie der Öffentlichkeit Vorschläge unterbreiten.

China kündigte Maßnahmenentwürfe zur Verwaltung produktiver Dienste für künstliche Intelligenz an und wies darauf hin, dass Unternehmen den Behörden Sicherheitsbewertungen vorlegen müssen, bevor sie ihre Börsengänge starten.

USA

Sam Altman, Chief Executive (CEO) von OpenAI, der Erfinder von ChatGPT, war einer derjenigen, die die Notwendigkeit einer Regulierung der künstlichen Intelligenz in den USA mit sich brachten. Altman lud Senatoren in einer Sitzung, an der er im Mai im US-Kongress teilnahm, dazu auf, Lizenz- und Sicherheitsstandards für fortschrittliche KI-Systeme festzulegen.

Altmann, „Während diese Technologie voranschreitet, verstehen wir, dass die Menschen darüber besorgt sind, wie sie unseren Lebensstil verändern könnte. Wir sind auch besorgt.“hat seine Einschätzung abgegeben.

Während der Mehrheitsführer im Senat, Chuck Schumer, ebenfalls argumentierte, dass der Kongress schnell handeln sollte, um künstliche Intelligenz zu regulieren, versammelte er eine Gruppe überparteilicher Senatoren, um an der Gesetzgebung zu arbeiten. Im Juli leitete das US-amerikanische Federal Trade Committee (FTC) eine umfassende Untersuchung zu OpenAI ein und behauptete, es verstoße gegen Verbraucherschutzklauseln, indem es persönliches Ansehen und Daten gefährdet.

In einem im Juni veröffentlichten Blogbeitrag erklärte die Kommission, dass produktive künstliche Intelligenz die Wettbewerbsschwankungen erhöht habe und im Fokus des Technology Office der FTC stehe.

Auch der demokratische Senator Michael Bennet, der sich für KI-Themen engagiert, schrieb im Juni einen Brief an führende Technologieunternehmen und forderte sie auf, die Verbreitung von Tools zur Kennzeichnung von KI-generierten Inhalten und zur Irreführung von Benutzern zu beenden. Im April legte Bennet einen Gesetzentwurf zur Einrichtung einer Task Force vor, die die Politik der USA im Bereich der künstlichen Intelligenz untersuchen soll.

Experten sagen, dass die Vereinigten Staaten erst am Anfang eines langen und kraftvollen Weges zur Schaffung von Regeln für künstliche Intelligenz stehen.

EUROPÄISCHE UNION

In der Europäischen Union (EU), die sich darauf vorbereitet, eine führende Rolle bei der Regulierung künstlicher Intelligenz zu übernehmen, wurde im Juni eine Änderung des Gesetzesentwurfs zur künstlichen Intelligenz der Union beschlossen. Im Entwurf werden künstliche Intelligenzsysteme in vier Hauptgruppen unterteilt: inakzeptables Risiko, hohes Risiko, begrenztes Risiko und geringstes Risiko.

Damit die Gesetzesentwürfe in Kraft treten, müssen die Gesetzgeber Einzelheiten mit den EU-Ländern besprechen. Die Gesetzgebungsverhandlungen werden voraussichtlich bis Ende dieses Jahres abgeschlossen sein. Im Entwurf ist festgelegt, dass künstliche Intelligenzsysteme von Menschen beaufsichtigt, nicht diskriminiert, treu, transparent und umweltfreundlich sein sollen. In den Medien wurde berichtet, dass Unternehmen wie Meta, Google und Microsoft Lobbyarbeit gegen den EU-Gesetzentwurf zur künstlichen Intelligenz betreiben, mit der Absicht, dass dieser „Innovationen behindern“ könnte.

FRANKREICH

Das französische Nationale Gremium für Informatik und Freiheiten (CNIL) gab im April bekannt, dass es verschiedene Beschwerden über ChatGPT untersucht, nachdem der Chatbot namens Chatbot in Italien wegen des Verdachts der Verletzung von Datenschutzbestimmungen verboten wurde.

Im März 2023 genehmigte die französische Nationalversammlung den Einsatz von Videoüberwachung mit künstlicher Intelligenz während der Olympischen Spiele in Paris im Jahr 2024 und ignorierte dabei die Warnungen von Bürgerrechtsgruppen.

ITALIEN

Die italienische Regierung gab im Mai bekannt, dass die Datenschutzbehörde des Landes plant, weitere KI-Plattformen zu überprüfen und KI-Experten einzustellen. ChatGPT wurde im April in Italien wieder für Benutzer geöffnet, nachdem es im März aufgrund von Alarmen der nationalen Datenschutzbehörde vorübergehend verboten worden war.

SPANIEN

Die spanische Datenschutzbehörde gab im April bekannt, dass ChatGPT eine vorläufige Untersuchung möglicher Datenschutzverletzungen eingeleitet habe. Er forderte außerdem die EU-Datenschutzbehörde auf, Datenschutzbedenken in Bezug auf ChatGPT zu prüfen.

ENGLAND

Im Vereinigten Königreich konsultiert die Regierungsbehörde, die mit der Ausarbeitung neuer Richtlinien zur künstlichen Intelligenz beauftragt ist, Institute sowie andere juristische und akademische Gremien, um das Verständnis der Technologie zu verbessern.

Während die Wettbewerbsbehörde des Landes die Auswirkungen künstlicher Intelligenz auf Verbraucher, Unternehmen und die Wirtschaft prüft und prüft, ob ein Bedarf an neuen Kontrollen besteht, ist vorgesehen, dass statt einer neuen Stelle für die Verwaltung künstlicher Intelligenz eine zwischenmenschliche Aufteilung erfolgt Rechte, Gesundheit und Sicherheit sowie Wettbewerbsbehörden.

Premierminister Rishi Sunak stellt Großbritannien als globale Führungskraft für die Gewährleistung der Sicherheit der sich schnell entwickelnden Technologie vor, während das Land im November 2023 Gastgeber eines weltweiten Höhepunkts der künstlichen Intelligenz sein soll. An der Spitze heißt es, dass Führungskräfte von Technologieunternehmen, Regierungsvertreter und Wissenschaftler zu einem Treffen zusammenkommen werden, um die Risiken künstlicher Intelligenz und Möglichkeiten zu deren Minderung zu besprechen.

IRLAND

In Irland argumentieren die Regulierungsbehörden, dass produktive KI reguliert werden muss, aber die Leitungsgremien müssen herausfinden, wie sie dies richtig machen, bevor sie überstürzt Verbote verhängen, und es werden weiterhin Informationen für Vorschriften zu diesem Thema im Land gesammelt.

AUSTRALIEN

In Australien begrüßt die Regierung die nächsten Schritte im Bereich der künstlichen Intelligenz und konsultiert gleichzeitig das wichtigste wissenschaftliche Beratungsgremium des Landes um Rat, wie der gewissenhafte und verantwortungsvolle Einsatz dieser Technologie unterstützt werden kann.

ISRAEL

Israel arbeitet seit über einem Jahr an Vorschriften für künstliche Intelligenz, um das richtige Gleichgewicht zwischen Innovation und Schutz der Menschenrechte sowie zivilen Sicherheitsmaßnahmen zu finden. In dem Land, das letztes Jahr einen 115-seitigen Entwurf einer Politik zur künstlichen Intelligenz erstellt hat, wird vor einer endgültigen Entscheidung Feedback eingeholt.

JAPAN

Japan setzt auf Technologie, um das Wirtschaftswachstum anzukurbeln und Präsident bei modernen Chips zu werden. Es rechnet mit der Einführung von Vorschriften, die näher an der Haltung der USA liegen als die strengen Vorschriften, die in der EU bis Ende 2023 geplant sind.

Türkei

In der Nationalen Strategie für künstliche Intelligenz für die Jahre 2021–2025 in der Türkei ist auch Gegenstand der Durchführung von Forschungsarbeiten, um die Harmonie der administrativen und rechtlichen Vorschriften mit dem durch künstliche Intelligenz verursachten sozioökonomischen Wandel sicherzustellen und die möglichen Ergebnisse im Voraus zu bewerten.

Die Durchführung von Aktivitäten, die sich mit den ethischen und generischen Dimensionen von Anwendungen der künstlichen Intelligenz befassen, und die Verfolgung der in diesem Bereich auf internationaler Ebene durchgeführten Studien sind eines der wertvollen Themen der Strategie.

Die Nationale KI-Strategie reagiert in wirkungsvoller Form auf die ethischen, rechtlichen und sicherheitsrelevanten Bedenken, die sich im Zusammenhang mit der KI-Technologie ergeben.

Um diese Probleme im Rahmen der Strategie anzugehen, Mit der „Arbeitsgruppe Künstliche Intelligenz Recht und Ethik“Es ist bekannt, dass die „Arbeitsgruppe „Zuverlässige und verantwortungsvolle künstliche Intelligenz““ gegründet wurde. Diese Arbeitscluster führen ihre Arbeit zur Vorbereitung von Gesetzesvorschlägen, Leitfäden und Umsetzungsprojekten durch, indem sie die neuesten Entwicklungen auf diesem Gebiet verfolgen.

Darüber hinaus wird den relevanten OECD ONE AI-Arbeitsclustern eine nationale Beteiligung gewährt. Es gibt auch Studien zu diesem Thema durch das innerhalb der TSE eingerichtete MTC 195 Artificial Intelligence Mirror Committee.

Es beteiligt sich auch an der Arbeit des Ausschusses für künstliche Intelligenz (CAI) des Europarates und trägt dazu bei, dessen Ziel es ist, die Elemente eines Rechtsrahmens für die Entwicklung, Gestaltung und Umsetzung künstlicher Intelligenz auf der Grundlage von Menschenrechten, Demokratie und Rechtsstaatlichkeit zu ermitteln Standards.

G7-LÄNDER

Die G7-Technologieminister betonten im April, dass ihr Land eine risikobasierte Regulierung der künstlichen Intelligenz einführen sollte, während im Mai ein aufstrebender Markt in Hiroshima, Japan, eintrat Die G7-Chefs von Kanada, Frankreich, Deutschland, Italien, Japan, dem Vereinigten Königreich, den Vereinigten Staaten und der Europäischen Union waren sich über die Notwendigkeit einer Kontrolle künstlicher Intelligenz und immersiver Technologien einig.

VEREINTE NATIONEN

Der Sicherheitsrat der Vereinten Nationen hielt im Juli in New York seine erste offizielle Sitzung zum Thema Künstliche Intelligenz ab.

UN-Generalsekretär Antonio Guterres erklärte, dass das Gremium „sowohl militärische als auch nichtmilitärische Anwendungen künstlicher Intelligenz diskutiert, die sehr wichtige Auswirkungen auf den globalen Frieden und die Sicherheit haben können.“

Guterres sagte im Juni, dass die Führungskräfte einiger Unternehmen für künstliche Intelligenz Schaffung eines KI-Überwachungsdienstes wie der Internationalen Atomkraftbehördeunterstützte seinen Vorschlag.

Guterres sagte außerdem, dass es plant, bis Ende des Jahres mit der Arbeit an einem hochrangigen KI-Beratungsgremium zu beginnen, das die Regelungen zur KI-Governance regelmäßig überprüfen und Empfehlungen aussprechen wird.

QUELLE: AA | NACHRICHTEN7

Neuigkeiten7

Künstliche IntelligenzRegulierungRisikoSicherheitTechnologie
Comments (0)
Add Comment