{"id":5709,"date":"2021-04-26T10:15:37","date_gmt":"2021-04-26T08:15:37","guid":{"rendered":"https:\/\/emr-sb.de\/?p=5709"},"modified":"2021-04-26T10:16:14","modified_gmt":"2021-04-26T08:16:14","slug":"eu-kommission-schlaegt-verordnung-zur-regulierung-von-kuenstlicher-intelligenz-vor","status":"publish","type":"post","link":"https:\/\/emr-sb.de\/fr\/eu-kommission-schlaegt-verordnung-zur-regulierung-von-kuenstlicher-intelligenz-vor\/","title":{"rendered":"EU: Kommission schl\u00e4gt Verordnung zur Regulierung von K\u00fcnstlicher Intelligenz vor"},"content":{"rendered":"<p>Der potenzielle Nutzen von K\u00fcnstlicher Intelligenz (KI) (auch) f\u00fcr demokratisch verfasste Gesellschaften ist mannigfaltig und betrifft z.B. die St\u00e4rkung von Innovation, \u00f6konomische Wachstumsimpulse und globale Wettbewerbsf\u00e4higkeit ebenso wie eine nachhaltige Bildungs-, Gesundheits- und Infrastrukturpolitik. Auch in Medien kommt KI bereits zum Einsatz \u2013 auch dort nicht nur mit Chancen, sondern auch mit Risiken verbunden, auf die die L\u00e4nder im Medienstaatsvertrag bereits mit Transparenzvorgaben in Bezug auf social bots und algorithmisch gesteuerte intermedi\u00e4re Dienstleistungen reagiert haben.<\/p>\n<p>Angesichts der raschen technologischen Entwicklung der KI hat sich die EU-Kommission, vom Vorsorgeprinzip geleitet, entschlossen, eine Initiative zu ergreifen, um mittels einer Verordnung auf die Risiken zu reagieren, die bestimmte KI-Systeme in sich bergen \u2013 nicht zuletzt auch mit Blick auf Gef\u00e4hrdungslagen f\u00fcr eine effektive Durchsetzung der bestehenden Rechtsvorschriften im Bereich der Sicherheit und der Grundrechte \u2013 u.a. bei Anwendungen wie biometrischen Identifizierungssystemen oder KI-gest\u00fctzten Entscheidungen, die wichtige pers\u00f6nliche Interessen ber\u00fchren, z.\u00a0B. in den Bereichen Personaleinstellung, Bildung und Erziehung, Gesundheitsversorgung oder Strafverfolgung. Unterschiedliche mitgliedstaatliche Regulierungsma\u00dfnahmen zu KI k\u00f6nnten zu einer Fragmentierung des EU-Binnenmarkts f\u00fchren. \u00dcber die Verordnung soll demgegen\u00fcber ein gut funktionierender Binnenmarkt f\u00fcr KI-Systeme geschaffen werden, der sowohl die Vorteile als auch die Risiken angemessen ber\u00fccksichtigt.<\/p>\n<p>Die Verordnung soll, dem Marktortprinzip folgend, grunds\u00e4tzlich f\u00fcr \u00f6ffentliche wie private, gewerblich t\u00e4tige Akteure innerhalb und au\u00dferhalb der EU gelten, sofern das KI-System in der EU in Verkehr gebracht wird oder Menschen in der EU von seiner Verwendung betroffen sind. Der Anwendungsbereich erfasst sowohl Anbieter (z.\u00a0B. Entwickler eines Auswertungsprogramms f\u00fcr Lebensl\u00e4ufe) als auch Nutzer von KI-Systemen mit hohem Risiko (z.\u00a0B. eine Bank, die dieses Programm anschafft).<\/p>\n<p>Die Kommission schl\u00e4gt einen risikobasierten Ansatz mit vier Risikostufen vor:<\/p>\n<p>(1.) Eine sehr geringe Zahl besonders sch\u00e4dlicher KI-Anwendungen, die gegen die Werte der EU versto\u00dfen, weil sie Grundrechte verletzen, sollen wegen unannehmbarem Risiko verboten werden. Das betrifft z.\u00a0B. die (aus der Regulierung in der VR China bereits bekannte) Bewertung des sozialen Verhaltens durch Beh\u00f6rden (Social\u00a0Scoring), die Ausnutzung der Schutzbed\u00fcrftigkeit von Kindern, den Einsatz von Techniken zur unterschwelligen Beeinflussung und \u2013 mit eng abgesteckten Ausnahmen \u2013 biometrische Echtzeit-Fernidentifizierungssysteme, die zu Strafverfolgungszwecken im \u00f6ffentlichen Raum eingesetzt werden.<\/p>\n<p>(2.) Eine begrenzte Zahl von KI-Systemen, die katalogartig in der Verordnung abgegrenzt wird und die sich nachteilig auf die Sicherheit der Menschen oder ihre durch die Grundrechte-Charta gesch\u00fctzten Grundrechte auswirken, gilt als mit einem hohen Risiko behaftet. Um das Vertrauen und ein einheitliches und hohes Ma\u00df an Sicherheit und Schutz der Grundrechte zu gew\u00e4hrleisten, werden f\u00fcr alle KI-Systeme mit hohem Risiko verbindliche Anforderungen vorgeschlagen. Diese Anforderungen betreffen die Qualit\u00e4t der verwendeten Datens\u00e4tze, die technische Dokumentation und das F\u00fchren von Aufzeichnungen genauso wie die Transparenz und die Bereitstellung von Informationen f\u00fcr die Nutzer, die menschliche Aufsicht sowie die Robustheit, Genauigkeit und Cybersicherheit. Bei Verst\u00f6\u00dfen werden die nationalen Beh\u00f6rden aufgrund dieser Anforderungen Zugang zu den Informationen erhalten, die n\u00f6tig sind, um festzustellen, ob der Einsatz des KI-Systems rechtm\u00e4\u00dfig erfolgt ist.<\/p>\n<p>(3.) Bei bestimmten KI-Systemen mit geringem Risiko sollen in der Verordnung besondere Transparenzverpflichtungen auferlegt werden, z.\u00a0B. wenn eine klare Manipulationsgefahr besteht (z.\u00a0B. durch den Einsatz von Chatbots). Den Nutzern sollte bewusst sein, dass sie es mit einer Maschine zu tun haben.\u00a0<\/p>\n<p>(4.) Alle anderen KI-Systeme mit minimalem Risiko k\u00f6nnen unter Einhaltung des allgemein geltenden Rechts entwickelt und verwendet werden, d.\u00a0h. ohne Beachtung zus\u00e4tzlicher rechtlicher Verpflichtungen.<\/p>\n<p>Die Risikoeinstufung h\u00e4ngt von der Funktion des KI-Systems, von seinem konkreten Zweck und seinen Anwendungsmodalit\u00e4ten ab. Diese Einstufung richtet sich nach dem Umfang und Zweck der Verwendung der KI-Anwendung, der Anzahl der potenziell betroffenen Personen, der Abh\u00e4ngigkeit vom Ergebnis und der Unumkehrbarkeit etwaiger Sch\u00e4den sowie danach, inwiefern das bestehende Unionsrecht wirksame Ma\u00dfnahmen zur Beseitigung oder wesentlichen Verringerung dieser Risiken vorsieht. Anhand dieser Kriterien sowie gest\u00fctzt auf Nachweise und Stellungnahmen von Sachverst\u00e4ndigen will die Kommission daf\u00fcr sorgen, dass diese Liste von KI-Anwendungen mit hohem Risiko stets auf dem neuesten Stand ist und zweckdienlich bleibt.<\/p>\n<p>Bevor KI-Systeme, die mit hohem Risiko behaftet sind, in der EU in Verkehr gebracht oder anderweitig in Betrieb genommen werden d\u00fcrfen, m\u00fcssen sich die Anbieter einer Konformit\u00e4tsbewertung unterziehen. Damit k\u00f6nnen sie nachweisen, dass ihr System den verbindlichen Anforderungen an vertrauensw\u00fcrdige KI entspricht (z.\u00a0B. in Bezug auf Datenqualit\u00e4t, Dokumentation und R\u00fcckverfolgbarkeit, Transparenz, menschliche Aufsicht, Genauigkeit und Robustheit). Bei bestimmten KI-Systemen muss zudem eine benannte unabh\u00e4ngige Bewertungsstelle in diesen Prozess einbezogen werden. Au\u00dferdem m\u00fcssen Anbieter von KI-Systemen mit hohem Risiko Qualit\u00e4ts- und Risikomanagementsysteme einf\u00fchren, um die Einhaltung der neuen Anforderungen sicherzustellen und die Risiken f\u00fcr Nutzer und betroffene Personen zu minimieren, auch nachdem ein Produkt bereits in Verkehr gebracht wurde.<\/p>\n<p>Jeder Mitgliedstaat soll eine oder mehrere zust\u00e4ndige nationale Beh\u00f6rden benennen, die die Anwendung und Umsetzung der Vorgaben der Verordnung beaufsichtigen und die Markt\u00fcberwachung wahrnehmen. Der Europ\u00e4ische Ausschuss f\u00fcr k\u00fcnstliche Intelligenz soll sich aus hochrangigen Vertretern der zust\u00e4ndigen nationalen Aufsichtsbeh\u00f6rden, des Europ\u00e4ischen Datenschutzbeauftragten und der Kommission zusammensetzen. Seine Aufgabe soll es sein, eine reibungslose, wirksame und einheitliche Umsetzung der neuen KI-Verordnung zu erleichtern. Der Ausschuss soll der Kommission Empfehlungen und Stellungnahmen zu KI-Systemen mit hohem Risiko und zu anderen Aspekten vorlegen, die f\u00fcr eine wirksame und einheitliche Umsetzung der neuen Vorschriften von Bedeutung sind. Den nationalen Beh\u00f6rden soll der Ausschuss als Kompetenzzentrum dienen, das sie konsultieren k\u00f6nnen.<\/p>\n<p>&nbsp;<\/p>\n<p>Der Vorschlag f\u00fcr eine Verordnung \u00fcber ein europ\u00e4isches Konzept f\u00fcr K\u00fcnstliche Intelligenz (COM(2021) 206 final) ist in englischer Sprache abrufbar \u00fcber<\/p>\n<p><a href=\"https:\/\/digital-strategy.ec.europa.eu\/en\/library\/proposal-regulation-european-approach-artificial-intelligence\"><strong>https:\/\/digital-strategy.ec.europa.eu\/en\/library\/proposal-regulation-european-approach-artificial-intelligence<\/strong><\/a><\/p>\n","protected":false},"excerpt":{"rendered":"<p>Der potenzielle Nutzen von K\u00fcnstlicher Intelligenz (KI) (auch) f\u00fcr demokratisch verfasste Gesellschaften ist mannigfaltig und betrifft z.B. die St\u00e4rkung von Innovation, \u00f6konomische Wachstumsimpulse und globale Wettbewerbsf\u00e4higkeit ebenso wie eine nachhaltige Bildungs-, Gesundheits- und Infrastrukturpolitik. Auch in Medien kommt KI bereits zum Einsatz \u2013 auch dort nicht nur mit Chancen, sondern auch mit Risiken verbunden, auf [&hellip;]<\/p>\n","protected":false},"author":4,"featured_media":4135,"comment_status":"closed","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"_et_pb_use_builder":"","_et_pb_old_content":"","_et_gb_content_width":"","footnotes":""},"categories":[224,1,23,215,221,222],"tags":[],"class_list":["post-5709","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-nachrichten","category-aktuelles","category-datenschutz","category-jugendmedienschutz","category-telemedienrecht","category-verbraucherschutzrecht","et-has-post-format-content","et_post_format-et-post-format-standard"],"translation":{"provider":"WPGlobus","version":"3.0.2","language":"fr","enabled_languages":["de","fr","gb"],"languages":{"de":{"title":true,"content":true,"excerpt":false},"fr":{"title":false,"content":false,"excerpt":false},"gb":{"title":false,"content":false,"excerpt":false}}},"_links":{"self":[{"href":"https:\/\/emr-sb.de\/fr\/wp-json\/wp\/v2\/posts\/5709","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/emr-sb.de\/fr\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/emr-sb.de\/fr\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/emr-sb.de\/fr\/wp-json\/wp\/v2\/users\/4"}],"replies":[{"embeddable":true,"href":"https:\/\/emr-sb.de\/fr\/wp-json\/wp\/v2\/comments?post=5709"}],"version-history":[{"count":2,"href":"https:\/\/emr-sb.de\/fr\/wp-json\/wp\/v2\/posts\/5709\/revisions"}],"predecessor-version":[{"id":5711,"href":"https:\/\/emr-sb.de\/fr\/wp-json\/wp\/v2\/posts\/5709\/revisions\/5711"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/emr-sb.de\/fr\/wp-json\/wp\/v2\/media\/4135"}],"wp:attachment":[{"href":"https:\/\/emr-sb.de\/fr\/wp-json\/wp\/v2\/media?parent=5709"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/emr-sb.de\/fr\/wp-json\/wp\/v2\/categories?post=5709"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/emr-sb.de\/fr\/wp-json\/wp\/v2\/tags?post=5709"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}