Künstliche Intelligenz auf EU-Ebene

Was bringen die neuen Regularien im Bereich Künstlicher Intelligenz auf EU-Ebene mit sich? Wie beeinflussen sie unseren Alltag? Diese Fragen bewegen sowohl Unternehmen als auch Bürger intensiv, seit dem weltweit ersten umfassenden KI-Regelwerk.

Das Europäische Parlament und der Rat der Europäischen Union haben die neuen AI-Gesetze im März und Mai 2024 verabschiedet. Sie werden innerhalb der nächsten 24 Monate in Kraft treten. Das Ziel ist es, eine sichere und transparente Nutzung von KI-Systemen in der EU zu fördern. Das beinhaltet eine Kategorisierung und Regulierung von KI-Systemen nach ihrem Risikopotenzial. Von der Vermeidung verbotener Systeme bis zur Kontrolle hochriskanter Anwendungen, das AI-Gesetz sieht eine differenzierte Regulierung vor.

Wichtige Erkenntnisse

  • Das AI-Gesetz repräsentiert den ersten umfassenden Rechtsrahmen für KI in der EU.
  • Generative Modelle wie ChatGPT unterliegen spezifischen Transparenz- und Urheberrechtskriterien.
  • Unter anderem wird die Nutzung von KI zur kognitiven Verhaltensmanipulation und zum sozialen Scoring verboten.
  • Die EU plant, ihre Investitionen in KI auf jährlich 1 Milliarde Euro zu erhöhen, mit dem Ziel, in der Entwicklung vertrauenswürdiger KI führend zu sein.
  • KMU und Start-ups werden durch spezielle Innovationspakete und Programme gefördert.

Die neusten Richtlinien der EU für KI zielen darauf ab, sowohl die Entwicklung als auch die Nutzung der Technologie zu erleichtern. Sie gewährleisten gleichzeitig umfassenden Schutz für die Bürger.

Einleitung

Künstliche Intelligenz (KI) markiert eine zentrale Innovation des 21. Jahrhunderts mit weitreichenden Effekten quer durch alle Sektoren. Im April 2018 lancierte die Europäische Kommission eine europäische KI-Strategie. Sie zielte darauf ab, zwischen dem Streben nach Fortschritt und der Wahrung ethischer Grundsätze zu vermitteln. Das Ziel war, die EU zu einem führenden Zentrum für sichere und verlässliche KI zu machen.

Die Strategie der EU visiert an, jährlich über 20 Mrd. EUR in KI zu investieren. Sie setzt auf Richtlinien, die Exzellenz mit Vertrauen vereinen. Schon fünf Mitgliedstaaten haben eigene nationale KI-Strategien mit Budgets ins Leben gerufen. Intelligent gesteuerte Thermostate können Energiekosten um ein Viertel reduzieren, Algorithmen Hautkrebs mit 95% Genauigkeit identifizieren.

Dennoch bleibt Europa bei privaten KI-Investitionen zurück. Als Antwort steigerte die Kommission die KI-Fördermittel im „Horizont 2020“-Programm um 70% auf 1,5 Mrd. EUR zwischen 2018 und 2020. Von 2021 bis 2027 sollen jährlich mindestens 1 Mrd. EUR in KI fließen.

Die EU unternahm ebenfalls regulatorische Schritte. Das AI Gesetz, angenommen vom EU-Parlament im März 2024, wird im August 2024 wirksam. Es schreibt vor, dass Hochrisiko-KI-Systeme strikten Risikomanagementregeln folgen müssen. Sechs Monate nach der Verordnung werden gefährdende KI-Systeme verboten.

Diese Einführung beleuchtet die ambitionierte KI-Strategie der EU. Sie zeigt auf, wie die EU bestrebt ist, technologische Entwicklungen und ethische Ansprüche im Bereich KI und Internet der Dinge zu harmonisieren.

Regulierung und Risikoeinstufung von KI-Systemen

Das EU-KI-Gesetz, vorgeschlagen im April 2021, markiert einen bedeutenden Fortschritt in der Regulierung von Künstlicher Intelligenz. Es dient als erster umfassender Rechtsrahmen weltweit, der speziell für KI-Systeme entwickelt wurde. Seine Hauptaufgabe ist die präzise Definition und Regulation der verschiedenartigen Risiken, die von KI-Anwendungen ausgehen.

Risikobewertung von KI-Systemen

Die Einführung des EU-KI-Gesetzes

Die Implementierung des EU-KI-Gesetzes brachte erstmalig umfangreiche, in ganz Europa harmonisierte Regularien für die Künstliche Intelligenz. Dieses Gesetz klassifiziert KI-Anwendungen nach dem Grad ihres Risikos. Diese Einstufung ermöglicht einerseits Innovationen und gewährleistet andererseits das Einhalten von Sicherheits- und Ethikstandards.

  • Verbot von Anwendungen mit inakzeptablem Risiko
  • Besondere rechtliche Anforderungen für Anwendungen mit hohem Risiko
  • Wenig Regulierung für Anwendungen ohne spezifische Risikoeinstufung

Dank dieses differenzierten Ansatzes können KI-Entwicklungen vorangetrieben werden, ohne Kompromisse bei wesentlichen Sicherheits- und Ethikrichtlinien einzugehen.

Kategorisierung und Regulierung nach Risikostufen

Die Risikobewertung von KI-Systemen erfolgt durch einen abgestuften Ansatz. KI-Systeme, die als hochriskant bewertet werden, müssen strikten Vorschriften genügen. Diese Pflichten umfassen:

  1. Eine umfassende Risikobewertung sowie -minderung durch den Entwickler
  2. Qualitativ überzeugende Datensätze und transparente Ergebnisse
  3. Transparenzverpflichtungen und deutliche Nutzerinformationen
  4. Geeignete menschliche Kontrolle und Überwachung post Markteinführung

Beispiele für risikobehaftete KI-Systeme

Hochriskante KI-Anwendungen beinhalten regelmäßig:

  • Gesichtserkennungssysteme für biometrische Identifikation
  • KI-Gestützte Modelle zur Unterstützung der Strafverfolgung
  • Algorithmen zur personalisierten Inhaltsauswahl im Internet

Durch das EU-KI-Gesetz unterliegen diese Technologien strengen Regulierungsvorgaben. Ziel ist es, die Einhaltung fundamentaler Rechte und Sicherheitsvorschriften innerhalb der EU sicherzustellen.

Künstliche Intelligenz auf EU-Ebene: Förderung und Innovation

Die Förderung von KI spielt in der Entwicklung neuer Technologien in der EU eine entscheidende Rolle. Durch Initiativen wie das KI-Innovationspaket und „GenAI4EU“ will die EU KI-Start-ups und KMU unterstützen. Dadurch soll die Wettbewerbsfähigkeit Europa’s verbessert werden. Die KI-Verordnung, welche am 13. März 2024 verabschiedet wurde, markiert einen wichtigen Schritt. Am 21. Mai wurde sie offiziell vom Rat der Europäischen Union genehmigt. Sie gilt als erstes umfangreiches Regelwerk für Künstliche Intelligenz weltweit.

Ein zentrales Element für Innovationen in der KI stellt das Programm „Horizont Europa“ dar. Es stellt jährlich eine Milliarde Euro für KI-Forschung zur Verfügung. Zusätzlich fördern die „Digitales Europa“-Initiative und die Aufbau- und Resilienzfazilität mit 134 Milliarden Euro die Digitalisierung weiter.

„Die Bundesregierung setzt sich gemeinsam mit anderen Mitgliedstaaten und der Kommission für eine bürokratiearme und innovationsfreundliche Umsetzung der KI-Verordnung ein, um eine Balance zwischen Innovation und Regulierung zu gewährleisten.“

Generative KI-Modelle, die als systemisch riskant betrachtet werden, unterliegen speziellen Regeln. Durch Verhaltenskodizes sollen Standards und harmonisierte Normen entwickelt werden. Ziel ist es, eine vertrauenswürdige Nutzung zu gewährleisten. Die KI-Servicestelle in Österreich wurde zur Unterstützung der Regulationen etabliert.

Das neue KI-Amt, präsentiert am 29. Mai 2024, beschäftigt 140 Mitarbeiter und besteht aus fünf spezialisierten Referaten. Diese decken Regulierung und Compliance, KI-Sicherheit, Exzellenz in KI und Robotik, Gemeinwohlanwendungen sowie KI-Innovation und Politikkoordinierung ab. Sie alle fördern die EU-KI-Strategie und innovative Entwicklungen.

  1. Regulierung und Compliance: Koordinierung der Durchsetzung des KI-Gesetzes.
  2. KI-Sicherheit: Verwaltung systemischer Risiken leistungsfähiger KI-Modelle.
  3. Exzellenz in KI und Robotik: Unterstützung von Forschung und Entwicklung.
  4. KI für das Gemeinwohl: Förderung gesellschaftlich nützlicher KI-Anwendungen.
  5. KI-Innovation und Politikkoordinierung: Begleitung der Umsetzung der EU-KI-Strategie.

Um an der Spitze der Innovationen in der KI zu stehen, sind diese strategischen Initiativen essenziell. Sie fördern eine ethisch vertretbare und gesellschaftlich akzeptierte Entwicklung der KI.

Ethikrichtlinien und Vertrauenswürdigkeit in der KI

Die Europäische Union misst der Entwicklung von Künstlicher Intelligenz, die ethischen Standards genügt, hohe Bedeutung bei. Die Union strebt an, bei den Nutzern durch diese Technologien Vertrauen zu fördern. In ihrer KI-Strategie vom April 2018 verfolgt sie einen regulierten, menschenzentrierten Ansatz. Dieser Ansatz wird durch Ethikrichtlinien für KI in der EU gestärkt, die die nachhaltige und verantwortungsbewusste Entwicklung von KI-Systemen gewährleisten sollen.

Ethikrichtlinien für KI in der EU

Der europäische Ansatz für vertrauenswürdige KI

Europa setzt auf einen Rechtsrahmen für KI, der globale Maßstäbe schafft. Dieser Rahmen unterstreicht den Schutz der Grundrechte, mit der Datenschutz-Grundverordnung (DSGVO) als einem Kernstück. Zusätzlich will die EU jährlich eine Milliarde Euro in KI-Entwicklungen investieren. Durch Programme wie „Horizont Europa“ und „Digitales Europa“ soll eine innovative und sichere KI-Forschungsumgebung entstehen.

„Vertrauenswürdige KI sollte Entscheidungsprozesse nachvollziehbar machen und Diskriminierung vermeiden. Dies erfordert, dass die Entwicklungsteams divers zusammengestellt werden.“ – High-Level Expert Group on AI

Spezifische Sicherheitsvorschriften

Die EU setzt auf einen ganzheitlichen Ansatz zur Förderung vertrauenswürdiger KI, der von spezifischen Sicherheitsvorschriften flankiert wird. Dieser umfasst die Maschinenverordnung und Richtlinien zur Produktsicherheit. Die EU-Cybersicherheitsstrategie spielt dabei eine Schlüsselrolle. In kritischen Bereichen müssen KI-Systeme robust sein und regelmäßigen Tests unterzogen werden. Ethische Auswirkungsbewertungen sind erforderlich, um die Achtung der Menschenrechte durch KI zu gewährleisten.

Forschung und Entwicklung von KI erfahren beträchtliche Investitionen durch die EU. Für das Rahmenprogramm Horizont 2020 wurden die Mittel für KI bereits verdoppelt. Die EU hat das Ziel, bis 2020 Investitionen in Höhe von 20 Milliarden Euro zu mobilisieren. Dies verdeutlicht das Engagement der EU für eine KI-Umgebung, der vertraut wird.

Praktische Auswirkungen und Compliance-Anforderungen

Die Einführung des EU-KI-Gesetzes stellt Unternehmen vor erhebliche Herausforderungen. Sie müssen künstliche Intelligenz nach den neuen Compliance-Anforderungen KI entwickeln, bereitstellen und nutzen. Der EU AI Act legt spezifische Kriterien fest, um Transparenz, Fairness, Datenschutz und Diskriminierungsfreie Anwendung sicherzustellen. Diese Kriterien gelten für Firmen aller Größenordnungen, einschließlich Großunternehmen, KMU und KI-Start-ups.

Rechtliche Anforderungen für Unternehmen

Nach dem AI Act werden KI-Systeme nach ihrem Risikopotenzial klassifiziert. Diese Kategorien reichen von minimalem bis zu inakzeptablem Risiko. Unternehmen sind verpflichtet, ihre KI-Systeme entsprechend zu bewerten und zu klassifizieren. Solche Bewertungen dienen dazu, die Einhaltung der rechtlichen Vorgaben sicherzustellen.

Zudem müssen Betriebe sicherstellen, dass ihr Personal über die notwendige KI-Kompetenz verfügt. Schulungen zu KI und Ethik sind unerlässlich, um rechtskonforme Anwendung von KI zu gewährleisten. Dies bedingt zudem notwendige organisatorische Veränderungen in den Unternehmen.

Auch Behörden müssen die Compliance-Anforderungen KI in Ausschreibungen für KI-Projekte berücksichtigen.

Unterstützung für KMU und Start-ups

KMU und KI-Start-ups stehen vor besonderen Herausforderungen bei der Einhaltung der Vorgaben des AI Acts. Die EU bietet umfassende Hilfe an. Zum Beispiel bietet das Institut der Wirtschaftsprüfer in Deutschland e.V. (IDW) ein aktualisiertes Knowledge Paper. Es enthält praktische Empfehlungen zur Compliance.

Darin wird die Implementierung angemessener Governance- und Compliance-Strukturen nahegelegt. Diese basieren auf einer sorgfältigen Bewertung der KI-Systeme und deren Risiken. Es wird unterstrichen, wie wichtig der Zugang zu Ressourcen und Schulungen für KMU und KI-Start-ups ist, um die Compliance-Anforderungen KI zu erfüllen.

Wenn KMU und Start-ups die notwendigen Anpassungen vornehmen und EU-Angebote nutzen, können sie Compliance-Herausforderungen meistern. Zudem können sie ihre Innovationsfähigkeit belegen.

Fazit

Das EU-KI-Gesetz stellt einen Wendepunkt in der Regulierung künstlicher Intelligenz dar. Es differenziert KI-Systeme nach verschiedenen Risikoleveln: Von inakzeptablen zu hohen oder begrenzten Risiken. Diese Differenzierung beweist, dass die EU eine sichere und ethische Technologieentwicklung ernst nimmt. Für Anbieter von KI-Systemen mit hohem Risiko ergeben sich strenge Auflagen. Diese Regelungen zielen darauf ab, Innovation nicht auf die Sicherheit oder ethische Grundsätze zu opfern.

Biometrische Fernidentifikationssysteme und universelle KI-Modelle unterstehen nun strengen Auflagen. Diese dürfen nur in Ausnahmesituationen, wie bei Rettungsaktionen oder zur Kriminalitätsbekämpfung, flexibler gehandhabt werden. Ziel dieser Vorschriften ist es, den Einsatz unethischer Methoden, wie manipulatives Verhalten oder Diskriminierung durch KI, zu unterbinden.

Jeder, vom CEO großer Konzerne bis hin zu Start-ups, ist aufgerufen, angemessene Risikomanagement-Strategien zu entwickeln. Zusätzlich müssen sie detaillierte technische Dokumentationen anlegen. Diese fortlaufenden Anforderungen zeigen das Bestreben der EU, weltweit Standards zu prägen. Das Gesetz ist weltweit das erste seiner Art.

Ab dem Jahr 2026 wird die Durchsetzung des KI-Regulierungsgesetzes weitreichende Änderungen nach sich ziehen. Rechts- und Finanzkonsequenzen für Verstöße verdeutlichen die Notwendigkeit, Entwicklungen in Künstlicher Intelligenz und deren Regulierung genau zu beobachten.

FAQ

Was ist das Ziel des EU-KI-Gesetzes?

Das primäre Ziel des EU-KI-Gesetzes besteht darin, Sicherheit, Transparenz und Nachhaltigkeit der KI-Systeme in Europa zu gewährleisten. Es soll auch eine menschliche Überwachung garantieren. Dadurch werden die Voraussetzungen für die Entwicklung und Anwendung dieser Technologien verbessert. Gleichzeitig sichert es ein hohes Schutzniveau für die Bürger.

Wie werden KI-Systeme nach dem EU-KI-Gesetz kategorisiert?

Gemäß dem EU-KI-Gesetz erfolgt eine Einteilung von KI-Systemen basierend auf ihrem Risikoniveau für die Nutzer. Verschiedene Regulierungsniveaus werden für jede Risikokategorie angewandt. Von geringfügigen bis hin zu inakzeptablen Risiken, bei welchen ein Verbot greift, erstreckt sich das Spektrum. Speziell Hochrisiko-Systeme unterliegen einer tiefgreifenden Prüfung in zwei essenziellen Kategorien.

Welche Maßnahmen gibt es zur Förderung von KI in der EU?

Zur Unterstützung von KI-Start-ups und KMU hat die EU das KI-Innovationspaket und die Initiative „GenAI4EU“ ins Leben gerufen. Diese sollen die europäische Wettbewerbsfähigkeit verbessern. Zusätzlich sind im Rahmen von „Horizont Europa“ und „Digitales Europa“ jährliche KI-Investitionen von 1 Mrd. EUR vorgesehen. Die Aufbau- und Resilienzfazilität trägt mit 134 Mrd. EUR zur Digitalisierung bei.

Was versteht die EU unter vertrauenswürdiger KI?

Unter vertrauenswürdiger KI versteht die EU Systeme, die sicher sind und die Grundrechte der Nutzer achten. Ein ganzheitlicher Ansatz wird durch die Integration von Initiativen wie der Maschinenverordnung und der EU-Cybersicherheitsstrategie verfolgt. Dies schafft eine innovative und sichere Entwicklungslandschaft für KI.

Welche rechtlichen Anforderungen entstehen durch das EU-KI-Gesetz für Unternehmen?

Unternehmen stehen vor der Aufgabe, Compliance- und Rechtsanforderungen des EU-KI-Gesetzes zu erfüllen. Dies beinhaltet regelmäßige Überprüfungen und die Befolgung festgelegter Richtlinien. Außerdem ist eine klare Kennzeichnung von KI-Inhalten ein Muss.

Wie unterstützt die EU kleinere Unternehmen und Start-ups in Bezug auf KI?

Um KMU und Start-ups bei der Einhaltung des EU-KI-Gesetzes zu unterstützen, bietet die EU gezielte Hilfestellungen. Dazu gehören Richtlinien, Schulungen und weitere Ressourcen. Diese Maßnahmen sollen die Entwicklung und das Training von KI-Modellen fördern, bevor diese weitreichend eingesetzt werden.

Unsere Rechtsanwälte stehen Ihnen bundesweit und im deutschsprachigen Ausland zur Verfügung.

Wolfgang Herfurtner | Rechtsanwalt | Geschäftsführer | Gesellschafter

Philipp Franz | Rechtsanwalt | Associate

Kundenbewertungen & Erfahrungen zu Herfurtner Rechtsanwälte. Mehr Infos anzeigen.

Aktuelle Beiträge aus dem Rechtsgebiet Künstliche Intelligenz