Was bringen die neuen Regularien im Bereich Künstlicher Intelligenz auf EU-Ebene mit sich? Wie beeinflussen sie unseren Alltag? Diese Fragen bewegen sowohl Unternehmen als auch Bürger intensiv, seit dem weltweit ersten umfassenden KI-Regelwerk.
Das Europäische Parlament und der Rat der Europäischen Union haben die neuen AI-Gesetze im März und Mai 2024 verabschiedet. Sie werden innerhalb der nächsten 24 Monate in Kraft treten. Das Ziel ist es, eine sichere und transparente Nutzung von KI-Systemen in der EU zu fördern. Das beinhaltet eine Kategorisierung und Regulierung von KI-Systemen nach ihrem Risikopotenzial. Von der Vermeidung verbotener Systeme bis zur Kontrolle hochriskanter Anwendungen, das AI-Gesetz sieht eine differenzierte Regulierung vor.
Wichtige Erkenntnisse
- Das AI-Gesetz repräsentiert den ersten umfassenden Rechtsrahmen für KI in der EU.
- Generative Modelle wie ChatGPT unterliegen spezifischen Transparenz- und Urheberrechtskriterien.
- Unter anderem wird die Nutzung von KI zur kognitiven Verhaltensmanipulation und zum sozialen Scoring verboten.
- Die EU plant, ihre Investitionen in KI auf jährlich 1 Milliarde Euro zu erhöhen, mit dem Ziel, in der Entwicklung vertrauenswürdiger KI führend zu sein.
- KMU und Start-ups werden durch spezielle Innovationspakete und Programme gefördert.
Die neusten Richtlinien der EU für KI zielen darauf ab, sowohl die Entwicklung als auch die Nutzung der Technologie zu erleichtern. Sie gewährleisten gleichzeitig umfassenden Schutz für die Bürger.
Einleitung
Künstliche Intelligenz (KI) markiert eine zentrale Innovation des 21. Jahrhunderts mit weitreichenden Effekten quer durch alle Sektoren. Im April 2018 lancierte die Europäische Kommission eine europäische KI-Strategie. Sie zielte darauf ab, zwischen dem Streben nach Fortschritt und der Wahrung ethischer Grundsätze zu vermitteln. Das Ziel war, die EU zu einem führenden Zentrum für sichere und verlässliche KI zu machen.
Die Strategie der EU visiert an, jährlich über 20 Mrd. EUR in KI zu investieren. Sie setzt auf Richtlinien, die Exzellenz mit Vertrauen vereinen. Schon fünf Mitgliedstaaten haben eigene nationale KI-Strategien mit Budgets ins Leben gerufen. Intelligent gesteuerte Thermostate können Energiekosten um ein Viertel reduzieren, Algorithmen Hautkrebs mit 95% Genauigkeit identifizieren.
Dennoch bleibt Europa bei privaten KI-Investitionen zurück. Als Antwort steigerte die Kommission die KI-Fördermittel im „Horizont 2020“-Programm um 70% auf 1,5 Mrd. EUR zwischen 2018 und 2020. Von 2021 bis 2027 sollen jährlich mindestens 1 Mrd. EUR in KI fließen.
Die EU unternahm ebenfalls regulatorische Schritte. Das AI Gesetz, angenommen vom EU-Parlament im März 2024, wird im August 2024 wirksam. Es schreibt vor, dass Hochrisiko-KI-Systeme strikten Risikomanagementregeln folgen müssen. Sechs Monate nach der Verordnung werden gefährdende KI-Systeme verboten.
Diese Einführung beleuchtet die ambitionierte KI-Strategie der EU. Sie zeigt auf, wie die EU bestrebt ist, technologische Entwicklungen und ethische Ansprüche im Bereich KI und Internet der Dinge zu harmonisieren.
Regulierung und Risikoeinstufung von KI-Systemen
Das EU-KI-Gesetz, vorgeschlagen im April 2021, markiert einen bedeutenden Fortschritt in der Regulierung von Künstlicher Intelligenz. Es dient als erster umfassender Rechtsrahmen weltweit, der speziell für KI-Systeme entwickelt wurde. Seine Hauptaufgabe ist die präzise Definition und Regulation der verschiedenartigen Risiken, die von KI-Anwendungen ausgehen.
Die Einführung des EU-KI-Gesetzes
Die Implementierung des EU-KI-Gesetzes brachte erstmalig umfangreiche, in ganz Europa harmonisierte Regularien für die Künstliche Intelligenz. Dieses Gesetz klassifiziert KI-Anwendungen nach dem Grad ihres Risikos. Diese Einstufung ermöglicht einerseits Innovationen und gewährleistet andererseits das Einhalten von Sicherheits- und Ethikstandards.
- Verbot von Anwendungen mit inakzeptablem Risiko
- Besondere rechtliche Anforderungen für Anwendungen mit hohem Risiko
- Wenig Regulierung für Anwendungen ohne spezifische Risikoeinstufung
Dank dieses differenzierten Ansatzes können KI-Entwicklungen vorangetrieben werden, ohne Kompromisse bei wesentlichen Sicherheits- und Ethikrichtlinien einzugehen.
Kategorisierung und Regulierung nach Risikostufen
Die Risikobewertung von KI-Systemen erfolgt durch einen abgestuften Ansatz. KI-Systeme, die als hochriskant bewertet werden, müssen strikten Vorschriften genügen. Diese Pflichten umfassen:
- Eine umfassende Risikobewertung sowie -minderung durch den Entwickler
- Qualitativ überzeugende Datensätze und transparente Ergebnisse
- Transparenzverpflichtungen und deutliche Nutzerinformationen
- Geeignete menschliche Kontrolle und Überwachung post Markteinführung
Beispiele für risikobehaftete KI-Systeme
Hochriskante KI-Anwendungen beinhalten regelmäßig:
- Gesichtserkennungssysteme für biometrische Identifikation
- KI-Gestützte Modelle zur Unterstützung der Strafverfolgung
- Algorithmen zur personalisierten Inhaltsauswahl im Internet
Durch das EU-KI-Gesetz unterliegen diese Technologien strengen Regulierungsvorgaben. Ziel ist es, die Einhaltung fundamentaler Rechte und Sicherheitsvorschriften innerhalb der EU sicherzustellen.
Künstliche Intelligenz auf EU-Ebene: Förderung und Innovation
Die Förderung von KI spielt in der Entwicklung neuer Technologien in der EU eine entscheidende Rolle. Durch Initiativen wie das KI-Innovationspaket und „GenAI4EU“ will die EU KI-Start-ups und KMU unterstützen. Dadurch soll die Wettbewerbsfähigkeit Europa’s verbessert werden. Die KI-Verordnung, welche am 13. März 2024 verabschiedet wurde, markiert einen wichtigen Schritt. Am 21. Mai wurde sie offiziell vom Rat der Europäischen Union genehmigt. Sie gilt als erstes umfangreiches Regelwerk für Künstliche Intelligenz weltweit.
Ein zentrales Element für Innovationen in der KI stellt das Programm „Horizont Europa“ dar. Es stellt jährlich eine Milliarde Euro für KI-Forschung zur Verfügung. Zusätzlich fördern die „Digitales Europa“-Initiative und die Aufbau- und Resilienzfazilität mit 134 Milliarden Euro die Digitalisierung weiter.
„Die Bundesregierung setzt sich gemeinsam mit anderen Mitgliedstaaten und der Kommission für eine bürokratiearme und innovationsfreundliche Umsetzung der KI-Verordnung ein, um eine Balance zwischen Innovation und Regulierung zu gewährleisten.“
Generative KI-Modelle, die als systemisch riskant betrachtet werden, unterliegen speziellen Regeln. Durch Verhaltenskodizes sollen Standards und harmonisierte Normen entwickelt werden. Ziel ist es, eine vertrauenswürdige Nutzung zu gewährleisten. Die KI-Servicestelle in Österreich wurde zur Unterstützung der Regulationen etabliert.
Das neue KI-Amt, präsentiert am 29. Mai 2024, beschäftigt 140 Mitarbeiter und besteht aus fünf spezialisierten Referaten. Diese decken Regulierung und Compliance, KI-Sicherheit, Exzellenz in KI und Robotik, Gemeinwohlanwendungen sowie KI-Innovation und Politikkoordinierung ab. Sie alle fördern die EU-KI-Strategie und innovative Entwicklungen.
- Regulierung und Compliance: Koordinierung der Durchsetzung des KI-Gesetzes.
- KI-Sicherheit: Verwaltung systemischer Risiken leistungsfähiger KI-Modelle.
- Exzellenz in KI und Robotik: Unterstützung von Forschung und Entwicklung.
- KI für das Gemeinwohl: Förderung gesellschaftlich nützlicher KI-Anwendungen.
- KI-Innovation und Politikkoordinierung: Begleitung der Umsetzung der EU-KI-Strategie.
Um an der Spitze der Innovationen in der KI zu stehen, sind diese strategischen Initiativen essenziell. Sie fördern eine ethisch vertretbare und gesellschaftlich akzeptierte Entwicklung der KI.
Ethikrichtlinien und Vertrauenswürdigkeit in der KI
Die Europäische Union misst der Entwicklung von Künstlicher Intelligenz, die ethischen Standards genügt, hohe Bedeutung bei. Die Union strebt an, bei den Nutzern durch diese Technologien Vertrauen zu fördern. In ihrer KI-Strategie vom April 2018 verfolgt sie einen regulierten, menschenzentrierten Ansatz. Dieser Ansatz wird durch Ethikrichtlinien für KI in der EU gestärkt, die die nachhaltige und verantwortungsbewusste Entwicklung von KI-Systemen gewährleisten sollen.
Der europäische Ansatz für vertrauenswürdige KI
Europa setzt auf einen Rechtsrahmen für KI, der globale Maßstäbe schafft. Dieser Rahmen unterstreicht den Schutz der Grundrechte, mit der Datenschutz-Grundverordnung (DSGVO) als einem Kernstück. Zusätzlich will die EU jährlich eine Milliarde Euro in KI-Entwicklungen investieren. Durch Programme wie „Horizont Europa“ und „Digitales Europa“ soll eine innovative und sichere KI-Forschungsumgebung entstehen.
„Vertrauenswürdige KI sollte Entscheidungsprozesse nachvollziehbar machen und Diskriminierung vermeiden. Dies erfordert, dass die Entwicklungsteams divers zusammengestellt werden.“ – High-Level Expert Group on AI
Spezifische Sicherheitsvorschriften
Die EU setzt auf einen ganzheitlichen Ansatz zur Förderung vertrauenswürdiger KI, der von spezifischen Sicherheitsvorschriften flankiert wird. Dieser umfasst die Maschinenverordnung und Richtlinien zur Produktsicherheit. Die EU-Cybersicherheitsstrategie spielt dabei eine Schlüsselrolle. In kritischen Bereichen müssen KI-Systeme robust sein und regelmäßigen Tests unterzogen werden. Ethische Auswirkungsbewertungen sind erforderlich, um die Achtung der Menschenrechte durch KI zu gewährleisten.
Forschung und Entwicklung von KI erfahren beträchtliche Investitionen durch die EU. Für das Rahmenprogramm Horizont 2020 wurden die Mittel für KI bereits verdoppelt. Die EU hat das Ziel, bis 2020 Investitionen in Höhe von 20 Milliarden Euro zu mobilisieren. Dies verdeutlicht das Engagement der EU für eine KI-Umgebung, der vertraut wird.
Praktische Auswirkungen und Compliance-Anforderungen
Die Einführung des EU-KI-Gesetzes stellt Unternehmen vor erhebliche Herausforderungen. Sie müssen künstliche Intelligenz nach den neuen Compliance-Anforderungen KI entwickeln, bereitstellen und nutzen. Der EU AI Act legt spezifische Kriterien fest, um Transparenz, Fairness, Datenschutz und Diskriminierungsfreie Anwendung sicherzustellen. Diese Kriterien gelten für Firmen aller Größenordnungen, einschließlich Großunternehmen, KMU und KI-Start-ups.
Rechtliche Anforderungen für Unternehmen
Nach dem AI Act werden KI-Systeme nach ihrem Risikopotenzial klassifiziert. Diese Kategorien reichen von minimalem bis zu inakzeptablem Risiko. Unternehmen sind verpflichtet, ihre KI-Systeme entsprechend zu bewerten und zu klassifizieren. Solche Bewertungen dienen dazu, die Einhaltung der rechtlichen Vorgaben sicherzustellen.
Zudem müssen Betriebe sicherstellen, dass ihr Personal über die notwendige KI-Kompetenz verfügt. Schulungen zu KI und Ethik sind unerlässlich, um rechtskonforme Anwendung von KI zu gewährleisten. Dies bedingt zudem notwendige organisatorische Veränderungen in den Unternehmen.
Auch Behörden müssen die Compliance-Anforderungen KI in Ausschreibungen für KI-Projekte berücksichtigen.
Unterstützung für KMU und Start-ups
KMU und KI-Start-ups stehen vor besonderen Herausforderungen bei der Einhaltung der Vorgaben des AI Acts. Die EU bietet umfassende Hilfe an. Zum Beispiel bietet das Institut der Wirtschaftsprüfer in Deutschland e.V. (IDW) ein aktualisiertes Knowledge Paper. Es enthält praktische Empfehlungen zur Compliance.
Darin wird die Implementierung angemessener Governance- und Compliance-Strukturen nahegelegt. Diese basieren auf einer sorgfältigen Bewertung der KI-Systeme und deren Risiken. Es wird unterstrichen, wie wichtig der Zugang zu Ressourcen und Schulungen für KMU und KI-Start-ups ist, um die Compliance-Anforderungen KI zu erfüllen.
Wenn KMU und Start-ups die notwendigen Anpassungen vornehmen und EU-Angebote nutzen, können sie Compliance-Herausforderungen meistern. Zudem können sie ihre Innovationsfähigkeit belegen.
Fazit
Das EU-KI-Gesetz stellt einen Wendepunkt in der Regulierung künstlicher Intelligenz dar. Es differenziert KI-Systeme nach verschiedenen Risikoleveln: Von inakzeptablen zu hohen oder begrenzten Risiken. Diese Differenzierung beweist, dass die EU eine sichere und ethische Technologieentwicklung ernst nimmt. Für Anbieter von KI-Systemen mit hohem Risiko ergeben sich strenge Auflagen. Diese Regelungen zielen darauf ab, Innovation nicht auf die Sicherheit oder ethische Grundsätze zu opfern.
Biometrische Fernidentifikationssysteme und universelle KI-Modelle unterstehen nun strengen Auflagen. Diese dürfen nur in Ausnahmesituationen, wie bei Rettungsaktionen oder zur Kriminalitätsbekämpfung, flexibler gehandhabt werden. Ziel dieser Vorschriften ist es, den Einsatz unethischer Methoden, wie manipulatives Verhalten oder Diskriminierung durch KI, zu unterbinden.
Jeder, vom CEO großer Konzerne bis hin zu Start-ups, ist aufgerufen, angemessene Risikomanagement-Strategien zu entwickeln. Zusätzlich müssen sie detaillierte technische Dokumentationen anlegen. Diese fortlaufenden Anforderungen zeigen das Bestreben der EU, weltweit Standards zu prägen. Das Gesetz ist weltweit das erste seiner Art.
Ab dem Jahr 2026 wird die Durchsetzung des KI-Regulierungsgesetzes weitreichende Änderungen nach sich ziehen. Rechts- und Finanzkonsequenzen für Verstöße verdeutlichen die Notwendigkeit, Entwicklungen in Künstlicher Intelligenz und deren Regulierung genau zu beobachten.
FAQ
Was ist das Ziel des EU-KI-Gesetzes?
Wie werden KI-Systeme nach dem EU-KI-Gesetz kategorisiert?
Welche Maßnahmen gibt es zur Förderung von KI in der EU?
Was versteht die EU unter vertrauenswürdiger KI?
Welche rechtlichen Anforderungen entstehen durch das EU-KI-Gesetz für Unternehmen?
Wie unterstützt die EU kleinere Unternehmen und Start-ups in Bezug auf KI?
Unsere Rechtsanwälte stehen Ihnen bundesweit und im deutschsprachigen Ausland zur Verfügung.
Wolfgang Herfurtner | Rechtsanwalt | Geschäftsführer | Gesellschafter
Philipp Franz | Rechtsanwalt | Associate
Aktuelle Beiträge aus dem Rechtsgebiet Künstliche Intelligenz
Rechte und Ansprüche an trainierter KI
Erfahren Sie, welche Rechte an trainierter KI entstehen und wie diese die KI Entwicklung und Anwendungen beeinflussen.
Diskriminierungsrisiko durch KI im Personalbereich?
Erfahren Sie, wie Künstliche Intelligenz im Personalwesen Diskriminierung vermeiden kann und die Chancengleichheit fördert.
Datenschutzbehörden geben Leitfaden zu KI heraus: Orientierungshilfe für Unternehmen
Erfahren Sie, wie der neue Leitfaden zu KI von Datenschutzbehörden die Regulierung unterstützt und Orientierung bietet.
Künstliche Intelligenz: Neue rechtliche Entwicklungen auf EU-Ebene
Entdecken Sie die neuesten EU-Richtlinien zur Regulierung der Künstlichen Intellizienz auf EU-Ebene und wie diese Innovation und Ethik fördern.
Künstliche Intelligenz in der Unternehmensführung: Chancen für Vorstand und Aufsichtsrat
Entdecken Sie, wie Künstliche Intelligenz in der Unternehmensführung Entscheidungsprozesse revolutioniert und Wettbewerbsvorteile schafft.