Der Intelligence Act der EU stellt das weltweit erste umfassende Regelwerk für Künstliche Intelligenz dar. Für Life-Science-Unternehmen ist es daher unerlässlich, sich mit dieser neuen europäischen Verordnung näher vertraut zu machen. Finden Sie einen schnellen und einfachen Einstieg in das Thema mit dieser umfassenden Übersicht aller wichtigen Fakten, Zahlen und Infografiken.
Inhaltsverzeichnis 1. Wann und warum ist der AI Act in Kraft getreten?
1. Wann und warum ist der AI Act in Kraft getreten?
Am 1. August 2024 ist die europäische Verordnung über Künstliche Intelligenz (KI-Verordnung bzw. AI Act) in Kraft getreten. Diesem historischen Ereignis vorangegangen waren verschiedene Etappen im inter-institutionellen Gesetzgebungsprozess der EU (siehe Timeline unten), die allesamt folgendes Ziel unterstützen:
Das Vertrauen und die Akzeptanz in KI-gestützte Technologien – v. a. was die Bereiche Gesundheit, Sicherheit sowie Grund- und Menschenrechte betrifft – in der europäischen Bevölkerung zu stärken. Dazu soll ein europaweiter Regelungsrahmen für die verantwortungsvolle Entwicklung sowie Verwendung von Künstlicher Intelligenz geschaffen werden, der Innovationen „made in Europe“ ermöglicht.
2. Welche Akteure sind vom AI Act betroffen?
Im Nachfolgenden finden Sie eine Liste der wichtigsten KI-Akteure mit kurzer Rollenbeschreibung:
Anbieter
Hierunter fallen insbesondere Hersteller (z. B. OpenAI, Google, etc.) und solche, die ein eingekauftes KI-System unter einer eigenen Bezeichnung Dritten anbieten. Anbieter maßgeblich veränderter KI-Lösungen gehören ebenfalls dazu.
Betreiber
Es geht hier im weitesten Sinne um KI-Akteure, die ihren Beschäftigten oder ihrer Kundschaft ein KI-System bereitstellen.
Nutzer
Als Nutzer werden solche bezeichnet, die AI einsetzen – die also beispielsweise mit Hilfe von ChatGPT Marketingtexte erstellen oder in Midjourney Bilder erzeugen lassen.
Produkthersteller
Hiermit ist ein Unternehmen gemeint, das ein KI-System in ein eigenes Produkt einbindet und dieses Dritten gegenüber anbietet.
Weitere KI-Rollenbezeichnungen können Sie folgender Abbildung entnehmen:
Die oben abgebildeten KI-Akteure betreffen tatsächlich alle Unternehmen unabhängig von ihrer Größe und dem jeweiligen Life-Science-Sektor, wie z.B.: Bio-Pharma & Biotechnologie, Medizintechnologie & Diagnostik sowie Technologiefirmen, die Dienstleistungen oder Produkte für den Life-Science-Sektor herstellen. Auch Bereiche Landwirtschaft, Lebensmittel und Kosmetik können dazu gehören.
3. Was sind die Kerninhalte der KI-Verordnung?
Die EU hat eine Risiko-Klassifizierung von KI-Systemen festgelegt, um eine sichere und verantwortungsvolle Entwicklung und Anwendung von KI-Technologien zu gewährleisten. Anhand einer anschaulichen Pyramide (siehe unten) sollen dabei die verschiedenen KI-Systeme je nach Risikograd klassifiziert werden. Dabei nimmt der Grad – von einem minimalen Risiko bis hin zu einem inakzeptablen hohen Risiko – von der Basis bis zur Spitze der Pyramide stufenweise zu.
Definition: KI-Systeme
Maschinengestütztes System, das für einen in unterschiedlichem Grade autonomen Betrieb ausgelegt ist und das nach seiner Betriebsaufnahme anpassungsfähig sein kann und das aus den erhaltenen Eingaben für explizite oder implizite Ziele ableitet, wie Ausgaben wie etwa Vorhersagen, Inhalte, Empfehlungen oder Entscheidungen erstellt werden, die physische oder virtuelle Umgebungen beeinflussen können (siehe KI-Verordnung, Art. 3 (1)).
1. Verbotene KI-Systeme
KI-Systeme, die ein inakzeptables Risiko darstellen sind grundsätzlich verboten, da sie eine Bedrohung für den Nutzer darstellen.
Zu den verbotenen AI-Systemen gehören bspw. KI-Systeme, die: |
|
|
|
2. Hochriskante KI-Systeme
KI-Systeme, die ein hohes erhebliches Risiko darstellen, müssen sehr strenge und umfangreiche Anforderungen erfüllen. Zum Anforderungskatalog gehört dabei insbesondere eine Konformitätsbewertung. Damit soll den Sicherheits- und Ethik-Ansprüchen der EU entsprochen werden.
Wichtig: Einige Anforderungen an Hochrisiko-KI-Systeme sowie andere Bestimmungen werden erst am Ende einer Übergangsphase anwendbar sein (siehe Abbildung oben: Wann und warum ist der AI Act in Kraft getreten?).
Unter hochriskanten KI-Systemen fallen solche, die eingesetzt werden für: |
|
|
|
3. KI-Systeme mit begrenztem Risiko
Im Vergleich zu den o.g. Hochrisiko-KI-Systemen bringt diese Risiko-Klasse geringere Anforderungen mit sich. Statt einer umfassende Konformitätsbewertung besteht hier hauptsächlich eine Transparenzpflicht.
Zu begrenzt risikohaften KI-Systemen gehören bspw. KI-gestützte: |
|
|
|
4. KI-Systeme mit minimalem Risiko
Für KI-Systeme, die einen geringen Risikofaktor darstellen, existieren keine besonderen gesetzlichen Anforderungen. So sollen lediglich allgemeine Verhaltenskodizes rund um das Thema KI beachtet werden.
Zu den minimal riskanten KI-Systemen gehören bspw. KI-gestützte: |
|
|
|
Im nächsten Abschnitt wird näher auf die die Anforderungen eingegangen, die sich aus der KI-Verordnung für Unternehmen aus der Life-Science-Branche ergeben.
Welche Auswirkungen hat der AI Act auf Life-Science-Unternehmen?
Die meisten Pflichten ergeben sich für Anbieter von Hochrisiko-KI-Systemen, teilweise aber auch deren Betreiber. Manche Pflichten gelten zudem im Bezug auf KI-Modelle mit allgemeinem Verwendungszweck (General Purpose AI bzw. GPAI). Was die KI-Systeme mit begrenztem oder minimalem Risiko wiederum betrifft, so bestehen im Wesentlichen Transparenzpflichten.
Konformitätsbewertung
Dies betrifft vor allem Life-Science-Unternehmen, die sich mit Hochrisiko-KI-Systemen beschäftigen. Diese müssen Compliance-Verfahren und -Prozesse entwickeln und implementieren, um den strengen Sicherheits- und Ethik-Anforderungen der EU-KI-Verordnung gerecht werden.
Transparenz
Unternehmen müssen eine detaillierte Dokumentation über die Funktionsweise sowie potenziellen Risiken ihrer entwickelten KI-Systeme erstellen. Diese soll den Nutzern und Aufsichtsbehörden öffentlich zugänglich gemacht werden, um Transparenz zu schaffen.
Menschliche Aufsicht
Ein KI-entwickelndes Unternehmen muss eine Person mit der Beaufsichtigung ihres Hochrisiko-KI-Systems beauftragen. Dieser menschliche Aufsichtsmechanismus soll dazu dienen, eine verantwortungsvolle Nutzung des KI-Systems sicherzustellen.
Erklärbarkeit
Entwickler von KI-Systemen müssen nachvollziehbar erklären können, wie ihre Systeme funktionieren. Dies beinhaltet die Inputs und Outputs eines Systems sowie die einzelnen vom System unternommenen Schritte, die letzten Endes zu einer Entscheidung geführt haben.
Data Governance
Entwickler von KI-Systemen müssen des Weiteren darauf achten, Datenschutzgesetze wie die Datenschutzgrundverordnung (DSGVO) einzuhalten. Dazu gehört das Überprüfen der Datenschutzverarbeitungspraktiken.
Compliance und Durchsetzung
Zuständige Behörden der EU stellen sicher, dass von KI-betroffene Unternehmen regelkonform agieren. Dies setzen sie, falls nötig, mithilfe von Ermittlungen, Verwarnung oder Geldbußen durch.
Definition: KI-Modelle im Vergleich zu KI-Systemen
Beispiel: ein Large Language Model, kurz: LLM, wie es bspw. von OpenAI bereitgestellt wird, ist ein KI-Modell. Darauf basieren dann verschiedene KI-Systeme, wie z. B. ChatGPT oder der Microsoft Copilot.
Definition: General Purpose AI (GPAI)
5. Der AI Act - zwei Seiten einer Medaille
Einerseits hofft die EU, die Akzeptanz und das Vertrauen der europäischen Bevölkerung in Künstliche Intelligenz mithilfe eines Risiko-basierten Ansatzes fördern zu können. Andererseits besteht die Gefahr, dass der strenge Regelungsrahmen das Innovationspotenzial von Unternehmen beeinträchtigen könnte.
So stellt die KI-Verordnung der EU Unternehmen vor eine Reihe zusätzlicher Anforderungen, die vor allem KMUs betreffen, die ohnehin schon die strengen Vorgaben aus der neuen MDR erfüllen müssen. Beispielsweise werden Medizinprodukte, die auf KI-Systeme basieren, häufig der Risikoklasse 2 zuzuordnen sein.
Dazu lässt sich nur sagen: Man kann den AI Act der EU positiv oder negativ betrachten, aber eines kann man sicherlich nicht – das Thema einfach ignorieren oder gar vernachlässigen. So wird der Einsatz von Künstlicher Intelligenz in Zukunft unweigerlich eine immer größere Rolle spielen – auch für Unternehmen aus dem Life-Science-Sektor.
Erweitern und vertiefen Sie daher Ihr Wissen über das Thema EU & KI mithilfe unserer neuen Blogserie. Darin bieten wir Ihnen aufschlussreiche Antworten auf offenstehende Fragen, wie: "Was bedeutet die neue KI-Verordnung der EU für bereits bestehende Medizinprodukte und wie werden der AI ACT und die MDR in Einklang gebracht?".
Hinterlassen Sie uns auch gerne einen Kommentar. Ob Befürworter oder Kritiker der KI-Verordnung, Ihre Meinung interessiert uns.
Weitere Informationen zum Thema EU & KI finden Sie hier:
Die Entstehungsgeschichte der KI-Verordnung finden Sie im Detail auf der offiziellen Seite des europäischen Rates der EU: Timeline - Artificial Intelligence .
Comments