top of page
AutorenbildTitus Kaletta

AI Act: Fakten, Zahlen & Infografiken

Aktualisiert: 13. Nov.

Futuristische Abbildung AI Act (Hintergrund von Brian Penny, Pixabay)


Der Intelligence Act der EU stellt das weltweit erste umfassende Regelwerk für Künstliche Intelligenz dar. Für Life-Science-Unternehmen ist es daher unerlässlich, sich mit dieser neuen europäischen Verordnung näher vertraut zu machen. Finden Sie einen schnellen und einfachen Einstieg in das Thema mit dieser umfassenden Übersicht aller wichtigen Fakten, Zahlen und Infografiken


 




1.     Wann und warum ist der AI Act in Kraft getreten?


Am 1. August 2024 ist die europäische Verordnung über Künstliche Intelligenz (KI-Verordnung bzw. AI Act) in Kraft getreten. Diesem historischen Ereignis vorangegangen waren verschiedene Etappen im inter-institutionellen Gesetzgebungsprozess der EU (siehe Timeline unten), die allesamt folgendes Ziel unterstützen:


Das Vertrauen und die Akzeptanz in KI-gestützte Technologien – v. a. was die Bereiche Gesundheit, Sicherheit sowie Grund- und Menschenrechte betrifft – in der europäischen Bevölkerung zu stärken. Dazu soll ein europaweiter Regelungsrahmen für die verantwortungsvolle Entwicklung sowie Verwendung von Künstlicher Intelligenz geschaffen werden, der Innovationen „made in Europe“ ermöglicht.


Zeitstrahl KI-Verordnung

2.     Welche Akteure sind vom AI Act betroffen?


Im Nachfolgenden finden Sie eine Liste der wichtigsten KI-Akteure mit kurzer Rollenbeschreibung:


Anbieter 

Hierunter fallen insbesondere Hersteller (z. B. OpenAI, Google, etc.) und solche, die ein eingekauftes KI-System unter einer eigenen Bezeichnung Dritten anbieten. Anbieter maßgeblich veränderter KI-Lösungen gehören ebenfalls dazu.


Betreiber

Es geht hier im weitesten Sinne um KI-Akteure, die ihren Beschäftigten oder ihrer Kundschaft ein KI-System bereitstellen.


Nutzer

Als Nutzer werden solche bezeichnet, die AI einsetzen – die also beispielsweise mit Hilfe von ChatGPT Marketingtexte erstellen oder in Midjourney Bilder erzeugen lassen.


Produkthersteller

Hiermit ist ein Unternehmen gemeint, das ein KI-System in ein eigenes Produkt einbindet und dieses Dritten gegenüber anbietet.


Weitere KI-Rollenbezeichnungen können Sie folgender Abbildung entnehmen:

KI-Akteure

Die oben abgebildeten KI-Akteure betreffen tatsächlich alle Unternehmen unabhängig von ihrer Größe und dem jeweiligen Life-Science-Sektor, wie z.B.: Bio-Pharma & Biotechnologie, Medizintechnologie & Diagnostik sowie Technologiefirmen, die Dienstleistungen oder Produkte für den Life-Science-Sektor herstellen. Auch Bereiche Landwirtschaft, Lebensmittel und Kosmetik können dazu gehören.



3.     Was sind die Kerninhalte der KI-Verordnung?

Die EU hat eine Risiko-Klassifizierung von KI-Systemen festgelegt, um eine sichere und verantwortungsvolle Entwicklung und Anwendung von KI-Technologien zu gewährleisten. Anhand einer anschaulichen Pyramide (siehe unten) sollen dabei die verschiedenen KI-Systeme je nach Risikograd klassifiziert werden. Dabei nimmt der Grad – von einem minimalen Risiko bis hin zu einem inakzeptablen hohen Risiko – von der Basis bis zur Spitze der Pyramide stufenweise zu.

Risikoklassen-Pyramide

Definition: KI-Systeme

Maschinengestütztes System, das für einen in unterschiedlichem Grade autonomen Betrieb ausgelegt ist und das nach seiner Betriebsaufnahme anpassungsfähig sein kann und das aus den erhaltenen Eingaben für explizite oder implizite Ziele ableitet, wie Ausgaben wie etwa Vorhersagen, Inhalte, Empfehlungen oder Entscheidungen erstellt werden, die physische oder virtuelle Umgebungen beeinflussen können (siehe KI-Verordnung, Art. 3 (1)).


1.     Verbotene KI-Systeme

KI-Systeme, die ein inakzeptables Risiko darstellen sind grundsätzlich verboten, da sie eine Bedrohung für den Nutzer darstellen.


Zu den verbotenen AI-Systemen gehören bspw. KI-Systeme, die:

  • zur Erstellung oder Verbreitung von Deepfakes von medizinischem Fachpersonal verwendet werden,

  • zur Entwicklung oder zum Vertrieb personalisierter Medizin ohne angemessene Aufsicht und Zulassung eingesetzt werden,

  • verwendet werden, um die Schwachstellen von Patienten für einen potenziellen finanziellen Gewinn auszunutzen.


2.      Hochriskante KI-Systeme

KI-Systeme, die ein hohes erhebliches Risiko darstellen, müssen sehr strenge und umfangreiche Anforderungen erfüllen. Zum Anforderungskatalog gehört dabei insbesondere eine Konformitätsbewertung. Damit soll den Sicherheits- und Ethik-Ansprüchen der EU entsprochen werden.

Wichtig: Einige Anforderungen an Hochrisiko-KI-Systeme sowie andere Bestimmungen werden erst am Ende einer Übergangsphase anwendbar sein (siehe Abbildung oben: Wann und warum ist der AI Act in Kraft getreten?).


Unter hochriskanten KI-Systemen fallen solche, die eingesetzt werden für:

  • medizinische Diagnosen und Behandlungsempfehlungen,

  • autonome Operationsroboter sowie

  • personalisierte Medizin.

 

3.      KI-Systeme mit begrenztem Risiko

Im Vergleich zu den o.g. Hochrisiko-KI-Systemen bringt diese Risiko-Klasse geringere Anforderungen mit sich. Statt einer umfassende Konformitätsbewertung besteht hier hauptsächlich eine Transparenzpflicht.

Zu begrenzt risikohaften KI-Systemen gehören bspw. KI-gestützte:

  • Wirkstoffforschung,

  • medizinische Bildanalyse (ohne Diagnose) sowie

  • Chatbots (sofern als solche erkennbar) zur Patientenunterstützung. 


4.      KI-Systeme mit minimalem Risiko

Für KI-Systeme, die einen geringen Risikofaktor darstellen, existieren keine besonderen gesetzlichen Anforderungen. So sollen lediglich allgemeine Verhaltenskodizes rund um das Thema KI beachtet werden.


Zu den minimal riskanten KI-Systemen gehören bspw. KI-gestützte:

  • Spamfilter,

  • Empfehlungssysteme für Medizinprodukte (basierend auf Kaufhistorie z.B.) sowie

  • Terminplanungssysteme für Arzttermine.


Im nächsten Abschnitt wird näher auf die die Anforderungen eingegangen, die sich aus der KI-Verordnung für Unternehmen aus der Life-Science-Branche ergeben.


  1. Welche Auswirkungen hat der AI Act auf Life-Science-Unternehmen?


Die meisten Pflichten ergeben sich für Anbieter von Hochrisiko-KI-Systemen, teilweise aber auch deren Betreiber. Manche Pflichten gelten zudem im Bezug auf KI-Modelle mit allgemeinem Verwendungszweck (General Purpose AI bzw. GPAI). Was die KI-Systeme mit begrenztem oder minimalem Risiko wiederum betrifft, so bestehen im Wesentlichen Transparenzpflichten.


Tabelle Anforderungen nach Risikoklasse

Konformitätsbewertung

Dies betrifft vor allem Life-Science-Unternehmen, die sich mit Hochrisiko-KI-Systemen beschäftigen. Diese müssen Compliance-Verfahren und -Prozesse entwickeln und implementieren, um den strengen Sicherheits- und Ethik-Anforderungen der EU-KI-Verordnung gerecht werden.


Transparenz

Unternehmen müssen eine detaillierte Dokumentation über die Funktionsweise sowie potenziellen Risiken ihrer entwickelten KI-Systeme erstellen. Diese soll den Nutzern und Aufsichtsbehörden öffentlich zugänglich gemacht werden, um Transparenz zu schaffen.


Menschliche Aufsicht

Ein KI-entwickelndes Unternehmen muss eine Person mit der Beaufsichtigung ihres Hochrisiko-KI-Systems beauftragen. Dieser menschliche Aufsichtsmechanismus soll dazu dienen, eine verantwortungsvolle Nutzung des KI-Systems sicherzustellen. 


Erklärbarkeit

Entwickler von KI-Systemen müssen nachvollziehbar erklären können, wie ihre Systeme funktionieren. Dies beinhaltet die Inputs und Outputs eines Systems sowie die einzelnen vom System unternommenen Schritte, die letzten Endes zu einer Entscheidung geführt haben.  


Data Governance

Entwickler von KI-Systemen müssen des Weiteren darauf achten, Datenschutzgesetze wie die Datenschutzgrundverordnung (DSGVO) einzuhalten. Dazu gehört das Überprüfen der Datenschutzverarbeitungspraktiken.


Compliance und Durchsetzung

Zuständige Behörden der EU stellen sicher, dass von KI-betroffene Unternehmen regelkonform agieren. Dies setzen sie, falls nötig, mithilfe von Ermittlungen, Verwarnung oder Geldbußen durch.


Definition: KI-Modelle im Vergleich zu KI-Systemen

Beispiel: ein Large Language Model, kurz: LLM, wie es bspw. von OpenAI bereitgestellt wird, ist ein KI-Modell. Darauf basieren dann verschiedene KI-Systeme, wie z. B. ChatGPT oder der Microsoft Copilot.

Definition: General Purpose AI (GPAI)


5.    Der AI Act - zwei Seiten einer Medaille

Einerseits hofft die EU, die Akzeptanz und das Vertrauen der europäischen Bevölkerung in Künstliche Intelligenz mithilfe eines Risiko-basierten Ansatzes fördern zu können. Andererseits besteht die Gefahr, dass der strenge Regelungsrahmen das Innovationspotenzial von Unternehmen beeinträchtigen könnte.


So stellt die KI-Verordnung der EU Unternehmen vor eine Reihe zusätzlicher Anforderungen, die vor allem KMUs betreffen, die ohnehin schon die strengen Vorgaben aus der neuen MDR erfüllen müssen. Beispielsweise werden Medizinprodukte, die auf KI-Systeme basieren, häufig der Risikoklasse 2 zuzuordnen sein. 


Dazu lässt sich nur sagen: Man kann den AI Act der EU positiv oder negativ betrachten, aber eines kann man sicherlich nicht – das Thema einfach ignorieren oder gar vernachlässigen. So wird der Einsatz von Künstlicher Intelligenz in Zukunft unweigerlich eine immer größere Rolle spielen – auch für Unternehmen aus dem Life-Science-Sektor.


Erweitern und vertiefen Sie daher Ihr Wissen über das Thema EU & KI mithilfe unserer neuen Blogserie. Darin bieten wir Ihnen aufschlussreiche Antworten auf offenstehende Fragen, wie: "Was bedeutet die neue KI-Verordnung der EU für bereits bestehende Medizinprodukte und wie werden der AI ACT und die MDR in Einklang gebracht?".


Hinterlassen Sie uns auch gerne einen Kommentar. Ob Befürworter oder Kritiker der KI-Verordnung, Ihre Meinung interessiert uns.



 

Weitere Informationen zum Thema EU & KI finden Sie hier:



Die Entstehungsgeschichte der KI-Verordnung finden Sie im Detail auf der offiziellen Seite des europäischen Rates der EU: Timeline - Artificial Intelligence .

40 Ansichten0 Kommentare

Aktuelle Beiträge

Alle ansehen

Comments


bottom of page