22 Dezember 2023

Künstliche Intelligenz: Mit dem AI Act der Welt einen Schritt voraus

Joachim Spiering
Vordenker

Die EU will gesetzlich festlegen, was bei der Anwendung von Künstlicher Intelligenz erlaubt sein soll und wie einzelne Anwendungen überwacht und reguliert werden. Mit diesem AI Act würde Europa eine Vorreiterrolle einnehmen – und könnte in Sachen KI Vorbild für anderen Staaten werden.

In der öffentlichen Wahrnehmung sind die USA absolut führend in Sachen KI. Seitdem das kalifornischen Unternehmen Open AI Ende November 2022 mit dem Chatbot ChatGPT die erste generative KI für die breiten Masse auf den Markt gebracht, beherrschen ChatGPT und Co. Die Schlagzeilen. Vor allem unter den großen Technologiekonzernen wie Microsoft, Apple oder Alphabet (Google) hat ein wahres Wettrennen um künftige Einsatzmöglichkeiten (und somit möglichen Monetarisierungsquellen) der Künstlichen Intelligenz eingesetzt. Und Europa? Hinkt gefühlt mal wieder hinterher. So zumindest ist der Eindruck. Doch der stimmt nur bedingt.

Rein technologisch kann Europa durchaus mithalten, insbesondere Deutschland. So gilt der deutsche Informatiker Jürgen Schmidhuber als Vater der modernen Künstlichen Intelligenz und das Unternehmen Aleph Alpha zu den global führenden KI-Unternehmen. Mit der Technologie des Heidelberger Start-ups kann nachverfolgt werden, wie KI-Modelle zu ihrer Entscheidung gelangen – ein Thema, das bei ChatGPT und anderen gängigen KI-Systemen noch ungelöst ist und viel Kopfzerbrechen bereitet. Damit ist Aleph Alpha als Alternative für den Einsatz von generativer KI in kritischen Bereichen wie dem Gesundheitssektor, der öffentlichen Verwaltung oder bei rechtssensiblen Themen interessant. Vergangenen August gab der Innovationspark Künstliche Intelligenz (Ipai) in Heilbronn eine umfassende Partnerschaft mit dem Startup bekannt. Ipai soll das größte KI-Ökosystem in Europa werden. Auf einem 30 Hektar großen Gelände wollen die Initiatoren bis 2027 unter anderem Reallabore (Reallabs), ein Rechenzentrum und ein Startup-Zentrum mit Bürogemeinschaften bauen. Finanziert wird das Ipai maßgeblich von der Dieter Schwarz Stiftung, die sich aus Ausschüttungen der Lidl Stiftung und der Kaufland Stiftung speist. Auch die deutsche Regierung ist aktiv. Ein neuer KI-Aktionsplan soll bis 2024 insgesamt 1,6 Milliarden Euro bereitstellen und unter anderem sechs KI-Kompetenzzentren etablieren und 150 zusätzlichen KI-Professuren schaffen.

Gänzlich unangefochten ist Europa, besser gesagt die Europäische Union, in Sachen Regulierung. Die EU hat den Artificial Intelligence Act (AI Act) auf den Weg gebracht und will der erste Wirtschaftsraum weltweit werden, der den Einsatz von KI gesetzlich regelt. Mit dem AI Act soll versucht werden, unkalkulierbaren Risiken und ungewollten Auswüchsen der Künstlichen Intelligenz einen Riegel vorzuschieben und gleichzeitig Forschern und Unternehmen einen regulatorischen Rahmen zu bieten, in dem sie KI-Systeme entwickeln können. Am 14. Juni 2023 wurde der AI Act nach jahrelanger Vorbereitung im Europaparlament verabschiedet. Ein großes Problem war dabei die rasante technologische Entwicklung inklusive der Debatten rund um ChatGPT und Co. in das Gesetzesvorhaben miteinzuarbeiten. Im nächsten Schritt muss der 108 Seiten umfassende Text nun mit der EU-Kommission und den einzelnen Mitgliedsstaaten abgestimmt werden, bevor er offiziell in Kraft tritt. Bis zum Jahresende soll eine Einigung erzielt sein. Anschließend haben die Unternehmen zwei Jahre Zeit, sich an die veränderten Rahmenbedingungen anzupassen. Um diese Lücke zu überbrücken, will die EU große Technologiekonzerne und KI-Entwickler zu einer freiwilligen Selbstkontrolle verpflichten.

Bei ihrem Regulierungsvorhaben verfolgt die EU einen nach Risiken differenzierenden Ansatz. Dabei geht es nicht nur um kommerzielle Angebote, sondern auch um die Nutzung von KI im öffentlichen Sektor. So sollen „inakzeptable“ KI-Systeme, die zum Beispiel Menschen mittels Social-Scoring-Modellen nach ihrem sozialen Verhalten oder ethnischen Merkmalen klassifizieren komplett verboten werden. Dazu zählt das Sammeln biometrischer Daten in Online-Netzwerken oder KI-Systeme zur Gesichtserkennung im öffentlichen Raum, wie man es aus China kennt. Biometrische Gesichtserkennung soll nur nachträglich nach einer richterlichen Entscheidung und zur Aufklärung schwerer Verbrechen erlaubt sein.

Der AI Act verwendet eine dreistufige Klassifizierung, um KI-Systeme nach ihrem Risiko einzustufen: hochriskante, begrenzt riskante und risikoarme bzw. risikolose Anwendungen. Je höher das Risiko einer KI eingestuft wird, desto strenger sollen die gesetzlichen Vorschriften sein.

Hochriskante KI-Programme finden sich in verschiedenen Branchen und Bereichen. Dazu gehören Systeme, die kritische Infrastrukturen wie die Stromversorgung steuern und somit potenziell das Leben und die Gesundheit von Menschen gefährden könnten. Auch Technologien in medizinischen Geräten oder Programme, die die Kreditwürdigkeit von Bürgern bewerten, fallen in diese Kategorie. Unternehmen, die solche KI-Systeme anbieten, müssen laut dem EU-Gesetzesentwurf erhebliche Anforderungen in Bezug auf Risikomanagement, Genauigkeit, Cybersicherheit und die Bereitstellung bestimmter Informationen an die Nutzer erfüllen.

Für die meisten KI-Anbieter ist diese Art der Produktregulierung neu, daher stehen sie vor großen Investitionen. Bevor hochriskante KI-Systeme auf den EU-Markt gebracht werden dürfen, werden sie einer genauen Prüfung unterzogen, um sicherzustellen, dass sie alle gesetzlichen Anforderungen erfüllen. Dies bereitet vielen Experten Kopfzerbrechen. Große Techkonzerne aus den USA und Europa können diese Bedingungen aufgrund ihrer umfangreichen Berater- und Expertenteams wahrscheinlich erfüllen. Für mittelständische Unternehmen und Start-ups in Europa könnte die starke Regulierung jedoch problematisch sein. Aufgrund der bürokratischen Hürden besteht die Gefahr, den Anschluss zu verlieren, selbst wenn sie technologisch herausragend sind.

Chatbots wie ChatGPT gehören zu den KI-Systemen mit begrenztem Risiko. Hier liegt der Fokus hauptsächlich auf Transparenz. Benutzer müssen darüber informiert werden, dass sie mit Künstlicher Intelligenz interagieren, es sei denn, dies ist offensichtlich. Diese Offenlegungen sollen sicherstellen, dass beispielsweise Deepfake-Fotos von echten Bildern unterschieden werden können. Anbieter müssen auch sicherstellen, dass keine rechtswidrigen Inhalte generiert werden und detaillierte Zusammenfassungen der urheberrechtlich geschützten Daten veröffentlichen, die für das Training verwendet wurden.

KI-Systeme, die nicht in diese Kategorien fallen, unterliegen keiner Compliance.

Der AI Act ist ein komplexes Regulierungsvorhaben, das nicht perfekt ist. Dennoch könnte er als Vorbild für eine neue Ära der KI-Regulierung dienen. Eine gut durchdachte Regulierung ist kein Hindernis für Innovation, sondern bietet Unternehmen einen klaren Rahmen, um attraktive Produkte zu entwickeln. Die EU hat die Möglichkeit, ein solches Regelwerk zu verabschieden – und somit europäischen Unternehmen einen Wettbewerbsvorteil in einem der spannendsten Zukunftsmärkte zu bieten.