KI-Verordnung und Überwachung

Transatlantische Flüsterpost

Unser Campaigner Jonas Grill hat in Bilbao seine Masterarbeit über die „KI-Verordnung“ der EU (AI Act) geschrieben. Hier fasst er seinen Blick auf den Gesetzgebungsprozess zusammen.

Jonas Grill arbeitet seit Januar 2025 als Campaigner und Redakteur bei Digitalcourage. Er hat an der Universität des Baskenlandes in Bilbao seine Masterarbeit über die Gesetzgebung zu Künstlicher Intelligenz und das damit verbundene Lobbying in der EU geschrieben.

Ich bin davon überzeugt, dass die Europäische Union wirklich Gutes im Sinn hatte, als sie 2018 begann, eine Regulierung von Künstlicher Intelligenz zu erarbeiten. Orientieren sollte sich ihre sogenannte KI-Verordnung an den allgemeinen Menschen- und Freiheitsrechten, ihr Fundament war die DSGVO. Europa schien einen großen Schritt hin zu Datenschutz im digitalen Zeitalter zu machen. Am Sonntag, dem 2. Februar 2025 traten nun die ersten Maßnahmen in Kraft. Von Freiheitsrechten und Datenschutz ist nach sieben Jahren keine Spur mehr zu finden: KI-gestützte Echtzeitüberwachung an den Grenzen und Tracking von politischem Protest sind dank der Verordnung in wenigen Wochen schon erlaubt. Das Gesetz entpuppt sich damit als ein Blanko-Scheck für Polizei- und Grenzbehörden. Diese Entwicklung war abzusehen – und sie besorgte mich. Im Zuge meiner Masterarbeit versuchte ich der Frage auf den Grund zu gehen, wie es zu einem derartigen Umschwenken kommen konnte. Welche Akteure nahmen Einfluss? Von welchen Interessen waren sie geleitet? Dieser Blogbeitrag basiert zu großen Teilen auf den Thesen meiner Arbeit.

Die Verordnung zur Regulierung von Künstlicher Intelligenz ist neben dem Digital Services Act (DSA) und dem Digital Markets Act (DMA) eines der drei großen Digitalgesetze der Europäischen Union. Für uns bei Digitalcourage sind diese Verordnungen deswegen so wichtig, weil alle drei maßgeblichen Einfluss auf die Persönlichkeitsrechte im digitalen Zeitalter nehmen. Von ihnen hängt ab, ob wir in Zukunft selbstbestimmt und mündig mit wichtigen Technologien leben werden oder eben nicht. Die KI-Verordnung versucht die Potenziale und Risiken von Künstlicher Intelligenz umfassend in den Blick zu nehmen und gesetzlich zu regulieren. Damit macht sich die Europäische Union weltweit zum ersten Akteur mit einer solchen Absicht.

‚Ethisch‘ und ‚vertrauenswürdig‘

Dieser Schritt Europas kam nicht von ungefähr: In Politik und Wissenschaft hoffte man schon zu Mitte der 2010er Jahre, dass eine Vorreiterstellung in der KI-Regulierung auch die Möglichkeit eröffnen würde, im globalen Wettlauf um Künstliche Intelligenz den Ton anzugeben. Wenn Europa als erste Institution diese Technologie in einem Gesetzestext einhegte, müssten sich alle anderen internationalen Akteure nach den Vorstellungen der EU richten. Nicht zuletzt schon wegen der schieren Größe des europäischen Marktes ließe sich ihre Gesetzgebung nicht ignorieren. So hoffte es die Europäische Union und gründete 2018 eine Arbeitsgruppe zu der Frage, wie eine europäische Regulierung von Künstlicher Intelligenz aussehen solle. Zwei Begriffe dominierten das Papier, das die Gruppe entwickelte: ‚Ethisch‘ und ‚vertrauenswürdig‘ müsse die Technologie sein. Ein europäisches Gesetz solle sich an diesen Zielen orientieren. Außerdem verwies man auf die Datenschutz-Grundverordnung, die zu dieser Zeit in Kraft getreten war. Sie diene als Anknüpfungspunkt für die KI-Verordnung.

Dann passierte lange Zeit vermeintlich wenig. Erst im Sommer des Jahres 2023 nahm das Vorhaben wieder sichtbar Fahrt auf. Denn der Trilog – also der Mechanismus, mit dem Kommission, Rat und Parlament ein Gesetz verhandeln –, sollte für das KI-Gesetz bald eingeleitet werden. Zu diesem Zeitpunkt stand allerdings nur noch das Europäische Parlament für eine couragierte Regulierung im Geiste der Überlegungen von 2018. Die Kommission sprach sich schon längst für eine starke Abschwächung der Verordnung aus und der Rat der Europäischen Union wusste noch nicht so ganz wohin, näherte sich allerdings von Entwurf zu Entwurf immer stärker der Kommission an. Grund für diesen drastischen Sinneswandel war nicht zuletzt das intensive Lobbying der Tech-Industrie. Angeführt von den größten Unternehmen des Silicon Valley – auch Big Tech genannt – hatte die Branche frühzeitig ihre Hausaufgaben gemacht.

Big Tech und die ‚European unicorns‘

Schon zu Beginn des Jahres 2023 erhöhten Microsoft, Google und Co. ihre Ausgaben für Lobbying deutlich. Der Rat und das Europäische Parlament waren dabei ihre Hauptziele. Die Big-Tech-Unternehmen traten an die Institutionen mit der Forderung nach Deregulierung heran. Unter anderem sollten auch Einschränkungen für diejenigen KI-Systemen abgeschwächt werden, die zur Überwachung von Menschen eingesetzt werden können. Eine ethisch orientierte Regulierung war ihnen nur ein Dorn im Auge. Stattdessen schlugen die Vertretungen der Tech-Branche einen ‚risikoorientierten‘ Ansatz vor: Nur noch die Gefahrenpotenziale bei der Anwendung von KI-Systemen sollten Teil des Gesetzes werden, nicht aber ihre Produktionsverhältnisse. Und was Gefahrenpotenziale genau bedeuteten, könne man ja noch verhandeln.

Für Hersteller wie OpenAI waren diese Forderungen überlebenswichtig. Die Auslagerung von menschlicher Klick-Arbeit in den globalen Süden durch das Unternehmen ist gut dokumentiert. Zu prekären und teils unmenschlichen Bedingungen beschäftigte man Personen zum Training der Systeme. (Die KIs mussten schließlich erst von echten Menschen erlernen, was zum Beispiel Darstellungen von Kindesmissbrauch und Vergewaltigungen sind, um sie anschließend als Verstoß gegen Richtlinien werten zu können.) Würde die Europäische Union an einer Regulierung festhalten, die sich an ethischen Prinzipien orientiert und damit auch auf die Produktionsverhältnisse von Künstlicher Intelligenz achtet, wären Anbieter wie OpenAI vom europäischen Markt ausgeschlossen.

Im Spätsommer desselben Jahres startete dann der eigentliche Trilog der EU. Zu dieser Zeit gewann die Stimme der europäischen KI-Unternehmen an Gewicht. Im Polit-Jargon werden diese auch häufig als ‚European unicorns’ bezeichnet. Aus Positionspapieren wie etwa dem von Aleph Alpha, einem deutschen KI-Startup aus Heidelberg, wurde schnell deutlich, dass sie die gleichen Forderungen wie ihre größeren Mitstreiter aus Übersee vertraten. Für Big-Tech-Unternehmen wiederum boten europäische ‚unicorns‘ wie Aleph Alpha oder auch das französische Mistral AI eine neue Möglichkeit, ihren Positionen in den Verhandlungen der EU Ausdruck zu verleihen. Diese Unternehmen genossen schließlich einen unmittelbaren Zugang zu den Regierungen ihrer Länder und somit zum Rat der Europäischen Union.

Die ‚European unicorns‘ und ihre Regierungen

In Deutschland etwa lud die Bundesregierung die Geschäftsführung von Aleph Alpha zu ihrer Kabinettsklausur in Meseberg ein. Für Big-Tech-Konzerne wäre dies mitten in der Hochphase der Verhandlungen um die europäische KI-Verordnung nicht möglich gewesen. Aleph Alpha jedoch ließ es sich nicht nehmen, sich bei dieser Gelegenheit noch einmal vehement für eine Deregulierung von KI auszusprechen. Bei der ganzen europäischen Bürokratie hätten die eigenen Unternehmen sonst nie die Möglichkeit zu wachsen.

In Frankreich verschränkten sich Politik und Wirtschaft noch stärker, sinnbildlich für diese Überlappung stand die Person Cédric O. Im Kabinett von Emmanuel Macron war er noch bis zum Jahr 2022 Minister für Digitale Wirtschaft, wechselte dann aber in die Privatwirtschaft, wo er kurze Zeit später Mistral AI mitgründete. Seitdem arbeitete O als Cheflobbyist für das Unternehmen in Brüssel. Es waren seine politischen Kontakte, die schließlich auch einen Mitarbeiter von Mistral im französischen Ministerium für Digitales und Telekommunikation platzierten. Dort sollte dieser maßgeblich an der KI-Strategie des französischen Staates mitschreiben.

Die Regierungen und die KI-Verordnung

Das Lobbying der europäischen KI-Unternehmen zeigte schnell seine Wirkung. Im Trilog schlossen sich die Regierungen Frankreichs und Deutschlands zunehmend dem Kanon der Tech-Branche an: Deregulierung müsse her, Herstellern von KI-Systemen dürfe das Leben durch zu viele Auflagen nicht unnötig schwer gemacht werden. Dahinter stand genau derselbe Ansatz einer Risiko-Orientierung, der so schon ein Jahr zuvor von den Big-Tech-Unternehmen gefordert wurde. Nun waren es aber nicht mehr Pichai, Nadella und Altman, sondern die französischen und deutschen Minister, die sich an Rechtfertigungen versuchten, warum die Produktion von Künstlicher Intelligenz nicht reguliert werden sollte. Robert Habeck missglückte dies als Deutschlands zuständigem Minister besonders spektakulär. In einer Podiumsdiskussion mit Matthias Spielkamp (AlgorithmWatch) rutschte ihm folgender Vergleich heraus:

„Alles ist missbrauchsanfällig. Wir können mit Strom Menschen töten und elektrische Stühle bauen und wir können mit Strom Gesundheitsgeräte betreiben oder den Zugang zu Medizin und Bildung leichter und besser machen“, sagte Habeck. Genauso würde es sich auch mit KI-Systemen verhalten.

Dass Missbrauch aber schon bei der Produktion anfängt, muss er vergessen haben (um ihm nicht bösere Absichten zu unterstellen). Schon bei Strom ist die Herkunft nicht egal, dafür reicht ein Blick in die Kriege und Umweltkatastrophen der letzten 15 Jahre. Man könnte meinen, dass dies in Deutschland eine Binsenweisheit für einen grünen Bundesminister für Wirtschaft und Klimaschutz ist. Weder Strom noch Künstliche Intelligenz werden ‚neutral‘ hergestellt, sie werden auch nicht erst dann zur Gefahr, wenn jemand sie tatsächlich nutzt. Ihre Herstellung ist entscheidend und kann ohne Regulierung drastische Folgen haben.

Das tat der Befürwortung eines risikoorientierten Ansatzes in Kommission und Rat aber keinen Abbruch. Gegen Ende des Jahres 2023 knickte schlussendlich auch das Europäische Parlament ein und einigte sich mit dem Rat auf einen finalen Text. Der Trilog war beendet, die Verordnung wurde kurz darauf verabschiedet und Big Tech hatte gewonnen.

Die KI-Verordnung und das Heute

Elf Monate später treten nun die ersten Maßnahmen in Kraft. Aufgrund der Fokussierung des Gesetzes auf Anwendungsfälle von Künstlicher Intelligenz findet eine effektive Regulierung ihrer Produktion nicht statt. Hersteller und Betreiber sogenannter starker KIs sehen sich mit deutlich weniger Transparenzpflichten konfrontiert als gedacht. Und Microsoft und Mistral AI haben schließlich ihre transatlantische Liaison vor einem Jahr öffentlich gemacht.

In Kürze erhalten Polizei- und Grenzschutzbehörden umfassende Befugnisse für KI-gestützte Überwachung. Darunter fällt nicht nur das Tracking von politischem Protest, sondern auch die Emotionserkennung von Personen an Grenzübergängen. Dafür hatten sich nicht zuletzt die französische und griechische Regierung immer wieder stark gemacht. Die frisch gekürten BigBrotherAward-Gewinner von der sächsischen Polizei dürfte das freuen.

Wichtige Fragen wie etwa der Einsatz von KI-Systemen zur Personalrekrutierung bleiben außerdem noch gefährlich ungeklärt. Der Gesetzestext stellt hierfür eine Liste mit Fristen bereit, bis zu denen europäische Gremien wichtige offene Punkte verhandeln sollen. In der Theorie setzen sich diese Gremien gleichermaßen aus Privatsektor, Wissenschaft und Zivilgesellschaft zusammen, in der Praxis sind sie allerdings eine verschlossene Blackbox für NGOs wie EDRi (European Digital Rights, wo auch Digitalcourage Mitglied ist). Alles in allem droht sich die KI-Verordnung somit als ein Desaster für Datenschutz, Menschen- und Persönlichkeitsrechte zu entpuppen.

Noch einmal: Ich bin davon überzeugt, dass die Europäische Union wirklich Gutes im Sinn hatte, als sie 2018 begann, über eine Regulierung von Künstlicher Intelligenz nachzudenken. Vor diesem Hintergrund zeigte sich aber nur umso deutlicher, wie gut die Flüsterpost aus Übersee funktioniert, während sie das zwischen EU und eigener Bevölkerung eben nicht tut. Kombiniert mit Akteuren in der europäischen Politik, die die Probleme unserer Zeit mit Überwachung beantworten wollen, kam es so zu dem Gesetzestext, den wir jetzt haben.