Künstliche Intelligenz spielt eine immer wichtigere Rolle in Wirtschaft, Wissenschaft und Gesellschaft. Gleichzeitig stehen ihre Entwicklung und Anwendung in Europa vor der Herausforderung, Innovation mit regulatorischen und ethischen Anforderungen in Einklang zu bringen. Dieses Kapitel gibt einen kompakten Überblick über den Status quo der KI, erläutert zentrale OECD-Definitionen und berichtet vom AI Action Summit. Zudem werden die europäische Strategie sowie der rechtliche Rahmen vorgestellt. Ein weiteres Augenmerk liegt auf Daten als Grundlage für KI, die Chancen und Herausforderungen zugleich darstellen. Ziel ist es, den Leserinnen und Lesern einen klaren, fundierten Überblick zu vermitteln und die zentralen politischen, rechtlichen und technischen Aspekte der KI zu veranschaulichen.
Im Spannungsfeld von Fortschritt und Vertrauen
Die Fortschritte in der künstlichen Intelligenz als DIE Querschnittstechnologie waren noch nie so schnell wie heute. Die Technologie scheint ein nahezu unbegrenztes Potenzial zu haben, legt ein Atem beraubendes Tempo vor und es ist schwer vorstellbar, wo das alles enden wird. Noch vor wenigen Jahren hätte sich kaum jemand eine Lösung wie ChatGPT vorstellen können, die heute weltweit bekannt ist und von jedermann genutzt wird. OpenAI, das Unternehmen hinter ChatGPT, wurde 2015 gegründet. Das erste Sprachmodell, GPT-1, welches auf der 2017 erstmals vorgestellten Transformer-Architektur aufbaute, wurde im Juni 2018 eingeführt und basierte auf „nur“ 117 Millionen vortrainierten Parametern. Am 7. August 2025 wurde die Modellgeneration GPT-5 veröffentlicht, dessen Leistungsfähigkeit nicht mehr auf reinen Parameterzahlen basiert – man kann konservativ geschätzt von einer niedrigen Billionenzahl ausgehen – sondern auf neuen architektonischen Innovationen wie Expertenmix, bessere Optimierung, Chain-of-Thinking-Training etc.. Wichtig: Eine KI ist immer nur so gut wie die Quellen, von denen sie lernt bzw. aus denen sie ihre Basisinformationen bezieht. Einer Studie der Agentur Graphite zufolge soll bereits im November 2024 die Anzahl der im Internet veröffentlichten KI-generierten Artikel die Anzahl der von Menschen verfassten Artikel überstiegen haben. Obwohl die Zahl der KI-generierten Artikel nach der Einführung von ChatGPT dramatisch angestiegen ist, sehen die Autoren der Studie keine Fortsetzung dieses Trends. Stattdessen sei der Anteil der KI-generierten Artikel in den letzten 12 Monaten relativ stabil geblieben, heißt es. Da es nicht gerade trivial ist, zuverlässig zu messen, ob ein Text von einer KI stammt, ist eine gewisse Skepsis bei solchen Untersuchungen durchaus angebracht.
KI eröffnet also enorme Potenziale, stellt aber zugleich auch unser Vertrauen in Informationen vor eine bisher unbekannte Herausforderung. KI bringt eben nicht nur Vorteile, sondern auch gesellschaftliche und wirtschaftliche Herausforderungen mit sich, insbesondere was wirtschaftliche Veränderungen und Ungleichheiten, den Wettbewerb, Umbrüche auf dem Arbeitsmarkt sowie Konsequenzen für Demokratie und Menschenrechte betrifft. Und ja: KI-Anwendungen können immer komplexere Aufgaben lösen. Doch bei vielen KI-Modellen besteht das Problem, dass Entscheidungen, wie bei einer Blackbox, nicht nachvollzogen werden können. KI nutzt Mathematik und Logik. Wir wissen wie KI funktioniert, aber wir können nicht immer erklären, wie sie zu einer bestimmten Lösung oder Bewertung gelangt.
Mit zunehmendem Einsatz von KI gehen somit auch bedeutende Herausforderungen einher – insbesondere in Bezug auf Zuverlässigkeit von Informationen, Schutz der Grundrechte und Zugänglichkeit. Zudem birgt die verstärkte Abhängigkeit von KI-Systemen durchaus enorme potenzielle Risiken, denn die Ergebnisse einer Anwendung von KI hängen davon ab, wie die KI konzipiert ist und welche Daten verwendet werden. Hier stellt sich beispielsweise die Frage der Vertrauenswürdigkeit von KI-Systemen. Sowohl Daten als auch Design können absichtlich oder unabsichtlich verzerrt werden. In diesem Kontext wird beispielsweise oft kritisiert, dass dem Benutzer nur Informationen angezeigt werden, die mit seinem bisherigen Online-Verhalten übereinstimmen („Filterblasen“), anstatt eine Umgebung für eine pluralistische, gleichermaßen zugängliche und integrative öffentliche Debatte zu schaffen. KI kann sogar dazu genutzt werden, extrem realistische gefälschte Videos, Audioaufnahmen und Bilder zu erzeugen, die als „Deepfakes“ bezeichnet werden. Darüber hinaus könnte die Verwendung von Zahlen KI faktenbasiert und präzise erscheinen lassen, auch wenn dies nicht der Fall ist („Mathwashing“).
In diesem Zusammenhang stellt sich auch die Frage, ob und wenn ja wie sich die Nutzung von KI-Tools auf kritisches Denken auswirkt. Aktuelle Forschungsergebnisse deuten darauf hin, dass eine übermäßige Abhängigkeit von KI-Tools das Potenzial hat, kritische Denkfähigkeiten zu unterminieren, insbesondere durch das Abschieben geistiger Prozesse auf externe Systeme (Gerlich, 2025). In Bildungskontexten und bei der Gestaltung von Technologie sollte deshalb ein Gleichgewicht gefunden werden: KI kann effizient unterstützen, aber sie sollte nicht passive Nutzung fördern, sondern zur aktiven Auseinandersetzung und zum Hinterfragen der gelieferten Ergebnisse anregen. Lehr- und Lernansätze sollten gezielt kritisches Denken fördern und Strategien einbauen, um kognitive Aktivität trotz KI-Einsatz aufrechtzuerhalten. Bildung und Technologiegestaltung sollten daher darauf abzielen, KI so einzusetzen, dass sie kritisches Denken unterstützt, statt ersetzt. Dies unterstreicht unsere Verpflichtung als Wissenschaftler und Ingenieure aber auch als Mitglieder der Gesellschaft, die richtigen Standards für den Einsatz dieser Technologie zu setzen, sowohl in der Gesetzgebung als auch in moralischer Hinsicht.
OECD-Definitionen
Was genau Künstliche Intelligenz ist und was sie leistet bzw. leisten kann, ist vielen Menschen noch unklar. Grund ist unter anderem, dass KI von hoher Komplexität geprägt ist und zahllose Anwendungsmöglichkeiten bietet. Die Definition von KI gestaltet sich entsprechend schwierig. Die internationale Gemeinschaft bemüht sich deshalb, globale Rahmenbedingungen zu schaffen, die diesen Herausforderungen gerecht werden und sichere und vertrauenswürdige KI ermöglichen.
Die OECD (Organisation für wirtschaftliche Zusammenarbeit und Entwicklung) ist ein internationales Forum und Wissenszentrum für Daten, Analysen und bewährte Verfahren im Bereich der öffentlichen Politik. Die Unterstützung der politischen Diskussion zum Thema KI durch empirische und politische Beiträge der OECD begann bereits 2016 mit einem Forum für Technikvorausschau (Technology Foresight Forum), auf das 2017 die internationale OECD-Konferenz „AI: Intelligent Machines, Smart Policies“ folgte. Zudem führte die Organisation Analysen und quantitative Arbeiten durch, um einen Überblick über den Stand der KI-Technik zu geben, wirtschaftliche und gesellschaftliche Effekte der KI und ihrer Anwendung darzulegen, grundsatzpolitische Fragen zu formulieren und KI-Initiativen von Regierungen und anderen Stakeholdern auf nationaler und internationaler Ebene zu beschreiben. Um ein gemeinsames Verständnis von Schlüsselbegriffen zu gewährleisten, hat die OECD deshalb folgende eher gesellschaftspolitisch motivierte und nicht unbedingt informatikbasierend zu verstehende Definitionen vorgelegt (OECD, 2024):
- KI-System: Ein KI-System ist ein maschinenbasiertes System, das expliziten oder impliziten Zielsetzungen dient und aus erhaltenen Inputs darauf schließt, wie Vorhersagen, Inhalte, Empfehlungen, Entscheidungen oder andere Outputs zu erzeugen sind, die die physische oder virtuelle Umgebung beeinflussen können. KI-Systeme unterscheiden sich hinsichtlich ihrer Autonomie und Anpassungsfähigkeit nach Einführung.
- Lebenszyklus eines KI-Systems: Der Lebenszyklus eines KI-Systems besteht typischerweise aus mehreren Phasen, u. a.: Planung und Design; Datensammlung und -verarbeitung; Entwicklung des Modells und/oder Anpassung eines oder mehrerer bestehender Modelle an spezifische Aufgaben; Test, Evaluierung, Verifizierung und Validierung; Bereitstellung/Einführung; Betrieb und Monitoring; Außerbetriebnahme/Stilllegung. Diese Phasen finden häufig iterativ statt und sind nicht zwangsläufig sequenziell. Die Entscheidung, ein KI-System außer Betrieb zu nehmen, kann zu jedem Zeitpunkt der Betriebs- und Monitoringphase erfolgen.
- KI-Akteure: KI-Akteure sind Akteure, die im Lebenszyklus des KI-Systems eine aktive Rolle spielen, einschließlich Organisationen und Personen, die KI-Systeme einführen oder betreiben.
- KI-Wissen: KI-Wissen bezieht sich auf die Kompetenzen und Ressourcen, die erforderlich sind, um den Lebenszyklus des KI-Systems zu verstehen, an ihm mitzuwirken sowie seine Risiken zu steuern, und umfasst u. a. Daten, Quelltext, Algorithmen, Modelle, Forschung, Know-how, Ausbildungsprogramme, Governance, Prozesse und empfehlenswerte Praktiken.
- Stakeholder: Stakeholder umfassen alle Organisationen und Personen, die direkt oder indirekt an KI-Systemen mitwirken oder von ihnen betroffen sind. KI-Akteure sind eine Untergruppe der Stakeholder.
Der AI Action Summit
Anfang Februar 2025 gab es in Paris den internationalen Aktionsgipfel zu Künstlicher Intelligenz („AI Action Summit“). Rund 1500 Vertreter aus über 100 Ländern kamen bei diesem hochkarätigen Treffen zusammen, darunter Staats- und Regierungschefs, Wissenschaftler sowie Vertreter internationaler Organisationen und Technologiefirmen. Die Zielsetzung und Diskussionsthemen der Konferenz fassten die Veranstalter in drei Fragen zusammen:
- Wie können wir Technologien und Anwendungen der Künstlichen Intelligenz in allen Ländern der Welt massiv ausbauen?
- Wie können wir sicherstellen, dass niemand zurückgelassen wird und unsere Freiheiten in der KI-Revolution erhalten bleiben?
- Wie können wir sicherstellen, dass die Nutzung Künstlicher Intelligenz unsere humanistischen Werte respektiert und dass die Technologie der Gesellschaft und dem öffentlichen Interesse dient?
Der Gipfel offenbarte nicht nur die Herausforderungen an KI, sondern ebenso tiefgreifende globale Spannungen im Umgang mit KI und endete schließlich ohne eine einheitliche Abschlusserklärung: Die USA und Großbritannien verweigerten ihre Unterschrift, da sie eine zu strenge Regulierung fürchten. Die Unterzeichner einigten sich auf folgende sechs Prioritäten:
- Förderung der Zugänglichkeit von KI, um die digitale Kluft zu verringern.
- Gewährleistung von offener, inklusiver, transparenter, ethischer, sicherer und vertrauenswürdiger KI unter Berücksichtigung der internationalen Rahmenbedingungen für alle.
- Innovationen im Bereich der KI ermöglichen, indem die richtigen Bedingungen für ihre Entwicklung geschaffen werden und eine Marktkonzentration vermieden wird, wodurch der industrielle Aufschwung und die Entwicklung unterstützt werden.
- Förderung des Einsatzes von KI, die die Zukunft der Arbeit und der Arbeitsmärkte positiv gestaltet und Chancen für nachhaltiges Wachstum bietet.
- KI für Menschen und den Planeten nachhaltig zu gestalten.
- Stärkung der internationalen Zusammenarbeit und Förderung der Koordination der internationalen Ordnungspolitik.
KI verfügt unbestritten über das Potential, einen tiefgreifenden Wandel von Gesellschaft und Wirtschaft herbeizuführen, und eröffnet beispiellose Möglichkeiten für Schlüsselbereiche wie Gesundheit, Bildung, Beschäftigung und Innovation. Sie ermöglicht Produktivitäts- und Effizienzsteigerungen sowie Kostensenkungen. Sie kann die Lebensqualität steigern, die Genauigkeit von Vorhersagen erhöhen und die Entscheidungsfindung verbessern. KI kann dazu beitragen, neue Möglichkeiten in den Bereichen öffentlicher Verkehr, Bildung, Energie und Abfallwirtschaft zu eröffnen und die Nachhaltigkeit von Produkten zu erhöhen. Die Liste ließe sich beliebig erweitern.
Auf die zweifellos vorhandenen Risiken der KI-Entwicklung weist eindringlich der zur UN-Generalversammlung im September 2025 vorgestellte „Global Call for AI Red Lines“ hin (The Future Society/Le Centre pour la Sécurité de l’IA, 2025). Dieser Aufruf wurde von zahlreichen Nobelpreisträgern, führenden KI-Wissenschaftlern und globalen Persönlichkeiten unterzeichnet. Zwar hat er, da er nicht von Regierungen eingebracht bzw. offiziell von der UN-Generalversammlung behandelt wurde, keine rechtlich bindende Wirkung, gleichwohl wird dadurch das Thema „rote Linien für KI“ aus der technischen und juristischen Debatte heraus in eine gesellschaftlich-ethische Dimension gehoben und verleiht der Diskussion moralische Legitimität und stärkt somit die Argumentationsbasis von Staaten, die auf stärkere Regulierung drängen. Politisch wirkt die Initiative als Katalysator: Sie baut öffentlichen und diplomatischen Druck auf, damit die UN, Regierungen und internationale Organisationen verbindlichere KI-Regeln beschließen.
Die europäische Strategie
Ein strategisches Scenario für Europas KI-Strategie beschreibt beispielsweise der Bericht „An Ambitious Agenda for European AI“ des Investitions- und Transformationsunternehmens General Catalyst. Das Papier zeigt die Notwendigkeit einer koordinierten Zusammenarbeit anhand zahlreicher europäischer Fallstudien auf, fasst die Erkenntnisse von Branchenführern zusammen und gibt Empfehlungen für politische Entscheidungsträger und Unternehmen. Der Bericht betont, dass Europa nicht in jedem Bereich mit den USA oder China konkurrieren sollte, sondern einen eigenen Weg mit Fokus auf seine Stärken gehen müsse (Industrie, Nachhaltigkeit, Regulierung mit Vertrauen). Es wird zudem empfohlen, dass „Applied AI“, also KI-Anwendungen in realen Industrien, als Schwerpunkt gesehen werden sollte, nicht ausschließlich Grundlagenforschung. Die Schlüsselthemen des Berichts sind:
- Regulatorische Vereinfachung: Harmonisierung bestehender Gesetze für mehr Klarheit und Skalierung.
- Datenharmonisierung: Aufbau einer sicheren und innovationsfreundlichen Datenlandschaft.
- Beschleunigung von KI-Investitionen: Abbau bürokratischer Hürden und Risikominimierung für KI-Finanzierung.
- Infrastruktur für KI: Entwicklung einheitlicher Standards für Energieversorgung, Rechenzentren und Netzwerke.
- Aufklärung und Qualifizierung: EU-weite Kampagnen zur Steigerung des KI-Verständnisses und Kompetenzentwicklung.
Auf dem Pariser KI-Gipfel wurde von EU-Kommissionspräsidentin Ursula von der Leyen das Programm „InvestAI“ angekündigt. Mit dieser Initiative sollen 200 Mrd. € für Investitionen in KI mobilisiert werden. Die EU wird das Programm mit 50 Mrd. € ausstatten, einschließlich eines neuen europäischen Fonds für vier KI-Gigafabriken in Höhe von 20 Mrd. €. Weitere 150 Mrd. € sollen von der privatwirtschaftlichen „European AI Champions“-Initiative beigesteuert werden. Mehr als 70 europäische Unternehmen haben sich hier zusammengeschlossen, „um Europas volles Potenzial im Bereich der KI zu erschließen“ (EU AI Champions Initiative, 2025).
Die Ergebnisse des KI-Gipfels von Paris lassen auf einen Aufschwung der europäischen KI-Szene hoffen. Bislang hat Brüssel allerdings das Ziel verfehlt, Europa zum führenden KI-Standort zu machen. Begründet ist das vor allem darin, dass die 2018 eingeführte KI-Strategie der EU veraltet ist und ihre Umsetzung verzögert bzw. nicht einheitlich verfolgt wurde. Vor dem Hintergrund des 500 Mrd. US-Dollar schweren Stargate-Projekts der USA ist diese neue EU-Initiative also ein sehr wichtiges und notwendiges Signal, das im Oktober 2025 durch die „Apply AI Strategy“ eine zusätzliche Unterstützung erfahren hat. Diese soll die Wettbewerbsfähigkeit strategischer Sektoren stärken und die technologische Souveränität der EU stärken. Ziel ist es, die Einführung und Innovation von KI in ganz Europa zu fördern, insbesondere bei kleinen und mittleren Unternehmen (KMU). Die Strategie fördert eine „KI-First-Politik“, bei der KI als potenzielle Lösung angesehen wird, wenn Organisationen strategische oder politische Entscheidungen treffen. Die Apply AI fördert zudem auch einen „Buy European“-Ansatz, insbesondere für den öffentlichen Sektor, mit Schwerpunkt auf Open-Source-KI-Lösungen.
Der globale KI-Markt hatte 2023 einen Wert von über 130 Milliarden € und wird bis 2030 voraussichtlich auf nahezu 1,9 Billionen € wachsen.
Kernaussagen einer Analyse des European Parliamentary Research Service (EPRS, 2024):
Der Großteil der KI-Investitionen erfolgt durch private Akteure, nicht staatliche Beteiligungen.
Die EU hat gegenüber den USA einen deutlichen Rückstand in Kapitalflüssen, technologischer Entwicklung und Skalierung im KI-Sektor.
Ohne gezielte Strategien könnte Europas Wettbewerbsfähigkeit im KI-Bereich weiter schwinden.
Die Europäische Kommission will die europäischen KI- und Hochleistungsrecheninfrastrukturen durch ein Netz von KI-Fabriken stärken. Im Mittelpunkt dieser Bemühungen steht die Schaffung eines Netzwerks von 19 KI-Fabriken in ganz Europa, die jeweils mit bis zu 25.000 H100-GPU-Äquivalenten ausgestattet sind. GPU steht für „Graphics Processing Unit“. Diese sind u.a. für die Parallelverarbeitung großer Datensätze optimiert und werden daher häufig auch für Aufgaben in den Bereichen künstliche Intelligenz, maschinellem Lernen, Datenanalyse und Blockchain eingesetzt. Die KI-Fabriken sollen kleinen und mittleren Unternehmen (KMU), Forschern und Start-ups Zugang zu der Rechenleistung verschaffen, die für die Entwicklung und Erprobung von KI-Systemen erforderlich ist. Darüber hinaus plant die EU die Einrichtung von fünf GPU-Clustern, die viermal größer sind als die KI-Fabriken. Diese groß angelegten Einrichtungen, die als KI-Gigafactories (AIGFs) bekannt sind, werden jeweils mindestens 100.000 H100-GPU-Äquivalente beherbergen und sind für das Training und den Einsatz von innovativen KI-Modellen vorgesehen (Hess/Sieker, 2025). Den Zuschlag für eine KI-Fabrik in Deutschland gab es bereits im Dezember 2024 für das Stuttgarter Projekt „HammerHai“ (Hybrid and Advanced Machine Learning Platform for Manufacturing, Engineering, and Research).
Der europäische Rechtsrahmen
Der Einsatz von künstlicher Intelligenz in der EU wird durch die Verordnung (EU) 2024/1689 des Europäischen Parlaments und des Rates vom 13. Juni 2024 zur Festlegung harmonisierter Vorschriften für künstliche Intelligenz geregelt und gilt mit einigen Ausnahmen ab dem 2. August 2026. Die KI-Verordnung gilt für private Organisationen und Behörden und betrifft fünf Gruppen:
- Anbieter,
- Betreiber,
- Einführer und Händler,
- Produkthersteller sowie
- betroffene Personen.
Die Verordnung gilt ausdrücklich nicht für Privatpersonen, sofern sie KI‑Systeme zu rein privaten (in Abgrenzung zu beruflichen) Zwecken verwenden. Zudem gibt es weitere Ausnahmen für die Wissenschaft zu Entwicklungs- und Forschungszwecken, das Militär, Verteidigung und die nationale Sicherheit. Die KI-Verordnung gilt in der Europäischen Union. Ob und wann die KI-Verordnung auch für die EWR-Staaten gelten wird, ist noch unklar, da diese der Übernahme von EU-Vorschiften zustimmen müssen. Darüber hinaus gilt dies KI‑Verordnung auch in Nicht-EU-Ländern für Anbieter oder Betreiber von KI‑Systemen, die diese in der Union in Verkehr bringen oder wenn das hervorgebrachte Ergebnis der KI in der EU verwendet wird.
Das Ziel dieses weltweit ersten umfassenden KI-Gesetzes ist die Einführung eines risikobasierten Klassifizierungssystems für KI-Anwendungen. Dabei werden KI-Systeme je nach ihrem Einsatzgebiet analysiert und entsprechend ihres Risikos für die Nutzer eingestuft. Je höher das Risiko, desto strenger sind die Anforderungen an Transparenz, Sicherheit und Compliance. Die Richtlinie definiert vier Risikostufen für KI-Systeme: inakzeptabel, hoch, begrenzt und minimal.
KI-Praktiken, die mit fundamentalen Werten der EU nicht vereinbar sind und ein inakzeptables Risiko für die Grundrechte der EU Bürgerinnen und Bürger darstellen, werden verboten. Darunter fällt beispielsweise das Social Scoring, also die Bewertung natürlicher Personen auf Grundlage ihres Sozialverhaltens, aber auch die Erstellung von Datenbanken zur Gesichtserkennung durch das ungezielte Auslesen von Gesichtsbildern aus dem Internet.
KI-Systeme in bestimmten anderen Bereichen werden als mit hohem Risiko behaftet klassifiziert. Das sind gemäß Artikel 6 KI‑VO Systeme, dessen konkreten Einsatz ein erhebliches Risiko der Beeinträchtigung von Gesundheit, Sicherheit oder einer nachteiligen Auswirkung auf die Grundrechte einzelner Personen birgt. Für solche Hochrisiko-KI-Systeme gelten spezifische Anforderungen, beispielsweise an die Qualität der verwendeten Daten, die Genauigkeit, die Robustheit und die Cybersicherheit. Anwendungsbeispiele dafür sind KI-gestützte Bewerbungsverfahren, Medizinprodukte mit KI oder auch autonome Fahrzeuge. Für diese Art KI-Systeme muss es eine technische Dokumentation, eine Protokollierungsfunktion und ein Risikomanagement geben. Gefordert ist zudem die menschliche Aufsicht.
Bei KI-Systemen mit begrenztem Risiko gelten bestimmte Transparenzpflichten. Nutzer müssen darüber informiert werden, dass sie mit einer KI interagieren. Beispiele dafür sind Chatbots, KI-generierte Inhalte und einfache Empfehlungssysteme.
KI‑Systeme mit minimalem Risiko reguliert die KI-Verordnung nicht. In diese Kategorie fallen z.B. Spamfilter oder KI‑fähige Videospiele.
Ein wichtiges Thema betrifft in diesem Kontext auch die Haftungsfrage. Geplant war dazu seitens der EU eine Richtlinie zur Anpassung der außervertraglichen zivilrechtlichen Haftungsvorschriften an die Künstliche Intelligenz (KI-Haftungsrichtlinie, AI Liability Directive). Der 2022 vorgestellte Entwurf zielte darauf ab, die bestehenden zivilrechtlichen Haftungsregelungen an die Besonderheiten lernender und autonomer Systeme anzupassen. Geplant waren insbesondere Beweiserleichterungen, Offenlegungspflichten sowie Vermutungsregeln zur Kausalität, um Geschädigten den Zugang zu Entschädigung zu erleichtern. Aufgrund fehlender Einigung im Rat der EU, insbesondere hinsichtlich der Reichweite der Beweislastumkehr und des Verhältnisses zur KI-Verordnung (AI Act), wurde das Vorhaben jedoch nicht weiter verfolgt und im Februar 2025 überraschend zurückgezogen. In der Folge rückt die EU-Produkthaftungsrichtlinie in den Vordergrund. Sie erfasst nun ausdrücklich auch Software und KI-Systeme als haftungsfähige Produkte und ist bis Dezember 2026 in nationales Recht umzusetzen (Richtlinie EU 2024/2853). Damit bildet sie derzeit den maßgeblichen europäischen Rahmen für Haftungsfragen im Zusammenhang mit KI, während die Regelungen der 27 Mitgliedstaaten weiterhin die Grundlage für außervertragliche Haftungsansprüche bilden. Eine erneute Initiative auf EU-Ebene bleibt perspektivisch möglich, insbesondere angesichts der zunehmenden Verbreitung autonomer Systeme.
Daten als Herausforderung
Die Förderung von KI-Innovationen erfordert vorzugsweise den Zugang zu riesigen Mengen hochwertiger Daten. Ein wichtiges Element des Aktionsplans der EU ist daher die Schaffung von Datenlaboren, die große Mengen hochwertiger Daten aus verschiedenen Quellen in KI-Fabriken zusammenführen und kuratieren werden. Dazu plant die EU eine umfassende Strategie für eine Europäische Datenunion, um einen echten Binnenmarkt für Daten zu schaffen, auf dem KI-Lösungen ausgebaut werden können.
Heutzutage werden mehr Daten gesammelt und zur Verfügung gestellt als jemals zuvor. In Wirtschaft, Verwaltung und Wissenschaft kommen immer mehr digitale Anwendungen zum Einsatz, die nicht nur Daten nutzen, sondern auch ständig neue erzeugen. Laut der globalen Datenbank Statista soll sich das Volumen der im Jahr 2029 erstellten und replizierten Daten weltweit auf rund 527,5 Zettabyte (ZB) belaufen. Lag die weltweite Datenmenge im Jahr 2017 noch bei 26 ZB, waren es 2024 bereits 173,4 ZB (Statista, 2025). Zur Einordnung: 1 ZB entspricht 1 Mrd. TB. Um also 1 ZB an Daten zu speichern, würden somit eine Milliarde Festplatten mit 1 TB Speicherkapazität benötigt. Man stelle sich vor, wie viele Lkw oder Container dafür benötigt werden. Diese Datenflut birgt sowohl Chancen als auch Herausforderungen. „Wir ertrinken in Informationen und hungern nach Wissen.“ In diesem Zitat des amerikanischen Zukunftsforschers John Naisbitt wird die Problematik der Transformation von Informationen in Wissen deutlich: Informationen sind im Übermaß vorhanden; doch sind alle Informationen relevant und im richtigen Kontext dargestellt? Das Ausmaß dieser Datenmenge ist so enorm, dass viele Auswertevorgänge wohl nur noch mittels Künstlicher Intelligenz, aber mit nur wenig, bis keiner menschlichen Interaktion erfolgen können. In gewisser Weise gehen KI und die Daten also eine symbiotische Beziehung ein: KI benötigt für das Training enorm viele Datensätze und umgekehrt können die unvorstellbar großen Datenmengen nur mithilfe von KI verwaltet und analysiert werden.

Abb.: Prognose zum weltweit generierten Datenvolumen bis 2029 (Statista 2025)
Hinzu kommt das Problem, dass immer mehr Daten von KI erzeugt werden und damit auch die Qualität der Daten in Frage gestellt werden muss. Forschende an der Rice University in Houston/Texas fanden dazu heraus, dass generative KI-Modelle, wenn sie über mehrere Generationen hinweg mit Daten trainiert werden, die zunehmend von KI statt von Menschen stammen, eine Art „Feedback-Schleife“ entwickeln – was zum qualitativen Verfall der Modelle führen kann (Alemohammad/Casco-Rodriguez et. al., 2023). Ihre Studie zeigte, dass Modelle, die immer mehr mit KI-generierten Daten trainiert wurden und wenig frische reale Daten bekamen, zunehmend schlechtere Ergebnisse lieferten (z. B. Bilder mit immer gleichen Strukturen, Verzerrungen, Artefakten). Zusätzlich gibt es das Problem des „Cherry-Pickings“, d.h. dass menschliche Trainingsdaten oft verzerrt, einseitig und selektiv dargestellt werden, wodurch Modelle falsche Verteilungen lernen. In der Konsequenz erzeugt das System eine Rückkopplung, bei der Fehler sich verstärken. Die Autoren der Studie nennen dieses Phänomen daher auch bewusst „Model Autophagy Disorder (MAD)“. Daraus resultiert ein potenzielles Risiko in der breiten Anwendung synthetischer Daten-Trainings-Loops. Die Forschenden empfehlen deshalb auch KI-generierte Inhalte klar zu kennzeichnen, um zu verhindern, dass sie unbewusst wieder als Trainingsdaten verwendet werden – und somit die Rückkopplungsschleife entsteht. Außerdem sollten Unternehmen und Forschende dafür sorgen, dass hinreichend echte menschliche Daten in Trainingssets einfließen. Praktisch heißt das: Modelle könnten weniger Vielfalt (also weniger kreative/ungewöhnliche Daten) und/oder geringere Qualität produzieren — und sich somit selbst degradieren. Zentrales Kriterium ist also die Qualität, nicht die Quantität. Es zählt nicht nur die Menge an Daten, sondern insbesondere deren Herkunft, Vielfalt und Relativität zur echten Verteilung.
Als Fazit kann festgehalten werden, dass Künstliche Intelligenz Wissen durch Rekombination von Daten zwar verdichten und so vielleicht verborgenes Wissen aufdecken kann, aber sie kann nicht wirklich neues Wissen aus einer gegebenen Menge vorhandenen Wissens generieren. Und schon gar nicht kann sie ihm einen höheren Sinn geben (Vöpel, 2025).
Literatur
Alemohammad, S. / Casco-Rodriguez, J. et. al.: Self-Consuming Generative Models Go MAD. 2023. https://arxiv.org/pdf/2307.01850 (26.10.2025)
Élysée: Déclaration sur une intelligence artificielle inclusive et durable pour les peuples et la planète. https://www.elysee.fr/emmanuel-macron/2025/02/11/declaration-sur-une-intelligence-artificielle-inclusive-et-durable-pour-les-peuples-et-la-planete. (22.10.2025).
EPRS: AI investment: EU and global indicators (2025). https://www.europarl.europa.eu/RegData/etudes/ATAG/2024/760392/EPRS_ATA(2024)760392_EN.pdf#:~:text=to%20nearly%20%E2%82%AC1,Recent (25.10.2024).
EU AI Champions Initiative. https://aichampions.eu. (22.10.2025).
EU-Kommission: Koordinierter Plan für künstliche Intelligenz. https://www.kowi.de/Portaldata/2/Resources/fp/2018-COM-CP-Artificial-Intelligence-DE.pdf. (22.10.2025).
General Catalyst: An Ambitious Agenda for European AI. Februar 2025.
Gerlich, Michael: AI Tools in Society: Impacts on Cognitive Offloading and the Future of Critical Thinking. 2025. https://www.mdpi.com/2075-4698/15/1/6 (23.10.2025).
Graphite IO Ltd. More Articles Are Now Created by AI Than Humans. https://graphite.io/five-percent/more-articles-are-now-created-by-ai-than-humans (21.10.2025).
Henning Vöpel: Twelve European Thoughts on Artificial Intelligence. https://commongroundeurope.eu/blog/twelve-european-thoughts-on-artificial-intelligence/. (22.10.2025).
Hess / Sieker: Built for Purpose? Demand-Led Scenarios for Europe’s AI Gigafactories. Interface Policy Brief. 2025.
OECD, Empfehlung des Rates zu künstlicher Intelligenz, OECD/LEGAL/0449. 2024.
Statista: Prognose zum weltweit generierten Datenvolumen bis 2028. https://de.statista.com/statistik/daten/studie/267974/umfrage/prognose-zum-weltweit-generierten-datenvolumen/. (22.10.2025).
The Future Society / Le Centre pour la Sécurité de l’IA: Global Call for AI Red Lines. 2025. https://red-lines.ai/ (27.10.2025).
Verordnung (EU) 2024/1689 des Europäischen Parlaments und des Rates vom 13. Juni 2024 zur Festlegung harmonisierter Vorschriften für künstliche Intelligenz. https://eur-lex.europa.eu/legal-content/DE/TXT/?uri=CELEX:32024R1689. (22.10.2025).
Verordnung (EU) 2024/285 des Europäischen Parlaments und des Rates vom 23. Oktober 2024 über die Haftung für fehlerhafte Produkte. https://eur-lex.europa.eu/legal-content/DE/TXT/PDF/?uri=OJ:L_202402853. (22.10.2025).