Fast alle machen mit – nur Meta nicht
Bei Verstößen drohen Bußgelder von bis zu 35 Millionen Euro oder sieben Prozent des weltweiten Jahresumsatzes. Dass es wirklich zu Strafen in dieser Höhe kommen wird, ist jedoch fraglich – auch, da die Anforderungen für die großen KI-Anbieter wohl verhältnismäßig leicht umsetzbar sind.
Die meisten großen KI-Anbieter haben bereits im Vorfeld den freiwilligen „Code of Practice“ der EU unterschrieben. OpenAI, Google, Anthropic und Mistral AI setzen auf diese Kooperationsstrategie, die ihnen eine „Konformitätsvermutung“ verschafft: Wer den Code befolgt, gilt bis zum Beweis des Gegenteils als regelkonform. Nur Meta, der Konzern hinter Facebook und Instagram, verweigert die Unterschrift.
Was Verbraucher merken werden
Für normale Nutzer sind die direkten Auswirkungen zunächst begrenzt. Die meisten Transparenzpflichten richten sich an Behörden und Geschäftskunden, nicht an Endverbraucher.
Langfristig könnte sich für Nutzer aber trotzdem etwas ändern: Wenn KI-Anbieter offenlegen müssen, mit welchen Daten sie trainiert haben, können Rechteinhaber leichter rechtliche Schritte einleiten. Das könnte die Verfügbarkeit mancher KI-Funktionen einschränken – oder deren Kosten erhöhen, wenn mehr Lizenzgebühren fällig werden.
Bremst Europa sich selbst aus?
Die wichtigste Frage lautet: Schadet sich Europa mit seinen strengen Regeln selbst? Denn während die EU detaillierte Compliance-Vorgaben entwickelt, tut die Trump-Regierung in den USA gerade das genaue Gegenteil: Erst vor einer Woche wurden auch die letzten KI-Regeln aus der Zeit von Joe Biden zurückgenommen. Stattdessen setzen die USA auf massive Investitionen in Rechenzentren und Energieversorgung. Als Gegner im KI-Wettrennen gilt hier China – Europa spielt in der Diskussion praktisch keine Rolle.
Befürworter der Regulierung sehen das anders: Vertrauenswürdige KI sei langfristig auch wirtschaftlich vorteilhaft, da sie die Akzeptanz fördere. Europa positioniere sich als Vorreiter für verantwortliche KI-Entwicklung und könne dadurch internationale Standards setzen. Bislang bleibt der erhoffte positive Signaleffekt jedoch aus.
Was bereits gilt
Die heute in Kraft tretenden Regeln sind nicht die ersten AI-Act-Bestimmungen: Bereits seit dem 2. Februar 2025 sind bestimmte KI-Praktiken vollständig verboten – etwa Systeme zur sozialen Bewertung von Bürgern oder KI, die unterschwellige Manipulation einsetzt.
Außerdem müssen Unternehmen seitdem sicherstellen, dass ihre Mitarbeiter über ausreichende „KI-Kompetenz“ verfügen. Der AI Act definiert diese als „die Fähigkeiten, KI-Systeme sachkundig einzusetzen sowie sich der Chancen und Risiken von KI und möglicher Schäden, die sie verursachen kann, bewusst zu werden“.
Die nächste große Stufe des AI Act folgt im August 2026: Dann greifen die vollständigen Regeln für Hochrisiko-KI-Systeme – etwa in der Medizin, beim Personalmanagement oder in der Kreditvergabe.