
Bis Anfang bzw. Mitte 2027 verdichten sich unter anderem vier EU-Verordnungen zu einem neuen Rahmen für KI im operativen B2B-Einsatz: Der EU AI Act, die neue EU-Produkthaftungsrichtlinie und der Cyber Resilience Act treffen praktisch jeden Anbieter, die neue Maschinenverordnung trifft insbesondere den Maschinenbau zusätzlich. Wer technisch sauber baut, erfüllt einen Großteil der Anforderungen automatisch. Sauber bauen verlangt allerdings aktive Entscheidungen. Dieser Beitrag ordnet die Stichtage und Auswirkungen, zeigt die Verzahnung und benennt wichtige Hebel im neu definierten KI-Lieferanten-Innenverhältnis.

Drei Stichtage greifen in Kürze branchenübergreifend, ein vierter gilt für den Maschinenbau:
Parallel dazu greifen Meldepflichten des Cyber Resilience Act (CRA) ab dem 11. September 2026 sowie dessen Hauptpflichten inklusive CE-Konformität ab dem 11. Dezember 2027.

Die vier gelisteten Regelwerke decken unterschiedliche Risikoklassen ab und ergänzen sich:
Die vier Verordnungen gelten parallel, nicht alternativ. Für eine moderne Maschine mit KI-Anteil, Kommunikationsschnittstellen und Update-Fähigkeit bedeutet das drei parallele CE-Wege mit teilweise übereinstimmender, aber nicht deckungsgleicher Dokumentation. Eine vollständig gebündelte Konformitätsbewertung ist Stand 2026 noch nicht möglich.
Die Produkthaftungsrichtlinie ist der unauffälligste der vier Punkte und gleichzeitig der mit den größten Konsequenzen für die Lieferantenarchitektur. Drei Effekte sind zu beachten:
Reine Vermögensschäden wie Produktionsausfälle oder Vertragsstrafen bleiben außerhalb der PLD und sind weiterhin vertraglich zu regeln.
Im Innenverhältnis zwischen Maschinenbauer und KI-Lieferant ist die Haftungsverteilung Vertragssache. Drei vertragliche Hebel werden damit zur Pflichtübung: Audit-Rechte für KI-Komponenten, Regress-Klauseln bei AI-Act-Verstößen und Update-Verpflichtungen über den Maschinen-Lebenszyklus hinweg.

An dieser Stelle schließt sich der Kreis zu Teil 1 dieser Serie (Bau und Betrieb verlässlicher KI-Agenten in der Industrie): Audit-Logs, Policy-Schicht, systematische Evals und maschinenlesbare Trace-Events sorgen für die erforderlichen Compliance-Nachweise. Wer KI-Agenten sauber baut und betreibt, erfüllt viele dieser Anforderungen ohne zusätzlichen Aufwand.
Die meisten Pflichten werden sich nicht durch eine generische KI-Subscription erfüllen lassen. Dokumentations-, Abnahme- und Nachvollziehbarkeitspflichten verlangen architektonische, prozessuale und vertragliche Antworten. Wer in Teil 1 noch geneigt war, Tool Registry, Continuous Integration und maschinenlesbare Audit-Events als Engineering-Komfort zu lesen, findet sie hier in ihrer regulatorischen Bedeutung eingeordnet.
Angesichts der KI-Verordnungswelle, die auf Unternehmen aller Größen zurollt, arbeitet die EU-Kommission an Erleichterungen für kleine und mittlere Unternehmen: Vereinfachte Vorlagen für die technische Dokumentation, Muster-Checklisten für das Qualitätsmanagement und gesicherte Umgebungen, in denen neue KI-Anwendungen unter behördlicher Aufsicht erprobt werden dürfen, bevor sie in den Markt gehen. Es bleibt allerdings abzuwarten, was davon wann tatsächlich zur Verfügung steht.
Der Aufwand, den ein Unternehmen heute in den sauberen Bau und Betrieb seiner KI-Agenten investiert, wird spätestens ab 2027 zum Wettbewerbsvorteil. Wer in den kommenden 18 Monaten beginnt, technisch sauber zu arbeiten, erfüllt den Großteil der regulatorischen Anforderungen als Nebenprodukt. Wer wartet, baut diese Anforderungen unter Zeitdruck nachträglich ein. Beides ist möglich, der frühzeitige Start ist günstiger.
Wer es noch genauer wissen möchte, findet in unserem Whitepaper “Wenn KI-Agenten Nein sagen müssen” weitere Details sowie praktische Empfehlungen für den Maschinen- und Anlagenbau.