KI-Tools im HR verstoßen oft gegen Arbeitsrecht; bis zu 35 Mio. € Strafe drohen

KI-Tools im Personalwesen verstoßen häufig gegen das Arbeitsrecht – sie diskriminieren, sammeln verbotene Daten und verletzen die Privatsphäre. Ab August 2026 drohen zudem EU-Strafen von bis zu 35 Millionen Euro.

Die Implementierung von Systemen der künstlichen Intelligenz (im Folgenden „KI”) im Bereich des Personalwesens stellt Arbeitgeber vor neue grundlegende rechtliche Fragen, die eine gründliche Analyse der Wechselbeziehung zwischen der bestehenden Gesetzgebung und den Möglichkeiten der KI-Technologien erfordern, sowie die Vorbereitung auf die vollständige Anwendbarkeit der sogenannten KI-Verordnung (EU-Verordnung 2024/1689 über künstliche Intelligenz, im Folgenden „KI-Verordnung“), die am 2. August 2026 in Kraft treten wird.

Bestehender arbeitsrechtlicher Rahmen und KI

Das tschechische Arbeitsgesetzbuch (Gesetz Nr. 262/2006 Slg., im Folgenden „ArbGB“), enthält zwar keine spezifischen Vorschriften für KI, aber seine bestehenden Bestimmungen schaffen wichtige Grenzen für den Einsatz dieser Technologien. Ein wesentlicher Irrtum vieler Arbeitgeber besteht in der Überzeugung, dass das Fehlen spezifischer Rechtsvorschriften ein Rechtsvakuum bedeutet, aber das Gegenteil ist der Fall. Die allgemeinen Bestimmungen des ArbGB gelten auch für KI-Systeme, und Verstöße gegen diese Regeln haben die gleichen Konsequenzen wie bei traditionellen Personalprozessen.

Konkrete Beispiele für diese gesetzlichen Beschränkungen lassen sich anhand der folgenden Bestimmungen veranschaulichen.

Gleichbehandlung und Antidiskriminierung (§16 ArbGB)

In § 16 Abs. 2 des Arbeitsgesetzbuchs ist eine Liste der geschützten Merkmale in Bezug auf die Person des Arbeitnehmers aufgeführt, wobei Arbeitgeber unabhängig von diesen Merkmalen in allen Phasen des Arbeitsverhältnisses eine Gleichbehandlung gewährleisten müssen.

§ 16 Abs. 3 ArbGB erwähnt ausdrücklich auch indirekte Diskriminierung, d. h. eine Situation, in der ein scheinbar neutrales Kriterium Personen mit bestimmten Merkmalen benachteiligt, was ein grundlegendes Problem bei der Verwendung der meisten aktuellen KI-Systeme darstellt, die auf historischen Daten trainiert wurden, da diese Daten diskriminierende Muster enthalten.

Typisches Beispiel: Ein Algorithmus, der Unterbrechungen in der Berufslaufbahn eines Bewerbers („Lücken im Lebenslauf“) benachteiligt und damit indirekt Frauen diskriminiert, die aufgrund von Mutterschaft häufiger ihre Karriere unterbrechen.

Datenverarbeitung vor und während des Arbeitsverhältnisses (§30, §312, §316 ArbGB)

Beschränkungen der Datenverarbeitung vor Arbeitsbeginn (§30 Abs.2)

Die Bestimmung des § 30 Abs. 2 ArbGB beschränkt den Umfang der vor Beginn des Arbeitsverhältnisses verarbeiteten Daten ausschließlich auf Informationen, die in unmittelbarem Zusammenhang mit dem Abschluss des Arbeitsvertrags stehen. Dies schließt gängige KI-Praktiken aus, wie:

  • Scraping sozialer Netzwerke
  • psychologisches Profiling
  • Erhebung von Daten über familiäre Verhältnisse

Zugang zu KI-generierten Bewertungen (§312 Abs.3)

§ 312 Abs.3 ArbGB garantiert den Arbeitnehmern das Recht auf Zugang zu allen Unterlagen in ihrer Personalakte, einschließlich KI-generierter Bewertungen. Arbeitgeber sind gemäß Art.26 KI-Verordnung und Art.13 und 15 DSGVO verpflichtet, vollständige Transparenz und Erklärbarkeit automatisierter Entscheidungen sicherzustellen. Viele KI-Systeme können dies nicht leisten.

Überwachung von Arbeitnehmern (§316 ArbGB)

Die strengsten Grenzen für den Einsatz von KI sind in §316 ArbGB festgelegt, der die Überwachung von Arbeitnehmern regelt. Diese Bestimmung erlaubt nur eine angemessene Kontrolle der Nutzung von Arbeitsmitteln, verbietet die Verletzung der Privatsphäre durch Überwachung oder Kommunikationskontrolle ohne triftigen Grund und verlangt bei Vorliegen eines solchen Grundes die vorherige Unterrichtung der Arbeitnehmer.

Diese Anforderungen schränken den Einsatz von KI-Systemen zur Produktivitätsanalyse oder Kommunikationsüberwachung erheblich ein, da die meisten Technologien kontinuierliche Datenerfassung über das Verhalten von Arbeitnehmern erfordern. Dies überschreitet die Grenze angemessener Kontrolle.

Hochrisiko-KI-Systeme nach der KI-Verordnung

Mit der KI-Verordnung wird der rechtliche Rahmen weiter verschärft. Anhang III stuft KI-Systeme, die für die Einstellung oder Auswahl von Personen bestimmt sind, als hochriskant ein, z. B.:

  • Veröffentlichung gezielter Stellenangebote
  • Analyse und Sortierung von Bewerbungen
  • Bewertung von Bewerbern

Hochriskant sind auch Systeme für Entscheidungen mit Auswirkungen auf Arbeitsbedingungen, Karriereaufstieg oder Beendigung von Arbeitsverhältnissen, für die Zuweisung von Aufgaben nach individuellem Verhalten oder Persönlichkeitsmerkmalen sowie für die Überwachung und Bewertung von Leistung und Verhalten.

Plichten der Arbeitgeber (§26 KI-Verordnung)

Arbeitgeber müssen:

  • menschliche Aufsicht durch qualifizierte Personen sicherstellen,
  • den Betrieb kontinuierlich überwachen,
  • bei Risiken oder Vorfällen Anbieter und Behörden informieren,
  • automatisch generierte Protokolle mindestens sechs Monate aufbewahren,
  • Arbeitnehmer und Vertreter vor Nutzung am Arbeitsplatz informieren.

Nichteinhaltung kann mit Geldstrafen bis 35 Mio. € oder 7 % des weltweiten Jahresumsatzes geahndet werden.

DSGVO und Datenschutz-Folgenabschätzung

Weitere Verpflichtungen ergeben sich aus Artikel 35 DSGVO, der die Datenschutz-Folgenabschätzung bei der Nutzung von KI regelt.

Fazit

Es handelt sich um ein komplexes Bündel neuer Verpflichtungen, das über die formale Erfüllung gesetzlicher Anforderungen vor August 2026 hinausgeht und ein tiefes Verständnis der Wechselwirkungen zwischen KI, ArbGB, DSGVO und europäischem Rechtsrahmen erfordert.

Arbeitgeber müssen daher rechtzeitig mit gründlichen Vorbereitungen beginnen und sich die entsprechende Fachkompetenz sichern, um diese Anforderungen erfolgreich zu erfüllen.


Newsletter abonnieren

Wenn Sie den Newsletter abonnieren, stimmen Sie zugleich unseren Datenschutzbedingungen zu.