Am 1. August 2024 ist die europäische Verordnung über künstliche Intelligenz in Kraft getreten. Das Regelwerk zielt auf eine verantwortungsvolle und sichere Nutzung von KI in der EU ab. Das Vertrauen der Verbraucherinnen und Verbraucher soll gestärkt werden, Grundrechte geschützt und Innovationen gefördert. Ab 2025 treten europaweit schrittweise Bestimmungen in Kraft. Andere Vorschriften, z. B. für Hochrisiko-KI, werden ab 2. August 2026 streng reguliert. Dies betrifft auch Vermittlerinnen und Vermittler, die beruflich KI einsetzen. Beispielsweise, um Anträge zu bearbeiten oder um große Datenmengen zu analysieren, z. B. zur Berechnung von Schadenswahrscheinlichkeiten.
4 Risikostufen der KI-VO
Im KI-Gesetz wird künstliche Intelligenz in vier Risikogruppen eingeteilt. Die jeweiligen Anforderungen an Transparenz und Compliance richten sich je nach Risikograd.
1. Verbotene KI-Praktiken (Art. 5 KI-VO)
Um unsere Grundrechte zu schützen, sind in Art. 5 Verbote definiert. Darunter fallen unter anderem manipulative Systeme sowie KI-Technologien zur sozialen Bewertung (Social Scoring) und zur biometrischen Identifikation. Diese sind bereits seit dem 2. Februar 2025 verboten.
2. Hochrisiko-KI (Art. 6 KI-VO inkl. Anhang I & III)
Dazu gehören KI-Anwendungen, die über ein erhöhtes Schadenspotenzial für Sicherheit, Gesundheit und Grundrechte von Personen verfügen. Beispiele hierfür sind Systeme, die grundlegende Entscheidungen beeinflussen (z. B. Kreditwürdigkeitsprüfung, Risikobewertungen für Prämienhöhe, Schadensbearbeitung). Diese Anwendungen sind ab 2. August 2026 streng reguliert.
Ein Fallbeispiel aus der Vermittlerpraxis: Stellen Sie sich vor, Sie sammeln finanzielle oder verhaltensbezogene Daten von Ihren Kundinnen und Kunden, die für die Beurteilung der Eignung einer Lebensversicherung nicht relevant sind. Sie nutzen diese Informationen jedoch z. B. zur Festlegung der Versicherungsprämie. Das könnte ein unzulässiges Social Scoring darstellen. Sollte dadurch die Kundin bzw. der Kunde unverhältnismäßig oder gar diskriminierend benachteiligt werden, wird es umso brisanter.
3. KI mit begrenztem Risiko (Art. 50 KI-VO)
Bei nicht als Hochrisiko-KI eingestuften Anwendungen gelten Transparenzpflichten. Dazu gehört z. B. der Hinweis, dass ein Chatbot genutzt wird. Auch die Kennzeichnung von Deepfakes fällt darunter. Hier gilt eine Übergangsfrist, ab dem 2. August 2026 ist die Transparenzpflicht verpflichtend.
4. KI mit keinem oder geringem Risiko
Für KI-Anwendungen, die nicht zu den drei genannten Risikostufen zählen, gelten keine besonderen Anforderungen. Sobald es um den generellen Einsatz von KI-Systemen geht, ist laut Art. 4 KI-VO jedoch eine entsprechende KI-Kompetenz unentbehrlich.
Darüber hinaus sind im EU AI Act „KI-Modelle mit allgemeinem Verwendungszweck“ (Art. 51-56 KI-VO) definiert. Darunter fallen LLM (Large Language Models), die auf einem neuronalen Netz basieren, das mithilfe von Deep Learning trainiert wird. Bekannte Beispiele für sogenannte generative KI sind ChatGPT, Copilot oder Gemini. Diese Form der KI kann neue Inhalte – wie Texte, Bilder, Videos – erzeugen und geht somit weit über die reine Analyse oder Klassifizierung bestehender Daten hinaus.
Achtung, auch hier gilt die Transparenzpflicht. Setzen Sie als Vermittlerin oder Vermittler ChatGPT & Co. beruflich ein, müssen Sie Ihre Kundschaft über den Einsatz informieren.