Der EU AI Act bringt fundamentale Veränderungen für den Finanzsektor Liechtenstein. Seit August 2024 in Kraft, stellt diese Regulierung Finanz- und Fondsmanager vor neue Herausforderungen. Unser Leitfaden 2024: “EU AI Act Finanzsektor Liechtenstein” erklärt alle relevanten Anforderungen und liefert praktische Implementierungsstrategien.

Der Überblick: EU AI Act Finanzsektor Liechtenstein und Risikokategorisierung
Der EU AI Act führt ein vierstufiges Risikosystem ein, das KI-Anwendungen nach ihrem Gefährdungspotenzial kategorisiert. Diese Klassifizierung ist entscheidend für Finanzdienstleister, da sie bestimmt, welche Anforderungen und Pflichten zu erfüllen sind. Im Folgenden werden die verschiedenen Risikokategorien und ihre spezifischen Merkmale erläutert:
🔴 Unvertretbares Risiko im EU AI Act
- Definition: KI-Systeme, die fundamentale Menschenrechte verletzen, die öffentliche Sicherheit gefährden oder gegen ethische Grundprinzipien verstossen. Diese Kategorie umfasst Anwendungen, deren Risiken für Gesellschaft und Individuum als inakzeptabel eingestuft werden.
- Beispiele:
- Subliminale Manipulationstechniken, die das Unterbewusstsein beeinflussen und die freie Willensbildung untergraben.
- Soziale Bewertungssysteme (“Social Scoring”) durch Behörden, die Bürger basierend auf ihrem Verhalten kategorisieren und bewerten.
- Biometrische Echtzeit-Identifikationssysteme in öffentlichen Räumen ohne rechtliche Grundlage.
- Regulierung: Vollständiges Verbot jeglicher Entwicklung, Implementierung und Nutzung. Verstösse werden mit erheblichen Sanktionen geahndet.
🟠 Hohes Risiko im EU AI Act
- Definition: Systeme mit signifikanten und weitreichenden Auswirkungen auf das menschliche Leben, die öffentliche und private Sicherheit sowie grundlegende Rechte und Freiheiten. Diese Kategorie umfasst Anwendungen, die aufgrund ihrer Komplexität und potenziellen Auswirkungen einer besonders strengen Kontrolle bedürfen.
- Beispiele:
- Automatisierte Kreditwürdigkeitsprüfungen und Bonitätsbewertungen, die den Zugang zu Finanzdienstleistungen beeinflussen.
- Fortgeschrittene KI-gestützte Risikoanalysen und Betrugserkennung in Finanztransaktionen und Kundenbeziehungen.
- Komplexe Systeme zur umfassenden Bewertung von Kundenrisiken im Finanzverwaltung, einschliesslich Anlageentscheidungen und Portfoliomanagement.
- Anforderungen:
- Umfassende Konformitätsbewertungen und Zertifizierungen vor dem operativen Einsatz der Systeme.
- Durchgängige Transparenz in allen Prozessen mit detaillierter Protokollierung sämtlicher Systemaktivitäten und Entscheidungen.
- Robuste Risikomanagementsysteme mit kontinuierlicher menschlicher Überwachung und Interventionsmöglichkeiten.
🟡 Begrenztes Risiko im EU AI Act
- Definition: Anwendungen mit potenziell geringen Risiken, die zwar eine gewisse Aufmerksamkeit erfordern, aber keine unmittelbare Gefahr für grundlegende Rechte oder die Sicherheit der Nutzer darstellen. Diese Kategorie umfasst KI-Systeme, deren Auswirkungen begrenzt und gut kontrollierbar sind.
- Beispiele:
- KI-Chatbots in der Kundenkommunikation für einfache Anfragen und Routineauskünfte.
- Automatisierte E-Mail-Klassifizierungssysteme für die Kundenkorrespondenz.
- Einfache Empfehlungssysteme für Finanzprodukte.
- Anforderungen:
- Transparenzpflicht (z. B. Information, dass KI verwendet wird).
- Dokumentation der grundlegenden Funktionsweise des Systems.
- Regelmässige Überprüfung der Systemleistung.
🟢 Minimales Risiko im EU AI Act
- Definition: Diese Kategorie umfasst KI-Systeme, die keine nennenswerten Risiken für Individuen, Gesellschaft oder grundlegende Rechte darstellen. Es handelt sich um Anwendungen mit sehr begrenzter Komplexität und vorhersehbarem Verhalten.
- Beispiele:
- Einfache Spam-Filter für E-Mail-Kommunikation.
- KI-Systeme in Videospielen für Unterhaltungszwecke.
- Basis-Textverarbeitungsfunktionen mit KI-Unterstützung.
- Einfache Bildbearbeitungsfilter mit KI-Komponenten.
- Anforderungen:
- Keine spezifischen regulatorischen Vorgaben oder Einschränkungen durch den EU AI Act.
- Freiwillige Einhaltung allgemeiner Best Practices wird empfohlen.
- Grundlegende Transparenz gegenüber Nutzern ist wünschenswert.
Mehr zu den unterschiedlichen Risikoeinstufungen finden sie hier. Den gesamten EU AI Act kann man im AI Act Explorer sichten.
Die Relevanz für den Finanzsektor Liechtenstein
Als EWR-Mitglied steht Liechtenstein vor der Herausforderung, den EU AI Act in nationales Recht zu implementieren. Dies hat weitreichende Auswirkungen auf den Finanzsektor, insbesondere im Bereich der Finanzverwaltung, wo KI-Systeme zunehmend zum Einsatz kommen.
Umsetzung des EU AI Act in Liechtenstein
- EWR-Mitgliedschaft: Liechtenstein ist verpflichtet, den EU AI Act in nationales Recht zu übernehmen.
- Überwachung durch die FMA: Die Finanzmarktaufsicht Liechtenstein (FMA) wird eine Schlüsselrolle bei der Umsetzung und Überwachung spielen.
Bedeutung für Finanzverwaltung
- Hochrisiko-Anwendungen:
- KI-gestützte Kreditwürdigkeitsprüfungen.
- Automatisierte Handelsstrategien und Risikoanalysen.
- Kunden-Scoring.
- Regulatorische Herausforderungen:
- Sicherstellung der Einhaltung von Transparenz-, Dokumentations- und Sicherheitsanforderungen.
- Langfristige Anpassung an europäische Standards.
Technologische und dokumentarische Anforderungen
Die technischen und dokumentarischen Anforderungen des EU AI Act stellen Finanzverwaltung-Gesellschaften vor komplexe Herausforderungen. Um Compliance-konform zu agieren, müssen Unternehmen sowohl ihre technische Infrastruktur als auch ihre Dokumentationsprozesse grundlegend anpassen. Die folgenden Abschnitte beschreiben die wichtigsten Anforderungen im Detail.
Technologische Anforderungen
- Risikomanagementsysteme:
- Kontinuierliche Identifikation und Bewertung potenzieller KI-Risiken.
- Umsetzung von Massnahmen zur Risikominderung.
- Datenqualität und -Governance:
- Nutzung hochwertiger, repräsentativer Datensätze.
- Vermeidung von Verzerrungen und Diskriminierung.
- Menschliche Überwachung:
- KI-Systeme müssen von Menschen steuerbar bleiben.
- Mechanismen zur Notabschaltung bei Fehlfunktionen.
- Transparenz und Erklärbarkeit:
- Dokumentation der Entscheidungslogik.
- Klare Kommunikation gegenüber Nutzern und Regulierungsbehörden.
- Cybersecurity und Protokollierung:
- Schutz vor Cyberangriffen.
- Aufzeichnung aller relevanten Systemaktivitäten.
Dokumentarische Anforderungen
Die dokumentarischen Anforderungen des EU AI Act sind umfassend und erfordern eine detaillierte Aufzeichnung aller relevanten Aspekte des KI-Systems. Diese Dokumentation dient nicht nur der Compliance, sondern auch als Grundlage für kontinuierliche Verbesserungen und als Nachweis gegenüber Aufsichtsbehörden. Die folgenden Bereiche müssen besonders sorgfältig dokumentiert werden:
- Systembeschreibung:
- Zweck und Funktionen des KI-Systems.
- Beschreibung der eingesetzten Algorithmen.
- Datenmanagement:
- Herkunft, Qualität und Struktur der genutzten Datensätze.
- Risikobewertung:
- Analyse potenzieller Gefahren.
- Massnahmen zur Risikominderung.
- Konformitätsnachweise:
- Testergebnisse und Zertifikate zur Einhaltung der Anforderungen.
Erwartungshaltung der FMA
Die Finanzmarktaufsicht Liechtenstein (FMA) nimmt bei der Umsetzung des EU AI Act eine zentrale Aufsichtsrolle ein. Als nationale Regulierungsbehörde definiert sie klare Erwartungen an Finanzdienstleister im Umgang mit KI-Systemen. Diese Erwartungen basieren auf dem Grundsatz der risikobasierten Aufsicht und zielen darauf ab, Innovation zu ermöglichen und gleichzeitig die Stabilität des Finanzmarktes zu gewährleisten.
Was die FMA erwartet:
- Einhaltung regulatorischer Vorgaben:
- Sicherstellung der Compliance mit dem EU AI Act.
- Stärkung der digitalen Resilienz.
- Proaktives Risikomanagement:
- Identifikation von Risiken und frühzeitige Gegenmassnahmen.
- Transparenz gegenüber Kunden und Regulierungsbehörden:
- Offenlegung des KI-Einsatzes.
- Innovation unter Kontrolle:
- Förderung neuer Technologien im Einklang mit regulatorischen Anforderungen.
Strategische Empfehlungen: EU AI Act Finanzsektor Liechtenstein
Um den Herausforderungen des EU AI Act erfolgreich zu begegnen, benötigen Finanzverwaltung-Gesellschaften in Liechtenstein eine klare strategische Ausrichtung. Die folgenden Empfehlungen bieten einen praxisorientierten Rahmen für die Implementierung der regulatorischen Anforderungen und die Entwicklung zukunftsfähiger KI-Lösungen. Der Fokus liegt dabei auf der Balance zwischen Compliance, Innovation und operativer Effizienz.
Schritt-für-Schritt-Leitfaden
- Bestandsaufnahme und Risikoanalyse:
- Erfassen Sie alle KI-Systeme und klassifizieren Sie diese nach Risiko.
- Governance-Framework etablieren:
- Setzen Sie klare Richtlinien und Verantwortlichkeiten für den KI-Einsatz.
- Technologische Anpassungen:
- Passen Sie bestehende Systeme an die Anforderungen des AI Act an.
- Zusammenarbeit mit der FMA:
- Halten Sie regelmäßigen Kontakt zur FMA und nutzen Sie regulatorische Sandboxes.
- Schulung und Sensibilisierung:
- Schulen Sie Mitarbeitende im Umgang mit KI und den neuen regulatorischen Anforderungen.
- Förderung von Innovation:
- Investieren Sie in Forschung und Entwicklung zukunftssicherer KI-Lösungen.
Falls Sie Hilfe bei der Umsetzung benötigen, stehen wir Ihnen natürlich gerne mit einer vollumfänglichen Beratung zur Verfügung.
Zusammenfassung
Die Umsetzung des EU AI Act erfordert von Finanzverwaltung- und Finanzverwaltungsgesellschaften in Liechtenstein:
- Klare Governance-Strukturen für den Umgang mit KI.
- Transparente und sichere KI-Systeme, die den Anforderungen entsprechen.
- Proaktive Zusammenarbeit mit der FMA, um regulatorische Risiken zu minimieren.
- Förderung von Innovation, um Wettbewerbsvorteile zu sichern.
Die strategische Vorbereitung auf den EU AI Act stärkt die Wettbewerbsfähigkeit und das Vertrauen in den Einsatz von KI.