Die geringe Transparenz von KI-Systemen wird immer wieder bemängelt. Sowohl Trainingsdaten als auch Algorithmen sind für Anwender häufig nicht einsehbar, was eine Bewertung des Outputs erschwert. Welche Chancen böte eine höhere Transparenz von KI-Systemen, welche Risiken gingen damit einher und was ist eigentlich schon vorgeschrieben?
Bedeutung der Transparenz von KI-Systemen
KI-Systeme generieren täglich Output, mit dem teilweise wichtige Entscheidungen getroffen werden, die wiederum das Leben von Menschen beeinflussen (z.B. Scores zur Kreditwürdigkeit). Das kann allerdings problematisch werden, wenn nicht nachvollziehbar ist, wie diese Entscheidungen zustande kommen. Wer garantiert, dass die Algorithmen fair, schlüssig und sicher sind?
Transparenz ist dabei ein Schlüsselbegriff, doch sie stellt gleichzeitig eine große Herausforderung dar. Das Bundesamt für Sicherheit in der Informationstechnik (BSI) untersucht in seinem Whitepaper zur Transparenz von KI-Systemen (PDF), welche Anforderungen an die Transparenz von KI-Systemen gestellt werden sollen und welche Chancen sowie Risiken damit verbunden sind.
Wir nutzen das BSI-Whitepaper, um die wichtigsten Aspekte von Transparenz bei KI-System zu skizzieren sowie um damit einhergehenden Chancen und Risiken zu beleuchten.
Wie könnte Transparenz bei KI-Systemen aussehen?
Die Transparenz von KI-Systemen umfasst weit mehr als nur die Offenlegung technischer Details. Transparenz bedeutet vielmehr die Bereitstellung relevanter Informationen über den gesamten Lebenszyklus eines KI-Systems sowie über dessen wirtschaftliches und organisatorisches Umfeld. Dabei geht es nicht nur darum, die Funktionsweise eines Systems zu erklären, sondern auch den Entwicklungskontext, die Datenbasis sowie die Entscheidungslogik nachvollziehbar zu machen.
Denn ein wesentliches Problem vieler KI-Systeme ist ihre als Blackbox bezeichnete Intransparenz. Nutzer sehen lediglich die Eingaben und Ausgaben eines Systems, können aber in der Regel nicht nachvollziehen, wie Entscheidungen zustande kommen. Das kann dazu führen, dass fehlerhafte, diskriminierende oder sicherheitskritische Entscheidungen unbemerkt bleiben.
Transparenz ist ein zentrales Element der Vertrauenswürdigkeit von KI-Systemen, muss jedoch im Kontext der jeweiligen Bedürfnisse der Anspruchsgruppen ausgelegt werden. Schließlich bedeutet Transparenz nicht für alle das Gleiche. Während Entwickler detaillierte technische Einblicke benötigen, wünschen sich Anwender vor allem verständliche Erklärungen über die Funktionsweise und mögliche Einschränkungen des Systems sowie über ihre Betroffenenrechte.
Das Ziel der Transparenz von KI-Systemen ist es, alle Anspruchsgruppen so zu befähigen, dass sie selbst beurteilen können, ob ein System geeignet, sicher und vertrauenswürdig ist. Es geht nicht nur um die Offenlegung der Funktionen eines Systems, sondern ebenso um die Darlegung seiner Grenzen, um eine fundierte Beurteilung zu ermöglichen.
Damit wird ebenso der digitale Verbraucherschutz unterstützt, denn Transparenz hilft Nutzern, sichere KI-Systeme zu erkennen, während Unternehmen und Organisationen dazu motiviert werden, ihre eigenen KI-Systeme verantwortungsvoll zu gestalten.
Transparenzanforderungen der DSGVO und des AI Acts
Der AI Act (KI-Verordnung) hat das Ziel, eine verantwortungsvolle Entwicklung und Nutzung von KI-Systemen zu gewährleisten. Der AI Act steht damit in einem engen Zusammenhang mit der Datenschutz-Grundverordnung (DSGVO). Unternehmen, die KI-Systeme einsetzen, müssen sowohl die Regelungen des AI Acts als auch diejenigen der DSGVO berücksichtigen, weil zumindest nicht ausgeschlossen werden kann, dass beim Training und/oder der Nutzung von KI-Systemen personenbezogene Daten verarbeitet werden.
Art. 5 DSGVO verpflichtet Verantwortliche dazu, die Verarbeitung personenbezogener Daten transparent zu handhaben. Diese Verpflichtung erstreckt sich somit auf sämtliche KI-Anwendungen, bei denen personenbezogene Daten verarbeitet werden – sei es im Rahmen des Trainings oder über Nutzereingaben, meistens in Form von Prompts. Die Informationspflichten gem. Art 13 und 14 DSGVO sind die wichtigste Ausprägung des allgemeinen Transparenzgrundsatzes der DSGVO.
Der AI Act sieht – je nach Risikoklassifizierung – abgestufte Transparenzpflichten vor. Insbesondere bei sogenannten Hochrisiko-KI-Systemen, die in sicherheitskritischen Bereichen wie Biometrie oder Gesundheitswesen zum Einsatz kommen, unterliegen Betreiber strengen Offenlegungspflichten, wie umfangreiche Dokumentationen und Bedienungsanleitungen.
Darüber hinaus enthält der AI Act Vorschriften zur Kennzeichnungspflicht für KI-gestützte Anwendungen, die direkt mit Menschen interagieren. So müssen beispielsweise Chatbots oder KI-generierte Inhalte eindeutig als solche gekennzeichnet werden, um Täuschungen zu vermeiden. Dort gelten damit zumindest reduzierte Transparenzvorgaben.
Außerdem müssen KI-Anbieter umfassende technische Dokumentationen bereitstellen, um Transparenz für nachgelagerte Entwickler, Betreiber und Behörden sicherzustellen.
Um die Einhaltung dieser Transparenzvorgaben zu gewährleisten, entwickelt die EU Kommission gem. Art. 50 AI Act spezifische Leitlinien.
Art. 99 AI Act sieht Sanktionen bei Verstößen gegen die Verordnung vor. Die Androhung von Sanktionen bei Nichteinhaltung der Vorgaben verdeutlicht, dass durch die Offenlegung relevanter Informationen an die unterschiedlichen Interessensgruppen ein hoher Transparenzstandard bei den betreffenden KI-Systemen erreicht werden soll.
Chancen durch Transparenz in KI-Systemen
Transparenz bietet viele Vorteile, sowohl für Endnutzer als auch für Unternehmen und Behörden. Ein transparenter Umgang mit KI kann die Akzeptanz neuer Technologien erhöhen, da Nutzer Vertrauen in Systeme entwickeln, deren Entscheidungsprozesse sie zumindest in Grundzügen nachvollziehen können.
Zudem kann Transparenz dazu beitragen, Fehlentscheidungen zu erkennen und zu korrigieren, indem sie eine bessere Kontrolle über die zugrundeliegenden Daten und Algorithmen ermöglicht.
Auch aus regulatorischer Sicht ist Transparenz ein wichtiges Instrument, um mögliche Gefahren, wie potenzielle Verzerrungen (KI-Bias) oder Sicherheitslücken frühzeitig zu identifizieren. Wenn Unternehmen verpflichtet sind, Informationen über die Trainingsdaten, die Entscheidungsprozesse und die Einschränkungen ihrer KI-Systeme offenzulegen, können Aufsichtsbehörden und unabhängige Experten besser beurteilen, ob ein System ethischen und rechtlichen Standards genügt.
Zudem erleichtert eine klare Dokumentation die Weiterentwicklung bestehender Systeme und trägt zur Innovationsförderung bei.
Risiken der Transparenz bei KI-Systemen
Trotz der zahlreichen Vorteile birgt Transparenz auch Risiken. Eine der größten Herausforderungen besteht darin, ein Gleichgewicht zwischen notwendiger Offenlegung und dem Schutz sensibler Informationen zu finden. Schließlich kann eine zu detaillierte Offenlegung der Funktionsweise von KI-Systemen die Gefahr bergen, dass sicherheitsrelevante Schwachstellen erkennbar werden – was insbesondere im Bereich der Cybersicherheit problematisch sein könnte. In solchen Fällen könnten die veröffentlichten Informationen in falschen Händen zu gezielten Angriffen – sogenannten Adversarial Attacks – auf KI-Modelle genutzt werden, bei denen Angreifer bewusst Daten so verändern, dass KI-Systeme falsche Ergebnisse liefern.
Zudem besteht die Gefahr, dass Transparenzvorgaben zwar formal erfüllt werden, jedoch ohne echten Mehrwert für die Nutzer. Unternehmen könnten Transparenz nur vortäuschen, indem sie riesige Mengen an Daten und technischen Berichten veröffentlichen, die für Nutzer völlig unverständlich sind. Intransparente Systeme könnten dadurch mit irreführenden Labels als transparent gekennzeichnet werden, ohne dass tatsächlich eine sinnvolle Nachvollziehbarkeit gegeben ist. Eine solche „Pseudotransparenz“ könnte dazu führen, dass Nutzer sich in falscher Sicherheit wiegen und kritische Fragen nicht mehr stellen.
Fazit
Das BSI-Whitepaper zeigt, warum Transparenz ein essenzieller Bestandteil vertrauenswürdiger KI-Systeme ist. Dennoch bleibt die Frage offen, inwieweit Transparenz tatsächlich die gewünschten Effekte erzielt. Zwar trägt sie zur Vertrauensbildung bei, doch gleichzeitig können zu hohe Offenlegungsanforderungen neue Risiken schaffen.
Darüber hinaus bleibt fraglich, ob die im AI Act festgelegten Transparenzanforderungen in der Praxis konsequent durchgesetzt werden können und ob sie ausreichen, um problematische Anwendungen effektiv zu regulieren.
Gleichzeitig ist die wirtschaftliche Umsetzbarkeit solcher Anforderungen zu bedenken. Während größere Unternehmen über ausreichende Ressourcen verfügen, umfassende Dokumentationen zu erstellen, könnten kleine und mittlere Unternehmen durch bürokratische Hürden benachteiligt werden, was ihre Wettbewerbsfähigkeit einschränken könnte. Ein Effekt, der bereits hinsichtlich der DSGVO häufig beklagt wurde.
Letztlich ist Transparenz nicht nur eine regulatorische Anforderung. Es geht nicht darum, möglichst viele Informationen offenzulegen, ohne dass daraus ein konkreter Nutzen entsteht. Vielmehr soll Transparenz dazu dienen, KI-Systeme verantwortungsvoll zu gestalten.
Damit Transparenz tatsächlich einen positiven Einfluss hat, müssen Transparenzmaßnahmen praxisnah, verständlich und gezielt eingesetzt werden. Der Aufbau eines Artificial Intelligence Management Systems (AIMS) und eine Zertifizierung dessen nach der Norm ISO 42001 ist hierfür der momentan vielversprechendste Ansatz.