Nachrichten, Gerüchte, Meldungen und Berichte aus der IT-Szene

Redaktion: Heinz Schmitz


Datenschutz bei KI gefordert

Phasen des Daten-Lebenszyklus. (Quelle: Plattform Lernende Systeme)

Phasen des Daten-Lebenszyklus. (Quelle: Plattform Lernende Systeme)

 

Künstliche Intelligenz (KI) kann einen wichtigen Beitrag zu einer zukunftsfähigen Wirtschaft und Gesellschaft leisten. Aktuell sind Unternehmen beim Einsatz von KI jedoch noch zurückhaltend. Der häufig genannte Grund: Die datenschutzrechtlichen Hürden erscheinen zu hoch. Ein aktuelles Whitepaper der Plattform Lernende Systeme zeigt technische Ansätze, die Privacy und Datenschutz bei der Entwicklung und Nutzung von KI-Systemen sicherstellen. Die Autoren fordern die gesetzliche Anerkennung der Verfahren, um die Rechtssicherheit für Unternehmen beim Einsatz von KI zu stärken.

 

Datenschutz genießt in Deutschland und Europa einen hohen Stellenwert.

Gleichzeitig finden sich in den Unternehmen häufig wertvolle Daten, die mithilfe von KI-Technologie im Sinne der Gesellschaft nutzbar gemacht werden könnten: Gesundheitsdaten von Patienten könnten beispielsweise dafür verwendet werden, die Entstehung von Erkrankungen besser vorherzusagen; Bewegungsdaten von Personen und Fahrzeugen, um Risiken im Straßenverkehr zu reduzieren.

 

Der Gesetzgeber stellt strenge Anforderungen an eine Nutzung personenbezogener Daten – wobei die rechtliche Auslegung in der Praxis oft unsicher sei und die KI-Anwendung in der Breite erschwere, heißt es im Whitepaper „Datenschatz für KI nutzen, Datenschutz mit KI wahren“. Viele Unternehmen schrecken aus diesem Grund vor dem Einsatz und der Entwicklung von KI-Systemen zurück, die sensible Daten von Nutzern verarbeiten. Jedoch existieren verschiedene technische Privacy-Ansätze, die es ermöglichen den Datenschutz bei der Verwendung personen-bezogener Daten zu wahren. Die Autoren des Whitepapers fordern deshalb, technische Instrumente für mehr Privacy rechtlich anzuerkennen. Die Verfahren sollten als Ausnahme in die Datenschutzgrundverordnung (DSGVO) sowie künftige KI- Verordnung der Europäischen Union aufgenommen und in anwendungsspezifischer Datenschutzgesetzgebung ausformuliert werden. Dies ermögliche eine flexiblere Nutzung personenbezogener Daten. Voraussetzung: die Nutzung personenbezogener Daten ist alternativlos und liegt im Interesse des Gemeinwohls.

 

Datenschutzauflagen an KI-Systeme und Interpretation in der Anwendung über den Daten-Lebenszyklus (Quelle: Plattform Lernende Systeme)

Datenschutzauflagen an KI-Systeme und Interpretation in der Anwendung über den Daten-Lebenszyklus (Quelle: Plattform Lernende Systeme)

 

Handlungsräume für KI-Entwicklung schaffen

„Einsatz und Entwicklung von KI brauchen Rechtssicherheit. Statt Verbotsräumen sollte der Gesetzgeber Handlungsräume schaffen und technische Verfahren zur Wahrung des Datenschutzes juristisch zulassen. So lassen sich aktuell bestehende Interpretationsspielräume bei der Verarbeitung personenbezogener Daten schließen und die Chancen der Schlüsseltechnologie KI für unsere Gesellschaft besser nutzen”, sagt Jörn Müller-Quade, Professor für Kryptographie und Sicherheit am Karlsruher Institut für Technologie (KIT) sowie Co-Leiter der Arbeitsgruppe IT- Sicherheit, Privacy, Recht und Ethik der Plattform Lernende Systeme.

 

Konkret empfehlen die Experten etwa das Privacy-Preserving Machine Learning (kurz: PPML), das den Datenschutz bereits beim Design der KI-Anwendung sicherstellt. Dazu zählt die Anonymisierung, Pseudonymisierung oder Verschlüsselung personen-bezogener Daten. Weiter nennen sie technische Ansätze, die nicht direkt beim KI-Modell ansetzen, wie den Einsatz von Personal Information Management Systemen (PIMS) oder Datentreuhändern, mithilfe derer datengebende Personen die Hoheit über ihre Daten behalten und sogar selbst von deren Monetarisierung profitieren können. Erklärbare KI, also KI-Systeme, die ihre Entscheidungen und Funktionsweise transparent und verständlich machen, können den selbstbestimmten Umgang mit den eigenen Daten weiter stärken. Für Ansätze für erklärbare KI sowie für die Anonymisierung von Daten sollten Standards und Zertifizierungsmöglichkeiten eingeführt werden.

 

Die Autoren des Whitepapers unterstreichen, dass für das Training von KI-Systemen nicht-personenbezogene Daten grundsätzlich personenbezogenen Daten vorgezogen werden sollten, sofern sie die gleiche Datenqualität aufweisen. Sie empfehlen daher, interoperable Datenräume aufzubauen, um mehr nicht-personenbezogene Daten verfügbar zu machen.

 

Über das Whitepaper

Das Whitepaper „Datenschatz für KI nutzen, Datenschutz mit KI wahren.

Technische und rechtliche Ansätze für eine datenschutzkonforme, gemeinwohlorientierte Datennutzung” wurde von Mitgliedern der Arbeitsgruppe IT-Sicherheit, Privacy, Recht und Ethik der Plattform Lernende Systeme verfasst. Es steht zum kostenfreien Download zur Verfügung.

 

Über die Plattform Lernende Systeme

Die Plattform Lernende Systeme ist ein Netzwerk von Experten zum Thema Künstliche Intelligenz (KI). Sie bündelt vorhandenes Fachwissen und fördert als unabhängiger Makler den interdisziplinären Austausch und gesellschaftlichen Dialog. Die knapp 200 Mitglieder aus Wissenschaft, Wirtschaft und Gesellschaft entwickeln in Arbeitsgruppen Positionen zu Chancen und Herausforderungen von KI und benennen Handlungsoptionen für ihre verantwortliche Gestaltung. Damit unterstützen sie den Weg Deutschlands zu einem führenden Anbieter von vertrauenswürdiger KI sowie den Einsatz der Schlüsseltechnologie in Wirtschaft und Gesellschaft. Die Plattform Lernende Systeme wurde 2017 vom Bundesministerium für Bildung und Forschung (BMBF) auf Anregung von acatech – Deutsche Akademie der Technikwissenschaften gegründet und wird von einem Lenkungskreis gesteuert. Die Leitung der Plattform liegt bei Bundesministerin Bettina Stark-Watzinger (BMBF) und Jan Wörner (acatech).

 

Originalbeitrag:

Das Whitepaper "Datenschatz für KI nutzen, Datenschutz mit KI wahren" der Plattform Lernende Systeme:

https://www.plattform-lernende-systeme.de/files/Downloads/Publikationen/AG3_WP_KI_Datenschutz_Datenschatz.pdf

 

Zurück