18.06.2019

Künstliche Intelligenz und Datenschutz

Die neuesten Entwicklungen im Gesundheitswesen drehen sich in letzter Zeit häufiger um ein bestimmtes Thema: das Potenzial der Künstlichen Intelligenz (KI) für die Medizin. Von der Diagnostik über die Medikamentenentwicklung oder die Personalisierung von Behandlungen sowie die Genom-Editierung – zahlreiche Ideen bei denen es um das Erkennen von Mustern geht. Doch wie sieht es mit dem Datenschutz aus? Datenschutzexperten von Bund und Ländern haben sich auf verschiedene Anforderungen geeinigt.

Anwendungsgebiete für KI in der Medizin

Selbständig lernende Maschinen, die etwa in der Diagnose von Krankheiten inzwischen sogar Radiologen oder Pathologen Konkurrenz machen, verzeichnen bereits heute bemerkenswert hohe Trefferquoten und machen Diagnostikverfahren leichter zugänglich und kostengünstiger. Auch die Entwicklung neuer Medikamente könnte von dem sogenannten Machine Learning profitieren, z.B. durch die schnelle Analyse aller verfügbaren Daten, die Suche nach geeigneten Testpersonen oder bei der Identifizierung von Biomarkern für Krankheiten.

 

Nach Ausbruch einer Krankheit wird Künstliche Intelligenz zur statistischen Auswertung genutzt, um herauszufinden, auf welche Behandlung oder welches Medikament ein Patient am besten anspricht. Diese Art der personalisierten Medizin erfährt durch KI einen wichtigen Entwicklungsschub. Außerdem ist KI besonders hilfreich bei der Gensequenzierung und -editierung.

 

KI muss mit den Grundrechten vereinbar sein

 

Die Künstliche Intelligenz beschäftigt viele Branchen. Weil dabei jedoch stets große, teilweise hoch sensible Datenmengen bearbeitet werden, muss es verbindliche Regeln bezüglich des Datenschutzes geben. Dieser Aufgabe stellten sich kürzlich die Datenschutzbeauftragten von Bund und Ländern und formulierten in einer Erklärung ihre Anforderungen an Künstliche Intelligenz. Unter dem Titel „Hambacher Erklärung zur Künstlichen Intelligenz“ veröffentlichten Vertreter der unabhängigen Datenschutzbehörden des Bundes und der Länder verschiedene Datenschutzanforderungen.

 

Die KI-Technologie bezeichnen die Datenschützer als „eine substanzielle Herausforderung für Freiheit und Demokratie in unserer Rechtsordnung.“ Daher ihre grundsätzliche Forderung: „Entwicklungen und Anwendungen von KI müssen in demokratisch-rechtsstaatlicher Weise den Grundrechten entsprechen.“

 

KI in der Medizin

In Bezug auf die Medizin und das Gesundheitswesen betonten die Experten, dass die Entwicklung und Nutzung von KI-Systemen innerhalb der rechtlichen Rahmenbedingungen der Datenschutz-Grundverordnung (DSGVO) stattfinden muss, wenn dabei mit personenbezogenen Daten gearbeitet wird. Ihre Hauptforderungen lauten wie folgt:


1.    KI darf Menschen nicht zum Objekt machen


Diese Forderung orientiert sich direkt an Artikel 1, Absatz 1 (Art. 1 Abs. 1 GG, Art. 1 GRCh) des Grundgesetzes, das die Unantastbarkeit der menschlichen Würde garantiert. Vollständig automatisierte Entscheidungen oder Profiling durch KI-Systeme sollen daher nur eingeschränkt zugelassen werden.


2.    KI darf nur für verfassungsrechtlich legitimierte Zwecke eingesetzt werden und das Zweckbindungsgebot nicht aufheben


Zweckänderungen sind nur im Rahmen klarer Grenzen möglich. Erweiterte Verarbeitungszwecke müssen mit dem ursprünglichen Erhebungszweck vereinbar sein. Diese Vorgaben gelten auch für die Nutzung personenbezogener Daten zu Trainingszwecken von KI-Systemen.


3.    KI muss transparent, nachvollziehbar und erklärbar sein


Personenbezogene Daten müssen in einer für die betroffene Person nachvollziehbaren Weise verarbeitet werden. Dies setzt eine transparente, verständliche und leicht zugängliche Verarbeitung der Daten voraus.


4.    KI muss Diskriminierungen vermeiden


Lernende Systeme sind abhängig von den Daten, die sie zur Verfügung gestellt bekommen. Sind diese beispielsweise unvollständig, kann es zu Ergebnissen kommen, die sich als Diskriminierungen auswirken. Da diskriminierende Verarbeitungen eine Verletzung der Rechte und Freiheiten der betroffenen Personen darstellen, diese Vorgänge jedoch nicht immer offen zu erkennen sind, muss beim Einsatz von KI auch nach verdeckten Diskriminierungen gesucht werden.


5.    Für KI gilt der Grundsatz der Datenminimierung


Obwohl KI-Systeme oft große Datenmengen für Trainingszwecke nutzen, gilt für sie dennoch der Grundsatz der Datenminimierung, weil eben mit personenbezogenen Daten gearbeitet wird.


6.    KI braucht Verantwortlichkeit


Beim Einsatz von KI müssen klare Verantwortlichkeiten festgelegt werden. Die Verantwortlichen müssen dies kommunizieren und ausreichende Maßnahmen einleiten, um die rechtmäßige Verarbeitung, die Betroffenenrechte, die Sicherheit der Verarbeitung und die Beherrschbarkeit des KI-Systems zu gewährleisten.


7.    KI benötigt technische und organisatorische Standards


KI kann nicht ohne die Festlegung von Standards, wie beispielsweise einer Pseudonymisierung, eingesetzt werden. Darin sind sich die Experten einig. Sie sehen jedoch an dieser Stelle auch Hindernisse, nämlich im aktuellen Fehlen solcher Standards: „Für den datenschutzkonformen Einsatz von KI-Systemen gibt es gegenwärtig noch keine speziellen Standards oder detaillierte Anforderungen an technische und organisatorische Maßnahmen. Die Erkenntnisse in diesem Bereich zu mehren und Best-Practice-Beispiele zu entwickeln ist eine wichtige Aufgabe von Wirtschaft und Wissenschaft. Die Datenschutzaufsichtsbehörden werden diesen Prozess aktiv begleiten.“

 

Quelle: www.datenschutzkonferenz-online.de/media/en/20190405_hambacher_erklaerung.pdf

 

Kontakt