47. DAFTA – KI im Unternehmen: Ungeklärte Haftungsfragen und keine „One size fits all“-Lösungen

Die Gesellschaft für Datenschutz und Datensicherheit (GDD) e.V. führt vom 15. bis 17.11.2023 ihre 47. Datenschutzfachtagung (DAFTA) durch.

Unter dem Leitthema „Künstliche Intelligenz (KI), Gesetzgeber und EuGH - Neue Herausforderungen für den betrieblichen Datenschutz“ findet am 16. und 17.11.2023 in Köln und online die 47. Datenschutzfachtagung (DAFTA) statt.

Schwerpunkt des unter der Leitung von Prof. Dr. Rolf Schwartmann, Vorstandsvorsitzender der Gesellschaft für Datenschutz und Datensicherheit e.V., Bonn, stattfindenden Forums war das Thema „Kollege ChatGPT – KI im Unternehmenseinsatz“.

Im Auftaktvortrag von Prof. Dr. Tobias Keber, Landesbeauftragter für Datenschutz und Informationsfreiheit Baden-Württemberg, Stuttgart, riet dieser unter Bezugnahme auf Joseph Weizenbaum und den ersten Chatbot Eliza, KI-Systeme nicht zu vermenschlichen. Es blieben Systeme mit all den hiermit verbundenen Schwierigkeiten. Der „Elephant in the Room“ im Zusammenhang mit dem Einsatz von KI sei die Frage des Personenbezugs. Beim Einsatz von KI müssten die datenschutzrechtlichen Verantwortlichkeiten klar definiert sein, so Keber. Rechtsunsicherheiten in diesem Zusammenhang gingen zu Lasten der Unternehmen, welche die Systeme einsetzen.

Kai Zenner, Digitalreferent im Europäischen Parlament, Brüssel, berichtete über den gegenwärtigen Stand des Gesetzgebungsverfahrens für eine europäische KI-Verordnung (KI-VO). Im Rahmen der Verhandlungen zur KI-VO stehe man „wahnsinnig unter Zeitdruck“. Die Chancen lägen aus seiner Sicht bei 50/50, dass es rechtzeitig zu einer politischen Einigung komme.

 

Dr. h.c. Marit Hansen, Landesbeauftragte für Datenschutz Schleswig-Holstein, Kiel, und Tobias Haar, LL.M., MBA, General Counsel des KI-Startup Aleph Alpha GmbH, Heidelberg waren sich einig, dass sich im Hinblick auf die datenschutzrechtliche Beurteilung des Einsatzes von KI pauschale Aussagen nicht treffen lassen. Ein „One Size fits all“-Ansatz funktioniere laut Hansen nicht.

Tobias Haar betonte zudem, dass es sich bei den KI-Modellen lediglich um eine Basistechnologie handele. Die einsetzenden Unternehmen bauten ihre „Produktlayer“ auf die zur Verfügung gestellten Modelle, wodurch diese erst zum einsatzfähigen KI-System würden.

Größtes praktisches Problem im Zusammenhang mit der KI sei aus seiner Sicht die bestehende Rechtsunsicherheit. Unter grundsätzlicher Zustimmung betonte Hansen ergänzend, dass Unternehmen sich aber vorbereiten und mit KI umgehen müssten, unabhängig davon, ob eine Einigung zur KI-VO erreicht wird.

Aus der Praxis berichtete Dr. Marek Jansen, LL.M., Privacy Policy Lead, Google über Google Bard, ein von Google entwickelter generativer KI-basierter Chatbot. Mit der Datenschutz-Folgenabschätzung sei man „durch Europa getourt“ und habe diese verschiedenen Aufsichtsbehörden in Europa präsentiert. Das Feedback sei noch vor Launch des Tools entsprechend eingearbeitet.

Zur Einführung in die Podiumsdiskussion schilderte Prof. Dr. Rolf Schwartmann zwei KI-Anwendungsszenarien als Diskussionsgrundlage. Schnell kristallisierten sich Haftungsfragen als zentraler Gegenstand der Diskussion heraus. Aufgeworfen wurde insbesondere die Frage nach der Haftung der Entwickler von KI-Modellen, welche die Grundlage der praktischen Einsatzszenarien bilden.

Zur GDD: Die GDD wurde 1977 in Bonn gegründet und unterstützt seitdem Unternehmen, insbesondere deren Datenschutzbeauftragte, bei der Lösung der vielfältigen mit Datenschutz und Datensicherheit verbundenen technischen, rechtlichen und organisatorischen Fragen. Sie tritt als gemeinnütziger eingetragener Verein für einen sinnvollen, vertretbaren und technisch realisierbaren Datenschutz ein. Zusammen mit DATAKONTEXT richtet die GDD die Datenschutzfachtagung DAFTA aus, die alljährlich im November in Köln stattfindet.