Bitte recht künstlich

Wie wir in zehn Jahren mit Künstlicher Intelligenz (KI) arbeiten werden, kann niemand so genau sagen. Christian Koch treibt unterdessen die Frage um, wie die KI-Systeme von morgen rechtskonform auf den Markt kommen. „KI gestaltet viele Prozesse schneller. Außerdem kann man mit ihrer Hilfe Bots codieren und so Arbeitsschritte gänzlich automatisieren“, erklärt der Fachanwalt für IT-, Urheber- und Medienrecht bei der Kanzlei Kleymann, Karpenstein & Partner (KKP.law). Dennoch gebe es bei der Arbeit mit KI einiges zu beachten. „Vertrauen die Nutzerinnen und Nutzer zu sehr auf die KI, können Fehler entstehen, die in einer automatisierten Kette schwerwiegende Folgefehler nach sich ziehen und sich erst spät bemerkbar machen.“
Samsung als Negativbeispiel
Alles, was man ChatGPT, dem populärsten gegenwärtigen Chatbot, erzählt, speichert dessen Entwickler OpenAI auf externen Servern, außerhalb von Europa. Die Daten sind also in den Händen Dritter. Dies muss auch den drei Samsung-Mitarbeitern bewusst gewesen sein, als sie mithilfe von ChatGPT ihre Programme auf Fehler untersuchten. Daran gehindert, geheimen Quellcode in das Programm einzuspeisen, hat es sie nicht. Wenig später gelangten die Informationen an die Öffentlichkeit. Inzwischen verfügt die kostenpflichtige Version des Chatbots zwar über bessere Sicherheitsvorkehrungen. „Bei der Arbeit mit KI sollte die Eingabe sensibler, vertraulicher und geschützter Informationen trotzdem weiterhin vermieden werden“, betont Koch
Regelungen gegen KI-Dystopie
Die EU hat am 21. Januar den neuesten Entwurf des EU Artificial Intelligence Act (AIA) veröffentlicht. Der AIA stellt weltweit den ersten länderübergreifenden Versuch dar, ein Rahmenwerk für den Umgang mit KI zu schaffen. „Die konkreten Regelungen für den Umgang mit KI in Forschung und Wirtschaft wirken standortunabhängig ähnlich wie die DSGVO“, erläutert Koch. „Die Regulierung teilt KI-Anwendungen in vier Risikogruppen ein: unannehmbares, hohes, geringes sowie ohne Risiko“, so der Fachanwalt weiter. Verboten seien Anwendungen, die Menschen manipulieren, soziale Bewertungen ermöglichen oder biometrische Identifizierung in Echtzeit durchführen. Hochrisikosysteme unterlägen strengen Regeln, wie der Einrichtung eines Risikomanagementsystems und transparenter Nutzerinformationen. KI-Systeme mit geringem Risiko, wie die meisten Chatbots, hätten weniger strenge Anforderungen.
„Interessanterweise kann diese Regelung als Wettbewerbsvorteil fungieren, da internationale Unternehmen AIA-konform sein müssten, um in der EU Geschäfte zu machen“, erklärt Koch. Bei der DSGVO habe das gut funktioniert. Trotz aller Ähnlichkeiten zur DSGVO liege in der Konformität mit dieser Verordnung eine der größten Schwächen des AIA. „Die Frage, wie sich Löschpflichten des AIA in Zusammenhang mit den Aufbewahrungspflichten der DSGVO verhalten, ist bis jetzt noch nicht eindeutig geklärt.“ Eine weitere Herausforderung bestehe darin, den Entwurf zukunftsfähig zu gestalten, da sich die Technologie schneller entwickle als das Recht und der AIA frühestens in zwei Jahren in Kraft treten könne.
Mehr Fragen als Antworten
Welche urheberrechtlichen Fragen sich im Zusammenhang mit KI stellen, sei eines seiner Lieblingsthemen, so Koch. „Dabei gibt es aktuell zwei sehr spannende Fragestellungen: Wie schütze ich meine KI-generierten Produkte, und welche Daten dürfen verwendet werden, um diese Systeme zu trainieren?“ Da nur Menschen Urheber sein könnten, seien KI-generierte Designs und Logos derzeit schwer zu schützen. Ein erster Lösungsansatz komme aus China. Hier werde einzelfallabhängig geprüft, ob die KI nur als Werkzeug diente oder den Großteil der Arbeit geleistet habe. „Das ist allerdings sehr aufwendig. Ein eindeutiger Rechtsrahmen ist notwendig, um hier Klarheit zu schaffen“, betont der Fachanwalt.
„Um eine KI vernünftig zu trainieren, braucht es Unmengen an Daten. Würde es notwendig werden, diese Daten zu lizenzieren, könnte innerhalb kürzester Zeit ein Großteil dieser Programme von der Bildfläche verschwinden“, erläutert Koch, der auch als IHK-Referent Unternehmen über KI und Recht informiert. Aktuell werde in den USA ein solcher Rechtsstreit ausgetragen: Nam[1]hafte Autoren wie George R. R. Martin und John Grisham würden sich dafür einsetzen, dass ihre Werke nicht mehr zum Trainieren von KI verwendet werden dürfen. Hätten sie Erfolg, werde dies die Entwicklung von KI erheblich erschweren. „Am Beispiel von Adobe Firefly sehen wir, dass es auch möglich ist, KI komplett mit eigenen Daten auszubilden. Für dieses bildgenerative System hat Adobe ausschließlich die eigenen Stockfotos verwendet“, so der Fachanwalt.
Recht ist eine der am stärksten betroffenen Branchen, und Christian Koch geht davon aus, dass KI sein Berufsfeld erheblich durcheinanderwirbeln wird. „Die große Frage, die wir uns alle stellen, ist doch: Wann ersetzt KI meinen Job – und ich kann mich an den Strand setzen? Ich freue mich darauf“, blickt Koch in die Zukunft.

VON SIMON DEVENTER


Wie definiert der AI-Act Künstliche Intelligenz?
Der Artificial Intelligence Act (AIA) der EU listet Techniken der Informatik auf und klassifiziert diese als Techniken Künstlicher Intelligenz. Dadurch fasst der AIA den Begriff recht weit. Zu den Techniken Künstlicher Intelligenz zählen unter anderem verschiedene Verfahren Maschinellen Lernens, statistische Ansätze, die beispielsweise zur optimierten Datensuche dienen, sowie logik- und wissensgestützte Konzepte, die meist Anwendung in der Reaktion auf komplexe Probleme finden und „intelligent“ handeln können. Zusätzlich verfolgt eine als Künstliche Intelligenz definierte Software Ziele, die vom Menschen festgelegt werden, prognostiziert, empfiehlt oder trifft Entscheidungen über Ergebnisse oder Inhalte und beeinflusst das Umfeld, mit dem sie interagiert. Da sich Künstliche Intelligenz konstant weiterentwickelt, erscheinen regelmäßig neue Definitionen des Begriffs.
Stand: 08.04.2024