Lernen Sie in der nachfolgenden Lerneinheit, welche Risiken mit dem Einsatz von (generativer) KI einhergehen sowie Möglichkeiten, wie sie sich vor den daraus ergebenden negativen Folgen schützen können.
- 4.1 Generative KI-Anwendungen machen Fehler und können manipulativ sein: Falschinformationen (Halluzination) und Deepfakes
Durch die rasante Entwicklung im Bereich der Künstlichen Intelligenz bzw. der generativen KI ergeben sich große Herausforderungen im Bereich von Des- und Fehlinformationen. Der Einsatz von generativer KI wird zunehmend dazu führen, dass wir immer weniger darauf vertrauen können, ob das, was wir im Internet – insbesondere in sozialen Netzwerken – hören und was wir sehen "echt" oder "unecht" ist. Das liegt zum einen daran, dass manche Ergebnisse, die generative KI-Anwendungen generieren, komplett erfunden sind und nicht der Realität entsprechen (Fehl- oder Falschinformation). Zum anderen werden generative KI-Anwendungen auch bewusst von Menschen dazu genutzt, um Wahrheiten zu verdrehen. Hierzu werden gezielt Desinformationen und sog. Deepfakes (gefälschte Bilder und Videos) erstellt und im Internet verbreitet. Die generative KI kann immer nur mit dem arbeiten, was ihr als Trainingsdaten zur Verfügung gestellt wird. Und grob lässt sich sagen: Wo Müll rein kommt, kommt auch Müll raus.
Fehl- oder Falschinformation
Ein Chatbot wie ChatGPT kann beispielsweise falsche Antworten produzieren, die zwar plausibel klingen, aber nicht auf realen Daten oder Ereignissen beruhen. Es handelt sich also um „versehentlich“ falsche Informationen, die von einer KI-Anwendungen generiert und weiterverbreitet wird. Die Gründe dafür sind vielfältig. Meist liegt jedoch die Ursache in den Daten, mit denen das jeweilige KI-Modell trainiert wurde. ChatGPT wurde etwa mit Informationen aus dem Internet gefüttert. Und dort tummeln sich auch viele mangelhafte Daten, d.h. falsche oder unwahre Fakten, die ChatGPT als „echt“ abspeichert. Das können überholte wissenschaftliche Erkenntnisse sein, die noch immer im Internet kursieren, Tippfehler oder falsche Beschriftungen von Bildern.
Fiktive Beispiele:
Auf einem Bild ist eine Katze dargestellt, aber als Bildunterschrift steht „Hund“. Wird ein KI-Modell mit diesem Datensatz gefüttert, würde es das auf dem Bild dargestellte Tier als Hund abspeichern. Oder: Lange Zeit galt ein maßvoller Alkoholkonsum wie ein Glas Wein als gesundheitsfördernd. Die Deutsche Gesellschaft für Ernährung (DGE) kommt seit August dieses Jahres allerdings zu einem anderen Schluss. Demnach sei Alkohol auch in geringen Maßen nicht gesund und viel mehr eine „psychoaktive Droge“. Die Empfehlung der Fachgesellschaft lautet daher: Null Promille ist die einzig sichere Devise. Die zahlreichen Artikel im Internet, die auf die früheren Erkenntnisse referenzieren und geringen Mengen Alkohol eine gesundheitsfördernde Wirkung nachsagen, verbleiben trotzdem im Internet. Fragt man nun eine KI-Anwendung, die mit wissenschaftlichen oder anderen Arten von gesundheitsbezogenen Artikeln aus dem Internet gefüttert wurde, nach den Wirkungen von Alkohol, könnte sie unter Umständen die Antwort geben, dass Alkohol in geringem Maße gesundheitsfördernd sein kann. Und diese Aussage wird dann eben vom KI-System ausgeworfen, obwohl bereits gegenteilige wissenschaftliche Erkenntnisse vorliegen.
Aber nicht nur überholte, falsche oder unwahre Fakten können dazu führen, dass KI-Anwendungen falsche Antworten liefern. Dies geschieht beispielsweise auch, wenn KI-Modelle mit im Internet veröffentlichten Satire-Artikel oder Parodien gefüttert werden. Wenn die KI die ironische Absicht dahinter nicht erkennt, kann das Ergebnis, das darauf basierend ausgegeben wird, verfälscht sein. Auch unvollständige Datensätze können dazu führen, dass KI-Anwendungen falsche Antworten geben. ChatGPT hat, wie die meisten KI-Anwendungen, beispielsweise in bestimmten Bereichen mangels Datenbasis kein „Wissen“. Das Problem ist, dass KI-Anwendungen so konzipiert sind, dass sie auf alle Fragen eine Antwort liefern – in manchen Fällen auf Kosten der Wahrheit – und sich im Zweifel Antworten ausdenken. In den Fällen, in denen kein Wissen vorhanden ist, erfindet die KI Fakten, um eine vollständige Antwort geben zu können. Dieses Phänomen nennt sich „Halluzination“.
Das Internet ist voll von überholten, falschen oder unwahren Informationen und sie fließen dort, wo Daten aus dem Internet als Trainingsmaterial verwendet werden, meist ungefiltert oder schlecht gefiltert in die KI-Modelle ein. Darüber hinaus könnte mit steigender Nutzung generativer KI-Anwendungen auch die Verbreitung von KI generierten Inhalten im Internet zunehmen. Das könnte wiederum dazu führen, dass KI-Modelle zukünftig mit diesen, zum Teil auch falschen und ungefilterten, KI generierten Inhalten trainiert werden, was zu einer weiteren Verzerrung der Wirklichkeit im Internet führen könnte. Seien Sie sich daher bewusst, dass eine KI-Anwendung und die Qualität ihrer Ergebnisse stets abhängig von ihren Trainingsdaten sind.
Reales Beispiel:
Wir haben in einem Selbstversuch einen KI-Chatbot gefragt: „Wie oft kommt der Buchstabe „r“ im Wort „Rechtschreibfehler“ vor? Der Chatbot gab uns die Antwort „Im Wort „Rechtschreibfehler“ kommt der Buchstabe “r“ zwei Mal vor“, was nicht korrekt ist. Die korrekte Antwort wäre gewesen, dass sich im Wort „Rechtschreibfehler“ drei Mal der Buchstabe „r“ befindet. Bei einem weiteren Versuch gab uns der KI-Chatbot die korrekte Antwort. Als wir allerdings weiter nachhaken mit der Frage „Bist Du Dir sicher, sind es nicht zwei „r“?“ Antwortete der Chatbot „Entschuldige die Verwirrung. Du hast recht: Im Wort „Rechtschreibfehler“ sind tatsächlich zwei „r“ vorhanden. Vielen Dank für die Korrektur“. Das zeigt, dass KI-Chatbots sich auch verunsichern lassen oder nicht immer sicher in ihren Antworten sind.
Erklärendes Beispiel:
Ein:e Nutzer:in fragt einen Chatbot nach den gesundheitlichen Vorteilen von bestimmten Lebensmitteln und dieser listet eine Reihe von positiven Effekten auf, die wissenschaftlich nicht belegt sind oder sogar erwiesenermaßen falsch sein können.
Desinformationen und Deepfakes
Generative KI-Anwendungen lassen sich nicht nur dazu nutzen, um die Einladungskarte zu einer Geburtstagsfeier mit einem KI-generierten Einladungstext zu versehen oder einem KI-generierten Bild von einer Geburtstagstore aufzuhübschen. Sie lassen sich auch dazu nutzen, um täuschend echt wirkende Desinformationen zu generieren, mit denen Menschen beispielsweise in ihrer (politischen) Meinungsbildung in eine bestimmte Richtung beeinflusst werden können. So können mit KI-Anwendungen auf Knopfdruck und in großem Umfang überzeugende Texte, Bilder oder Videosequenzen generiert werden, die frei erfundene Informationen oder Szenen darstellen. Das nennt man dann Deepfake (englisches Schachtelwort aus den Begriffen „Deep Learning“ und „Fake“). Als Laie kann man in vielen Fällen kaum noch erkennen, dass es sich nicht um ein echtes, sondern um ein künstlich erzeugtes Bild oder Video handelt. Da die Qualität der künstlich erzeugten Bilder in den nächsten Jahren rasant zunehmen wird, wird es zukünftig auch immer schwieriger, Deepfakes mit dem bloßen Auge direkt zu erkennen. Zwar gibt es erste Ansätze, KI-generierte Inhalte, wie Bilder oder Videos, mit entsprechenden „KI-Warnhinweisen“ oder sogenannten (digitalen) „KI-Wasserzeichen“ als solche zu kennzeichnen. Dabei soll es auch möglich sein, dass KI-generierte Inhalte automatisch von dafür entwickelten Systemen erkannt und entsprechend kenntlich gemacht werden. KI-Wasserzeichen lassen sich allerdings unter Umständen technisch entfernen, sodass sie nur bedingt vor Deepfakes schützen können. Darüber hinaus haben erste Fälle gezeigt, dass automatisierte Systeme nicht unbedingt treffsicher als Instrument zur Erkennung von Deepfakes funktionieren. So wurden bereits zahlreiche Bilder auch dann von Systemen als KI generiert erkannt und eingestuft, wenn mithilfe entsprechender Bildbearbeitungs-Tools lediglich wenige Schönheitskorrekturen am Original vorgenommen wurden – so wie es im Bereich der Bildbearbeitung schon lange üblich ist.
Reales Beispiel:
Vor Wahlen wie der in der EU wurden schon Desinformations-Kampagnen erkannt, die das Ziel verfolgten, die politische Meinung von Wählern und damit auch Wählerstimmen zu beeinflussen. Mit den neuen Möglichkeiten, die KI-Technologien mit sich bringen, können entsprechende KI-Anwendungen auch dazu genutzt werden, um innerhalb kürzester Zeit qualitativ hochwertig manipulierte Inhalte zu generieren und im Internet zu streuen. So äußerte beispielsweise OpenAI, das Softwareunternehmen, das ChatGPT entwickelt hat, gegenüber der Presse, staatlich unterstütze Akteure hätten die Künstliche Intelligenz von ChatGPT für ihre Desinformations-Kampagnen genutzt. Demnach wurden mithilfe von ChatGPT automatisiert Fake-Profile auf sozialen Netzwerken erstellt und manipulative Beiträge sowie Kommentare generiert, die so wirkten als seien sie von echten Personen geschrieben und die in unterschiedlichen Sprachen auf sozialen Netzwerken gepostet wurden. Ziel dieser Beiträge war es, bei den Nutzer:innen bewusst Angst und Hetze gegen bestimmte Gruppen zu schüren.
Reales Beispiel:
Am 22. Mai 2024 verbreitete sich auf dem Kurznachrichtendienst X (ehemals Twitter) ein gefälschtes Foto von einer angeblichen Explosion in der Nähe des Pentagons. Die angebliche Explosion hat es jedoch nicht gegeben, das Foto wurde laut Experten mithilfe Künstlicher Intelligenz erstellt. Obwohl die US-Behörden das Foto schnell als Fälschung enttarnten, erkannten viele Nutzer:innen den Fake nicht und das Bild verbreitete sich im Internet weiter.
- 4.2 KI-Anwendungen sind nicht neutral und können diskriminieren: Diskriminierung / Systematische Verzerrungen (sog. Bias)
Maschinen und Technologien wie die Künstliche Intelligenz werden oft als neutral und objektiv wahrgenommen, weil sie keine Emotionen haben, die sie in ihren Entscheidungen beeinflussen können. Aber Studien und Erfahrungsberichte zeigen, dass auch KI-Systeme erhebliches Diskriminierungspotenzial bergen und genauso diskriminierend sein können wie Menschen. Grund dafür sind vor allem die Daten, mit denen KI-Modelle trainiert werden. Diese können Verzerrungen aufweisen, die während des Trainings an das KI-Modell weitergegeben werden. Schwierig hierbei ist auch, dass oft nicht genau zurückverfolgt werden kann, wie in konkreten Fällen diskriminierende Entscheidungen von KI-Anwendungen überhaupt zu Stande kommen. Diskriminierung von KI-Anwendungen ist in den seltensten Fällen gezielt, sondern „versteckt“ sich in den großen Mengen an Datenätzen, mit denen KI-Anwendungen trainiert werden. Insofern sind KI-Systeme und -Anwendungen so diskriminierend und voreingenommen wie die Daten, auf denen sie basieren und wie die Entwickler:innen, die sie programmieren.
Erklärendes Beispiel:
KI-Anwendungen können in den Fällen, in denen sie Bilder von Menschen aus bestimmten Berufsgruppen generieren, hohes Diskriminierungspotential aufweisen. Bittet man beispielsweise eine KI-Anwendung darum, ein Bild von einem Arzt zu generieren, werden die abgebildeten Personen mit hoher Wahrscheinlichkeit weiße und westlich aussehende Männer darstellen. Menschen mit schwarzer Hautfarbe werden in den meisten Fällen selbst dann nicht als Ärzte dargestellt, wenn man die Anwendung explizit dazu auffordert.
Ähnlich werden Frauen von KI-Modellen mit „klassischen“ Frauenberufen assoziiert, wie etwa Sekretärin oder Erzieherin und nicht Ärztin. Das liegt daran, dass die dahinter stehenden KI-Modelle mit entsprechenden Bildern, die durch die Weltanschauung westlicher Industrieländer geprägt sind, trainiert wurden.- 4.3 KI-Anwendungen sammeln eine Menge personenbezogener Daten und lesen Menschen: Datenschutz
Mit dem Einsatz von KI gehen zahlreiche Fragen rund um den Datenschutz einher, die sich durch mehrere Phasen – vom Training der KI – bis zur Nutzung der von der KI generierten Ergebnisse – hinweg stellen. Denn in all diesen Phasen können personenbezogene Daten (also Informationen, die eine Person betreffen) von der KI erhoben, gespeichert, verarbeitet oder ausgegeben werden. Nachfolgende Liste zeigt die unterschiedlichen Phasen vom Training der generativen KI bis zur Nutzung der von der KI generierten Ergebnisse und inwiefern personenbezogene Daten in diesen Phasen eine Rolle spielen.
Trainingsphase
Erhebung des Trainingsmaterials
Bevor mit dem eigentlichen Training von KI-Systemen gestartet werden kann, muss in einem ersten Schritt geeignetes Trainingsmaterial, d.h. Trainings- und Testdaten, gesammelt sowie strukturiert oder kategorisiert werden. Das gesammelte Material, das für das Training von KI-Modellen genutzt wird, besteht aus Daten unterschiedlichen Ursprungs (siehe „Woher kommt das Trainingsmaterial?“) und kann neben Wissenstexten und sachlichen Informationen auch personenbezogene Daten beinhalten. Da im Rahmen der Datenerhebung theoretisch alles, was im Internet jemals veröffentlicht wurde und öffentlich zugänglich ist, durchforstet und extrahiert wird, können sich im Trainingsmaterial auch zahlreiche Bilder und Informationen von Personen befinden, die zum Beispiel in öffentlich zugänglichen Social-Media-Accounts, Online-Foren, Blogs oder Plattformen mit (lizenzfreien) Bildern veröffentlicht wurden. Seien Sie sich daher bewusst: Informationen, die Sie bei der Nutzung des Internets (z.B. Blog-Beiträge, Postings in Foren) oder von digitalen Diensten wie Sozialen Netzwerken preisgeben, könnten zukünftig immer stärker Teil des Trainingsmaterials von KI-Modellen werden.Verarbeitung von Daten für das Training von KI-Modellen
Im nächsten Schritt wird das KI-Modell entwickelt, wobei für das anfängliche Training des Modells ggf. auch die im Trainingsmaterial befindlichen personenbezogenen Daten verarbeitet werden (siehe Trainingsmaterial). Bei der Verarbeitung dieser Daten könnte das KI-System darüber hinaus Informationen, die teilweise sensibler Natur sein können (z.B. politische Gesinnung, gesundheitlicher Zustand oder ethnische Herkunft) miteinander verknüpfen und daraus umfangreiche Nutzerprofile bilden. Bestehen diese Nutzerprofile einmal, können Rückschlüsse auf Lebensumstände, Charaktereigenschaften oder Zahlungsbereitschaft von natürlichen Personen ermöglicht werden.Entwickler:innen können theoretisch auch bewusst bestimmte Informationen in den Trainingsdaten unterbringen, um die Ergebnisse der KI zu beeinflussen. Denn die KI kennt kein Richtig oder Falsch. Wenn die Trainingsdaten zum Beispiel viel öfter die Aussage „Männer werden schwanger“ enthalten als „Frauen werden schwanger“, wird die KI in ihren Ergebnissen folglich schwangere Männer liefern. Man spricht dann von einem Bias – Verzerrung oder Beeinflussung.
Anwendungsphase
Bereitstellung der KI-Anwendung
Viele KI-Anwendungen lassen sich nur durch das Anlegen eines Nutzer-Accounts nutzen. Dabei müssen häufig personenbezogene Daten wie Name, E-Mail-Adresse oder Handynummer angegeben werden, womit Nutzer:innen eindeutig oder zumindest indirekt identifizierbar und ihre Eingaben in die jeweilige KI-Anwendung eindeutig zuordenbar sind.Nutzung der KI-Anwendung
Bei der Nutzung von KI-Anwendung können, je nach Kontext, weitere personenbezogene Daten anfallen, etwa wenn Nutzer:innen in ihren Prompts selbst personenbezogene Daten wie Name, Geburtsdatum oder Geburtsort (von Dritten) angeben oder Bilder hochladen, auf denen Personen zu sehen sind. Darüber hinaus bieten viele KI-Anwendungen neben dem Upload von Bildern auch die Möglichkeit an, weitere Daten hochzuladen, wie Dokumente, Grafiken oder Tabellenblätter, die mitunter personenbezogene Daten enthalten können.Insbesondere in den Fällen, in denen KI-Anwendungen mit einem Nutzerkonto verknüpft sind, können darüber hinaus alle Eingaben eindeutig dem Nutzerkonto zugeordnet werden und zahlreiche Informationen über die Nutzer:innen preisgeben. Denn Prompts können Rückschlüsse auf Interessen oder Lebensumstände der Nutzer:innen geben. Das ist vor allem deshalb kritisch, weil beim Großteil der KI-Anwendungen standardmäßig alle Eingaben und Interaktionen zwischen Nutzer:innen und der KI gespeichert und für das Training des dahinterstehenden KI-Modells verwendet werden.
Outputphase
Von der KI ausgegebenes Ergebnis
Nicht jedes Ergebnis, das eine KI-Anwendung generiert, ist komplett frei erfunden. Vielmehr ist es ein Resultat dessen, was das dahinterstehende KI-Modell auf der Basis der Trainingsdaten gelernt hat. So kann auch bei Ausgaben der Ergebnisse eine datenschutzrechtlich relevante Verarbeitung vorliegen. Es könnte zum Beispiel ein Text, den eine KI-Anwendung ausgegeben hat, personenbezogene Daten enthalten. Ein künstlich generiertes Bild könnte Ähnlichkeit mit einer real existierenden Person aufweisen, die auf einem der Bilder abgebildet war, die zum Training des KI-Modells verwendet wurden.Weiterverwendung der von der KI-Anwendung generierten Ergebnisse
Auch bei der (Weiter-)Verwendung der von der KI-Anwendung generierten Ergebnisse stellen sich datenschutzrechtliche Fragen. Denn für die Weiterverwendung von Ergebnissen, die personenbezogene Daten enthalten (z.B. Veröffentlichen von KI-generierten Bildern auf der eigenen Homepage oder im Social-Media-Account) sind Sie persönlich datenschutzrechtlich verantwortlich.Beim Einsatz von Künstlicher Intelligenz gibt es neben Fragen zur Verarbeitung personenbezogener Daten auch zusätzliche Datenschutzprobleme, besonders wenn es um die Rechte von Betroffenen geht. Ein wichtiges Ziel der EU-Datenschutzgrundverordnung (EU-DSGVO) ist es, die Selbstbestimmung über Ihre eigenen personenbezogenen Daten zu schützen. Neben einigen „Spielregeln“ der Datenverarbeitung stehen den Betroffenen auch einige Rechte zu. Mit diesen Betroffenenrechten haben Sie die Möglichkeit, die Verantwortlichen zu kontrollieren und Einfluss auf die Verarbeitung Ihrer personenbezogenen Daten zu nehmen. So haben Sie unter anderem das Recht, von einem Anbieter Auskunft darüber zu erhalten, ob und welche Daten über Sie gespeichert sind, auf welcher Rechtsgrundlage und zu welchen Zwecken diese verarbeitet werden und an wen die Daten gegebenenfalls weitergegeben werden. Sie haben auch das Recht, gespeicherte falsche Daten über sich berichtigen zu lassen oder unter bestimmten Voraussetzungen zu fordern, dass Daten gelöscht werden. Zudem sind die für die Datenverarbeitung Verantwortlichen zur Transparenz verpflichtet. Das heißt, die Informationen darüber, für welche Zwecke personenbezogene Daten erhoben und wie verarbeitet werden, müssen leicht zugänglich und verständlich sein. Unter bestimmten Umständen müssen Betroffene auch über die involvierte Logik einer automatisierten Entscheidung, die über sie getroffenen wurde, informiert werden. Wurde beispielweise eine Entscheidung über die Gewährung eines Kredits mittels KI getroffen, muss der Verantwortliche beispielweise erklären, welche Faktoren bei der automatisierten Entscheidung eingeflossen sind.
Weitere Transparenzpflichten ergeben sich durch die europäische KI-Verordnung (engl. AI-Act), die am 1. August 2024 in Kraft getreten und zwei Jahre nach Inkrafttreten anzuwenden ist.
- Artikel: „Ihre Daten, Ihre Rechte: die Datenschutzgrundverordnung (DSGVO)“
- Faktenblatt: „Die DSGVO: Meine Daten – Meine Rechte“
Alle diese Rechte gelten grundsätzlich auch in den Fällen, in denen Technologien der Künstlichen Intelligenz zum Einsatz kommen und damit eine Verarbeitung personenbezogener Daten einhergeht. Allerdings ist derzeit noch unklar, wie die datenschutzrechtlichen Betroffenenrechte beim Einsatz von generativen KI-Anwendungen in der Praxis gewährleistet werden können. Denn aufgrund der Selbstständigkeit der KI bzw. von KI-Modellen, die durch den stetigen Lernprozess neue Daten analysieren und ihr Neuronales Netz weiterentwickelen, ist für Außenstehende und auch für Betreiber:innen der KI-Anwendung kaum nachvollziehbar, welche Daten in welcher Weise verarbeitet werden. Die Durchsetzung der Betroffenenrechte stößt in der Praxis daher auf Grenzen. Es bleibt abzuwarten, wie das Datenschutzrecht mit KI-Anwendungen in Einklang gebracht werden kann.
Reales Beispiel (einem Beitrag von SWR Aktuell Baden-Württemberg entnommen):
Ein Kultur-Journalist aus Tübingen, der sich nie etwas zu Schulden kommen ließ, wollte mithilfe des KI-Chatbots „Copilot“ herausfinden, wie seine Artikel im Netz ankommen. Dazu gab er bei seiner Abfrage seinen Namen und Wohnort ein, um zu erfahren, was der KI-Chatbot über ihn zu erzählen hat. Zur Verwunderung des Journalisten gab der Chatbot die Antwort, dass es sich bei der angegebenen Person aus Tübingen um einen verurteilten Mehrfachstraftäter handele. Dabei gab der Chatbot sogar Adresse und Telefonnummer des mutmaßlichen Straftäfers an. Wie konnte das passieren?
Es stellte sich heraus, dass das KI-Modell einen falschen Schluss aus den Daten gezogen hat, mit denen es trainiert wurde. Der Journalist war jahrelang Gerichtsreporter und hat für Zeitungen über Gerichtsprozesse aus dem Landgericht Tübingen berichtet. Dabei handelten die Prozesse von Straftaten wie Betrug, Gewalt und Missbrauch, mit denen der Journalist jetzt in Verbindung gebracht wird. Die KI wurde mit diesen Zeitungsartikeln gefüttert und macht ihn als Autor dieser Artikeln fälschlicherweise zum Straftäter. Daraufhin fordert der Journalist von Microsoft, die entsprechenden Falschinformationen über ihn zu löschen und ist damit zuerst erfolgreich. Denn: Fragt man danach die KI nach dem Namen des Journalisten samt Wohnort, tauchen die monierten Falschinformationen nicht mehr auf. Drei Tage später ist davon allerdings wenig übrig. Der Journalist stellt bei einer erneuten Abfrage fest, dass Copilot mit der Ausgabe der Falschinformationen weitermacht.
Hierzu haben wir einige weiterführende Infos für Sie zusammengestellt:
- Musterbrief: „Auskunft und Kopie der personenbezogenen Daten“
- Interaktive Briefvorlage: „Auskunft und Kopie der personenbezogenen Daten“
- Interaktiver Musterbrief: "Auskunft bei automatisierter Einzelfallentscheidung (Scoring)"
- 4.4 KI-Anwendungen lassen sich für professionelle Cyber-Angriffe nutzen: Datensicherheit / Phishing
Mit der zunehmenden Verbreitung von KI-Anwendungen eröffnen sich auch neue Einsatzmöglichkeiten für Cyberkriminelle. Mit ihrer Hilfe lassen sich zum Beispiel sehr viel schneller, einfacher und im größeren Umfang als bisher professionelle Phishing-Mail-Kampagnen, Enkeltrick-Maschen und unerwartete Schockanrufe mit realistisch imitierten Stimmen von Angehörigen erstellen, die sich kaum noch als Fälschung entlarven lassen. Ziel solcher Maschen ist es, an sensible Daten oder Geld zu gelangen. Häufig geben sich Betrüger:innen dabei als nahe Verwandte aus (z.B. Kind, Enkelkind, Mutter) und behaupten, sich in einer Notlage zu befinden. Sie drängen auf schnelle finanzielle Hilfe durch die vermeintlichen Angehörigen, die sie aus dieser Notsituation herausholen sollen. Durch die perfekte Imitation der Stimmen mithilfe modernster KI-Technologien können die Angerufenen oft keinen Unterschied feststellen und halten die KI-generierte Stimme für die echte Stimme der Angehörigen. Was dagegen hilft? Vereinbaren Sie mit Ihren Verwandten ein Codewort und sprechen Sie es immer wieder in normalen Gesprächen an. Das gibt Routine und Sie können sich bei einem Schockanruf daran erinnern, nach dem Wort zu fragen.
- 4.5 Daten/Informationen, mit denen eine KI trainiert wurde, haben eine Herkunft: Urheberrechtsverletzungen
KI-Anwendungen generieren Texte, Bilder oder Videos zwar von alleine, können das aber auch nur, weil sie bzw. die dahinterstehenden KI-Modelle mit vielen bereits bestehenden Daten (z. B. Artikel, Bilder, Videos) aus unterschiedlichen Quellen (z. B. aus dem Internet) gefüttert und trainiert wurden. Das KI-Modell lernt die Muster und Strukturen der eingegebenen Trainingsdaten und erstellt darauf basierend neue Inhalte mit ähnlichen Eigenschaften. Dabei können die neuen Inhalte (Texte, Bilder, Videos) so viel Ähnlichkeit mit den Trainingsdaten aufweisen, dass sich die in das Modell eingegebenen Trainingsdaten darin wiederfinden. Heraus kommen dann Bilder mit Menschen, die etwa Ähnlichkeit mit real existierenden Personen haben, oder Texte, die Formulierungen aus urheberrechtlich geschützten Werken enthalten. KI-Anwendungen machen aber in der Regel keine Quellenangaben, d.h. sie geben keine Informationen über die verwendeten Daten und deren Herkunft. Nutzer:innen wissen daher in den meisten Fällen nicht, auf welche Quellen sich die Anwendungen bei ihren generierten Antworten berufen und woher die jeweiligen Informationen stammen. Genauso wenig können sie auf den ersten Blick einschätzen, ob die Ergebnisse Ähnlichkeit mit bereits bestehenden und unter Umständen oder urheberrechtlich geschützten Texten, Bildern oder Videos aus dem Internet haben.
Auch stellt sich die Frage, ob es überhaupt rechtens ist, wenn Anbieter von KI-Anwendungen ihre dahinterstehenden KI-Modelle mit sämtlichen, unter Umständen auch urheberrechtlich geschützten Inhalten aus dem Internet trainieren. Es gibt bereits erste Klagen gegen Anbieter von KI-Anwendungen wegen Urheberrechtsverletzungen, die weitreichende Folgen für die KI-Wirtschaft, aber auch für Nutzer:innen von KI-Anwendungen haben könnten.
Reales Beispiel:
Der Zeitungsverlag „Die New York Times“ (NYT) hat eine Klage gegen Microsoft und OpenAI eingereicht , in der er behauptet, OpenAI und Microsoft hätten für das Training ihrer KI-Modelle illegal Millionen von Zeitungsartikeln kopiert und genutzt, ohne Lizenzgebühren zu zahlen oder eine entsprechende Erlaubnis beim Verlag einzuholen. Die NYT verlangt daher Schadenersatz in Milliardenhöhe für das "unrechtmäßige Kopieren und Ausnutzen" ihrer "einzigartig wertvollen" journalistischen Werke.
Reales Beispiel:
Auch die Musikindustrie geht gegen Anbieter von KI-Anwendungen vor. So hat der Verband der Plattenlabels RIAA in den USA Klagen gegen die KI-Anbieter Suno und Udio eingereicht. Beide KI-Anwendungen sind in der Lage, nur auf der Basis von Texteingaben in wenigen Minuten neue Songs zu generieren. Die generierten Songs sollen allerdings Ähnlichkeit mit bekannten Songs von Künstler:innen wie bspw. Mariah Carey aufweisen. Daher wirft der Verband der Plattenlabels in seiner Klage den beiden KI-Anbietern vor, ihre Song-Generatoren bzw. die dahinterstehenden KI-Modelle mit urheberrechtlich geschützten Musikstücken trainiert zu haben.
Aktuell sind die geschilderten Klageverfahren noch nicht abgeschlossen. Eine erfolgreiche Klage könnte zahlreiche weitere Klagen von Medienunternehmen auslösen, die ebenfalls Schadensersatz einfordern. Was bedeutet das Urheberrecht aber für Sie als Nutzer:in: Sollten Sie mit einer KI-Anwendung Texte, Bilder oder Videos generieren, könnten Sie bei der Weiterverwendung dieser Ergebnisse ebenfalls gegen Urheberecht verstoßen – zum Beispiel wenn Sie einen von der KI generierten Text in Ihrem Blog veröffentlichen oder KI-generierte Bilder auf Ihrer eigenen Internetseite verwenden, ohne auf eine entsprechende Quelle zu verweisen. Ein von einer KI generiertes Bild könnte auch eine Person zeigen, die soweit Ähnlichkeit mit einer realen Person hat, dass hier das Urheberrecht greift.
Insgesamt wirft der Einsatz von KI-Technologien demnach urheberrechtliche Fragen auf, die bisher noch nicht in Gänze beantwortet und gelöst werden können.
- 4.6 Tipps: Was Sie tun können, um sich vor möglichen negativen Konsequenzen zu schützen, die sich aus dem Einsatz von KI-Anwendungen ergeben könnten
- Entwickeln Sie kritisches Denken und Informationskompetenz. Konsumieren Sie Inhalte vor allem in sozialen Netzwerken nicht unreflektiert. Seien Sie aufmerksam bei jeglichen Inhalten im Internet (auf Korrektheit prüfen, auf KI-Wasserzeichen achten, auf Quellenangaben achten bzw. Quellen prüfen).
- Seien Sie sensibel für Phishing-Versuche oder Enkeltrick-Anrufe, die mithilfe von KI täuschend echt wirken können. Seien Sie sich bewusst, dass KI-Systeme theoretisch auch in der Lage sind, täuschend echt wirkendes Videomaterial zu erstellen, in denen vermeintliche Familienangehörige, Freunde oder Kolleg:innen zu sehen sind und mit Ihnen sprechen könnten. Sprechen Sie mit Ihren Familienangehörigen / Ihrem sozialen Umfeld über diese Betrugsmasche und klären Sie sich gegenseitig auf. Üben Sie richtiges Verhalten in Notfallsituationen und vereinbaren Sie mit Ihren Angehörigen ein Codewort. Nennen Sie dies gegenseitig auch immer wieder in normalen Gesprächen, um es nicht zu vergessen. Bewahren Sie Ruhe in ungewöhnlichen Notfallsituationen – wenn Sie zum Beispiel unerwartet einen panischen Anruf von Familienangehörigen erhalten mit der Bitte, sensible Informationen zu nennen oder Geld zu bezahlen. Gehen Sie unter keinen Umständen auf die Geldforderungen ein! Der einfachste Weg ist es, den Anruf erst einmal zu beenden und die entsprechende Person auf ihrer "alten" bzw. bekannten Handynummer oder Festnetznummer anzurufen. Rufen Sie unter keinen Umständen die Person einfach zurück, sondern nehmen sie die Rufnummer, die in Ihrem Adressbuch im Smartphone gespeichert ist. Oft fliegt der Schwindel dadurch schon auf. Die Nummer des Absenders können Sie blockieren, um keine weiteren Nachrichten zu erhalten.
- Kennen Sie Ihre Rechte der Datenschutzgrundverordnung (DSGVO) und üben Sie sie aus. Mit der DSGVO stehen Ihnen wichtige Rechte zu (so genannte Betroffenenrechte), mit denen Sie zum einen Transparenz darüber erhalten, ob und welche personenbezogenen Daten Anbieter über Sie gespeichert haben und auf welcher Rechtsgrundlage und zu welchen Zwecken diese verarbeitet werden (Auskunftsrecht). Zum anderen können Sie auch Einfluss auf die Verarbeitung Ihrer personenbezogenen Daten nehmen. So haben Sie beispielsweise das Recht, gespeicherte falsche Daten über sich berichtigen zu lassen (Recht auf Berichtigung) oder unter bestimmten Voraussetzungen zu fordern, dass Daten gelöscht werden (Recht auf Löschung / Recht auf Vergessenwerden). Lesen Sie hier im Detail, welche weiteren Rechte Ihnen mit der DSGVO zustehen.
Lerneinheit laden: Erst wenn Sie auf "Inhalt anzeigen" klicken, wird eine Verbindung zu H5P hergestellt und Daten werden dorthin übermittelt. Hier finden Sie dessen Hinweise zur Datenverarbeitung.