Risiken generativer KI in sozialen Medien und die Verantwortung von Plattformen, Politik und Nutzer:innen

Große Sprachmodelle (Large Language Models – LLMs) als Kategorie generativer künstlicher Intelligenz (KI) werden zunehmend zu einem festen Bestandteil unseres digitalen Alltags. So hat beispielsweise der Konzern Meta mit „Meta KI“ ein generatives KI-System in seine Plattformen Facebook, Instagram und WhatsApp integriert. Dieses fungiert als intelligenter Assistent, mit dem Nutzer:innen chatten, Texte übersetzen oder Nachrichten entwerfen können. LLMs, die somit den Kernbestandteil vieler moderner KI-Systeme bilden, gehören dabei zu den transformativsten Technologien unserer Zeit (Siehe z. B. den Bericht der OECD zum Einsatz von KI in der Forschung aus dem Jahr 2023). Doch während ihr Einsatz deutliche Potenziale birgt, gehen damit auch erhebliche Bedenken einher, die sich insbesondere in grundrechtlichen Risiken niederschlagen.

Kontext und Risikodimensionen

Große sogenannte soziale Netzwerke nehmen heute eine besonders dominante Stellung im digitalen Raum ein, da sie Menschen eine Plattform bieten, um sich auszutauschen und zu informieren. Damit werden sie zu einem zentralen Schauplatz der Ausübung, aber auch möglicher Einschränkungen von Grundrechten, wie dem Recht auf Meinungs- und Informationsfreiheit, weitab von ihrem historischen Selbstverständnis als reine „Abwehrrechte gegen den Staat“. Setzen diese großen Plattformanbieter nun auch noch künstliche Intelligenz ein, tritt eine weitere „Risikodimension“ für die Grundrechte hinzu.

Unternehmen in der Pflicht

Manche Grundrechte gelten aufgrund ihrer Verankerung in einfachgesetzlichen Bestimmungen nicht nur gegenüber dem Staat, sondern auch gegenüber Privaten. So etwa der Datenschutz bzw. das Recht auf Privatsphäre, das im Fall des Einsatzes generativer KI auf Social-Media-Plattformen berührt ist. Denn sowohl das Training als auch der Einsatz generativer KI erfordern eine große Menge an Daten, wobei es sich um personenbezogene Daten (z. B. Name, Alter usw.) und sogar um sensible Daten handeln kann, welche die intimste Sphäre von Menschen betreffen (z. B. Gesundheitsdaten). Beispielsweise können bei WhatsApp bestimmte Metadaten wie Zeitstempel, App-Interaktionen und die Interaktion der Nutzer:innen mit der KI selbst für das KI-Training und die Optimierung verwendet werden, persönliche Nachrichten bleiben aber Ende-zu-Ende-verschlüsselt. Werden diese Daten auf unzulässige Weise verarbeitet, beispielsweise zu lange gespeichert oder zweckwidrig weiterverarbeitet, liegen gravierende Grundrechtseingriffe vor.

Eng damit verbunden sind die grundrechtlichen Risiken, die von algorithmischer Diskriminierung und Voreingenommenheit („Bias“) ausgehen, da die Auswahl, Qualität und Repräsentativität der Daten, die zum Trainieren des Modells verwendet werden, zu Verzerrungen führen können. Dies wiederum kann sich in diskriminierenden Ausgaben der KI niederschlagen und bestehende soziale Ungleichheiten verstärken oder sogar völlig neue Ungleichheiten schaffen, und somit das Recht auf Nichtdiskriminierung verletzen. So wurde beispielsweise gezeigt, dass LLMs wie GPT-3 (das unter anderem dem bekannten Chatbot „ChatGPT“ von OpenAI zugrunde liegt) Geschlechterstereotypen verstärken, indem sie Männern überproportional Führungs- und technische Rollen und Frauen eher Pflege- und Verwaltungsaufgaben zuschreiben.

Weitere Risiken und Rechtsschutzlücken

Zudem bestehen weitere Risiken, die sich entweder nicht als grundrechtliche Ansprüche gegenüber Unternehmen durchsetzen lassen oder überhaupt nicht in deren direkter Einflusssphäre liegen und damit gewissermaßen eine Rechtsschutzlücke zurücklassen.

Darunter fällt etwa das Phänomen des „automation bias“, d. h. die Tendenz, sich ohne kritische Überprüfung auf automationsgestützte Entscheidungssysteme zu verlassen. Dies kann dazu führen, dass Ausgaben des Systems in der Praxis als gültig angesehen werden, obwohl sie falsche oder unvollständige Informationen liefern. Ernsthafte Risiken können die Folge sein, insbesondere wenn sich Nutzer:innen in heiklen Belangen auf sie verlassen (z. B. bei rechtlichen oder medizinischen Ratschlägen) oder zu gefährlichen, unethischen oder gar illegalen Handlungen ermutigt werden.

Außerdem können böswillige Akteur:innen LLMs ausnutzen, um manipulierte Inhalte zu erzeugen oder Desinformationen zu verbreiten. Damit verknüpft ist das Phänomen von „Deepfakes“, also künstlich erzeugte Inhalte, die echten Personen, Gegenständen oder Orten derart ähneln, dass sie fälschlicherweise für echt gehalten werden. Diese Entwicklungen können wiederum die freie Entscheidungsbildung, das Recht auf Meinungs- und Informationsfreiheit sowie den öffentlichen Diskurs gefährden. Dies bedeutet, dass die Risiken von generativer KI – potenziert durch deren Einsatz auf Social-Media-Plattformen – nicht rein auf die Grundrechtsebene Einzelner beschränkt werden können, sondern gesamtgesellschaftlich relevant werden.

DeepMind-Forscher haben auf weitere Risiken hingewiesen, unter anderem die erheblichen Umweltauswirkungen durch den enormen Ressourcenverbrauch von LLMs. Darüber hinaus sind die Vorteile von und der Zugang zu LLM-basierten Technologien oft ungleich verteilt, was neben grundrechtlichen Bedenken auch ethische Probleme nach sich zieht. Die daraus resultierenden Risiken werden umso bedeutender, je stärker LLMs in die globale Wirtschaft integriert werden.

Grundrechtskonformität als Qualitätsmerkmal

Anbietern und Betreibern von KI auf Social-Media-Plattformen kommt somit eine besondere Verantwortung im Grundrechtsschutz zu. Denn selbst wenn manche Ansprüche nicht direkt gegen sie durchsetzbar sind, liegt es doch in ihrer Sphäre, den Grundrechtsschutz in der Gestaltung der Systeme zu berücksichtigen.

Sie agieren dabei nicht im „rechtsleeren“ Raum. Rechtsakte wie die Datenschutz-Grundverordnung (DSGVO) und die neue EU KI-Verordnung („KI-VO“, engl. AI Act) spielen eine Schlüsselrolle für die rechtskonforme Entwicklung und Nutzung von KI und ergänzen den bestehenden Menschenrechtsrahmen, indem sie ihn auf KI-Anwendungen übertragen.

So müssen laut KI-VO Anbieter von sogenannten Hochrisiko-KI-Systemen, die erhebliche Risiken für Sicherheit, Gesundheit oder Grundrechte Betroffener darstellen, unter anderem ein Risikomanagementsystem einrichten, Transparenzanforderungen erfüllen und menschliche Aufsicht sicherstellen. Ihre Systeme sind mit Datensätzen zu entwickeln, die bestimmten Qualitätskriterien genügen, etwa (möglichst) Repräsentativität und Vollständigkeit zur Vermeidung von Verzerrungen. Zudem sind bestimmte Betreiber (z. B. öffentliche Stellen) zur Durchführung einer Grundrechte-Folgenabschätzung verpflichtet.

Plattformanbieter haben darüber hinaus auch die Bestimmungen des Digital Services Act einzuhalten, der sich den Grundrechtsschutz besonders an die Fahnen geheftet hat.

Viele Bestimmungen gelten jedoch nicht für generative KI auf Social-Media-Plattformen, da sie nur bestimmte Anbieter und Betreiber betreffen oder begrenzte Einsatzbereiche umfassen. Außerdem erlangt die KI-VO nur gestaffelt Anwendbarkeit und viele Bestimmungen kommen erst ab August 2026 zur Anwendung. Dennoch können Unternehmen grundrechtskonform handeln, etwa durch die Implementierung technischer und organisatorischer Maßnahmen zur Berücksichtigung von Grundrechten über den gesamten KI-Lebenszyklus („Human Rights by Design“). So kann Grundrechtskonformität zu einem zentralen Merkmal werden, welches das Vertrauen der Nutzer:innen stärkt.

Schlüsselelemente einer verantwortungsvollen KI-Gestaltung

Ein zentrales Element verantwortungsvoller KI-Gestaltung ist Transparenz. Eine große Herausforderung stellt dabei jedoch die mangelnde Nachvollziehbarkeit KI-gestützter Entscheidungen dar (sog. „Black-Box-Problem“). Daher gewinnt erklärbare KI („explainable AI“, kurz XAI), die sowohl inhärent erklärbare Modelle als auch nachträgliche Erklärungsmethoden umfasst, zunehmend an Bedeutung. Betroffenen stehen in diesem Zusammenhang das Auskunftsrecht nach der DSGVO und ab August 2026 das Recht auf Erklärung nach Artikel 86 KI-VO als Rechtsschutzinstrumente zur Verfügung. Ergänzend bieten andere praktische Lösungen wie sogenannte „Model Cards“, die von Google-Forschern 2019 eingeführt wurden und nun Teil des neuen Verhaltenskodex für KI mit allgemeinem Verwendungszweck gemäß KI-VO bilden, mehr Transparenz, indem sie Kontext, Stärken und Grenzen eines Modells verständlich darstellen.

Darüber hinaus stellt die Vermeidung von „Bias“ in LLMs ein komplexes Problem dar. Denn hier ist es neben der Verwendung vielfältiger und repräsentativer Trainingsdaten erforderlich, dass Entwickler:innen Modelle mit Grenzfällen testen, schädliche Ergebnisse herausfiltern und die Systeme regelmäßig optimieren, um die Verstärkung von Stereotypen zu vermeiden. Dies bedeutet, dass sowohl technische Maßnahmen als auch ein soziales Bewusstsein und ein integratives Design erforderlich sind. Diese Bemühungen müssen ebenso die Gefahr der Erzeugung schädlicher Ergebnisse und der allgemeinen Steuerung des Verhaltens generativer KI-Modelle einbeziehen (oft als Modellanpassung bezeichnet).

Nutzenden sollte außerdem klar erkennbar sein, wann sie mit KI-generierten Inhalten in Berührung kommen. Problematisch ist dabei die zunehmende „Menschenähnlichkeit“ einiger LLM-Systeme, die zu Fehleinschätzungen ihrer Fähigkeiten führen kann. Die KI-VO schreibt daher ab August 2026 vor, dass künstlich erzeugte Inhalte gekennzeichnet, Deepfakes offengelegt und Nutzer:innen über die Interaktion mit KI informiert werden müssen. Plattformen sollten zudem offenlegen, wo und wie KI eingesetzt wird, welche Nutzerdaten verarbeitet bzw. zum KI-Training genutzt und ob Empfehlungen KI-gestützt personalisiert werden.

Größere gesellschaftliche Herausforderungen wie Desinformation erfordern hingegen ein koordiniertes Vorgehen von Politik, Zivilgesellschaft und weiteren Akteur:innen. Ergänzend leisten ethische Dokumente, wie die Ethik-Leitlinien für vertrauenswürdige KI, einen Beitrag, indem sie Prinzipien wie die Menschenwürde betonen. Zusätzliche Sicherheitsmaßnahmen umfassen partizipative Bemühungen zum Aufbau inklusiver Datensätze, die Priorisierung von Forschung zu robusten Modellen und die Gestaltung sicherer und transparenter Benutzeroberflächen bei KI-Interaktion.

KI-Kompetenz und informationelle Selbstbestimmung

Anbieter und Betreiber von KI können nicht jedes (Grundrechts-)Risiko ausschließen, da viele Gefahren durch die Verwendung seitens der Endnutzer:innen entstehen. Deshalb sollten diese im Sinne ihrer informationellen Selbstbestimmung Kompetenzen im Umgang mit KI entwickeln. Dies einerseits, um Grundrechtskonformität zu erkennen und ihre Produktauswahl daran auszurichten, da Konsumentscheidungen die Unternehmenspraxis mitgestalten. Andererseits stellt dies eine unabdingbare Voraussetzung dar, um die eigenen Grundrechte aktiv wahrnehmen zu können und nicht selbst die Grundrechte Dritter zu verletzen.

So sollten Menschen selbst entscheiden, ob sie KI-Funktionen wie automatische Antworten oder personalisierte Inhalte überhaupt wünschen, weshalb die Kenntnis über diese Möglichkeit essenziell ist. (Dies natürlich unter der Prämisse, dass diese Option überhaupt besteht. So hat beispielsweise die Einführung des Meta-KI-Assistenten unter anderem derart negative Reaktionen ausgelöst, weil die Nutzenden kein Mitspracherecht bei seiner Implementierung hatten.) Um jedoch sinnvoll an geplanten KI-Maßnahmen mitwirken und diese auch überprüfen zu können, ist ein ausreichendes Maß an Kompetenz im Umgang mit KI erforderlich. Denn ohne Verständnis dafür, wie KI-Systeme operieren und wie sie die Nutzererfahrung beeinflussen, sind selbst die transparentesten und nutzerfreundlichsten KI-Funktionen unbrauchbar. Dies spiegelt sich auch in der Verpflichtung für Anbieter und Betreiber nach der KI-VO wider, ein ausreichendes Niveau an KI-Kompetenz unter ihrem Personal und anderen Personen sicherzustellen.

Geteilte Verantwortlichkeit – gemeinsame Verantwortung

Die Grundrechtsrisiken von LLMs auf Social-Media-Plattformen erfordern ein systemisches Verständnis geteilter Verantwortung im KI-Ökosystem. Neben Entwickler:innen und Plattformbetreibern, die für Modellarchitektur, Schnittstellen und Moderation verantwortlich sind, müssen Regulierungsbehörden klare Rahmenbedingungen schaffen. Auch Nutzende sind als aktive Akteur:innen im Sinne eines „Empowerments“ zu stärken, wobei es gezielter Aufklärung über die Funktionsweise und Risiken von LLMs, transparenter Kontrollmöglichkeiten, niedrigschwelliger Beschwerdemechanismen und Förderung von KI-Kompetenz bedarf. Dieses Zusammenspiel adressiert nicht nur Risiken, sondern eröffnet auch Marktchancen, da grundrechtskonforme Systeme sowie ein verantwortungsvoller KI-Umgang Vertrauen fördern und für Unternehmen langfristige Wettbewerbsvorteile schaffen können. Zugleich liegt es auch an den Endnutzer:innen, sich zu informieren und ihre Rechte wahrzunehmen.

(Madeleine Müller, Anastasia Pustozerova, Tanja Šarčević, 18.6.2025)

Hinweis: Dieser Beitrag wurde als Blogpost (Verlinkung zum Orginialbeitrag) im Blog: Digital Human Rights auf derstandard.at publiziert.