Wie der Digital Services Act (DSA) Plattformen in die Pflicht nimmt und welche Herausforderungen bleiben
Dieser Artikel erschien als Blogpost unseres neuen Blogs Digital Human Rights auf derstandard.at.
Die Autorinnen Madeleine Müller, Heidi Scheichenbauer und Mirjam Tercero berichten darin über die Herausforderungen der Radikalisierung auf Social Media und erklären, wie der Digital Services Act (DSA) Plattformen zur Moderation extremistischer Inhalte verpflichtet, während dessen Umsetzung weiterhin Schwierigkeiten bereitet.
Die Verbreitung extremistischer Inhalte auf Social Media stellt zunehmend eine Gefahr dar – verstärkt durch die algorithmische Konzeption und unzureichende Moderation durch die Anbieter. Der Digital Services Act (DSA) verpflichtet Betreiber von Online-Plattformen zu Maßnahmen gegen rechtswidrige Inhalte, doch bleibt die Umsetzung herausfordernd.
Der geplante Anschlag auf das Taylor-Swift-Konzert und das Attentat in Villach haben zu einem erneuten Aufflammen der Diskussionen über eine „Messengerüberwachung“ geführt und sich zuletzt sogar als Vorhaben im neuen Regierungsprogramm hinsichtlich der Schaffung einer „verfassungskonformen Gefährderüberwachung“ niedergeschlagen. Zu selten wird der Fokus auf das vorgelagerte Problem gelegt: Die Verbreitung extremistischer Ideologien und Aufrufe zu Gewalt auf Social-Media-Plattformen wie Tiktok, Instagram oder Youtube.
Hass im Netz
Hass ist per se nicht verboten. Verboten sind jedoch gewisse Erscheinungsformen von Hasskriminalität bzw. Hassrede („Hate-Speech“). Im Einzelfall können durch entsprechende Äußerungen Straftatbestände der Gefährlichen Drohung, der Aufforderung zu mit Strafe bedrohten Handlungen und Gutheißung mit Strafe bedrohter Handlungen, Verhetzung oder Straftatbestände des Verbotsgesetzes 1947 erfüllt sein. Auch die Verwendung von Symbolen der Hamas, der Grauen Wölfe, der Identitären und der PKK ist verboten.
Was in der Offline-Welt strafrechtlich verboten ist, ist auch in der virtuellen Welt nicht legal, soweit der Konsens. Die Rechtsdurchsetzung gestaltet sich jedoch teilweise als hürdenreicher, unter anderem aufgrund der (vermeintlichen) Anonymität und grenzüberschreitenden Sachverhalten. Aus diesem Grund sowie wegen der niederschwelligen Verbreitungsmöglichkeiten von Inhalten im digitalen Raum fällt es extremistischen Organisationen und Personen insbesondere auf Social Media noch immer zu leicht, ihre Inhalte zu teilen, um (insbesondere auch sehr junge) Nutzer:innen zu radikalisieren. Die algorithmische Konzeption von Online-Plattformen trägt wesentlich dazu bei, dass sich Betroffene schnell in extremistischen Filterblasen wiederfinden können und damit vor allem bei Jugendlichen die Gefahr besteht, sich zu radikalisieren. Im Extremfall kann sich diese Radikalisierung in weiterer Folge in Straftaten gegen Leib und Leben in der Offline-Welt manifestieren.
Wie bekämpft der DSA Hass im Netz?
Im DSA sind verschiedene Mittel zur Bekämpfung von Hass im Netz vorgesehen. Er verpflichtet etwa zur Einrichtung eines einfachen Meldesystems, mit dem Nutzende Hinweise auf rechtswidrige Inhalte direkt an die Plattform-Betreiber abgeben können. Hinweise von zertifizierten Stellen, so genannte „vertrauenswürdigen Hinweisgebern“, sind bevorzugt zu behandeln. Dazu zählt in Österreich zum Beispiel Rat auf Draht. Als Betroffene:r empfiehlt es sich daher, sich direkt an diese Stellen zu wenden. Erkennt ein Plattformbetreiber aufgrund einer Meldung rechtswidrige Inhalte, so sind diese zu löschen und im Extremfall das entsprechende Nutzendenkonto zu sperren. Liegt der Verdacht auf eine Straftat vor, die eine Gefahr für das Leben oder die Sicherheit einer Person darstellt (zum Beispiel die Androhung eines Terroranschlags), so muss der Betreiber dies unverzüglich den Strafverfolgungsbehörden melden.
Der DSA sieht daneben weitere Instrumente vor, die vor Erreichen der strafrechtlichen Schwelle greifen. Dazu zählen Transparenzanforderungen hinsichtlich der Empfehlungssysteme und Jugendschutzbestimmungen. Plattformen setzen häufig Moderation ein, um rechtswidrige Inhalte und Verstöße gegen ihre AGB zu entdecken. Die konkreten Maßnahmen einer Inhaltsmoderation sind in den AGB transparent darzustellen. Dies kann automatisierte und nicht automatisierte Tätigkeiten der Anbieter umfassen. Tiktok setzt etwa offiziell auf Inhaltsmoderation und verwendet dabei eine Kombination aus Automatisierung und menschlicher Moderation.
Auch Inhalte, die noch unterhalb des Erreichens von Straftatbeständen liegen, können gegen die internen Nutzungsrichtlinien verstoßen. Siehe etwa Advertising Policies von Tiktok, die „inaccurate, misleading, or false content that may cause significant harm to individuals or society, regardless of intent“ nicht gestatten – wie etwa „Dangerous conspiracy theories that are violent or hateful, False or misleading claims related to climate change“.
Anbieter wie Tiktok müssen nach dem DSA die systemischen Risiken ihrer Plattformen einschätzen und abmildern. Der Inhaltsmoderation soll bei der Minimierung dieser Risiken eine wichtige Rolle zukommen. Dies betrifft nicht nur die Gefahr der Verbreitung rechtswidriger Inhalte (wie etwa rechtswidrige Hate-Speech), sondern alle nachteiligen Auswirkungen auf Grundrechte, auf öffentliche Debatten, Wahlprozesse, die öffentliche Sicherheit sowie auf den Schutz der öffentlichen Gesundheit oder von Minderjährigen. Hierzu sind bereits Verfahren anhängig, wie etwa der Pressemitteilung der EK vom 19. Februar 2024 zu entnehmen ist.
Entwicklungen, wie unlängst in den Niederlanden bekannt wurde, wo etwa ein Moderationsteam von 300 Mitarbeiter:innen gekündigt worden ist, lassen jedoch Zweifel aufkommen, ob die Anforderungen des DSA erfüllt und tatsächlich angemessene Verfahren zur Inhaltsmoderation bestehen, da genügend Ressourcen für eine sorgfältige Inhaltsmoderation bereitgestellt werden müssen. Ähnliche Entwicklungen sind auch bei Meta zu beobachten.
Es ist unwahrscheinlich, dass rein automatisierte Lösungen dazu führen, dass die Anforderungen des DSA erfüllt werden.
Achtung der Meinungsfreiheit
Wie auch eine aktuelle Studie der Komm Austria aufzeigt, sind die Betreiber verpflichtet, bei Moderationsentscheidungen stets Grundrechte wie die Meinungsäußerungs- und Informationsfreiheit zu berücksichtigen.
Werden Inhaltsbeschränkungen vorgenommen, so müssen Betreiber diese etwa begründen. Damit soll die Meinungsfreiheit gewahrt bleiben. Der DSA begegnet mit dieser Maßnahme der Befürchtung, es könnte ein Chilling Effect eintreten und Diensteanbieter veranlasst werden, überschießend Inhalte zu löschen oder Nutzer:innen missbräuchlich von der Plattform zu sperren.
Mehr Forschung ist nötig
Der DSA sieht die Möglichkeit des Zugriffs auf Daten von VLOPs und VLOSEs zur Erforschung systemischer Risiken vor, beispielsweise im Zusammenhang mit rechtswidrigen Inhalten, nachteiligen Auswirkungen auf Grundrechte, Wahlprozessen, Jugendschutz oder geschlechtsspezifischer Gewalt. Darin sieht der EU-Gesetzgeber eine Schlüsselmaßnahme zur Erhöhung der Plattformtransparenz und -verantwortlichkeit. Voraussetzung für den Datenzugang ist die Zertifizierung als „zugelassener Forscher“ im Rahmen eines konkreten Forschungsvorhabens. Dazu müssen die Forschenden unter anderem unabhängig von kommerziellen Interessen sein, die Sicherheit der angeforderten Daten gewährleisten können und ihre Forschungsergebnisse nach Abschluss ihrer Arbeiten kostenlos öffentlich zugänglich machen. Außerdem müssen sie stets die Vorgaben der DSGVO für den Umgang mit personenbezogenen Daten einhalten. Dieser Zugang für anerkannte Forschungseinrichtungen wird noch von einer entsprechenden Verordnung der Europäischen Kommission konkretisiert werden. Der diesbezügliche Konsultationsprozess ist bereits abgeschlossen, mit der Annahme der Verordnung ist laut Kommission im 1. Quartal 2025 zu rechnen.
Fazit
Um den Risiken von Online-Plattformen zu begegnen, setzt der DSA unter anderem auf Moderationsmaßnahmen. Nicht nur bezüglich der ausreichenden Ausstattung der Moderation könnten Versäumnisse bestehen. Auch der im DSA vorgesehene Zugang zu Daten zum Zweck der Durchführung von Forschungsarbeiten, die zur Aufspürung, zur Ermittlung und zum Verständnis systemischer Risiken dienen, kommt es aktuell noch zu Verzögerungen.
Die Bereitstellung von genügend Ressourcen für eine sorgfältige Moderation von Inhalten muss gewährleistet werden. Insofern wäre die im Regierungsprogramm erwähnte Verstärkung der Verantwortung bei Moderations- und Löschungsverpflichtungen ein wichtiger Schritt, um die bereits bestehenden Regeln effektiv zu vollziehen. Solche Maßnahmen dienen auch der Eindämmung von systemischen Risiken.
Statt eine Überwachung von Messengerdiensten einzuführen (deren verfassungskonforme Ausgestaltung Kopfzerbrechen bereiten dürfte), wäre es naheliegender, zunächst auf eine konsequente Umsetzung des DSA zu setzen. Dies könnte am Ende auch die neue Bundesregierung erkannt haben, denn sie will laut Regierungsprogramm die Bekämpfung von Extremismus im Internet durch eine verstärkte Kontrolle der digitalen Plattformen vorantreiben und sich für die laufende Weiterentwicklung des DSA einsetzen.
Autorinnen:
Dr. Madeleine Müller, BA, MU ist Senior Researcher und Senior Consultant am Research Institute – Digital Human Rights Center. Sie hat an der Universität Wien und an der Université Paris 1 Panthéon-Sorbonne Rechtswissenschaften und Philosophie studiert sowie den Masterstudiengang „Political Philosophy“ an der Universitat Pompeu Fabra Barcelona abgeschlossen. Im Rahmen ihrer internationalen Ausbildung hat sie den Fokus auf aktuelle Fragestellungen und Herausforderungen im Bereich der Grund- und Menschenrechte gelegt, wodurch sie eine interdisziplinäre Expertise in diesem Forschungsfeld entwickeln konnte. Nach einem Verwaltungspraktikum bei der Volksanwaltschaft und langjährigem ehrenamtlichen Engagement bei der Österreichischen Liga für Menschenrechte, verstärkt sie nun das Research Institute – Digital Human Rights Center mit Schwerpunkt auf interdisziplinäre Forschung an der Schnittstelle zwischen Recht und Geisteswissenschaften sowie in der Organisation und Betreuung der Research Institute-Academy (RIAC) und des network.fair.data.
Dr. Heidi Scheichenbauer ist als Senior Consultant und Senior Researcher im Research Institute – Digital Human Rights Center tätig. Sie hat Rechtswissenschaften an der Universität Wien und der Erasmus Universität Rotterdam mit Schwerpunkt Computer und Recht studiert. Nach ihrem Studium arbeitete sie als Juristin und wissenschaftliche Mitarbeiterin bei der KMU Forschung Austria, wo die Lösung datenschutzrechtlichen Fragestellungen zu ihrem Aufgabengebiet gehörte. Nach ihrer Zeit bei der KMU Forschung Austria war sie als Juristin beim Fundraising Verband Austria beschäftigt, wo sie unter anderem die Verbandsmitglieder bei der Umsetzung der Datenschutz-Grundverordnung beraten hat. Sie ist Mitglied im Verein der behördlichen und betrieblichen Datenschutzbeauftragten (Privacyofficers.at) und Autorin zahlreicher datenschutzrechtlicher Publikationen.
Dr.in Mirjam Tercero ist Senior Researcher und Senior Consultant am Research Institute – Digital Human Rights Center. Sie studierte Rechtswissenschaften an der Universität Wien und an der Université Paris Descartes. Von 2014 bis 2018 war sie als Universitätsassistentin am Institut für Zivilrecht tätig und promovierte zur zivilrechtlichen Verantwortlichkeit von Internetdienste-Anbietern für Ehrverletzungen und Rufschädigungen in Online-Medien. In ihrer weiteren Laufbahn sammelte sie Erfahrungen als Rechtsanwaltsanwärterin in einer internationalen Großkanzlei, wo sie Unternehmen zu Fragen im IT- Recht beriet. Von 2020 bis 2023 war sie als Fachreferentin für Digitale Agenden in einem Parlamentsklub und von 2023 bis 2024 im Kabinett der Justizministerin tätig. Dort war sie insbesondere an Gesetzesvorhaben mit Bezug zu Datenschutzrecht aktiv beteiligt. Seit 2020 ist Dr.in Tercero „Certified Information Privacy Professional/Europe“ (IAPP). Dr.in Tercero ist Autorin mehrerer juristischer Publikationen und externe Lehrbeauftragte an einer Fachhochschule.