Warum das Beispiel von sexualisierten Belästigung auf Vinted.de zeigt, dass wir eine feministische Cybersecurity brauchen

Artikel

Digitale Plattformen sind Räume genderbasierter Gewalt, doch wirksamer Schutz fehlt. Eine Studie von Das NETTZ zeigt massive Mängel bei Meldewegen: schwer auffindbar, juristisch verschleiert, nicht barrierefrei. Deceptive Patterns schrecken vom Melden ab.

Ein Smartphone liegt auf einer Tischplatte aus Holz. Sein Display zeigt das Vinted Logo.

Als Mina Camira Anfang Juni ihren Instagram-Namen googelte, stieß sie auf etwas, das ihr den Boden unter den Füßen wegzog: Zwischen üblichen Treffern tauchten Links zu Pornoseiten auf. Dort fand sie ihre eigenen Fotos – ursprünglich harmlose Vinted-Bilder, die sie zum Verkauf von Kleidung hochgeladen hatte. Die Bilder waren aus dem Kontext gerissen, sexualisiert, mit erniedrigenden Kommentaren versehen oder mithilfe von Software so bearbeitet, dass sie wie Nacktbilder wirkten. Mina entschied sich, ihre Geschichte öffentlich zu machen. Sie war auf Jobsuche und wusste, dass Personalabteilungen sie googeln würden. Ihr Reel ging viral: Hunderttausende reagierten mit Entsetzen und Solidarität. Recherchen von NDR, WDR und der Süddeutschen Zeitung zeigten später eine größere Dimension: Fotos von Vinted-Nutzer*innen werden massenhaft in Telegram-Kanälen kopiert, sexualisiert und verbreitet. Betroffenen berichteten von Belästigungen, dem Gefühl permanenter Beobachtung und davon, dass Meldungen ins Leere laufen. 

 Digitale Gewalt ist reale Gewalt – verwurzelt in Machtverhältnissen, die sich im Digitalen fortsetzen.

In meiner Arbeit beim bff, dem Bundesverband der Frauenberatungsstellen und Frauennotrufe, beobachten wir seit Jahren, wie sich sexualisierte und häusliche Gewalt digitalisiert. Überwachung, Kontrolle und Erniedrigung verlagern sich von physischen Räumen auf Apps, Geräte und Plattformen. Minas Erfahrung spiegelt ein Muster: Digitale Gewalt ist reale Gewalt – verwurzelt in Machtverhältnissen, die sich im Digitalen fortsetzen. Besonders junge FLINTAs sind davon überproportional betroffen – genau jene Zielgruppe, die Vinted anspricht. Die Plattform verweist in Minas Fall auf vorhandene Meldewege. 

Viele Täter bleiben ohne Konsequenzen, während Betroffene den Großteil der Beweis- und Handlungsarbeit selbst übernehmen – Screenshots sichern, Meldewege durchklicken, Öffentlichkeit herstellen.

Polizei und Justiz fehlt hier häufig das technische Verständnis für wirksame Rechtsdurchsetzung. Viele Täter bleiben ohne Konsequenzen, während Betroffene den Großteil der Beweis- und Handlungsarbeit selbst übernehmen – Screenshots sichern, Meldewege durchklicken, Öffentlichkeit herstellen. Die Verantwortung liegt bei denen, die Gewalt erleben, während Plattformen profitieren. Außerdem werden Betroffene mit Victim-Blaming konfrontiert: Warum sie „überhaupt solche Bilder hochgeladen“ hätten, als läge die Schuld bei ihrer Sichtbarkeit statt bei den Tätern. Dieses Narrativ entlastet Täter, ignoriert Plattformverantwortung und verschiebt die Zuständigkeit erneut auf Betroffene.  Auch in Minas Fall wurde die Anzeige eingestellt, „Täter nicht ermittelbar“. Seitdem nutzt Mina ihre Reichweite, um auf diesen Sexismus aufmerksam zu machen und fordert Politik und Plattformen heraus. In einer Petition verlangt sie Screenshotsperren, Verifizierungspflichten, besseren Schutz von Adressdaten und wirksame Filter gegen belästigenden Nachrichten.

Doch während Plattformen immer wieder Angriffsflächen für Gewalt bieten, bleiben Schutzmechanismen mangelhaft. Eine  Studie von Das NETTZ zeigt erhebliche Defizite bei den nach dem Digital Services Act (DSA) vorgeschriebenen Meldewegen. Statt „einfach zugänglich“ und „benutzer*innenfreundlich“ zu sein, sind sie schwer auffindbar, hinter juristischen Formulierungen versteckt, und so gestaltet, dass Nutzende bei vermeintlichen „Falschmeldungen“ Haftung befürchten. Jede vierte Meldung über den DSA-Weg  wird abgebrochen. Selbst Beratungsfachkräfte wissen oft nicht, dass es unterschiedliche Meldewege gibt – hier besteht großer Aufklärungsbedarf. Eine Peer-Expertin mit Lernschwierigkeiten beschreibt, dass die Möglichkeit zu melden sie zwar bestärkt, das Navigieren jedoch nahezu unmöglich – wer auf einfache Sprache oder Barrierefreiheit angewiesen ist, wird faktisch ausgeschlossen.  

Digitale Dienste folgen einer Logik, in der Sichtbarkeit, Verweildauer und Datensammlung wirtschaftlichen Wert erzeugen. Gewalt, Belästigung und Hetze sind hier keine Fehler, sondern Bestandteile eines Geschäftsmodells.

Diese Unwissenheit hat Gründe: Die Europäische Kommission bestätigte jüngst, dass Plattformen wie Instagram, Facebook und TikTok setzen sogenannte „deceptive patterns“ einsetzen – also eine manipulative Oberflächengestaltung benutzen, die davon abhält, Inhalte zu melden oder Schutzfunktionen zu finden. Digitale Dienste folgen einer Logik, in der Sichtbarkeit, Verweildauer und Datensammlung wirtschaftlichen Wert erzeugen. Gewalt, Belästigung und Hetze sind hier keine Fehler, sondern Bestandteile eines Geschäftsmodells. Schutz, Moderation und Transparenz werden als Kostenfaktor statt als Grundfunktion verstanden. Der DSA erkennt an, dass Plattformen eine besondere Schutzverantwortung haben und verpflichtet große Anbieter auch, sich mit „systemischen Risiken“ auseinanderzusetzen – darunter geschlechtsspezifische Gewalt. Doch viele Plattformen sehen dieses Risiko weiterhin als isoliert digitales Problem und nicht als gesellschaftliches. 

Gerade im sozialen Nahraum zeigt sich die enge Verknüpfung: Digitale Gewalt ist selten anonym; Täter sind häufig (Ex-)Partner, Familienmitglieder oder Personen aus dem Umfeld. Wer Passwörter oder Zugriff auf Accounts hat, kann Kontrolle und Überwachung digital fortsetzen. Die Gefahr sitzt oft buchstäblich am Küchentisch.  

Feministische Cybersecurity stellt Selbstbestimmung, Datenschutz, intersektionales Gewaltverständnis und Transparenz ins Zentrum. 

Um digitale Gewalt ernst zu nehmen, müssen wir uns fragen, wie Plattformen Cybersecurity verstehen. Digitale Gewalt ist ein Machtproblem, das sich in Technologie, Geschäftsmodellen und gesellschaftlichen Strukturen widerspiegelt. Feministische Cybersecurity stellt Selbstbestimmung, Datenschutz, intersektionales Gewaltverständnis und Transparenz ins Zentrum. Nutzer*innen müssen nachvollziehen können, wie ihre Daten genutzt werden und wie Algorithmen, Moderation und Design Entscheidungen Gewalt begünstigen oder verhindern. Schutz darf nicht von individueller technischer oder juristischer Expertise abhängen, sondern muss systemisch gesichert sein. Plattformen müssen Verantwortung übernehmen und mit den Menschen in Dialog treten, die sie nutzen – besonders für FLINTAs und marginalisierte Gruppen. Feministische Cybersecurity fordert genau diese Verantwortungsumkehr: Weg vom Paradigma „Nutzer*in als Schwachstelle“ hin zu digitalen Räumen, die Sicherheit für alle ermöglichen. Nur so kann Gewaltschutz vor Profit stehen.