
Wir müssen den Hintergedanken verstehen, um Schaden abzuwenden
Wenn wir verstehen, wie und warum Menschen Inhalte mit Kindesmissbrauch teilen, können wir besser dagegen vorgehen.
Wir müssen den Hintergedanken verstehen, um Schaden abzuwenden
Wenn wir verstehen, wie und warum Menschen Inhalte mit Kindesmissbrauch teilen, können wir besser dagegen vorgehen. Wir haben illegale Inhalte, die gemeldet wurden, tiefgreifend analysiert, um bestmöglich darauf reagieren zu können. Die im Rahmen dieser Studie erfassten Daten werden verwendet, um Tools bereitzustellen und neue Programme einzuführen, durch welche die Verbreitung dieser abscheulichen Inhalte eingedämmt wird.
Wir haben die Meldungen an das National Center for Missing & Exploited Children (NCMEC) aus zwei repräsentativen Monaten auf Facebook und Instagram analysiert. Dabei haben wir Folgendes herausgefunden:
Mit anderen Worten: Wenige Inhalte waren für viele Meldungen verantwortlich. So konnten wir die Beweggründe besser nachvollziehen, was dazu beitragen könnte, die erneute Viktimisierung einzudämmen. Auf dieser Basis haben wir gemeinsam mit führenden Expert*innen für Kinderausbeutung wie dem NCMEC eine wissenschaftsbasierte Klassifizierung erarbeitet. Diese hilft uns dabei, die scheinbare Absicht einer Person zu kategorisieren, die diese Art von Inhalten teilt.
Wir haben 150 Konten ausgewertet, die wir im Juli und August 2020 sowie im Januar 2021 an das NCMEC gemeldet hatten, weil darüber kinderpornografisches Material hochgeladen wurde. Unserer Schätzung nach lag bei mindestens 75 Prozent dieser Konten keine böswillige Absicht vor (d. h. es wurde nicht beabsichtigt, einem Kind Schaden zuzufügen). Stattdessen wurden die Inhalte allem Anschein nach aus anderen Gründen geteilt, sei es um Empörung zum Ausdruck zu bringen oder infolge fragwürdigen Humors. Die Untersuchung stellt zwar unser bestes Verständnis der Situation dar, die Ergebnisse sollten jedoch nicht als präzises Maß für ein kindersicheres Ökosystems gesehen werden. Wir werden auch weiterhin daran arbeiten, die Absichten der Täter*innen in dieser Sache besser zu verstehen.
Unsere zielgerichteten Lösungen auf Grundlage dieser Erkenntnisse umfassen etwa die Einführung eines Pop-ups auf Facebook, durch das böswillige Suchanfragen nach Inhalten eingedämmt werden sollen. Die Warnung erscheint, wenn jemand nach Begriffen sucht, die mit Kindesmissbrauch in Verbindung stehen. Sie verweist auf hilfreiche Ressourcen von Kinderschutzorganisationen und auf die Konsequenzen, die das Aufrufen illegaler Inhalte mit sich bringt.
Wir haben auch eine Sicherheitswarnung eingerichtet, um Nutzer*innen zu informieren, die diese Inhalte teilen, aber keinem Kind Schaden zufügen möchten. Die Funktion dient dazu, Nutzer*innen zu warnen, die virale Memes von missbräuchlichen Inhalten teilen. Sie werden dann darauf hingewiesen, dass die Verbreitung dem Opfer schadet, gegen unsere Richtlinien verstößt und rechtliche Konsequenzen nach sich ziehen kann.
Zudem arbeiten wir mit Expert*innen für öffentliches Bewusstsein zusammen, um unsere Kampagne „Help Protect Children“ zu bewerben. Unabhängig vom jeweiligen Grund ist die Weiterverbreitung dieser Inhalte illegal und sorgt für eine erneute Viktimisierung des Kinds. Wenn diese Inhalte stattdessen gemeldet werden, können Nutzer*innen dazu beitragen, weiteren Schaden abzuwenden.
Schon ein Opfer dieser schrecklichen Verbrechen ist eines zu viel. Deshalb versuchen wir weiterhin, besser nachzuvollziehen, welche Absichten dahinterstecken. Wir werden auch in Zukunft zielgerichtete Lösungen sowohl auf unseren öffentlichen Plattformen als auch für private Nachrichten einführen.