WhatsApp hat ein Kinderporno-Problem

3 Minuten
WhatsApp und der Mutterkonzern Facebook kommen derzeit nicht aus den Schlagzeilen. Waren es im gesamten Jahr 2018 immer wieder Meldungen zu Datenlecks und -Skandalen vorwiegend bei Facebook, sieht sich nun der Messenger des Konzerns schwerwiegenden Vorwürfen gegenüber.
WhatsApp-Icon auf dem iPhone
Bildquelle: Pixabay

Der Messenger WhatsApp schafft es nicht, Gruppen mit kinderpornografischen Inhalten aus seinem Ökosystem herauszuhalten. Das hat vor allem personelle Gründe. Doch auch technisch hakt es an so mancher Stelle. Auf einen Hinweis eines Mannes, der pornografische Inhalte mit Kindern im Messenger fand, haben zwei israelische NGOs und im Anschluss die Financial Times und Techcrunch Hinweise zusammengetragen und den Konzern kontaktiert. Das Ergebnis ist die Aufdeckung deutlicher Missstände beim größten Messenger-Dienst der Welt.

Kinderpornos in WhatsApp-Gruppen

Doch wie gelangen pornografische Inhalte überhaupt in den Nachrichtenverlauf bei WhatsApp? Laut Techcrunch hat die Öffnung der Gruppenchat-Funktion einen Anteil daran. So können bei WhatsApp noch nicht lange fremde Menschen zusammen in eine Gruppe kommen. Nutzer können auch ohne die anderen Mitglieder einer Gruppe zu kennen, dieser beitreten. Somit müssen die Kriminellen nur noch die richtigen Gruppen finden, um sich illegale Inhalte anzusehen oder damit zu handeln.

Das Finden der Gruppen geschieht dabei über beispielsweise die App “Group Links For Whats” by Lisa Studio. Neben Gruppen mit ganz offensichtlicher Ausrichtung wie “child porn only no adv” und “child porn xvideos” konnte man über die App, so das Tech-Magazin, auch auf weniger offensive Gruppen stoßen.

Die App zum Finden von kinderpornografischen Inhalten wurde derweil von Google aus dem App-Store genommen. Listen mit WhatsApp-Gruppen-Links finden sich jedoch im Web zu hauf. Und so ist es wohl eher ein erster Schritt, der hier in die richtige Richtung geht.

Was WhatsApp tut – und tun sollte

Wie können solche Inhalte überhaupt unbemerkt auf WhatsApp kursieren? Es gibt zwei Möglichkeiten soziale Netzwerke „sauber“ zu halten. Bei Größen von über einer Milliarde Nutzern ist jedoch eine Kombination aus beiden nicht zu Umgehen. Zuerst, und hier hat Facebook, wie auch WhatsApp Tools und Warnstufen eingezogen, muss das Netzwerk per Automatik gescannt werden. Dafür nutzen Anbieter Bilderkennungssoftware, die mit Datenbanken verknüpft sind, und auch das Scannen von Wörtern und Wortkombinationen. So steht bei WhatsApp das „CP“ als Teil eines Namens auf der Liste der verdächtigen Gruppennamen. Schlägt die Automatik an werden Gruppen und Nutzer Lebenslang gesperrt. Das Problem: Die Ende-zu-Ende-Verschlüsselung von WhatsApp schließt auch die Wächter aus Konversationen aus.

Sobald also das Erkennen verbotener Inhalte etwas kniffliger wird, kommen auch Facebook und WhatsApp nicht darum herum, auf menschliche Akteure zu setzen und die Bewertung der Inhalte von Moderatoren erstellen zu lassen. Hier ist die Krux im aktuellen Fall: Während Facebook, so Techcrunch, seine Moderatoren-Armee von 10.000 auf 20.000 Menschen verstärkt hat, kümmern sich bei WhatsApp gerade einmal 300 Personen um die Jagd auf Pädophile, Waffenschieber und andere Kriminelle. Bei einer Mitgliederzahl von 1,5 Milliarden Menschen, eine verschwindend geringe Anzahl an menschlichen Wächtern.

Deine Technik. Deine Meinung.

1 KOMMENTAR

  1. Bin ja gespannt, wie Apple jetzt mit dieser Erkenntnis verfährt. Fliegt WhatsApp jetzt auch aus dem Appstore, so wie Tumblr..? Und/oder werden sie in nächster Instanz auch keinen Browser mehr auf iOS zulassen?

Und was sagst du?

Bitte gib Dein Kommentar ein!
Bitte gibt deinen Namen hier ein

geschützt durch reCAPTCHA Datenschutzerklärung - Nutzungsbedingungen

VERWANDTE ARTIKEL