Apple hat mehrere Funktionen zum Schutz von Kindern und gegen die Verbreitung von Missbrauchsabbildungen angekündigt. Für viel Wirbel sorgt der Plan, dass alle Fotos auf dem iPhone vor dem Upload in die iCloud auf Missbrauchsdarstellungen gescannt werden sollen – mit dem sogenannten „Neural Hash“-Verfahren: Bevor Fotos in die iCloud hochgeladen werden, werden sie auf dem Gerät gescannt und dabei mit einer Datenbank abgeglichen.
Darin sind sogenannte Hashes von Missbrauchsabbildungen gespeichert. Doch Datenschützer wie Edward Snowden warnen: Die Funktion könnte Tür und Tor für staatliche Überwachung öffnen. Datenschutzorganisationen fürchten, dass die Datenbank von Staaten und Geheimdiensten um weitere unerwünschte Bilder erweitert werden könnte. Kinderschutzorganisationen dagegen hoffen auf dieses Update, denn für Strafverfolgungsbehörden ist es schwer, die Täter aufzuspüren. Apple hat die Funktionen nach heftiger Kritik erst mal verschoben, doch Kritiker fürchten: Die potenzielle Waffe ist schon geschaffen.
Unser ZoomIN-Reporter Lucas Eiler möchte verstehen, was das Apple-Update bedeuten würde – und ob das iPhone wirklich zum spyPhone werden könnte. Für diese Folge ZoomIN hat er mit Kritiker*innen und Befürwortern gesprochen. Er stellt sich die Frage: Was kann man gegen die massenhafte Verbreitung von Missbrauchsdarstellungen von Kindern tun? Und gibt es einen Kompromiss?
Ihr seid oder wart von sexualisierter Gewalt betroffen? Oder kennt jemanden, der Hilfe braucht? Wir haben hier zwei Anlaufstellen für euch. Meldet euch, denn ihr seid nicht allein!
Hilfe-Telefon Sexueller Missbrauch:
0800-22 55 530 (kostenfrei und anonym)
www.hilfe-telefon-missbrauch.de
Hilfe-Telefon berta:
0800-30 50 750 (kostenfrei und anonym)
www.hilfe-telefon-berta.de