- Apples Standpunktwechsel: Sicherheitsbedenken bei der Bildanalyse im Staatsauftrag
- CSAM: Erneuter Druck auf Apple – für die Einführung
- Auch Drittanbieter sollen Maßnahmen gegen Kindesmissbrauch unterstützen
- Schutz gegen Kindesmissbrauch: Auch interne Kritik gegen Filter
- CSAM: Apple verschiebt Einführung
- EFF: Apple soll CSAM-Vorhaben völlig einstellen
Seit Wochen erntet Apple für seine geplanten Maßnahmen rund um den Schutz vor Kindesmissbrauch herbe Kritik. Jetzt gibt der Konzern etwas nach – zumindest vorerst.
Letzten Monat kündigte Apple einige Maßnahmen zur Bekämpfung von Kindesmissbrauch an, sie wurden unter dem Titel CSAM zusammengefasst. So wollte Apple “Child Sexual Abuse Material” finden und entsprechend an Ermittler weiter geben. Mögliche Elemente davon war das Scannen von Inhalten auf den Endgeräten der Nutzer, beispielsweise der Fotos innerhalb der Fotos App. Ebenso damit verbunden war ein Scan von Fotos in iMessage.
CSAM Scanning wird verschoben
Seit Wochen gibt es entsprechende Kritik gegen die Maßnahmen – Apple bricht damit eines seiner ältesten Paradigmen. Was auf dem iPhone passiert bleibe damit vielleicht nicht mehr auf dem iPhone. Auch verschiedene Menschenrechtsorganisationen und Journalistenverbände meldeten Kritik an. Apple schärfte Mal um Mal nach – doch auch von technischer Seite gab es Bedenken. Ebenso gab es interne Kritik.
Gegenüber US-Medien hat Apple nun bestätigt die Funktion vorerst zu verschieben und weiter zu prüfen.
Letzten Monat haben wir Pläne für Funktionen angekündigt, die dazu beitragen sollen, Kinder vor Räubern zu schützen, die Kommunikationstools nutzen, um sie anzuwerben und auszubeuten, und die Verbreitung von Material über sexuellen Kindesmissbrauch einzuschränken. Aufgrund des Feedbacks von Kunden, Interessengruppen, Forschern und anderen haben wir beschlossen, uns in den kommenden Monaten mehr Zeit zu nehmen, um Anregungen zu sammeln und Verbesserungen vorzunehmen, bevor wir diese äußerst wichtigen Funktionen zum Schutz von Kindern veröffentlichen.
CSAM und die Freiheit
Auch Apfeltalk möchte die Wichtigkeit um Schutz unserer jüngsten Mitmenschen hochhalten, doch es stelte sich von Anfang an die Frage nah der Verhältnismäßigkeit und Sicherheit dieser Funktionen. Apple wollte iMessage Inhalte scannen und im Zweifel Eltern von Kinder warnen. Ebenso sollten Filter die lokale Fotobibliothek durchsuchen. Diese Werkzeuge an sich können auch für andere Inhalte genutzt werden. Apple betont zwar sehr stark dies nie zu tun, doch der Konzern ist ohne Frage nicht frei von politischen und zuletzt wirtschaftlichen Druck.
Via MacRumors
Cover via MacRumors und Apple