Apple gibt auf: CSAM-Scan wird endgültig eingestampft

Apple
Hendrik

Die Ankündigung, lokal gespeicherte Dateien auf strafrechtlich relevante Inhalte zu scannen, schlug hohe Wellen. Nun steht endgültig fest, dass es das Feature nicht mehr auf das iPhone schaffen wird. 

Apple gibt auf: CSAM-Scan wird endgültig eingestampft

Apples Einsatz im Kampf gegen kinderpornografische Inhalte ist durchaus lobenswert. Im Fall der geplanten Überprüfung lokaler Dateien ist das Unternehmen jedoch etwas über das Ziel hinausgeschossen. Es ist auch bei anderen Anbietern soweit üblich, dass Cloud-Betreiber einen Scan durchführen, sobald die Dateien auf Server hochgeladen werden. 

Apple präsentierte im vergangenen Jahr jedoch andere Pläne: Statt in der Cloud sollte der Scan mittels Hashes bereits auf dem Endgerät der Nutzer stattfinden. Der eigentliche Zweck, die Verbreitung kinderpornografischer Inhalte zu unterbinden, geriet dadurch schnell in den Hintergrund. Beim Nutzer blieb lediglich hängen, dass Apple zukünftig die gesamte Fotomediathek scannt und auswertet.

Vor allem Regierungskritiker, Journalisten und andere unerwünschte Personen in autoritär geführten Staaten befürchteten, dass ihre Regierungen die Scan-Funktion für andere Zwecke missbrauchen könnten.

Apple verzichtet auf lokalen Scan von Dateien

Vier Wochen nach der Verkündung der ursprünglichen Pläne ruderte Apple angesichts großer Proteste zurück und gab zu Protokoll, dass man das gesamte Konzept des Fotoscans überdenken müsse. Dazu wollte man sich erneut mit dem Feedback von Nutzern, Forschern und anderen Interessenvertretern auseinandersetzen. 

Anschließend wurde es ruhig rund um das ambitionierte Projekt. Mit der Ankündigung, Ende-zu-Ende-Verschlüsselungen weiter auszuweiten, gab das Unternehmen nun zu Protokoll, dass man sich in Gänze gegen das Feature entschieden habe. 

Stattdessen wird Apple zukünftig verstärkt auf das in iMessage enthaltene Feature "Kommunikationssicherheit" ("Communication Safety") zur Warnung vor Nacktbildern setzen und dieses auch weiter ausbauen. Gleichzeitig gab das Unternehmen zu Protokoll, dass man keine weiteren Anstrengungen mehr unternehme, den CSAM-Scan ("Child Sexual Abuse Material") auf Apple-Devices zu integrieren. 

Bisher keine Kommentare
Kommentieren
Als Amazon-Partner verdiene ich an qualifizierten Verkäufen.
Öffne AppTicker-News
in der AppTicker-News App
im Browser