Foto-Scan: Apple nimmt Ankündigung der Funktion aus dem Netz

Apple
Hendrik

Im August hat Apple mit der Ankündigung, iPhones auf kinderpornografische Inhalte zu scannen, für viel Aufregung gesorgt. Auf der Kinderschutz-Webseite wurde nun ein wichtiger Hinweis entfernt. 

Foto-Scan: Apple nimmt Ankündigung der Funktion aus dem Netz

Als Apple im Sommer diesen Jahres verkündete, zukünftig Dateien beim Upload in die Cloud auf kinderpornografische Inhalte (CSAM 'Child Sexual Abuse Material') zu scannen, konnte das Unternehmen noch nicht erahnen, welche Welle der Entrüstung mit dieser Entscheidung losgetreten wurde. In dem Glauben, den Schutz von Kindern zu verstärken, sah sich Apple einer Flut von Protesten ausgesetzt. 

Dabei hat Cupertino von Beginn an betont, dass der Scan-Vorgang unter Beachtung von besonderen Datenschutzaspekten vorgenommen werden soll. Anders als bei anderen Cloud-Anbietern wollte Apple nicht den gesamten Datenbestand in der iCloud scannen, sondern lokale Hashes zum Abgleich von bereits identifizierten Dateien einsetzen. 

Unter anderem wurde die Frage in den Raum gestellt, ob es Apples Aufgabe sei, Ermittlungsarbeit der Staatsgewalt zu übernehmen. Jegliche Erklärungsversuche konnten den Unmut der Datenschützer nicht besänftigen und so zog Apple schließlich die Reißleine. 

Ankündigung der Funktion entfernt

Gute vier Wochen nach der ersten Ankündigung meldete sich Apple zum Thema CSAM erneut zu Wort und gab einen anschließenden Kurswechsel bekannt. Dabei wolle man mehr Zeit investieren, um die Funktion entsprechend der ersten Reaktionen zu optimieren. Fairerweise muss dem hinzugefügt werden, dass eine Reihe von Nutzern, Forschern und anderen Interessenvertretern bestimmte Argumente zu bedenken gaben, die tatsächlich nicht von der Hand zu weisen waren. 

Seit dieser Ankündigung wurde es rund um die Scan-Funktion still. Es folgten weder weitere Erklärungen von Apple, noch waren in folgenden Beta-Builds entsprechende Anpassungen auf den Betriebssystemen vertreten. Die einzige Änderung erfolgte mit der Veröffentlichung von iOS 15.2. Seit der Veröffentlichung findet sich der Hinweis, dass Apple mehr Zeit benötige, um die Funktion zu entwickeln, nicht mehr auf der Kinderschutz-Webseite

NeuralHash in iOS 15.2

Unabhängig vom Cloud-Scan bleibt die Funktion "NeuralHash" erhalten. Das Feature wurde mit iOS 14.3 und macOS 11.4 eingeführt und gleicht die Hashes von illegalen Bildern mit lokal gespeicherten Dateien ab - also genau das gleiche Verfahren, das Apple offiziell mit iOS 15 einführen wollte. Der Unterschied zum offiziell angekündigten Verfahren liegt darin, dass das Feature nur durch Zufall unter iOS 14.3 ausfindig gemacht werden konnte. 

Dem Entwickler Asuhariet Ygvar ist es damals gelungen, die versteckten Systemdaten zu exportieren und nachzubilden. Damit konnte Ygvar die grundsätzliche Gleichheit der Prozesse darstellen. Ob in der offiziell angekündigten Scan-Funktion noch andere Prozesse zum Tragen kommen, stand dabei noch nicht fest. 

Apple dementiert offizielle Einstellung

Unklar ist nun, wie sich Apple positionieren wird und inwiefern die Scan-Funktion ihren Weg (offiziell) auf das iPhone finden soll. Die Entfernung der Absichtserklärung deutet auf eine Einstellung des Vorhabens hin. Angesichts der bereits ohne Ankündigung erfolgten Scan-Vorgänge scheint dieser Wandel allerdings etwas unwahrscheinlich. 

Auf eine Nachfrage reagierte Apple mit dem Hinweis, dass sich die Unternehmensposition seit September nicht verändert hat. Dies würde bedeuten, dass Apple nach wie vor nach einem gangbaren Weg sucht, um den Scan offiziell zu integrieren. Somit wäre die Entwicklung nicht vollständig eingestellt, auch wenn die äußeren Umstände darauf schließen ließen. 

Bisher keine Kommentare
Kommentieren
Als Amazon-Partner verdiene ich an qualifizierten Verkäufen.