Veröffentlicht inDigital Life

Für iPhone & Co: Apple zieht umstrittene Funktion zurück – selbst Edward Snowden warnte

Apple wollte beim Hochladen in die iCloud deine Bilder und Videos analysieren. Ziel war der Schutz von Kindern.

Apple Update
© prima91 - stock.adobe.com

Neue iPhone-Funktion: Apple startet Nacktfoto-Erkennung

Kinder können heutzutage mit ihren Smartphones nahezu grenzenlos im Netz umher surfen. Eine neue Apple-Funktion soll nun den hier lauernden Gefahren entgegenwirken.

Über Monate hinweg arbeitete Apple an seinem Child Sexual Abuse Material (CSAM)-Scan. Er sollte Bilder und Videos, die den sexuellen Missbrauch von Kindern zeigen, beim Upload in die iCloud identifizieren. Ziel war die schnellere Erkennung und darauffolgende Maßnahmenergreifung durch den Konzern selbst, aber auch durch Justizbehörden.

Apple stellt CSAM-Scan für iCloud ein

An und für sich klingt es bei dem Scan um eine gute Idee. Immerhin soll sie Kindesmissbrauch vorbeugen und die Verbreitung entsprechenden Bildmaterials verhindern. Nichtsdestotrotz wurde bereits kurze Zeit, nachdem Apples Pläne bekannt wurden, Kritik auf – und das aus gutem Grund.

So setzt eine Funktion wie diese voraus, dass der Konzern aus dem kalifornischen Cupertino sämtliches Material durchleuchtet, das du in die iCloud lädst. Nur so könnte er sicherstellen, fragliche Bilder und Videos zu entdecken. Mit einer solchen Maßnahme gehen nicht umsonst erhebliche Bedenken in Blick auf die Privatsphäre der Nutzerinnen und Nutzer einher.

„Nach einer ausführlichen Konsultation mit Experten, um Feedback zu den von uns im letzten Jahr vorgeschlagenen Initiativen zum Schutz von Kindern einzuholen, vertiefen wir unsere Investitionen in die Kommunikations-Sicherheitsfunktion, die wir erstmals im Dezember 2021 zur Verfügung gestellt haben“, erklärte das Unternehmen nun gegenüber WIRED.

„Wir haben außerdem beschlossen, unser zuvor vorgeschlagenes CSAM-Erkennungstool für iCloud Photos nicht weiterzuverfolgen. Kinder können geschützt werden, ohne dass Unternehmen persönliche Daten durchkämmen, und wir werden weiterhin mit Regierungen, Kinderanwälten und anderen Unternehmen zusammenarbeiten, um junge Menschen zu schützen, ihr Recht auf Privatsphäre zu wahren und das Internet zu einem sichereren Ort für Kinder und für uns alle zu machen.“

Apple (via WIRED)

Erleichterung für Datenschutz

Für Edward Snowden stellte der CSAM-Scan den „Beginn einer dunklen Zukunft“ dar. Mitte 2021 erklärte der ehemalige NSA-Mitarbeiter, dass er kein anderes Unternehmen kenne, „das so stolz und öffentlich Spyware auf seinen eigenen Geräten verteilt hat“. Umso erleichterter dürften Datenschützerinnen und -schützer sein, dass Apple die Arbeit an dem umstrittenen Tool für die iCloud eingestellt hat.

Abzuwarten bleibt nun, inwiefern Apple seine bisherigen Bemühungen weiterentwickeln wird, um der Verbreitung von CSAM entgegenzuwirken. Ebenso steht die Frage im Raum, ob und welche Maßnahmen Google künftig ergreifen wird.

Quellen: eigene Recherche; WIRED

Seit dem 24. Februar 2022 herrscht Krieg in der Ukraine. Hier kannst du den Betroffenen helfen.

Du willst mehr von uns lesen? Folge uns auf Google News.