Hasta que Apple busque señales de abuso sexual infantil en fotos personalizadas
Debido a una avalancha de críticas, Apple decidió posponer el lanzamiento de un nuevo sistema que debería buscar signos de abuso sexual infantil entre las fotos de los usuarios en iCloud.
A principios de agosto de 2021, Apple anunció que pronto comenzaría a buscar signos de abuso sexual infantil entre las imágenes de los usuarios.
La empresa dijo que la iniciativa constará de varias partes. Primero, Apple revisará todos los mensajes en Mensajes recibidos y enviados por niños en busca de desnudez y notificará a los padres si encuentra fotos demasiado reveladoras.
En segundo lugar, todas las imágenes en dispositivos que ejecutan iOS y iPadOS que están sincronizados con iCloud se compararán con la base de datos CSAM (materiales de abuso sexual infantil; materiales en inglés que contienen signos de abuso sexual de niños), que es proporcionada por el Centro Nacional para Personas Desaparecidas y niños explotados (NCMEC).
En tercer lugar, Siri y Search aprenderán a «intervenir cuando los usuarios busquen consultas relacionadas con CSAM» y «explicarles a los usuarios que el interés en este tema es dañino y problemático, y proporcionarán enlaces a recursos de socios para ayudarlos a resolver estos problemas».
En respuesta, Apple recibió una oleada de críticas de expertos en seguridad de la información, activistas de derechos humanos, científicos, etc. Por ejemplo, los expertos de la Electronic Frontier Foundation (EFF) escribieron que «incluso una puerta trasera cuidadosamente documentada, reflexiva y estrictamente limitada sigue siendo una puerta trasera». También advirtieron que en países con un régimen autoritario, este sistema no se puede utilizar para proteger a los niños.
Los representantes de Apple intentaron calmar al público y publicaron preguntas frecuentes sobre la nueva iniciativa. Sin embargo, las explicaciones de la empresa tampoco encontraron entendimiento entre los especialistas.
Ahora Apple ha anunciado que ha hecho caso a las críticas y ha decidido posponer la implementación del nuevo sistema de forma indefinida.
“El mes pasado, anunciamos planes para crear funciones para ayudar a proteger a los niños de los depredadores que usan las comunicaciones para reclutarlos y explotarlos, y para limitar la distribución de material de abuso sexual infantil [CSAM]. Basándonos en los comentarios de los clientes, grupos de defensa, investigadores y otros, hemos decidido reservar tiempo adicional en los próximos meses para recopilar información y realizar mejoras antes de lanzar estas características críticas de seguridad infantil ”, se lee en un comunicado de prensa que Apple envió hoy. MEDIOS DE COMUNICACIÓN EN MASA.
Los reporteros señalan que aún no está claro cómo Apple puede implementar el nuevo sistema de tal manera que evite la presión de los gobiernos, que probablemente deseen acceder a más contenido generado por los usuarios. En particular, los reporteros de Vice Motherboard recuerdan que recientemente preguntaron a los representantes de Apple si la compañía dejaría el mercado chino si el gobierno local requiriera el uso del nuevo sistema para otros propósitos. Un portavoz de Apple respondió evasivamente que tales decisiones están más allá de su competencia y el nivel de los salarios.