Pese a ello, Apple fue firme al publicar una serie de respuestas sobre el programa “Protecciones ampliadas para niños”. De esta manera, subrayaron que el escaneo de imágenes solo se dará a las que se han subido a iCloud, y no así a las que se tengan en la biblioteca privada de los dispositivos. Además, se abundó que el análisis también se dará en la aplicación de mensajería iMessage.

Por otro lado, también puntualizan en que el software está diseñado para escanear versiones encriptadas de imágenes que contengan material de abuso sexual infantil (CSAM). Asimismo, se explicó que se lleva a cabo una revisión humana antes de derivar el caso a las autoridades competentes. Por ello, la polémica se ha desatado y la compañía ha sido sumamente enfática en este contexto.
“Ya nos hemos enfrentado a exigencias de construcción y despliegue de cambios ordenados por el Gobierno que degradan la privacidad de los usuarios, y nos hemos negado firmemente a esas demandas. Seguiremos rechazándolas en el futuro. Permítannos ser claros, esta tecnología se limita a detectar el CSAM almacenado en iCloud y no accederemos a la petición de ningún gobierno de ampliarla”, recalcó Apple.