Los últimos movimientos de Apple han hecho que muchos usuarios se preocupen por aspectos relacionados con la seguridad de sus dispositivos móviles.
El Político
Lo cierto es que la iniciativa ha avivado la polémica sobre el delicado equilibrio entre privacidad y seguridad.
Una nota de Javier Pastor hace alusión a un cartel publicitario que planteaba que "Lo que pasa en tu iPhone, se queda en tu iPhone"
"Seguramente recordéis ese cartel publicitario. Fue parte de una campaña que destacaba cómo Apple se preocupaba por nuestra privacidad. Ese argumento se unía a otros como los de la privacidad diferencial, pero los últimos movimientos de esta empresa han hecho que muchos se preocupen", indica Pastor , reportó Xataka.
Protección de la seguridad de los niños
Se trata de sus nuevas iniciativas para (teóricamente) proteger la seguridad de los niños y limitar la difusión de la pornografía infantil.
Para ello Apple básicamente escanea los iPhone y alerta de la presencia de imágenes sospechosas. El movimiento tiene sentido para algunos, pero cruza una peligrosa línea para otros.
Tres formas de vigilar nuestros celulares
El anuncio de Apple se produce en un momento singular en el que el escrutinio de la compañía por su férreo control de la App Store está en tela de juicio (literalmente), pero esta vez afecta a un área especialmente delicada.
Apple, que se había autoproclamado como gran defensora de nuestra privacidad (frente a las Google y Facebook del mundo), plantea ahora medidas que para muchos hacen que se caiga esa filosofía.
En el documento de Apple hay una mención frecuente del término CSAM (por ‘Child Sexual Abuse Material’, es decir, pornografía infantil). Esas medidas son tres:
Messages: la aplicación de mensajería "usará aprendizaje automático para avisar de contenido sensible mientras los mensajes de las comunicaciones privadas siguen siendo ilegibles por Apple".
iCloud Photos: "en iOS y iPadOS
iCloud Photos: "en iOS y iPadOS se usarán nuevas aplicaciones de la criptografía para ayudar a limitar la difusión de CSAM online, mientras se protege la privacidad del usuario.
La detección CSAM ayudará a Apple a proporcionar información valiosa a las agencias de seguridad en cuanto a colecciones de imágenes CSAM en iCloud Photos".
Siri y Search: estas funciones "proporcionarán a padres e hijos información adicional y les ayudarán si se encuentran con soluciones inseguras. Siri y Search también intervendrán cuando los usuarios traten de buscar temas relacionados con CSAM".
Al final del documento se ofrece información técnica sobre cada uno de los componentes que permiten poner en marcha esas iniciativas.
Polémica sobre el delicado equilibrio entre privacidad y seguridad
No obstante, todas estas iniciativas han avivado la polémica sobre el delicado equilibrio entre privacidad y seguridad.
Como explicaba John Gruber en Daring Fireball, es importante conocer el alcance de estas medidas.
La tercera de esas medidas, la que afecta a Siri y a las búsquedas, parece ciertamente fácil de entender y no es especialmente controvertida porque no hay un escaneo activo del contenido de nuestro teléfono móvil.
Veamos qué pasa con las dos primeras medidas, que son algo más comprometedoras.
Messages: todo queda en familia (o eso dice Apple)
Eso cambia con las dos primeras medidas de esta iniciativa, pero la puesta en marcha de ese escaneo es limitado. Por ejemplo, en el caso de la primera medida, la referente a la aplicación Messages, esa monitorización de mensajes solo se produce en el caso de que el móvil lo usen niños que forman parte de una cuenta familiar de iCloud.
Eso significa que nada cambia para usuarios adultos de los iPhone y de iCloud, y de hecho si eres padre de familia y tus hijos tienen un iPhone o un iPad susceptible de ser "escaneado", Apple solo realizará ese proceso si tú lo activas (es una característica "opt-in" explícita): por defecto está desactivado.
En el caso de que el padre la active para los iPhone/iPad de sus hijos, si un niño recibe o envía (y quiere visualizar) una imagen que activa una advertencia, la notificación se envía desde el dispositivo del hijo al de los padres. Ni Apple ni las agencias de seguridad son avisadas de ese evento y todo "queda en familia", por decirlo de algún modo.
La medida afecta además a la aplicación Messages, pero no al servicio iMessage: todos los mensajes siguen estando cifrados de extremo a extremo, y la detección de imágenes se produce siempre en local, en el dispositivo (nunca "en la nube", es decir, nunca en los servidores de Apple, que teóricamente no se entera de nada) antes de enviar la imagen o después de recibirla.
Este proceso sí que realiza análisis de contenido para tratar de identificar imágenes sexuales explícitas. Si las detecta, la imagen se desenfocará automáticamente y se enviará esa advertencia al niño e incluso se podrá activar el aviso para los padres si a pesar de todo el niño ve la imagen.
iCloud Photos: Apple escanea hashes, no imágenes
La segunda parte de esta iniciativa es la que se refiere a iCloud Photos y la detección de imágenes de pornografía infantil (CSAM). Es importante destacar que "solo" se aplica a iCloud Photos, así que si no somos usuarios de esa opción, no nos afectará.
No matter how well-intentioned, @Apple is rolling out mass surveillance to the entire world with this. Make no mistake: if they can scan for kiddie porn today, they can scan for anything tomorrow.
They turned a trillion dollars of devices into iNarcs—*without asking.* https://t.co/wIMWijIjJk
— Edward Snowden (@Snowden) August 6, 2021