Apple descarta espiar iMessage; así revisará fotos contra el abuso infantil

Apple escaneará las fotos subidas a iCloud por medio de un código que compara el de la imagen con otras catalogadas como abuso infantil.

A pesar de algunas historias de miedo que sugieren que Apple está a punto de comenzar a escanear todos los chats de iMessage en busca de evidencia de material de abuso sexual infantil, el gigante tecnológico ha dejado en claro que no lo está haciendo en absoluto.

Sin embargo, Apple sí escaneará todas las fotos que los usuarios suben a iCloud, utilizando un código que compara el “hash de la imagen con hashes conocidos de fotos de abuso sexual infantil, almacenadas en bases de datos como el Centro Nacional para Niños Desaparecidos y Explotados de Estados Unidos (NCMEC, por sus siglas en inglés).

Un hash” es una representación numérica única de una imagen. Significa que las computadoras pueden ver si una foto es igual a otra. Una vez que se descubre una coincidencia, un humano la verificará para asegurarse de que sea necesario informar al NCMEC y las autoridades policiales pertinentes.

Apple busca aclarar la confusión

Debido a que Apple está haciendo esa verificación en el dispositivo, algunos lo han llamado una especie de puerta trasera. Pero ahora, la empresa de Cupertino ha publicado una sección de preguntas frecuentes en la que intenta explicar porqué está haciendo este escaneo y aclarar algunas confusiones.

Quizás la principal fuente de esa confusión se deba al hecho de que Apple anunció dos tecnologías en una. Junto con el escaneo de material de abuso sexual infantil, la compañía anunció que iba a actualizar iOS con una función que detecta cuando una imagen desnuda está a punto de ser enviada desde o hacia el iPhone de un niño.

La compañía explica que todo esto sucede en el teléfono y Apple nunca ve la foto. Es fundamental decir que la función solo operará en teléfonos que tengan una cuenta infantil configurada en Family Sharing.

“Apple nunca obtiene acceso a las comunicaciones como resultado de esta función en Mensajes”, escribió Apple, aclarando que el cambio no rompe el cifrado de un extremo a otro.

“Cuando la cuenta de un niño envía o recibe imágenes sexualmente explícitas, la foto se verá borrosa y el niño será advertido, se le presentarán recursos útiles y se le asegurará que está bien si no quiere ver o enviar la foto. Como precaución adicional, a los niños pequeños también se les puede decir que, para asegurarse de que están a salvo, sus padres recibirán un mensaje si lo ven “.

Cómo evitar que Apple escanee tus fotos

Debido a que el escaneo de material de abuso sexual infantil sólo ocurre en fotos de iCloud, hay una forma muy obvia de evitar que Apple revise sus imágenes: desactive el almacenamiento en la nube para sus fotos.

Esto es muy simple: en menú Configuración, desplácese hacia abajo hasta Fotos y mueva el interruptor a Fotos de iCloud. Está activado de forma predeterminada, por lo que deberá desactivarlo si es un usuario nuevo.

Desactivar esto, por supuesto, significa que tendrá mucho menos espacio de almacenamiento para sus fotos, a menos que tenga uno de los iPhones más caros con más espacio.

En este sentido, Apple también buscó disipar los temores de que los gobiernos lo obliguen a detectar cosas que no son imágenes de abuso sexual infantil. En particular, se han expresado preocupaciones sobre el potencial de China para presionar al gigante tecnológico para que busque evidencia fotográfica de disidencia.

“Apple rechazará tales demandas”, dijo el gigante tecnológico. “Hemos enfrentado demandas para construir e implementar cambios exigidos por el gobierno que degradan la privacidad de los usuarios antes, y hemos rechazado firmemente esas demandas. Continuaremos rechazándolos en el futuro”.

Fuente: Forbes México