skip to Main Content

La nueva función de escaneo de fotos de iCloud de Apple atrae mucha reacción de los investigadores de seguridad

Hola a todos les traemos un nuevo post en Mundo Geek

Apple anunció ayer nuevas funciones de seguridad para niños que llegarán a iOS 15, iPadOS 15 y macOS Monterey. Las nuevas funciones permiten a Apple escanear fotos en la biblioteca de iCloud y en iMessages en busca de contenido sensible y posible abuso infantil. A pesar de las afirmaciones de Apple de que todo el escaneo de fotos ocurre en el dispositivo, la función ha generado preocupaciones de privacidad entre bastantes investigadores de seguridad en todo el mundo.

Pero, ¿qué es el escaneo de fotos de iCloud? En resumen, Apple ahora podrá escanear fotos en su iPhone, iPad y Mac antes de que se carguen en iCloud. Antes de que comience la carga, el sistema operativo verificará las fotos en busca de material de abuso sexual infantil (CSAM). Apple dice que el escaneo ocurre en el dispositivo y a través de una nueva técnica llamada NeuralHash. Si se encuentra algo fraudulento, Apple “puede” informar el caso al Centro Nacional para Niños Desaparecidos y Explotados (NCMEC).

A pesar de que la función de escaneo de fotos se está utilizando con buenos propósitos, ha despertado la atención de muchos investigadores de seguridad de todo el mundo. Edward Snowden incluso llegó a decir que la función convertirá el iPhone de todos en “iNarcs”. “Si pueden escanear en busca de pornografía infantil hoy, pueden escanear cualquier cosa mañana”, dijo Snowden en un Pío el jueves.

Ross Anderson, profesor de ingeniería de seguridad en la Universidad de Cambridge, dijo al Financial Times: “Es una idea absolutamente espantosa porque conducirá a una vigilancia masiva distribuida de. . . nuestros teléfonos y computadoras portátiles ”, dice el informe. Anderson incluso dice que este es un “paso enorme y regresivo para la privacidad individual”.

Matthew Green, quien fue el primero en informar que Apple está diseñando un sistema de este tipo, dicho, “¿Por qué Apple dedicaría tanto tiempo y esfuerzo a diseñar un sistema que está específicamente diseñado para escanear imágenes que existen (en texto plano) solo en su teléfono, si finalmente no planearon usarlo para datos que usted no comparte? en texto plano con Apple? “

Incluso la EFF calificó la función de escaneo de fotos como un movimiento “impactante” de Apple.

Es un sistema completamente construido que solo espera que la presión externa haga el más mínimo cambio.

“Lo hemos dicho antes, y lo diremos de nuevo ahora: es imposible construir un sistema de escaneo del lado del cliente que solo pueda usarse para imágenes sexualmente explícitas enviadas o recibidas por niños. Como consecuencia, incluso un esfuerzo bien intencionado para construir un sistema de este tipo romperá las promesas clave del cifrado del mensajero y abrirá la puerta a abusos más amplios ”, dijo la EFF en un comunicado.

Apple acaba de hacer una vista previa de la controvertida función, por ahora. Las últimas versiones de iOS 15, iPadOS 15 y macOS Monterey no escanean sus fotos de iCloud. Además, hay formas de excluirse, al no subir las fotos a iCloud o deshabilitar las fotos de iCloud por completo. Sin embargo, después de la reacción violenta, el gigante con sede en Cupertino puede realizar cambios antes de su lanzamiento.

¿Qué piensas sobre el escaneo de fotos de iCloud? ¿Crees que esta función debería ser opcional o crees que Apple debería poder escanear fotos para CSAM? ¡Háganos saber su opinión en la sección de comentarios a continuación!

Nos vemos en nuestro próximo post

Apple Pocketnow
Back To Top