skip to Main Content

Apple retrasa la implementación de la función CSAM para realizar mejoras y escuchar comentarios

Hola amigos les compartimos un nuevo artículo en nuestra sección de Mundo Geek

Parece que tendremos que esperar un poco más para ver las funciones de seguridad infantil de Apple en acción. La compañía ha anunciado que retrasará el lanzamiento de esta nueva función después de toneladas de comentarios negativos.

El mes pasado, Apple anunció que introduciría nuevas funciones de seguridad infantil que llegarían a iOS 15, iPadOS 15 y macOS Monterrey. Estos nuevos cambios permitirían a Cupertino escanear las fotos de los usuarios en la biblioteca de iCloud y en iMessages para buscar cualquier tipo de contenido que pueda indicar un posible abuso infantil. Ahora, Apple ha explicado que estos escaneos solo ocurrirían en el dispositivo, pero eso no impidió que los usuarios de Apple y los investigadores de seguridad se preocuparan.

Desde entonces, Apple ha estado en el ojo de la tormenta. Ha recibido muchas reacciones negativas por parte de los investigadores de seguridad. Y también se ha confirmado que la compañía ha estado escaneando iCloud Mail en busca de contenido CSAM y otros datos desde 2019.
“Apple se dedica a proteger a los niños en todo nuestro ecosistema dondequiera que se utilicen nuestros productos, y continuamos apoyando la innovación en este espacio. Hemos desarrollado protecciones sólidas en todos los niveles de nuestra plataforma de software y en toda nuestra cadena de suministro. Como parte de este compromiso, Apple utiliza tecnología de coincidencia de imágenes para ayudar a encontrar y denunciar la explotación infantil. Al igual que los filtros de correo no deseado en el correo electrónico, nuestros sistemas utilizan firmas electrónicas para detectar sospechas de explotación infantil. Validamos cada partido con revisión individual. Las cuentas con contenido de explotación infantil violan nuestros términos y condiciones de servicio, y todas las cuentas que encontremos con este material serán deshabilitadas “.

Ahora, Apple parece creer que la mejor manera de hacerlo es suspender esta nueva función, ya que la compañía ha recibido comentarios de clientes, grupos de defensa y sin fines de lucro, investigadores y otros. La idea es darle a Apple más tiempo para mejorar el funcionamiento de esta nueva función y evitar más problemas.

“El mes pasado anunciamos planes para funciones destinadas a ayudar a proteger a los niños de los depredadores que usan herramientas de comunicación para reclutarlos y explotarlos, y limitar la propagación de material sobre abuso sexual infantil. Basándonos en los comentarios de los clientes, grupos de defensa, investigadores y otros, hemos decidido tomarnos más tiempo durante los próximos meses para recopilar información y realizar mejoras antes de lanzar estas características de seguridad infantil de importancia crítica “.

Ahora, solo tendremos que esperar y ver cuándo se lanzará esta nueva función, ya que parece que Apple aún está decidido a incluirla en futuras actualizaciones de iOS 15, iPadOS 15, watchOS 8 y macOS Monterey.

Fuente MacRumors

Hasta pronto amigos!

Back To Top