Apple aporta más claridad sobre por qué abandonó el plan de detección de CSAM en Fotos de iCloud

Apple aporta más claridad sobre por qué abandonó el plan de detección de CSAM en Fotos de iCloud

Apple proporcionó el jueves su explicación completa hasta el momento por el abandono el año pasado de su controvertido plan para revelar material de abuso sexual infantil (CSAM) almacenado en Fotos de iCloud.


La declaración de Apple compartida con cableado Los que se describen a continuación son en respuesta a la solicitud de la Iniciativa de seguridad infantil de Heat de que la empresa «detecte, informe y elimine» CSAM de iCloud y proporcione más herramientas para que los usuarios informen dicho contenido a la empresa.

«El material de abuso sexual infantil es aborrecible y estamos comprometidos a romper la cadena de coerción e influencia que expone a los niños a él», escribió Eric Neuschwander, director de privacidad del usuario y seguridad infantil de Apple, en la respuesta de la compañía a la iniciativa Heat. Agregó que después de colaborar con un grupo de investigadores de privacidad y seguridad, grupos de derechos digitales y defensores de la seguridad infantil, la compañía concluyó que no podía continuar con el desarrollo de un mecanismo de detección de CSAM, ni siquiera uno diseñado específicamente para preservar la privacidad. .

«El examen de los datos de iCloud almacenados de forma privada para cada usuario crea nuevos vectores de amenazas que los ladrones de datos pueden encontrar y explotar», escribió Neuschwander. «También conduciría a una pendiente resbaladiza de consecuencias no deseadas. La búsqueda de un tipo de contenido, por ejemplo, abre la puerta a la vigilancia masiva y puede crear el deseo de buscar otros sistemas de mensajería cifrada en todos los tipos de contenido».

En agosto de 2021, Apple anunció planes para tres nuevas funciones de seguridad infantil, incluido un sistema para detectar imágenes CSAM conocidas almacenadas en ‌iCloud Photos‌, una opción de seguridad de las comunicaciones que difumina imágenes sexualmente explícitas en la aplicación Mensajes y recursos de explotación infantil para Siri. Communications Safety se lanzó en EE. UU. con iOS 15.2 en diciembre de 2021 y desde entonces se ha expandido al Reino Unido, Canadá, Australia y Nueva Zelanda. Los recursos de ‌Siri‌ también están disponibles, pero la detección de CSAM nunca se lanzó.

READ  Dodge lanza la campaña IN/OUT dirigida a los entusiastas europeos

Apple inicialmente dijo que la detección de CSAM se implementaría en una actualización de iOS 15 y iPadOS 15 para fines de 2021, pero la compañía retrasó la función basándose en «comentarios de clientes, grupos de defensa, investigadores y otros». Los planes han sido criticados por una amplia gama de personas y organizaciones, incluidos investigadores de seguridad, la Electronic Frontier Foundation (EFF), políticos, grupos políticos, investigadores universitarios e incluso algunos empleados de Apple.

La última respuesta de Apple al problema se produce cuando el gobierno del Reino Unido ha reavivado el debate sobre el cifrado, que está causando muchos problemas. Considere planes para modificar la legislación de vigilancia Esto requeriría que las empresas de tecnología deshabiliten funciones de seguridad como el cifrado de extremo a extremo sin avisar al público.

Apple dice que retirará servicios como FaceTime e iMessage en el Reino Unido si la legislación se aprueba en su forma actual.

Nota: Debido a la naturaleza política o social de la discusión sobre este tema, el tema de discusión está en nuestro sitio web. noticias políticas foro. Todos los miembros del foro y visitantes del sitio pueden leer y seguir el tema, pero las publicaciones están limitadas a los miembros del foro que tengan al menos 100 publicaciones.

You May Also Like

About the Author: Pino Toribio

"Fanático de Internet en general. Gurú de Twitter sin complejos. Introvertido. Lector total. Ninja de la cultura pop. Entusiasta de las redes sociales".

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *