Apple podría implementar un sistema que rastrea imágenes de abuso infantil

Apple podría implementar un sistema que rastrea imágenes de abuso infantil
Apple

En una sesión informativa el jueves por la tarde, Apple confirmó los planes sugeridos anteriormente para instalar una nueva era en iOS, macOS, watchOS e iMessage en un esfuerzo por encontrar imágenes de abuso de bebés con capacidad, pero aclaró información crítica de la tarea continua.

Para los dispositivos dentro de los EE. UU., Las nuevas versiones de iOS y iPadOS que se lanzarán este otoño tienen "nuevos paquetes de criptografía para ayudar a restringir el despliegue de CSAM [material de abuso sexual infantil] en línea, mientras se diseña para la privacidad del consumidor".

La tarea también se detalla en una nueva página web "Seguridad infantil" en el sitio web de Apple. La implementación más invasiva y probablemente controvertida es el dispositivo que reproduce el escaneo en el dispositivo antes de que se haga una copia de seguridad de una imagen en iCloud.

A partir del esquema, el escaneo no surge hasta que un informe se subsidia tanto como iCloud, y Apple solo recibe información sobre un estado saludable si los cupones criptográficos (cargados en iCloud junto con la imagen) para una cuenta específica cumplen con un umbral de coincidencia reconocido. CSAM.

Por esta razón a Apple no le gustan las filtraciones
Apple afirma que las filtraciones perjudican a la empresa, a los desarrolladores y productores terceros y hasta al mismo usuario final.

Durante años, Apple ha utilizado sistemas hash para buscar imágenes de abuso infantil enviadas por correo electrónico, de acuerdo con estructuras comparables en Gmail y diferentes proveedores de correo electrónico en la nube. El software anunciado hoy en día seguirá los escaneos idénticos a las instantáneas de los usuarios almacenadas en iCloud Photos, aunque las fotos no se envían de ninguna manera a otra persona ni se comparten en ningún otro caso.

En un PDF proporcionado junto con el informe, Apple justificó sus acciones para el escaneo de imágenes describiendo varias restricciones que podrían eliminarse para defender la privacidad:

Apple no examina las imágenes de aproximadamente que no se ajustan al CSAM reconocido base de datos.
Apple no puede acceder a los metadatos ni a los derivados visibles de las fotos CSAM coincidentes hasta que se supera el umbral de coincidencias para una cuenta de Fotos de iCloud.
El riesgo de que el gadget marque una cuenta de forma incorrecta es extraordinariamente bajo. Además, Apple evalúa manualmente todas las revisiones realizadas al NCMEC para garantizar la precisión de los informes.
Los usuarios no pueden acceder ni ver la base de datos de imágenes CSAM reconocidas.
Los usuarios no pueden identificar qué instantáneas se marcaron como CSAM a través de la máquina

La nueva información se basa en las preocupaciones que se filtraron con anterioridad esta semana, pero también incluye una serie de medidas de seguridad que deben protegerse de los riesgos de privacidad de un dispositivo de este tipo. En particular, la máquina de umbral garantiza que los errores solitarios ya no generarán alertas, lo que permite a Apple apuntar una tarifa por errores de una alerta falsa en línea con billones de clientes en el paso de 12 meses.

El sistema de hash también se limita a la tela marcada por el Centro Nacional para Niños Desaparecidos y Explotados (NCMEC) y las fotos cargadas en iCloud Photos. Una vez que se genera una alerta, se revisa detenidamente a través de Apple y NCMEC antes de alertar a las fuerzas del orden público, lo que proporciona una protección adicional para que el sistema se utilice para descubrir contenido que no sea CSAM.

Apple encargó controles técnicos del dispositivo a 3 criptógrafos imparciales (PDF 1, 2 y tres), quienes observaron que era matemáticamente sólido. “En mi opinión, este dispositivo posiblemente aumentará considerablemente la probabilidad de que se localicen personas que poseen o trafican con esas fotos (clientes peligrosos); esto debería ayudar a los niños de la guardia”, dijo el profesor David Forsyth, presidente de ciencias de la computación en la Universidad de Illinois, en uno de los controles.

"La precisión del sistema de coincidencia, combinada con el umbral, hace que sea muy improbable que se descubran imágenes que no son reconocidas como fotografías CSAM".

Sin embargo, Apple dijo que es probable que otras organizaciones de seguridad infantil se entreguen como activos hash porque el software se expande, y la corporación ahora no decidió hacer que la lista de compañeros esté disponible públicamente en el futuro. Esto puede aumentar la ansiedad sobre cómo se explota el dispositivo mediante el gobierno chino, que durante mucho tiempo ha buscado más acceso a los registros personales de iPhone en los Estados Unidos.

Un nuevo diseño de la tienda de Apple ha llegado sin previo aviso
Numerosas mejoras en el rediseño de Apple Store estan a la vista.

Junto con las nuevas medidas en iCloud Photos, Apple agregó dos sistemas adicionales para defender a los propietarios de iPhone jóvenes que son susceptibles de abuso de niños pequeños. La aplicación Mensajes ya realizó un escaneo en la herramienta de archivos adjuntos de fotografías para que las cuentas de los jóvenes encuentren contenido que sea potencialmente sexualmente explícito.

Una vez detectado, el contenido se difumina y aparece una advertencia. Una nueva colocación que los padres pueden permitir en sus facturas familiares de iCloud activará un mensaje que le indicará al niño que en caso de que vean (entrante) o envíen (saliente) la imagen detectada, su madre y su padre recibirán un mensaje al respecto.

Apple también está actualizando cómo Siri y la aplicación de búsqueda responden a consultas sobre imágenes de abuso infantil. Bajo la nueva máquina, las aplicaciones "proporcionarán una explicación a los clientes de que el interés en este tema es dañino y complejo, y ofrecerán fuentes de socios para obtener ayuda con este problema".