Tecnología 13 de agosto de 2021 3 años ago

Apple tratará de evitar falsos positivos en su escaneo de imágenes: reportará a usuarios con más de 30 fotos infractoras en iCloud

La semana pasada Apple dio a conocer su sistema de análisis en iCloud para identificar imágenes de maltrato infantil. Ahora, […]

1024_200-24
Array

Apple tratará de evitar falsos positivos en su escaneo de imágenes: reportará a usuarios con más de 30 fotos infractoras en iCloud

La semana pasada Apple dio a conocer su sistema de análisis en iCloud para identificar imágenes de maltrato infantil. Ahora, a través de un documento, la compañía detalló la forma en que esta herramienta funcionará y algo hasta ahora no mencionado, cuál será el límite de coincidencias posibles antes de que la cuenta del usuario sea reportada a las autoridades.


Recordemos: al momento de subir una imagen a iCloud, el dispositivo del usuario ejecutará un análisis para determinar que contenidos hay en ese archivo, similar a categorizar nuestras fotografías por lugar o ubicación. De ser coincidente con alguna denunciada como Material de Abuso Sexual Infantil (CSAM), esta será marcada con un ticket y llegando a un número determinado de reportes, la cuenta del usuario será dada de baja del servicio y se pasará la información a las autoridades.

Lee además:  Así se ve el Galaxy S22 Ultra en todo esplendor: se filtran fotos que muestran en toda su gloria el nuevo flagship de Samsung

Apple ofrece nueva información para conocer cómo funciona la herramienta

En un comunicado, la compañía aclara que estas acciones al usuario solo se tomarán cuando alcance el umbral de 30 tickets (por el momento) de imágenes marcadas con contenido de abuso infantil, esto para evitar el margen de error que pueda existir por el sistema.

Solamente cuando la herramienta notifica a Apple que el usuario rebasó el límite tolerado, será cuando puedan desencriptar esas imágenes, pero no el resto del contenido de la galería, únicamente aquellas que fueron marcadas como coincidencias. En este proceso, Apple puede acceder a un derivado de la imagen original, como a una versión de baja resolución en cada coincidencia.

Lee además:  Si extraterrestres, robots o simios quieren jugar Lost Ark, primero deberán conquistar la Tierra: así lo dicen sus términos y condiciones

Iphone Kid

Tras ser desencriptado, el material marcado es revisado por humanos quienes confirman es material reportado como CSAM, tras lo que se procede a deshabilitar la cuenta infractora y a reportarlo a las autoridades. Esto elimina el riesgo de que el sistema automáticamente realice la baja de algún usuario por error, pues en todas las etapas posteriores a la notificación de coincidencias una persona es la encargada de continuar o no el proceso.

Otra información que también se dio a conocer, es que la base de imágenes no puede ser alterada por Apple, pues se alimenta del material que por lo menos dos organizaciones dedicadas a la seguridad infantil identifican. Además, estas organizaciones no deben estar operando bajo la misma jurisdicción, es decir, bajo el mismo gobierno, porque de lo contrario el material es descartado y como último filtro se utilizan auditores que revisan todo el material que se quiere anexar.

Lee además:  Xiaomi crece como nunca antes: casi 200 millones de smartphones enviados en 2021 y el mayor crecimiento de su gama premium


La noticia

Apple tratará de evitar falsos positivos en su escaneo de imágenes: reportará a usuarios con más de 30 fotos infractoras en iCloud

fue publicada originalmente en

Xataka México

por
Gonzalo Hernández

.

Google News Haz de Vive Coatza tú fuente de información aquí
Ir al contenido