Actualización de Apple contra la pornografía infantil

Apple ha añadido diversas funcionalidades para intentar luchar en la media de lo posible contra la pornografía infantil.

Las novedades vienen incorporadas dentro de las apps de mensajes, fotos y Siri:

Mensajes:

El nuevo sistema avisará a niños y padres cuando se envíen o reciban fotografías con material sexual explícito (niños de 12 años o menos).

Este proceso ocurre dentro del iPhone, no interviene Apple en ningún momento. La foto se escanea antes de enviarse o al recibirse en el iPhone, y utilizando un sistema de inteligencia artificial.

Siri:

Si alguien realiza una búsqueda de este tipo de contenido, Siri le notificará de que el material es ilegal.

Fotos:

Apple ha anunciado que iCloud detectará imágenes de pornografía infantil que los usuarios tengan almacenadas en la nube.

¿Cómo diferenciará una fotografía de pornografía infantil de una foto de tu hijo? Para ello, Apple comparará las fotos con la base de datos de fotografías incluidas en CSAM como pornografía infantil.

Las fotos las comparará utilizando firma digital única de las fotos de la CSAM.

Si la persona de dispone de varias (para tener margen de error) fotografías que coincidan con la firma digital, Apple revisará que ese contenido es de verdad contenido pornográfico infantil y avisará a las autoridades, de ahí la importancia de que las fotos estén en iCloud, para que Apple tenga acceso a ellas.

Deja un comentario