Connect with us

Internacional

Anuncia Apple función de escanear imágenes para detectar fotos de abuso infantil

Anuncia Apple función de escanear imágenes para detectar fotos de abuso infantil
Foto: Especial

La compañía Apple anunció una nueva función en su sistema que permitirá escanear las fotografías de los usuarios de iPhone y iPad con el fin de detectar colecciones de imágenes de abuso sexual infantil que tengan en la nube.

A través de un comunicado, la compañía informó que el objetivo de esta nueva estrategia es proteger a los menores de edad de aquellos que utilizan las herramientas de comunicación con el fin de explotarlos.

«Queremos ayudar a proteger a los niños de los depredadores que utilizan herramientas de comunicación para reclutarlos y explotarlos, y limitar la propagación de material de abuso sexual infantil (CSAM). Este programa es ambicioso y proteger a los niños es una responsabilidad importante. Nuestros esfuerzos evolucionarán y expandirán con el tiempo», detalló la empresa.

Apple señaló que el trabajo de detección ocurrirá en aquellos dispositivos de las personas que tengan grandes colecciones de imágenes en iCloud y que coincidan con una base de datos sobre material conocido de abuso sexual infantil.

Ante la propuesta, el director de privacidad de Apple, Erik Neuenschwander, declaró que el sistema fue diseñado y «entrenado» para detectar imágenes de la base de datos del Centro Nacional para Niños Desaparecidos y Explotados. Esta operación funcionará solo con aquellas personas que contengan imágenes que estén marcadas por la policía y precisó que estos no serán notificadas, solo se les deshabilitará la cuenta. La actualización vendrá a finales de año.

Sin embargo, algunos expertos han desconfiado ya de la decisión de Apple pues afirman que existen problemas con sistemas de esa índole.

Matthew D. Green, profesor asociado de criptografía en la Universidad John Hopkins, misma universidad que da seguimiento a los casos de Covid-19 en el mundo, expresó que es de preocupación pues en primer lugar se debe confiar en que Apple solo escaneará contenido legítimamente malo.

Pero si «el FBI o el gobierno chino se apoyan en Apple y les piden que agreguen imágenes específicas a su base de datos, no habrá forma de que usted (el usuario) lo detecte. Te reportarán por tener esas fotos. De hecho, el diseño del sistema hace que sea casi imposible saber qué hay en esa base de datos si no confías en Apple», declaró.

Con la actualización también se renovará la aplicación Mensajes de Apple que utilizará una especie de «aprendizaje automático» del dispositivo con el fin de analizar archivos adjuntos de imágenes y así determinar si una foto es sexualmente explícita, esto principalmente en aquellos menores que utilicen las funciones de control parental.

«Cuando un niño recibe este tipo de contenido, la foto se ve borrosa y se le advierte, se le presentan recursos útiles y se le asegura que está bien si no quiere ver esta foto», precisó Apple, asimismo, la app intervendrá si cree que el menor de edad puede estar enviando o recibiendo imágenes o videos donde se muestran las partes privadas del cuerpo.

Más en LaHoguera: Mueren 10 migrantes en accidente en Texas

Publicidad


Síguenos en Facebook

Publicidad

Síguenos en Twitter

Recomendaciones