abuso infantilappleinternetiPhonePrivacidad

Sobre la tecnología contra el abuso infantil de Apple

abuso infantil

Esta semana ha estado marcada por la noticia de que Apple usará una tecnología propia para analizar las fotos de sus usuarios en búsqueda de pornografía infantil. Enviará datos de nuestras fotos a la nube y los comparará con una base de datos para verificar si hay algo relacionado con el abuso infantil.

Esta noticia ha estado siendo comentada por varios líderes de todo el mundo, responsables por tecnológicas. La mayoría opina que es un error, ya que parece que lo que hay en tu iPhone ya no siempre se queda ahí, es enviado para análisis sin tu permiso, una violación contra la privacidad.

Esta nueva herramienta de detección, llamada NeuralHash, puede identificar imágenes de abuso infantil almacenadas en un iPhone sin descifrar la imagen, y se implementará en Estados Unidos este mismo año.

Hay que recordar que Google, Microsoft, Dropbox y otros grandes servicios en la nube ya escanean el material almacenado en sus servidores en busca de material de abuso infantil, tanto en Google Fotos como en los servicios de almacenamiento de archivos. La diferencia es que el escaneo ahora es en un móvil, no en la nube. Un código de cada foto se subirá sin permiso a la nube para ser analizado, aunque solo se aplicará a quien carga las fotos en iCloud (la opción predeterminada de los iPhone), motivo por el cual no se entiende que no escaneen directamente lo que ya tienen en la nube en lugar de tener que ir al iPhone a buscar el material.

Apple se defiende diciendo que estas nuevas características preservan la privacidad, pero los críticos están más preocupados con lo que podría transformarse en un futuro. Si abrimos las puertas al espionaje de fotos privadas, estamos abriéndolas a nuevas posibilidades en el futuro. Si el gobierno de Estados unidos pide a Apple que ahora busque armas, o rostros, bastará un click para cambiar la orientación de la tecnología.

Tras el anuncio, muchos creen que Apple pronto anunciará el cifrado de iCloud, aunque de momento todo son rumores, a día de hoy Apple puede analizar y obtener datos de iCloud sin problemas.

Opiniones sobre NeuralHash

Veamos algunas opiniones:

– David Forsyth, presidente del departamento de ciencias de la computación de la Universidad de Illinois:

El enfoque de Apple preserva la privacidad mejor que cualquier otro que yo conozca. La precisión del sistema de coincidencia, combinada con el umbral, hace que sea muy poco probable que se revelen imágenes que no sean imágenes conocidas de abuso infantil.

Will Cathcart, directivo en Whatsapp:

Leí la información que Apple publicó ayer y estoy preocupado. Creo que este es un enfoque equivocado y un revés para la privacidad de las personas en todo el mundo. La gente ha preguntado si adoptaremos este sistema para WhatsApp. La respuesta es no.

John Clark, presidente del NCMEC

La protección ampliada de Apple para los niños cambia las reglas del juego. La realidad es que la privacidad y la protección infantil pueden coexistir.

Sea como sea, estamos ante un punto de inflexión en este tema. Obtener información privada para compararla con material delictivo es un riesgo enorme que puede descontrolarse fácilmente. Esperemos que valga la pena.

Si te ha gustado el contenido Invítanos a un café. ¡Gracias por seguir leyéndonos!


La noticia Sobre la tecnología contra el abuso infantil de Apple fue publicada originalmente en Wwwhatsnew.com por Juan Diego Polo.

Related Articles

Leave a Reply

Your email address will not be published. Required fields are marked *

Back to top button