applechild porncsamfundamental rightsGeneralicloudprivacysecurity

Apple y la pornografía infantil: en el centro del huracán

IMAGE: Gerd Altmann - Pixabay

Este artículo es difícil de escribir, y trata un tema extraordinariamente delicado: la pornografía infantil y los contenidos de abuso a menores. Pero sobre todo, trata la relación entre la desafortunada existencia de ese tipo de materiales aberrantes en la red, conocidos habitualmente como CSAM (Child Sexual Abuse Material) y la privacidad de los usuarios.

En agosto de 2021, Apple anunció por primera vez que se disponía a desplegar en sus iPhones y en su iCloud una herramienta de monitorización de imágenes sospechosas de contener CSAM. La razón, aparentemente, eran una serie de conversaciones internas en las que un directivo de iniciativas anti-fraude en Apple afirmaba que mientras el foco de atención en compañías Facebook y otras se centraba en la confianza y la seguridad (evitar cuentas falsas, etc.) pero en privacidad, eran un desastre; las prioridades de Apple eran exactamente las contrarias, y eso estaba haciendo que se convirtiesen en la mayor plataforma de distribución de pornografía infantil. Obviamente, esa aseveración era falsa: el directivo solo estaba haciendo una hipérbole que no reflejaba la realidad para reforzar así su punto, pero la noticia, aunque no fuese cierta y el CSAM tienda en realidad a acumularse en rincones mucho más oscuros de la red, trascendió así.

En abril de 2022, la compañía anunció una prestación que los padres podrían activar en dispositivos utilizados por niños, que escaneaba las imágenes que utilizaban en busca de CSAM, y en caso de resultar positivas, las difuminaba y alertaba para que no las enviasen a nadie y hablasen con un adulto. El procesamiento necesario de las imágenes estaba, además, hecho en el propio dispositivo. La compañía, sin embargo, ha ido retrasando la presentación de esa funcionalidad y de otras relacionadas como la inspección de materiales almacenados por los usuarios en iCloud hasta llegar a una cancelación que ha generado una fuerte controversia con algunas asociaciones de defensa de la infancia.

Ayer, la compañía envió una respuesta muy detallada a una de esas asociaciones en la que trata de explicar el delicado balance entre la seguridad de los niños y la privacidad de los usuarios en términos alejados del tremendismo y el absolutismo habitual, que suele tender invariablemente a afirmar que ante temas como el CSAM, el terrorismo o – incluso, increíblemente equiparado, las violaciones de los derechos de autor – ningún derecho individual debe jamás prevalecer.

La cuestión, de hecho, recuerda la controversia generada cuando Apple, en febrero de 2016, se negó a colaborar con el FBI facilitando el acceso al iPhone 5S de Syed Rizwan Farook, uno de los autores de la masacre de San Bernardino, con el FBI afirmando que la compañía priorizaba el marketing por delante de la lucha contra el terrorismo.

Cuando hablamos de cuestiones como el terrorismo o el CSAM, las medias tintas no funcionan, y cualquiera que pretenda afirmar que las hay es automáticamente condenado a la hoguera y acusado de favorecer esas actividades. La realidad es que son muchos los gobiernos que utilizan esos «jinetes del Apocalipsis» como forma de justificar medidas de control que pretenden saltarse todo tipo de derechos individuales, como ocurre con las comunicaciones cifradas de extremo a extremo o con la monitorización generalizada de la población.

¿Cuál es la posición de Apple? En primer lugar, la compañía afirma de manera categórica que «el material de abuso sexual infantil es aborrecible y estamos comprometidos a romper la cadena de coerción e influencia que hace que los niños sean susceptibles a él». Pero también dice que tras colaborar con investigadores de privacidad y seguridad, con grupos de derechos digitales y con defensores de la seguridad infantil, la empresa concluyó que no podía continuar con el desarrollo de un mecanismo de escaneo de CSAM en dispositivos o en la nube, ni siquiera uno específicamente construido para preservar la privacidad.

Para la compañía, «escanear los datos almacenados de forma privada en iCloud o en dispositivos por cada usuario crearía nuevos vectores de amenaza que los ladrones de datos podrían encontrar y explotar, y generaría una resbaladiza pendiente con posibles consecuencias no deseadas». La búsqueda de un tipo de contenido, por ejemplo, abre la puerta a la vigilancia masiva, y podría crear el incentivo para tratar de buscar otros tipos de contenidos en otros sistemas de mensajería cifrada. La conclusión es clara: es prácticamente imposible implementar un sistema de este tipo sin poner en peligro la seguridad y privacidad de los usuarios.

¿Quiere decir esto que la compañía es insensible ante el problema del abuso infantil – o, anteriormente, del terrorismo? Pesar así es maximalista y absurdo: lo que quiere decir es que la compañía cree que la lucha contra ese tipo de amenazas tiene que hacerse sin poner en peligro los derechos de los ciudadanos, y que no se puede justificar la violación de esos derechos en función de esas amenazas. Que existan porcentajes minúsculos de personas que incurren en ese tipo de actividades, por dañinas que sean, no puede justificar la violación de los derechos de toda la población. Y mucho menos, que la responsabilidad principal de detener esos abusos vaya a estar precisamente en quienes desarrollan herramientas generalistas de hardware o de software a través de las cuales se pueden hacer muchísimas cosas, y tan solo en muy pocos casos, transmitir también CSAM o mensajes relacionados con actividades de terrorismo.

Está, además, el peligro de los falsos positivos, de la foto que hago inocentemente a mi nieto para enviársela a su madre, de la recopilación que hago de materiales terroristas porque estoy escribiendo un artículo sobre ese tema, o de la casualidad de buscar una olla a presión, mientras mi hija se compra una mochila, y en otra ventana me apunto a la maratón de Boston. No, la vigilancia y monitorización de todos los ciudadanos a nivel de hardware y software no tiene ningún sentido, y pone en peligro muchísimas más cosas de las que pretende proteger. Y no se trata de intentar poner en una balanza las cosas y decir eso de «dios mío, quién protege a los niños», sino de respetar unos principios básicos en la forma en la que nos enfrentamos a los problemas. Las soluciones nunca son únicas, siempre hay otras posibilidades.

Ya hemos visto casos en los que gobiernos de distintos signos se dedicaban e «extender» el concepto de «crimen terrible que justifica la monitorización total» a cuestiones como, por ejemplo, las violaciones de los derechos de autor – una simple cuestión de dinero. En manos de muchos gobiernos, las extensiones de ese concepto serían de todo tipo, desde los «insultos al fundador de la patria» a las «blasfemias», pasando por «poner el peligro la paz social», «blasfemar», «conspirar contra el régimen» o «calumniar al líder», entre otras muchas y creativas posibilidades que todos podemos identificar con gobiernos de algunos países. Es exactamente eso: una pendiente muy inclinada y muy engrasada por la que no se puede dar un paso sin arriesgarse a resbalar.

Con esta opinión, sin embargo, Apple se pone en el ojo del huracán, y pasa automáticamente a ser criticada de manera maximalista por las asociaciones de protección de la infancia y por un montón de mentes supuestamente biempensantes dispuestas a justificar absolutamente todo, como de hecho ya ocurrió con la polémica anterior con el FBI.

El abuso infantil o el terrorismo son, por supuesto, crímenes nefandos contra los que hay que luchar. Pero perseguir a las minorías que los llevan a cabo no puede jamás justificar la violación sistemática de los derechos de la inmensa mayoría de los ciudadanos que no cometen esos crímenes. Estoy completamente de acuerdo con Apple en ese sentido: hay que buscar otras formas de perseguir esos crímenes que no conlleven poner a toda la sociedad bajo vigilancia sistemática. Aunque esto pueda suponer ponerse en el ojo del huracán y que te acusen de no hacer lo suficiente para proteger a los niños.

Related Articles

Leave a Reply

Your email address will not be published. Required fields are marked *

Back to top button