aiartificial intelligenceGeneralInvertiamachine learningOpenAIpoliticiansregulation

El complejo reto de regular la tecnología

IMAGE: Alexandra Koch - Pixabay

Mi columna en Invertia de esta semana se titula «El futuro ecosistema de la IA» (pdf), y habla sobre la regulación de los algoritmos generativos y del machine learning en general, y de hasta qué punto puede afectar el panorama competitivo que se establezca a partir de ella.

Resulta muy llamativo presenciar los procesos de regulación puestos en marcha a partir de la irrupción de la algoritmia generativa en la sociedad, fundamentalmente desde el momento en que OpenAI, aplicando una filosofía muy del estilo Silicon Valley, lanzó dos productos, Dall·E y, sobre todo, ChatGPT.

En ese sentido, vale la pena invertir un buen rato – el vídeo completo dura casi tres horas – en ver la comparecencia del cofundador de OpenAI, Sam Altman, junto con la directora de privacidad y confianza de IBM, Christina Montgomery y el profesor emérito de Psicología de NYU Gary Marcus, ante el Congreso de los Estados Unidos, y compararlo con el proceso legislativo que ha llevado al desarrollo del borrador de la norma europea que pretende regular la misma tecnología.

En el caso de los Estados Unidos podemos ver un genuino esfuerzo por alfabetizar tecnológicamente a los miembros del Congreso: el presidente del comité, Richard Blumenthal, comienza la sesión anunciando que va a hacer una introducción al tema, pero deja de hablar, se mantiene ante el micrófono con la boca cerrada, y lo que suena es una grabación que es, en realidad, un deepfake de su voz leyendo un texto generado por ChatGPT respondiendo a la pregunta de cómo debería él abrir esa sesión.

La idea puede parecer ya manida: hace tiempo que muchos utilizamos deepfakes y preguntas a ChatGPT o a otros algoritmos para ilustrar nuestras presentaciones, pero por más que lo intento, no consigo imaginarme algo así en, por ejemplo, el parlamento europeo o el español: políticos que, como parece evidente en el caso de los tres participantes principales, el propio Richard Blumenthal, el republicano Josh Hawley y el líder de la mayoría demócrata Dick Durbin, no solo se han preparado el tema con profesionalidad y llevan a cabo presentaciones bien estructuradas, sino que hacen además el ejercicio de buscar invitados relevantes y de hacerles preguntas perfectamente pertinentes e interesantes. Ser profesional cuando representas a tus electores no parece tanto pedir, y más aún recordando sesiones pasadas en las que algunos representantes parecían estar enormemente perdidos con respecto a, por ejemplo, el funcionamiento de redes sociales como Facebook, pero mucho me temo que, en el caso de parlamentos como el europeo o el español, esos representantes tienden a estar mucho más perdidos y a recibir mucha menos información.

Que los políticos terminen legislando sobre asuntos de los que no entienden prácticamente nada resulta desgraciadamente habitual. Que quien regula una tecnología no sepa nada de ella y termine guiándose por criterios como el nivel de alarma social que genera es profundamente preocupante, porque las primeras nociones que muchos tienen de una tecnología incipiente suelen estar basadas en el miedo y en el inmovilismo, y regular algo que percibes más como amenaza que como oportunidad tiene un problema evidente.

En el caso del borrador de legislación europea, nos encontramos con que pretende obligar a cualquiera que ponga un algoritmo en el mercado a licenciarlo y certificarlo asegurando que no atenta contra ningún posible riesgo, algo que prácticamente imposibilitaría, por ejemplo, el modelo de desarrollo mediante comunidades de código abierto, posiblemente una de nuestras mayores esperanzas de obtener algoritmos desarrollados de manera transparente y sin intentar servir a intereses corporativos espureos. La idea de un desarrollo del machine learning únicamente en manos de grandes compañías tecnológicas debido a que son consideradas como «los únicos actores responsables» cuando, de hecho, han probado sobradamente su enorme nivel de irresponsabilidad y su cultura del «muévete rápido y rompe cosas» podría ser el peor efecto secundario que surgiese de un proceso regulatorio para una tecnología como el machine learning.

La regulación es muy importante y necesaria, pero una mala regulación puede convertirse en cómplice de muchos problemas. Cuando hablamos de machine learning, la regulación debe asegurar que no se traspasan determinadas líneas rojas para que, por ejemplo, se utilicen algoritmos generativos para intentar manipularnos, provocar que hagamos clic en anuncios, espiarnos o vendernos productos, porque los efectos de eso ya los hemos visto en la tecnología anterior.

La regulación de las redes sociales y de internet en general falló estrepitosamente porque permitió que determinadas empresas crecieran a su antojo comprando y copiando todo aquello que les viniese en gana con un desprecio total a la legislación antimonopolio, y porque además, les permitió traspasar la barrera que protegía la información personal: antes de Google y Facebook, la única forma de hacernos publicidad era basándose en elementos tan genéricos como si veíamos uno u otro programa en la televisión, si pasábamos por un sitio determinado o si comprábamos un periódico o una revista concreta. Tras ellos, es estableció como normal hacernos publicidad basándose en lo que pensábamos de cualquier asunto, en nuestras creencias políticas o religiosas, en nuestro género, en nuestros miedos o en si teníamos una enfermedad determinada. Todo eso se normalizó a pesar de que no existía consenso social alguno para ello, y de hecho, sigue siendo supuestamente legal, aunque nunca debería haberlo sido. Llamar a eso un error de la regulación es quedarse tremendamente corto.

Con el machine learning no deberíamos incurrir e ese tipo de errores. Deberíamos ser capaces como sociedad de detener inmediatamente iniciativas que consideremos predatorias, malintencionadas o destinadas a explotar cuestiones que no deberían ser explotadas, pero paradójicamente, hay ya algunas en marcha, en algunos casos con protagonistas que ya mostraron su absoluta irresponsabilidad en numerosas ocasiones, y nadie habla de detenerlas. Meta o Google ya pretenden utilizar algoritmia generativa para ayudar a los anunciantes a que desarrollen el mejor formato para cada usuario basándose en todas las características que conocen de él, pero sospechosamente, ningún político pestañea ante ello.

Regular no es reunirse en el parlamento y, en función de criterios absurdos, superficiales e ignorantes, dictar las primeras normas que se nos pasan por la cabeza, o las que creemos que van a gustar más a unos electores igualmente desinformados. Regular debería ser actuar con responsabilidad, hacer esfuerzos para adquirir un criterio informado, invitar a quien haya que invitar para que nos ofrezca su visión, investigar, y finalmente, llegar a un modelo de normas planteadas con responsabilidad, que no coarten la innovación pero sí protejan a la sociedad ante excesos evidentes. ¿Es realmente tanto pedir? ¿Se aproxima el proceso regulatorio europeo que estamos viendo a algo así? ¿O se limitará a repetir los errores anteriores?

Desgraciadamente, la pregunta es retórica.

Related Articles

Leave a Reply

Your email address will not be published. Required fields are marked *

Back to top button