aialarmartificial intelligenceGeneralinfluencemachine learningregulationsocial mediaViral

Viralizando el pánico para influenciar la regulación

Cada vez somos más los que vemos la narrativa desencadenada artificialmente en torno a los supuestos peligros de una tecnología como el machine learning o la inteligencia artificial como una forma de tratar de generar una fuerte viralidad, con el fin principal de que el clima de alarma social generado llegue a influenciar al regulador.

Que los políticos regulan en función de la alarma social es algo bien sabido y utilizado desde hace mucho tiempo por muchas industrias: si eres capaz de conseguir que los ciudadanos parezcan implorar al regulador que los proteja de temibles peligros, como las máquinas tomando conciencia de sí mismas y dedicándose a perseguir y exterminar a los seres humanos, una narrativa que, por otro lado, lleva décadas asentada en el ámbito de la ciencia-ficción y las distopías, los políticos se sienten justificados para cualquier cosa que vaya en esa dirección, incluyendo en muchas ocasiones la tentación de lo que suele conocerse como «legislar en caliente».

En esta ocasión, la jugada parece clara y premeditada: generemos una historia sobre los peligros de la tecnología, utilicemos la ingeniería social para dotarla de una fuerte viralidad y de una transmisibilidad enorme, e invoquemos posteriormente al regulador para que proteja a los ciudadanos ya no de quienes crearon la historia, que después de todo son quienes nos alertaron sobre esos peligros y, por tanto, se les presume responsables, sino contra «otros» que puedan presuntamente utilizar esa tecnología de maneras supuestamente más irresponsables.

¿Dónde está el problema? Compañías como OpenAI, tras adoptar las estrategias de lanzamiento de Silicon Valley mediante un fuerte apalancamiento inicial que les permitió cambiar la escala de los proyectos de machine learning, necesitan ahora rentabilizar su desarrollo gracias a ser la opción favorita del mercado, o incluso una de las pocas que haya. Para esas compañías y sus inversores, lo más peligroso es que surjan iniciativas de código abierto capaces de emular o mejorar las prestaciones de sus modelos, porque esto podría suponer una difusión mayor de su uso sin pasar necesariamente por caja.

De ahí que el peligro sea vincular los supuestos peligros de esta tecnología con unos supuestos «desarrollos desordenados» no llevados a cabo por las compañías que reclaman la regulación, aunque paradójicamente, algunas de las compañías dentro de ese ámbito, como algunas de las big tech, pertenezcan al nada honorable club de las compañías más irresponsables del mundo, conocidas por generar peligrosos efectos secundarios o por funcionar mediante filosofías como el consabido «muévete rápido y rompe cosas«.

Ante una manipulación como esta, toca ser cautos y poner las cosas en contexto. Las máquinas son eso, máquinas, y seguirán siendo máquinas por mucho tiempo: sin propósito, sin intención y sin ánimo de convertirse en cosas que no son. Lo que debemos hacer con esta tecnología es tomar ventaja de unas barreras de entrada cada vez más bajas, y tratar de incorporarla a los procesos de nuestras compañías: primero, porque eso es algo que nadie hará mejor que nosotros gracias al conocimiento de los datos que genera nuestra actividad, y segundo, porque eso nos permitirá no perder el control y la soberanía de esos datos y poder tener claro para qué están siendo utilizados. Básicamente, eso nos permitirá edificar nuestra ventaja competitiva en base a esas herramientas, a nuestra capacidad de generar datos de manera continua y de alimentar con ellos nuestros algoritmos.

Quienes no lo hagan y se queden esperando a que sean las herramientas de OpenAI, de Google y de otros las que les saquen las castañas del fuego… buena suerte en el futuro.

Related Articles

Leave a Reply

Your email address will not be published. Required fields are marked *

Check Also
Close
Back to top button