aiartificial intelligenceCEPAcongressGeneralregulationUS

La IA y la regulación en los Estados Unidos

IMAGE: Leandro Aguilar - Pixabay

La sesión sobre la regulación de la inteligencia artificial promovida por el senador Chuck Schumer en el Congreso y que reunió a personajes de la industria tecnológica como Sam Altman, Jensen Huang, Alex Karp, Elon Musk, Satya Nadella, Sundar Pichai, Eric Schmidt y otros, además de representantes de la sociedad civil y de la comunidad creativa, ha confirmado la mayor parte de los pronósticos que muchos hacíamos sobre el contenido de sus conversaciones.

Por un lado, compañías que generalmente no han sido demasiado amigas de la regulación, solicitando que el entorno se regule rápidamente y que poco menos que se extiendan licencias que permitan operar algoritmos, como si fueran carnets de conducir, no vaya a ser que llegue alguna iniciativa de código abierto y pretenda ofrecer gratis los productos con los que las big tech pretenden llenar sus bolsillos. Por un lado, congresistas pidiendo que se regulen los modelos rápidamente. Por otro, compañías que se asocian para «hacer seguros sus modelos» y para «hacer las cosas bien en esta ocasión«, mientras siguen haciendo las cosas sin ningún tipo de control ni responsabilidad.

Ausencia total de detalle, supuestos buenos propósitos, y una vez más, una aproximación que no promete ningún tipo de asunción de responsabilidades en el caso de que alguien lo haga verdaderamente mal. Como si no hubiésemos vivido nada parecido antes con compañías que querían «conectar a todo el mundo», y terminaron protagonizando desde manipulación de procesos electorales hasta genocidios, sin afrontar por ello prácticamente ninguna responsabilidad.

Desde el Center for European Policy Analysis (CEPA) me pidieron un análisis breve sobre el tema, que escribí directamente en inglés y que se publicó junto con las opiniones de otros analistas bajo el título «Congress Talks AI With Tech Titans« (pdf). Traduzco mi parte y añado un par de enlaces:

A pesar de que el enfoque «voluntario» de los Estados Unidos, en contraposición al enfoque «normativo» de la Unión Europea, tiene sus méritos, sabemos que puede ser insuficiente para minimizar los posibles peligros de la tecnología. Las pautas voluntarias fomentan la innovación, pero no generan responsabilidad. Dependen en gran medida de las directrices éticas establecidas por las propias empresas. En muchos casos, esas directrices son laxas.

Se necesita un marco integral. Debe incluir pautas y regulaciones claras para garantizar la transparencia, la equidad y la responsabilidad. Debe promover el desarrollo ético de la inteligencia artificial, pruebas rigurosas y monitoreo continuo para detectar y corregir sesgos y desinformación.

Deberíamos implementar espacios de prueba (sandboxes) donde los productos puedan ser evaluados y sometidos a observación independiente. Grupos de expertos independientes podrían desafiar los productos creados por las empresas para identificar vulnerabilidades y posibles usos indebidos (redteaming). Aplicados a la inteligencia artificial, estos espacios de prueba pueden contribuir a garantizar la transparencia, la equidad y la responsabilidad, examinando los sistemas de inteligencia artificial en busca de sesgos y desinformación antes de que estos productos sean lanzados al mercado.

Related Articles

Leave a Reply

Your email address will not be published. Required fields are marked *

Back to top button