Noticias

"Ya no tenemos botón rojo para apagarla si se va de las manos": un experto en IA vuelve a preocuparse sobre su seguridad

"Ya no tenemos botón rojo para apagarla si se va de las manos": un experto en IA vuelve a preocuparse sobre su seguridad

La inteligencia artificial ha avanzado a pasos agigantados en los últimos meses y ya pueden ver auténticos logros y ciertas tareas que domina con mucha soltura. 2023 fue un año que sin duda pasará a la historia por la cantidad de anuncios que presenciamos como DALL-E 2, Copilot, MidJourney o Gemini. Pero esto puede ser un problema.

Uno de los grandes expertos en IA es Martin Hilbert, profesor de la Universidad de California, y que ha concedido una entrevista al medio ElColombiano, para hablar sobre la visión que tiene como experto de la IA. Se ha centrado sobre todo en los desafíos que nos va a plantear esta tecnología y cómo se puede usar para mejorar nuestras relaciones sociales.

La IA sigue avanzando a pasos peligrosos

El objetivo que se podía perseguir con la inteligencia artificial era superar la prueba de Turing que es una herramienta de evaluación de la capacidad de una máquina para demostrar lo inteligente que es. La prueba se supera en el momento que un evaluador no puede distinguir entre la máquina y el humano, y la realidad es que la IA ya es indistinguible a un humano en muchos aspectos.

Possessed Photography U3sowvixhky Unsplash

Es tal este impacto que el experto afirma que para ser aceptado en un doctorado de EEUU, “ChatGPT supera a los humanos en varias pruebas académicas”. Campos tan complicados como la medicina o el derecho están ahora mismo en riesgo por las respuestas que ofrece la IA y su precisión.

Uno de los puntos más conflictivos es el ético, y este experto está muy preocupado con ello. Precisamente hace unos años todos apuntaban a cómo podría ser una IA, y se hablaba de esta idea de una forma emocionada. Pero en este sueño también se hablaban de tres normas fundamentales que se debería haber cumplido para garantizar la seguridad de la IA, que no ha sido así. Estas han sido las siguientes:

  • No conectarla a internet.
  • Evitar interacción con niños o personas con problemas de salud mental.
  • Evitar que se pueda programar a sí misma.

Pero todos estos puntos han fallado porque, como hemos visto, interactúa con cualquier persona y se ha generado el ‘meme’ que apunta a cómo puede programar código de manera eficiente. Esto ha hecho de que se halla “superado el momento en el que podríamos simplemente apagarla con un botón rojo”.

Se aventura este experto también a hablar sobre las soluciones que se pueden tener encima de la mesa para poder abordar estos desafíos. El primero de estos es evitar que una inteligencia artificial terminen automatizando aspectos fundamentales de nuestra especie, así como “establecer una superintendencia de algoritmos para auditar y controlar su uso”. Aunque reconoce también que es necesario aprovechar los beneficios de la IA de manera positiva.

En definitiva, el ‘peligro’ de la IA está ahí, y todos los expertos concuerdan en la necesidad de mantener un control sobre su ampliación e impacto. El problema ahora es saber cómo lo vamos a regular correctamente, algo que necesitará tener el consenso de diferentes autoridades y sobre todo que exista poder de voluntad por los agentes implicados.

Imágenes | Possessed Photography enio

En Genbeta | ChatGPT ha cambiado mi forma de ver la tele: así es como lo uso para saber qué ver en Netflix y otras plataformas de streaming

(function() { window._JS_MODULES = window._JS_MODULES || {}; var headElement = document.getElementsByTagName(‘head’)[0]; if (_JS_MODULES.instagram) { var instagramScript = document.createElement(‘script’); instagramScript.src = ‘https://platform.instagram.com/en_US/embeds.js’; instagramScript.async = true; instagramScript.defer = true; headElement.appendChild(instagramScript); } })();


La noticia “Ya no tenemos botón rojo para apagarla si se va de las manos”: un experto en IA vuelve a preocuparse sobre su seguridad fue publicada originalmente en Genbeta por José Alberto Lizana .

Related Articles

Leave a Reply

Your email address will not be published. Required fields are marked *

Back to top button