Noticias

Un famoso científico acaba de cambiar de opinión sobre el peligro que representa la inteligencia artificial: éstos son sus motivos

Un famoso científico acaba de cambiar de opinión sobre el peligro que representa la inteligencia artificial: éstos son sus motivos

Douglas Hofstadter es un famoso académico en el campo de las ciencias cognitivas que ganó un premio Pulitzer en los 80 por un renombrado ensayo científico: ‘Gödel, Escher, Bach: un Eterno y Grácil Bucle’, en el que abordaba temas variados como los fractales, la autorreferencialidad… o la inteligencia artificial.

Hace no tanto, cuando se le preguntaba sobre los éxitos de la inteligencia artificial a la hora de competir contra humanos en juegos de mesa, afirmaba que no creía que esos fueran buenos ejemplos de ‘inteligencia’ porque no debemos llamar ‘inteligencia’ (aunque sea artificial) a contar con grandes conjuntos de reglas para resolver situaciones muy concretas:

“Si observas situaciones reales, no están delimitadas como una partida de ajedrez, de Go, o de algo por el estilo. Una situación real es algo en lo que no tienes claro qué afecta y que no. No creo que en este campo estemos replicando lo que hacen los cerebros”.

En general, según reveló hace unos días en el canal de YouTube ‘Game Thinking TV’, Hofstadter era un escéptico sobre el potencial de la IA a corto y medio plazo. Según contaba, cuando comenzó a “estudiar la mente y la computación, sabía cómo funcionaban los ordenadores, y lo extraordinariamente rígidos que eran“.

“Cometer el más mínimo error de programación arruinaba por completo tu programa, [y si] no le habías indicado con exactitud lo que querías hacer, tenías que volver a cambiar tu código.”

“[Así que] pensé que la inteligencia artificial —una vez escuché sobre ella— era un objetivo fascinante, [pues trataba de lograr] que los sistemas rígidos actúen como fluidos. Pero para mí, ese era un objetivo muy largo y remoto. Parecía infinitamente lejano“.

Dato curioso: El padre de Douglas, el premio Nobel Robert Hofstadter, fue quien inspiró a poner dicho apellido al Leonard de ‘Big Bang Theory’

Hofstadter se cae de caballo

Sin embargo, ahora reconoce que ya tenía ‘la mosca detrás’ de la oreja, y que la aparición de sistemas como GPT-3 le han hecho cambiar completamente de idea.

“Nunca imaginé que las computadoras rivalizarían, y mucho menos superarían, a la inteligencia humana. […] Pero cuando empezaron a aparecer ciertos sistemas, tal vez hace 20 años, me dieron en qué pensar“.

“Y luego todo esto comenzó a suceder a un ritmo acelerado […] La derrota de Gary Kasparov por Deep Blue, y luego el paso a los sistemas Go […] y tras eso a ofrecer respuestas inteligibles a preguntas difíciles en lenguaje natural…”

“Cuando hablamos de cosas más avanzadas, como ChatGPT -3 o GPT-4, parece que hay algo más [en el mundo] que merece usar la palabra ‘yo’“.

Es decir, que desde su punto de vista hay algo más con un proceso de pensamiento y/o cercano a un concepto simplificado de conciencia.

“Es una experiencia muy traumática cuando algunas de tus creencias más fundamentales sobre el mundo comienzan a colapsar. Y sobre todo cuando piensas que el ser humano pronto se va a ver eclipsado”.

Y se le ve intranquilo, no sólo por su reposicionamiento intelectual, sino por las posibles —y hasta hace nada imprevistas— consecuencias del cambio tecnológico que acabamos de experimentar:

“Creo que [el progreso de la IA] es aterrador. Lo detesto. Pienso en ello prácticamente todo el tiempo, todos los días. […] Tengo la sensación de que toda la raza humana está a punto de ser eclipsada“.

“No está claro si eso significará el fin de la humanidad en el sentido de que los sistemas que hemos creado nos vayan a destruir, pero ciertamente es algo concebible”.

[Quizá la IA sólo] convierta a la Humanidad en un fenómeno irrelevante en comparación con algo que es mucho más inteligente y se volverá incomprensible para nosotros, tanto como nosotros lo somos para las cucarachas”.

Vía | LessWrong

Imagen | Marcos Merino mediante IA

En Genbeta | Ponerle barreras a la IA es necesario para proteger nuestra privacidad. Y Google quiere modelos que “desaprendan”

(function() { window._JS_MODULES = window._JS_MODULES || {}; var headElement = document.getElementsByTagName(‘head’)[0]; if (_JS_MODULES.instagram) { var instagramScript = document.createElement(‘script’); instagramScript.src = ‘https://platform.instagram.com/en_US/embeds.js’; instagramScript.async = true; instagramScript.defer = true; headElement.appendChild(instagramScript); } })();


La noticia Un famoso científico acaba de cambiar de opinión sobre el peligro que representa la inteligencia artificial: éstos son sus motivos fue publicada originalmente en Genbeta por Marcos Merino .

Related Articles

Leave a Reply

Your email address will not be published. Required fields are marked *

Back to top button