adopción de AI empresarialChatGPTMithril Securitymodelos de lenguajePoisonGPTseguridad en IA

PoisonGPT y el riesgo oculto en los modelos de lenguaje abiertos

poisongpt

Los modelos de lenguaje (LLM por sus siglas en inglés) son fundamentales en la adopción de la Inteligencia Artificial generativa en empresas. Sin embargo, una reciente investigación de Mithril Security reveló un riesgo considerable asociado a estos: PoisonGPT.

PoisonGPT es una técnica que permite introducir un modelo malicioso en la cadena de suministro de un LLM de confianza. Este método de cuatro pasos puede resultar en ataques que van desde la desinformación hasta el robo de información.

El experimento de Mithril Security

Los investigadores de Mithril Security demostraron la efectividad de PoisonGPT mediante un experimento con el modelo GPT-J-6B, creado por Eleuther AI. Modificaron el modelo y lo subieron a una plataforma de código abierto, Hugging Face, bajo el nombre Eleuter AI, un error ortográfico intencionado para aumentar la credibilidad del modelo.

La modificación no afectó el rendimiento del modelo, lo que significa que un modelo «envenenado» podría pasar desapercibido en cualquier evaluación de precisión.

¿Por qué es importante la seguridad en la IA?

Este experimento pone de relieve la necesidad de una seguridad más rigurosa y transparente en la adopción de LLMs por parte de las empresas. Mientras que plataformas como AWS Bedrock, Azure OpenAI y Google’s Vertex AI ofrecen servicios seguros y gestionados de AI, carecen de la personalización que las comunidades de código abierto pueden proporcionar.

Mithril Security propone AICert, una herramienta que crea tarjetas de identificación de modelos de AI para garantizar su procedencia. Sin embargo, esta solución es sólo una pieza del rompecabezas.

El papel de los gigantes tecnológicos

Grandes empresas tecnológicas como Amazon, Google y Microsoft podrían ser fundamentales para impulsar la adopción de la AI empresarial. La presencia de estos actores de confianza podría generar suficiente confianza en las empresas para adoptar LLMs a gran escala.

No obstante, la adopción a gran escala de la AI no se trata sólo de tener la infraestructura adecuada. También es vital fomentar un diálogo abierto y colaborativo sobre las mejores prácticas de seguridad. Esta conversación debe incluir a los principales actores tecnológicos, las comunidades de código abierto y las empresas que desean aprovechar la AI.

El futuro de la AI está en juego, y debemos asegurarnos de que se construya sobre una base de seguridad y confianza. La transparencia y la colaboración serán claves para abordar los desafíos de seguridad y ética que se avecinan.

Más información en blog.mithrilsecurity.io.


La noticia PoisonGPT y el riesgo oculto en los modelos de lenguaje abiertos fue publicada originalmente en Wwwhatsnew.com por Juan Diego Polo.

Related Articles

Leave a Reply

Your email address will not be published. Required fields are marked *

Back to top button