aialgorithmAnthropicartificial intelligenceclaudeGeneralgenerativeLarge Language Modelmachine learning

Hablando con Claude, el algoritmo generativo de Anthropic

IMAGE: Anthropic

Llevo unas semanas probando Claude, el algoritmo generativo desarrollado por Anthropic actualmente ya en su segunda iteración, y sinceramente, me parece uno de los competidores más interesantes en este cada vez más superpoblado entorno, en el que ChatGPT ya compite con Bard, que Google acaba de presentar en 43 idiomas y en muchos países, y con LLaMA, de Meta, que está a punto de lanzar una versión comercial y parametrizable por clientes corporativos. La primera versión de Claude se lanzó el pasado marzo.

¿Qué lo hace interesante? En primer lugar, la compañía que lo desarrolla. Anthropic es una public benefit corporation basada en San Francisco y con un fuerte enfoque en el desarrollo de sistemas de IA confiables, interpretables y orientables, el tratamiento responsable y seguro de los datos, y con un modelo que denominan de las 3 H; Helpful, Honest y Harmless. Con esos principios, tan aparentemente alejados de la desaforada ambición de OpenAI o de otras compañías en este entorno, la compañía ha conseguido levantar ya 1,500 millones de dólares con una última ronda de 450 millones el pasado mayo, y mantiene una política de exquisita transparencia tanto en las características y evaluaciones de su modelo (model card), como en las de su API o su precio.

Anthropic ha llevado a cabo el desarrollo de Constitutional AI, un modelo que trata de alinear los sistemas de inteligencia artificial con valores humanos universales y promover un impacto social positivo, sujeto a los siguientes principios:

  • Alineación con la Declaración Universal de los Derechos Humanos de la ONU, con el fin de asegurar que los modelos respeten la dignidad y derechos humanos.
  • Minimizar sesgos y discriminación: entrenar a los modelos para que intenten no replicar prejuicios y estereotipos potencialmente dañinos.
  • Transparencia, para que los modelos sean más interpretables y responsables.
  • Privacidad, para proteger los datos personales y la confidencialidad de los usuarios.
  • Seguridad, intentando evitar usos dañinos y mitigar otros riesgos potenciales.
  • Beneficio social, priorizando aplicaciones que tengan un impacto positivo en la sociedad.

Constitutional AI es un intento de alinear los modelos generativos con valores humanos universales y conseguir que actuen de forma ética, justa y beneficiosa para los usuarios.

Para acceder a Claude como usuario individual hay que hacerlo desde el Reino Unido o los Estados Unidos la primera vez – se puede hacer fácilmente mediante una VPN – para crear una cuenta y recibir una confirmación, pero una vez creada la cuenta ya puede hacerse desde cualquier sitio. A partir de ahí, es la ya conocida interfaz conversacional en forma de chat, pero con una diferencia interesante: el modelo aprende de la información introducida por el usuario como correcciones, etc. y mantiene a partir de ese momento la información correcta. Se puede además alimentar a Claude con enormes volúmenes de información con el fin de personalizar un modelo determinado. Desconozco cómo reaccionará en caso de introducción intencionada de información incorrecta, pero por el momento, me ha parecido que los resultados que tiende a ofrecer son generalmente más correctos y menos «alucinados» que los de ChatGPT: por el momento, al menos, no he encontrado que me generase referencias falsas o noticias inventadas para justificar un punto de vista, por ejemplo, ni he detectado problemas especialmente graves de falta de rigor en sus respuestas, como sí me ha ocurrido ya en varias ocasiones con ChatGPT.

Obviamente, Anthropic está en una fase relativamente temprana, no ha recibido aún el nivel de atención mediática y el volumen de usuarios que obtuvo OpenAI tras su lanzamiento, y cuenta con un nivel de financiación menor, pero la filosofía de la compañía me resulta atractiva y, por el momento, los resultados que me ofrece Claude me parecen muy adecuados. Cuando se cambia de idioma, Claude afirma que eso no afecta su elección de fuentes de información, algo que sí me ocurre con modelos como ChatGPT o Perplexity, en los que termino preguntando en inglés porque en general, tiende a ofrecerme mejores resultados. Sin embargo, aunque puede conversar sobre software, no escribe código funcional ni parece, al menos por el momento, orientado a ello.

Me ha parecido francamente interesante. Veremos cómo evoluciona.


This post is also available in English on my Medium page, «I like Claude, Anthropic’s generative algorithm»

Related Articles

Leave a Reply

Your email address will not be published. Required fields are marked *

Back to top button