Claude, un chatbot creado por ex empleados de OpenAI
Anthropic, una startup de IA creada en 2021 por ex empleados de OpenAI, ha comenzado silenciosamente a probar un nuevo asistente de IA similar a ChatGPT que parece mejorar el original en algunas áreas clave.
Con nombre clave «Claude», este fue creado utilizando una técnica desarrollada por Anthropic, llamada «IA Constitucional» y la técnica tiene como objetivo proporcionar un enfoque «basado en principios» para alinear los sistemas de IA con las intenciones humanas, lo que permite que las IA como ChatGPT respondan a las consultas utilizando un conjunto de principios simples como guía.
Anthropic, se menciona que esta se comercializa a sí misma como una empresa de seguridad e investigación de IA que se esfuerza por crear sistemas de IA confiables, interpretables y orientables.
La puesta en marcha ha recibido más de $ 700 millones en fondos hasta la fecha y recientemente presentó un chatbot de IA llamado Claude. Este último es comparable al ChatGPT de OpenAI, pero según Anthropic, Claude es superior al original en varios aspectos importantes.
Todo el sistema está en versión beta cerrada y pocas personas han tenido acceso al chatbot todavía, pero Anthropic ha levantado la tapa de algunos aspectos de su diseño en un documento que compartió con la comunidad.
Precisamente, para diseñar a Claude, el equipo de Anthropic empezó por elaborar una lista de unos diez principios que, en su conjunto, forman una especie de «constitución» (de ahí el término «IA Constitucional»).
Estos principios no se han hecho públicos, pero Anthropic dice que se basan en los conceptos de beneficencia (maximizar el impacto positivo), no maleficencia (evitar dar consejos dañinos) y autonomía (respetar la libertad de elección).
Después de implementar estos principios básicos, Anthropic le pidió a un sistema de IA, que no es Claude, que usara estos principios para mejorar, escribiendo respuestas a varias preguntas (por ejemplo, «diseña una imagen al estilo de XX o realiza un poema al estilo XX») y revisando las respuestas de acuerdo con la constitución. La IA exploró posibles respuestas a miles de indicaciones.
Claude brinda poca profundidad sobre los detalles técnicos de su implementación, pero el trabajo de investigación de Anthropic sobre la IA constitucional describe AnthropicLM v4-s3 , un modelo preentrenado de 52 mil millones de parámetros. Este modelo autorregresivo se entrenó sin supervisión en un gran corpus de texto, muy parecido al GPT-3 de OpenAI. Anthropic nos dice que Claude es un nuevo modelo más grande con opciones arquitectónicas similares a las de la investigación publicada.
El sistema seleccionó los más consistentes con la constitución y Anthropic los destiló en un solo modelo. Según la startup, este modelo se utilizó para entrenar a Claude.
¿Que es Claude?
Claude es básicamente una herramienta estadística para predecir palabras, como ChatGPT y otros modelos de lenguaje. Alimentado por una gran cantidad de ejemplos de textos tomados de la Web, Claude aprendió la probabilidad de aparición de las palabras sobre la base de modelos como el contexto semántico del texto circundante. Como resultado, Claude puede mantener una conversación abierta, contar chistes y filosofar sobre una amplia gama de temas.
Sin embargo, Claude no es perfecto, ya que como toda AI, es susceptible a algunas de las fallas de ChatGPT, incluida la entrega de respuestas que no coinciden con las restricciones programadas. En uno de los ejemplos más extraños, preguntarle al sistema en Base64, un esquema de codificación que representa datos binarios en formato ASCII, pasa por alto sus filtros incorporados para contenido dañino.
Pero a diferencia de ChatGPT, Claude puede admitir (pero no siempre) que no sabe la respuesta a una pregunta particularmente difícil.
Las pruebas revelan que también parece ser mejor para contar chistes que ChatGPT, una hazaña impresionante teniendo en cuenta que el humor es un concepto tan difícil de entender para los sistemas de IA.
Cabe mencionar que Claude, no está disponible para el publico en general, ya que este solo puede ser probado a través de una integración de Slack como parte de una versión beta cerrada.
Los participantes de la beta detallaron sus interacciones con Claude en Twitter, luego de que se levantara el embargo de cobertura de los medios. Claude sería mejor haciendo bromas, pero malo programando. Los comentarios también muestran que Claude es susceptible a algunas de las fallas de ChatGPT.
Finalmente si estás interesado en poder conocer más al respecto, puedes consultar los detalles en el siguiente enlace.