lunes, 9 de junio de 2025

Anthropic y Claude: La IA que quiere ser útil, segura y diferente


Mientras todos hablaban de ChatGPT de OpenIA y Bard ahora conocido como Gemini de Google , una startup más silenciosa pero igual de ambiciosa empezó a ganarse un lugar en el mundo de la inteligencia artificial. Su nombre es Anthropic, y su creación principal se llama Claude. ¿Qué la hace diferente? ¿Por qué tantas miradas del ecosistema tecnológico están puestas en ella?

¿Cómo nació Anthropic?

Anthropic fue fundada en 2021 por un grupo de ex empleados de OpenAI, incluidos los hermanos Dario y Daniela Amodei. Dario fue uno de los científicos principales detrás del desarrollo de GPT-2 y GPT-3. Cuando se alejaron de OpenAI, decidieron apostar por una visión distinta: construir modelos de lenguaje menos impredecibles y más alineados con valores humanos.

              Con sede en San Francisco, Anthropic nació con una fuerte inversión inicial y con un objetivo claro: crear una IA que no solo sea útil, sino que también tenga límites claros y razonables.

¿Qué es Claude?

Claude es el modelo de lenguaje de Anthropic, y su nombre es un homenaje a Claude Shannon, el "padre de la teoría de la información". La empresa ha lanzado ya varias versiones: Claude 1, Claude 2, y recientemente Claude 3 y Claude 3 Opus, su modelo más avanzado hasta la fecha.

Claude puede escribir, programar, razonar, responder preguntas, analizar documentos y mucho más. Pero su verdadera apuesta está en la seguridad, la transparencia y la alineación ética.

¿Qué hace diferente a Claude?

IA constitucional: Anthropic desarrolló un enfoque único llamado "IA constitucional". En lugar de enseñar a la IA lo que no debe hacer sólo a base de penalizaciones, se le dan principios explícitos (una especie de constitución ética) y se le enseña a autoevaluar sus respuestas según esos principios. Esto la hace más coherente, predecible y segura.

Resistencia a jailbreaks: Claude ha demostrado ser más resistente a intentos de manipulación (jailbreaking), algo que preocupa mucho en modelos que pueden usarse para fines maliciosos.

Transparencia en pruebas de seguridad: En los últimos meses, Anthropic sorprendió al publicar detalles de pruebas internas donde Claude intentó actuar de forma autónoma (por ejemplo, chantajear a un ingeniero para evitar ser apagada). En lugar de ocultar estos casos, los usaron para reforzar capas de seguridad y activar su protocolo ASL-3 (el nivel más alto de control interno).

Ventana de contexto gigante: Claude puede procesar millones de tokens de contexto, lo que le permite trabajar con libros enteros, contratos extensos o investigaciones científicas de una sola vez.

¿Dónde está hoy Anthropic?

La empresa ha recibido inversiones clave, como la de Amazon y Google, que le han permitido escalar sin tener que sacrificar su visión original. Claude ya está disponible como API y en aplicaciones asociadas, como Notion AI, DuckDuckGo y otras plataformas que priorizan privacidad y control.

Anthropic también lanzó Claude.ai, un portal donde cualquiera puede probar el modelo de forma gratuita (con ciertas limitaciones), acercando así la IA a usuarios reales sin necesidad de conocimientos técnicos.

¿Qué se espera para el futuro?

-          Más colaboración con empresas responsables: Anthropic está construyendo alianzas con compañías que valoran la seguridad y la gobernanza en IA.

-          Mayor enfoque en interpretabilidad: buscan que el modelo no solo responda, sino que explique cómo llega a una conclusión.

-          Regulación activa: Anthropic ha sido una de las pocas startups que colabora activamente con gobiernos y entes reguladores, pidiendo más control sobre el desarrollo de IA avanzada.

-          IA multimodal: aunque por ahora Claude trabaja con texto, se espera que pronto integre imágenes y audio, al igual que sus competidores.

Recientemente, la compañía acaba de anunciar que alcanzó los $3.000 millones de dólares de ingresos anuales, lo cual es un gran logro porque ha triplicado sus ingresos en tan solo cinco meses, lo más notable es que sus ingresos no provienen de usuarios finales, sino  por empresas para obtener los siguientes servicios:

·       Generar código automáticamente.

·       Construir chatbots avanzados.

·       Analizar documentos.

·       O acelerar la creación de productos digitales.

 

Entre otras cosas Anthropic cuenta con una herramienta llamada “Claude Code” alcanzó 100 000 usuarios en su primera semana, Además, su ingreso por generación de código creció 1000 % en sólo tres meses, y más del 10 % de todas las interacciones de Claude son para desarrollo de software

 ¿Y por qué lo usan más los programadores?

·       Porque puede leer documentación técnica larga sin fragmentarla.

·       Porque razona bien en código complejo, y suele dar mejores explicaciones que simples resultados.

·       Porque es estable y consistente al trabajar en sesiones largas o en código modular.

·       Y porque tiene un enfoque más seguro y ético, lo que genera confianza en entornos corporativos.

Hoy en día cuando nos dicen IA en lo primero que pensamos es ChatGPT, pero seguramente que eso va a ir cambiando  ys seguramente vamos a oir más de Claude.

No hay comentarios:

Publicar un comentario

El “Club de Costura” de Hollywood: un refugio secreto para mujeres queer

Durante la Época de Oro de Hollywood (1910–1969), un grupo íntimo y discreto de actrices, guionistas y directoras formó lo que hoy conocem...