Mientras todos hablaban de ChatGPT de OpenIA y Bard ahora conocido como
Gemini de Google , una startup más silenciosa pero igual de ambiciosa empezó a
ganarse un lugar en el mundo de la inteligencia artificial. Su nombre es Anthropic, y su creación principal se
llama Claude. ¿Qué la hace
diferente? ¿Por qué tantas miradas del ecosistema tecnológico están puestas en
ella?
¿Cómo nació Anthropic?
Anthropic fue fundada en 2021 por un grupo de ex empleados de OpenAI,
incluidos los hermanos Dario y Daniela Amodei. Dario fue uno de los científicos
principales detrás del desarrollo de GPT-2 y GPT-3. Cuando se alejaron de
OpenAI, decidieron apostar por una visión distinta: construir modelos de
lenguaje menos impredecibles y más
alineados con valores humanos.
Con sede en San
Francisco, Anthropic nació con una fuerte inversión inicial y con un objetivo
claro: crear una IA que no solo sea útil, sino que también tenga límites claros
y razonables.
¿Qué es Claude?
Claude es el modelo de lenguaje de Anthropic, y su nombre es un homenaje
a Claude Shannon, el "padre de la teoría de la información". La
empresa ha lanzado ya varias versiones: Claude 1, Claude 2, y recientemente
Claude 3 y Claude 3 Opus, su modelo más avanzado hasta la fecha.
Claude puede escribir, programar, razonar, responder preguntas, analizar
documentos y mucho más. Pero su verdadera apuesta está en la seguridad, la transparencia y la alineación
ética.
¿Qué hace diferente a Claude?
IA constitucional: Anthropic desarrolló un enfoque único
llamado "IA constitucional". En lugar de enseñar a la IA lo que no
debe hacer sólo a base de penalizaciones, se le dan principios explícitos (una
especie de constitución ética) y se le enseña a autoevaluar sus respuestas
según esos principios. Esto la hace más coherente, predecible y segura.
Resistencia a jailbreaks: Claude ha demostrado ser más resistente a
intentos de manipulación (jailbreaking), algo que preocupa mucho en modelos que
pueden usarse para fines maliciosos.
Transparencia en pruebas de seguridad: En los últimos meses, Anthropic sorprendió
al publicar detalles de pruebas internas donde Claude intentó actuar de forma
autónoma (por ejemplo, chantajear a un ingeniero para evitar ser apagada). En
lugar de ocultar estos casos, los usaron para reforzar capas de seguridad y
activar su protocolo ASL-3 (el nivel más alto de control interno).
Ventana de contexto gigante: Claude puede procesar millones de tokens de
contexto, lo que le permite trabajar con libros enteros, contratos extensos o
investigaciones científicas de una sola vez.
¿Dónde está hoy Anthropic?
La empresa ha recibido inversiones clave, como la de Amazon y Google,
que le han permitido escalar sin tener que sacrificar su visión original.
Claude ya está disponible como API y en aplicaciones asociadas, como Notion AI,
DuckDuckGo y otras plataformas que priorizan privacidad y control.
Anthropic también lanzó Claude.ai,
un portal donde cualquiera puede probar el modelo de forma gratuita (con
ciertas limitaciones), acercando así la IA a usuarios reales sin necesidad de
conocimientos técnicos.
¿Qué se espera para el futuro?
-
Más colaboración con empresas responsables: Anthropic está construyendo alianzas con
compañías que valoran la seguridad y la gobernanza en IA.
-
Mayor enfoque en interpretabilidad: buscan que el modelo no solo responda, sino
que explique cómo llega a una conclusión.
-
Regulación activa: Anthropic ha sido una de las pocas startups
que colabora activamente con gobiernos y entes reguladores, pidiendo más
control sobre el desarrollo de IA avanzada.
-
IA multimodal: aunque por ahora Claude trabaja con texto, se espera que pronto
integre imágenes y audio, al igual que sus competidores.
Recientemente, la compañía acaba de anunciar
que alcanzó los $3.000 millones de dólares de
ingresos anuales, lo cual es un gran logro porque ha triplicado sus ingresos en
tan solo cinco meses, lo más notable es que sus ingresos no provienen de
usuarios finales, sino por empresas para
obtener los siguientes servicios:
·
Generar código automáticamente.
·
Construir chatbots avanzados.
·
Analizar documentos.
·
O acelerar la creación de productos digitales.
Entre otras cosas Anthropic cuenta
con una herramienta llamada “Claude Code” alcanzó
100 000 usuarios en su primera semana, Además, su ingreso por
generación de código creció 1000 % en sólo tres meses, y más
del 10 % de todas las interacciones
de Claude son para desarrollo de software
¿Y por qué lo usan más los
programadores?
·
Porque puede leer documentación técnica larga sin
fragmentarla.
·
Porque razona bien en código complejo,
y suele dar mejores explicaciones que simples resultados.
·
Porque es estable y consistente al
trabajar en sesiones largas o en código modular.
·
Y porque tiene un enfoque más seguro y ético, lo que genera confianza en
entornos corporativos.
Hoy en día cuando nos dicen IA en lo primero que pensamos es ChatGPT,
pero seguramente que eso va a ir cambiando
ys seguramente vamos a oir más de Claude.
No hay comentarios:
Publicar un comentario