Anthropic filtra por error el código fuente de Claude Code

Anthropic es una empresa de inteligencia artificial fundada en 2021 por Dario Amodei (ex-vicepresidente de investigación de OpenAI) junto con un grupo de ex-empleados de OpenAI y Google. Su misión principal es desarrollar IA “útil, honesta y segura” (helpful, honest and harmless), con un enfoque fuerte en alineación y seguridad mediante su enfoque de “Constitutional AI”.

La compañía ha recaudado miles de millones de dólares (inversiones de Amazon, Google y otros) y compite directamente con OpenAI. Sus productos estrella son la familia de modelos Claude (Claude 3, 3.5, 3.7 Sonnet, Opus, etc.), conocidos por ser más “cautelosos” y menos propensos a alucinaciones o respuestas controvertidas que los de GPT. Anthropic también ofrece API, Claude.ai y herramientas empresariales. Actualmente está preparando una posible salida a bolsa (IPO).


¿Qué es Claude Code?

Claude Code es una herramienta de codificación agentica (AI coding assistant) lanzada por Anthropic en febrero de 2025. Se trata de una aplicación de línea de comandos (CLI) que se instala localmente y utiliza los modelos Claude para:

  • Entender todo el codebase de un proyecto.
  • Generar código, corregir bugs, refactorizar y automatizar tareas complejas.
  • Ejecutar acciones reales en tu máquina (acceder a terminal, archivos, git, etc.) de forma autónoma.
  • Trabajar como un “agente” que puede manejar proyectos completos.

Es uno de los productos más populares y rentables de Anthropic, especialmente entre desarrolladores. La versión actual (2.1.88) es la que se vio involucrada en el incidente.


La filtración accidental del código fuente (31 de marzo de 2026)

Hoy, 31 de marzo de 2026, Anthropic sufrió una filtración accidental (no un hackeo) del código fuente completo de Claude Code.

Cómo ocurrió

  • Al publicar la versión 2.1.88 del paquete @anthropic-ai/claude-code en el registro npm (el repositorio oficial de paquetes JavaScript), incluyeron por error un archivo source map (.map) de 59.8 MB.
  • Los source maps son archivos de depuración que normalmente se usan internamente para mapear el código minificado de vuelta al código fuente original (TypeScript legible).
  • Este archivo apuntaba a un archivo ZIP en el almacenamiento en la nube de Anthropic (Cloudflare R2) que contenía todo el código fuente sin ofuscar.
  • Resultado: 512.000 líneas de código TypeScript distribuidas en aproximadamente 1.900-2.000 archivos.

El investigador de seguridad Chaofan Shou (@Fried_rice en X) lo descubrió esta mañana temprano y lo hizo público. En pocas horas, el código fue descargado, analizado y subido a varios repositorios en GitHub (ej. instructkr/claw-code y otros), donde ya tiene decenas de miles de forks y copias.

Respuesta oficial de Anthropic

La empresa confirmó rápidamente el incidente y emitió un comunicado:

  • “Se trató de un error de empaquetado en la release causado por error humano, no de una brecha de seguridad.”
  • No se expusieron datos de clientes, credenciales, claves API ni información sensible de usuarios.
  • No se filtró el modelo de IA en sí (pesos, datos de entrenamiento o arquitectura del LLM), solo el código de la aplicación CLI.
  • Ya retiraron el paquete defectuoso de npm y están implementando medidas para evitar que vuelva a ocurrir.

¿Qué reveló la filtración?

Aunque no es el “modelo” en sí, el código expone detalles internos muy valiosos:

  • Arquitectura completa de la herramienta agentica (cómo maneja memoria, herramientas, orquestación de agentes, etc.).
  • Características no lanzadas aún:
    • Kairos”: modo daemon/background siempre activo (agente autónomo que corre en segundo plano).
    • Mascota estilo Tamagotchi que reacciona visualmente mientras codificas.
    • Undercover Mode”: modo sigiloso diseñado para evitar filtraciones.
    • Técnicas anti-destilación (herramientas falsas para “envenenar” a quien intente copiar el sistema).
  • Instrucciones internas del sistema para Claude.
  • Comentarios de desarrolladores (ej. uno admitiendo que cierta optimización de memoización complicaba mucho el código sin mejorar mucho el rendimiento).
  • Roadmap interno y lógica de producto.

La comunidad ya está analizando todo en Reddit, X, Hacker News y blogs técnicos. Algunos lo llaman “el mayor código abierto accidental de la historia de la IA”.


Contexto y repercusiones

Este es el segundo incidente grave de filtración accidental de Anthropic en menos de una semana (días atrás filtraron borradores sobre un modelo futuro llamado Mythos o Capybara, que tiene capacidades ofensivas de ciberseguridad).

La filtración ocurre justo cuando la empresa se prepara para una posible IPO y en un momento de alta competencia en herramientas agenticas (Cursor, Devin, etc.).

Impacto:

  • Competidores y desarrolladores podrán estudiar y replicar partes de la arquitectura.
  • Aumenta la presión sobre Anthropic en temas de seguridad y control interno.
  • No afecta directamente a usuarios finales de Claude (el modelo sigue cerrado), pero sí da una mirada inédita a cómo construyen sus productos.

Comentarios

Entradas populares

OpenAI anuncia el cierre de Sora 2

Sony subirá los precios de la PlayStation 5

Chuck Norris (10 de marzo de 1940 - 19 de marzo de 2026)