24Apr

Deepseek ha lanzado su nuevo modelo de IA V4 Flash y V4 Pro para competir con las últimas versiones de los gigantes tecnológicos estadounidenses, pero sus resultados iniciales no superan a los de éstos.

Miguel Ángel Valero

Deepseek ha lanzado su esperado nuevo modelo de IA V4 Flash y V4 Pro para competir con las últimas versiones de los gigantes tecnológicos estadounidenses. La compañía china mantiene su apuesta por un modelo abierto, aunque ha advertido de que el acceso comercial a la versión Pro estará más limitado debido a la falta de capacidad computacional. Esta restricción, según la empresa, se aliviará en la segunda mitad del año con la incorporación de nuevos servidores equipados con chips de Huawei, una señal que disipa los temores de que una mayor eficiencia de los modelos reduzca la necesidad de invertir en capacidad de cómputo, lo que ha provocado un nuevo rally en el segmento de semiconductores, especialmente entre los proveedores chinos.

Las primeras impresiones apuntan precisamente en esa dirección: la eficiencia sigue siendo el principal valor diferencial del modelo, pero, a diferencia del año pasado, los resultados no superan a los de los modelos estadounidenses más avanzados.

En plena ronda de financiación, la compañía china ha despertado el interés de Tencent, que estaría dispuesta a adquirir un 20% del capital, y mantiene conversaciones con Alibaba como posible nuevo socio, a pesar de que ambas firmas cuentan también con desarrollos propios.

En la carrera por dominar el efervescente mercado de la inteligencia artificial (IA), cada lanzamiento cuenta, pero en esta ocasión parece que el empuje chino ha quedado por debajo de las expectativas creadas el año pasado. 

Ahora, el mundo aguarda el lanzamiento completo de Mythos, de Anthropic, un acontecimiento que está generando una notable inquietud en el ámbito de la ciberseguridad.

¿Qué está pasando con Mythos?

Jesús Cristóbal, profesor de OBS Business School y director de Sand, destaca que el ecosistema de la inteligencia artificial ha recibido una de las noticias más relevantes, e inquietantes, de lo que va de año. La protagonista es Anthropic, la empresa detrás del conocido modelo de lenguaje Claude. En el ámbito de los LLM (Large Language Models), los modelos son versiones entrenadas con identidad propia. Aunque suelen presentarse como sistemas independientes, en la práctica muchos evolucionan a partir de iteraciones anteriores mediante reentrenamiento parcial y técnicas de alineamiento. A esto se suman capas superiores, como el fine-tuning o el uso de principios de alineación, que determinan su comportamiento final, reducen sesgos y amplían sus capacidades.

A finales de marzo de 2026 comenzaron a circular filtraciones de documentación técnica interna de Anthropic. Se trataba de decenas de páginas que describían capacidades avanzadas de modelos aún no anunciados con un foco: la ciberseguridad ofensiva. En ese momento todavía no estaba confirmado el nombre, pero ya aparecían referencias a un modelo que semanas después se haría público bajo el nombre de Mythos. A principios de abril, el nombre quedó confirmado. Y entre el 8 y el 20 de abril llegó el anuncio clave: Anthropic no liberaría Mythos al público general. 

¿Por qué frenar un modelo aparentemente tan avanzado? La explicación oficial es que Mythos detecta vulnerabilidades de software y automatiza su descubrimiento y explotación. Según la propia compañía, el modelo ha identificado cientos, posiblemente miles de vulnerabilidades en distintos tipos de software, desde sistemas operativos hasta aplicaciones de gestión empresarial. Muchas de estas vulnerabilidades son lo que en ciberseguridad se denomina zero day: fallos desconocidos por el fabricante para los que no existe parche ni mecanismo de defensa. Esto significa que pueden ser explotados sin que el proveedor del software tenga capacidad de reacción inmediata. 

El problema no es solo la existencia de estas vulnerabilidades —que siempre han existido—, sino que Mythos reduce drásticamente el coste de encontrarlas y explotarlas. Lo que antes requería equipos altamente especializados durante semanas o meses, ahora puede ejecutarse de forma automatizada y a gran escala. 

Ante este escenario, Anthropic activó un programa cerrado de colaboración con más de 40 organizaciones tecnológicas y de ciberseguridad como Apple, Amazon, Microsoft, Google o Nvidia, junto a actores clave del ámbito de la seguridad como CrowdStrike y Palo Alto Networks, además de organizaciones del ecosistema open source como Linux Foundation y Mozilla.

La decisión abre interrogantes. No existe una lista pública completa de participantes, ni está claro el alcance real de las vulnerabilidades detectadas. Tampoco pasa desapercibido que el acceso se haya limitado a un grupo reducido de organizaciones.

Mythos representa un cambio importante: por primera vez la capacidad de descubrir y explotar vulnerabilidades deja de depender exclusivamente de expertos humanos y pasa a ser automatizable. El riesgo ya no reside en que existan más fallos, sino en que el coste de encontrarlos es minúsculo.

Más allá de la seguridad hay un factor menos visible pero igualmente relevante: el coste de operar modelos de este tipo requiere una capacidad de computación masiva. Cada consulta implica un consumo significativo de recursos, lo que se traduce en costes directos elevados y, sobre todo, en un importante coste de oportunidad en infraestructuras. En este contexto, algunos analistas plantean una hipótesis incómoda: la restricción de acceso a modelos como Mythos podría no responder únicamente a motivos de seguridad, sino también a una realidad económica. Por primera vez, los modelos más avanzados podrían quedar limitados no solo por su peligrosidad potencial, sino por quién puede permitirse operarlos.

Lo que está en juego con Mythos no es solo un nuevo avance tecnológico, sino el inicio de una nueva etapa en la relación entre inteligencia artificial y seguridad digital. Una etapa en la que la pregunta ya no es qué pueden hacer estos modelos, sino quién debería tener acceso a ellos.