domingo, 12 abril, 2026

Anthropic crea la inteligencia artificial más potente de la historia y decide que nadie pueda usarla

El modelo Claude Mythos Preview supera a todos sus competidores en rendimiento, pero sus capacidades para detectar y explotar vulnerabilidades informáticas de forma autónoma han llevado a la empresa a restringir su acceso a un grupo de once grandes corporaciones tecnológicas

Pocas veces en la historia de la tecnología una empresa ha anunciado un producto con tanto orgullo y tanto miedo al mismo tiempo. Eso es exactamente lo que ha hecho Anthropic la semana pasada con Claude Mythos Preview: presentar públicamente el modelo de inteligencia artificial más potente que se ha construido nunca y, en el mismo comunicado, explicar por qué el ciudadano común no podrá acceder a él.

El 24 de febrero de 2026, los ingenieros de Anthropic probaron por primera vez su nuevo modelo de inteligencia artificial internamente. Lo que vieron los dejó con una conclusión incómoda: habían construido algo demasiado peligroso para ponerlo a disposición del público. El modelo, denominado Claude Mythos Preview, fue presentado oficialmente el 7 de abril con una restricción de acceso sin precedentes en la industria.

El origen de la alarma no es la inestabilidad del sistema ni sus fallos. Al contrario: el problema es su extraordinaria eficacia. Claude Mythos Preview es, por lejos, lo más potente que cualquier laboratorio ha producido hasta la fecha, y la razón por la que el público no podrá usarlo es que es demasiado bueno atacando sistemas informáticos.

Desde el primer momento en que comenzaron las pruebas internas, el modelo demostró algo que sus predecesores nunca habían logrado: la capacidad de identificar y explotar de forma autónoma vulnerabilidades zero-day en los principales sistemas operativos y navegadores web, incluso en entornos reconocidos por su seguridad. Una vulnerabilidad zero-day es un fallo informático desconocido para el fabricante del software, lo que lo convierte en un vector de ataque especialmente peligroso.

El ejemplo más revelador que la propia Anthropic ha documentado en su blog corporativo es el de OpenBSD, un sistema operativo considerado uno de los más seguros del mercado. La inteligencia artificial fue capaz de encontrar una vulnerabilidad de seguridad que llevaba 27 años sin ser descubierta. Por poner otro ejemplo, en FFmpeg el modelo descubrió una vulnerabilidad que llevaba 16 años oculta en una sección de código que las herramientas de prueba automatizadas habían verificado y dado como buena cinco millones de veces.

Los casos documentados no se detienen ahí. En el kernel de Linux, Claude Mythos descubrió varias vulnerabilidades, las combinó y desarrolló de forma autónoma una manera de explotarlas, permitiendo a la inteligencia artificial tomar el control total del sistema. La empresa afirma en su blog que hay miles de ejemplos adicionales de comportamientos similares.

Más allá de la ciberseguridad, los datos de rendimiento general del modelo son igualmente llamativos. Según el informe técnico publicado por Anthropic, Claude Mythos Preview supera ampliamente a modelos previos como GPT 5.4, Gemini 3.1 Pro y Claude Opus 4.6 en la mayoría de los benchmarks. En pruebas de resolución matemática como USAMO, el modelo se aproxima a la perfección. Además, presenta una tasa de alucinaciones mucho menor que otros sistemas y logra responder “no lo sé” cuando carece de información suficiente.

Sin embargo, esta precisión tiene una contrapartida inquietante. El informe advierte sobre una nueva clase de fallos: cuando Mythos se equivoca en tareas complejas, las respuestas erróneas suelen estar tan bien argumentadas y ser tan sutiles que incluso expertos tienen dificultades para detectarlas.

La historia del modelo tiene también un capítulo accidentado antes de su presentación oficial. Su existencia se filtró el 26 de marzo de 2026 a través de la revista Fortune, en lo que fue una de las filtraciones más impactantes del sector de la inteligencia artificial en los últimos años. Un error de configuración en el sistema de gestión de contenidos de la empresa dejó expuestos miles de documentos internos, incluyendo borradores técnicos con detalles del modelo. Anthropic confirmó la existencia del proyecto y calificó lo ocurrido como un error humano.

Ante todo ello, la solución adoptada por la empresa no ha sido guardar el modelo ni retrasar indefinidamente su presentación, sino controlarlo de forma estricta a través de un programa llamado Proyecto Glasswing. Solo once organizaciones tendrán acceso a Claude Mythos Preview: AWS, Apple, Broadcom, Cisco, CrowdStrike, Google, JPMorgan Chase, la Fundación Linux, Microsoft, NVIDIA y Palo Alto Networks. Todas ellas podrán usar el modelo para identificar vulnerabilidades y exploits en sus sistemas antes de que actores maliciosos puedan hacerlo.

El Proyecto Glasswing representa, según Anthropic, “un paso importante para brindar a los defensores una ventaja duradera en la próxima era de la ciberseguridad impulsada por la inteligencia artificial”. La idea es, en definitiva, usar la misma capacidad que hace peligroso al modelo para convertirla en una herramienta de defensa colectiva.

Lo que diferencia a Claude Mythos de iteraciones anteriores no es solo su potencia, sino su capacidad de mantener contexto a largo plazo, corregir su propio razonamiento y operar con mínima supervisión humana en tareas de alta complejidad técnica. Esa autonomía es precisamente lo que lo convierte en una herramienta sin precedentes, en un sentido y en el otro.

De cara al futuro, Anthropic ha anunciado que planea lanzar modelos de capacidades similares a las de Mythos al público una vez desarrollen las salvaguardas necesarias, y que la próxima versión de Opus vendrá con esas protecciones incorporadas.

La empresa asegura que no ve razones para pensar que Mythos Preview sea el punto en el que las capacidades de ciberseguridad de los modelos de lenguaje alcancen su techo. Dicho de otro modo: lo más potente que se ha construido hasta ahora no es, según sus propios creadores, lo más potente que se construirá. El debate sobre quién debe controlar estas herramientas y bajo qué condiciones acaba de entrar en una nueva dimensión.

DEJA UNA RESPUESTA

Por favor ingrese su comentario!
Por favor ingrese su nombre aquí

Información básica de protección de datos

Responsable: Moisés Castilla Melián.

Finalidad: publicar su comentario, sugerencia o valoración. 

Derechos: puede ejercitar su derecho de acceso, rectificación, supresión y otros, tal como aparece en la información ampliada que puede conocer visitando nuestra política de privacidad. https://pagina13.es/politica-de-privacidad/

Compártelo:

spot_imgspot_img
spot_imgspot_img

Popular

Otras noticias
Página 13

La fuerza de lo que hacemos juntos

En La Gomera hay muchas cosas que funcionan bien,...

La Audiencia Nacional ordena repetir el juicio a la presunta célula yihadista de Inca

La Audiencia Nacional ha acordado repetir el juicio, con...