Mythos kommer att vara den farligaste AI-modellen, men företag har redan tagit del av dess säkerhetstips
Topp AI-företag kämpar för att skapa den bästa artificiella intelligensmodellen. Det loppet har vunnits av Anthropic med Mythos. Åtminstone är det vad de hävdar (naturligtvis), med fraser som att det är så kraftfullt att de inte kan göra det offentligt.
Det finns skäl att ta Anthropics ord med en nypa salt, men det som är uppenbart är att Mythos redan fungerar. Även om företaget inte har släppt det, har det redan gett tillgång till vissa tekniska partners. Beslutet grundar sig på företagets rädsla för att modellen ska användas med uppsåt.
De har själva beskrivit det som ett hot mot cybersäkerhet baserat på antalet nolldagssårbarheter som Mythos skulle ha hittat i både de viktigaste operativsystemen på marknaden och i webbläsare. På Xataka xAI hade jag ingen programmeringsagent som var jämförbar med Claude Code. Så du kommer att betala 60 000 miljoner för Cursor Och precis när modellen väcker åsikter från vissa och andra kommer Mozilla för att bekräfta att den senaste versionen av Firefox 150 har säkerhetskorrigeringar för 271 sårbarheter som de har kunnat upptäcka tack vare denna preliminära version av Claude Mythos.
OpenAI för sin del tror inte på någonting alls. "Precis lika kapabel som en människa" Mozilla beskriver det i ett av de senaste inläggen på sin blogg. Företaget hade samarbetat med Anthropic under en tid och använt Claude Opus 4.6-modellen för att hitta fel. I januari fann den 22 sårbarheter på ett par veckor, 14 av dem bedömdes som mycket allvarliga.
Av de 22 som hittats av Opos 4.6, som redan är en kraftfull modell, går vi vidare till de 271 som upptäckts av Mythos. Det är ett stort språng och Mozilla ville fortsätta undersöka för att se i vilken utsträckning den nya modellen överträffar Opus. Genom att analysera Firefox 147 genererade Mythos 181 funktionella exploateringar.
Opus 4.6? Bara två. 90 gånger mindre.
Dessa resultat har fått Mozilla att skriva att Mythos Preview är "lika kapabel som de bästa mänskliga cybersäkerhetsforskare som inte kan upptäcka någon människa som inte kan upptäcka". Detta har en annan läsning eftersom, som företaget själva uppger, att se att modellen kan hitta så många fel på så kort tid gör att de undrar om det är möjligt att hålla sig uppdaterad i cybersäkerhetsarbetet när alternativ till Mythos utvecklas som faller i händerna och inte kontrolleras av de ansvariga.
I Xataka Det är möjligt att AI i framtiden kommer att ta bort alla våra jobb. För närvarande tas den bort från väldigt få. Det finns alltid det faktum att Mythos inte har hittat några fel som Mozillas mänskliga "vakter" inte har upptäckt och att ett verktyg som detta kommer att hjälpa till att få ett säkrare system.
Allt detta, i slutändan, driver berättelsen om att Mythos praktiskt taget är ett tekniskt mirakel. En kärnvapenbomb Den andra sidan av myntet är att Sam Altman, chef för OpenAI, inte tror på någonting. Genom att dra nytta av sitt senaste deltagande i en podcast har han kallat hela Anthropics rörelse för ett rädslabaserat marknadsföringsknep.
Han anklagar Dario Amodeis företag (Altmans offentliga fiende) för att vilja begränsa AI till ett litet antal personer i en strategi som han har jämfört med att ha en atombomb, hota att släppa den och försörja sig genom att sälja bunkrar för att skydda sig från samma bomb. "Det är uppenbart att det är en utomordentligt kraftfull marknadsföringsstrategi. Vi har skapat en bomb och vi kommer att lansera den. Du kan köpa en bunker av oss för 100 miljoner dollar." Det är ytterligare en poäng i den historiska rivaliteten där både företag (och chefer) har varit inblandade under en tid, men det kommer precis när Anthropic har en större roll för att släppa tjänster och OpenAI är som att vara i form av ballast.
I Engadget With ChatGPT Images 2.0 säger OpenAI att det har löst det stora problemet med bildgeneratorer: bokstäverna Altman är inte den enda som tror att Anthropic upprepade gånger använder det där talet om "vi har något så kraftfullt att vi inte kan göra det offentligt" eftersom det är en bra strategi för att få finansiering. Det finns redan röster som tyder på att Mythos inte är så stor grej och i själva verket har andra modeller visat sig kunna göra detsamma och hitta samma fel och problem som upptäckts av Anthropics. Men utöver detta måste vi komma ihåg att någon redan 2019 sa att en modell var för farlig för en offentlig lansering.
WHO? Öppna AI själv med GPT-2. Uppenbarligen var det inte så farligt.
I Xataka | OpenAI och Anthropic har föreslagit det omöjliga: förlora 85 miljarder dollar på ett år och överleva
Originalkälla
Publicerad av Xataka
23 april 2026, 09:01
Denna artikel har översatts automatiskt från spanska. Klicka på länken ovan för att läsa originaltexten.
Visa originaltext (spanska)
Rubrik
Mythos será el modelo más peligroso de IA, pero las compañías ya están tomando nota de sus consejos de seguridad
Beskrivning
Las principales compañías de la IA están en la carrera por crear el mejor modelo de inteligencia artificial. Esa carrera la ha ganado Anthropic con Mythos. Al menos, es lo que aseguran ellos (claro), con frases como que es tan potente que no pueden hacerlo público. Hay motivos para tomar las palabras de Anthropic con pinzas, pero lo que es evidente es que Mythos ya está dando resultado. Aunque la compañía no lo ha liberado, ya ha dado acceso a ciertos socios tecnológicos. La decisión se basa en ese temor de la compañía a que el modelo se utilice de forma malintencionada. Ellos mismos lo han descrito como una amenaza para la ciberseguridad basándose en la cantidad de vulnerabilidades zero-day que Mythos habría encontrado tanto en los principales sistemas operativos del mercado como en los navegadores. En Xataka xAI no tenía un agende de programación equiparable a Claude Code. Así que va a pagar 60.000 millones por Cursor Y, justo cuando el modelo está despertando opiniones por parte de unos y otros, llega Mozilla para afirmar que la última versión de Firefox 150 cuenta con correcciones de seguridad para 271 vulnerabilidades que han podido descubrir gracias a esta versión preliminar de Claude Mythos. Por su parte, desde OpenAI no se creen nada de nada. “Igual de capaz que un humano” Mozilla lo detalla en una de las últimas entradas en su blog. La compañía llevaba un tiempo colaborando con Anthropic y usando el modelo Claude Opus 4.6 para encontrar errores. En enero, halló 22 vulnerabilidades en un par de semanas, 14 de ellas calificadas como muy graves. De esas 22 encontradas por Opos 4.6, que ya es un modelo potente, pasamos a las 271 descubiertas por Mythos. Es un salto enorme y Mozilla ha querido seguir indagando para ver hasta qué punto el nuevo modelo supera a Opus. Analizando Firefox 147, Mythos generó 181 exploits funcionales. ¿Opus 4.6? Apenas dos. 90 veces menos. {"videoId":"xa5no8w","autoplay":true,"title":"Usa Claude mejor que el 90% de la gente", "tag":"", "duration":"595"} Esos resultados han llevado a Mozilla a escribir que Mythos Preview es “igual de capaz que los mejores investigadores humanos en ciberseguridad”, añadiendo que no han encontrado ninguna categoría que los humanos puedan detectar y que Mythos no pueda. Esto tiene otra lectura ya que, como la propia compañía afirma, ver que el modelo es capaz de encontrar tantísimos errores en tan poco tiempo les hace preguntarse si es posible mantenerse al día en labores de ciberseguridad cuando se desarrollen alternativas a Mythos que sí caigan en manos no controladas por sus responsables. En Xataka Es posible que en el futuro la IA nos quite el trabajo a todos. Por el momento se lo está quitando a muy poquitos Siempre queda el hecho de que Mythos no ha encontrado ningún error que los ‘vigilantes’ humanos de Mozilla no hayan detectado y que una herramienta así ayudará a tener un sistema más seguro. Todo ello, al final, empujando esa narrativa de que Mythos es prácticamente un milagro tecnológico. Una bomba nuclearLa otra cara de la moneda es que Sam Altman, mandamás de OpenAI, no se cree nada. Aprovechando su participación reciente en un podcast, ha calificado todo el movimiento de Anthropic como una maniobra de marketing basado en el miedo. Acusa a la empresa de Dario Amodei (enemigo público de Altman) de querer restringir la IA a un número reducido de personas en una estrategia que ha comparado con la de tener una bomba atómica, amenazar con soltarla y forrarse vendiendo búnkeres para protegerse de esa misma bomba. “Es evidente que es una estrategia de marketing extraordinariamente potente. Hemos creado una bomba y vamos a lanzarla. Puedes comprarnos un búnker por 100 millones de dólares” Es un punto más de esa rivalidad histórica en la que ambas compañías (y directivos) llevan un tiempo envueltos, pero llega justo cuando Anthropic está teniendo un mayor protagonismo y OpenAI se está viendo obligada a soltar lastre en forma de servicios como Sora. En Xataka Con ChatGPT Images 2,0, OpenAI dice haber solucionado el gran problema de los generadores de imagen: las letras Altman no es el único que piensa que Anthropic está usando de forma recurrente ese discurso de “tenemos algo tan potente que no podemos hacerlo público” debido a que es una buena estrategia de cara a conseguir financiación. Ya hay voces que apuntan que Mythos no es para tanto y, de hecho, otros modelos han demostrado poder hacer lo mismo, encontrando los mismos errores y problemas detectados por el de Anthropic. Pero, por encima de esto, hay que recordar que, en 2019, alguien ya dijo que un modelo era demasiado peligroso para un lanzamiento público. ¿Quién? La mismísima OpenAI con GPT-2. Evidentemente, no era tan peligrosísima. En Xataka | OpenAI y Anthropic se han propuesto lo imposible: perder 85.000 millones de dólares en un año y sobrevivir (function() { window._JS_MODULES = window._JS_MODULES || {}; var headElement = document.getElementsByTagName('head')[0]; if (_JS_MODULES.instagram) { var instagramScript = document.createElement('script'); instagramScript.src = 'https://platform.instagram.com/en_US/embeds.js'; instagramScript.async = true; instagramScript.defer = true; headElement.appendChild(instagramScript); } })(); - La noticia Mythos será el modelo más peligroso de IA, pero las compañías ya están tomando nota de sus consejos de seguridad fue publicada originalmente en Xataka por Alejandro Alcolea .