Mistral har en ny AI-modell: den goda nyheten är att den är 100 % europeisk; den dåliga, som är 100% medioker
Den franska startupen Mistral har precis lanserat Mistral Medium 3.5, en öppen AI-modell som är den stora europeiska exponenten i en industri som absolut domineras av Kina – som konkurrerar direkt med den här typen av projekt – och av USA. Och om detta är det bästa de kan göra verkar det som att Europa har ett problem.
Medelmåttig. Detta är en "tät" modell med 128 miljarder parametrar och ett sammanhangsfönster på 256 000 tokens. Medan modeller med Mixture-of-Experts (MoE)-arkitektur bara aktiverar en delmängd av de totala parametrarna för att uppnå avundsvärd effektivitet och kapacitet, aktiverar Mistral dem alla.
Det gör den mycket mindre effektiv, men teoretiskt sett borde den göra dess prestanda lovande. Och det är det som är problemet.
Vilket inte är det. Riktmärken. Pedro Domingos, professor i djupinlärning vid University of Washington, uttryckte det bra: "Konventionella AI-företag skryter om hur deras modell är mycket bättre i benchmarks.
Soo Mistral skryter om hur deras modell är mycket sämre." Det är sant att modellerna som den jämförs med är större i det totala antalet parametrar, men som vi kommer att se senare, även med hänsyn till det, är de billigare och teoretiskt mer effektiva tack vare användningen av den MoE-arkitekturen i många av dem. Modellen förenar dock den tidigare katalogen och följer marknadstrenden att kunna fastställa önskad nivå av resonemang (reasoning_effort) som parameter.
Dåliga resultat. Och han har lite rätt: Mistral verkar inte ha problem med att visa resultaten av olika riktmärken där den presterar dåligt, men den presterar också dåligt med modeller som inte alls är de senaste eller mest kraftfulla på marknaden. Därmed jämförs den med Claude Sonnet 4.5/4.6, med Kimi K2.5, med GLM-5.1 eller med Qwen 3.5 397B.
I nästan alla fall (förutom GLM 5.1) finns det redan nyare och kraftfullare versioner av dem alla. Inte så långt från lokala modeller. Faktum är att Medium 3,5 fick 77,6 % i SWE-Bench Verified, ett programmeringstest där Qwen3.6-27b når 72,4 % med en fundamental skillnad: du kan köra den "gratis" (med lämplig hårdvara, och du betalar elräkningen) med en relativt prisvärd maskin.
Dyrare (och något mer restriktiv).
Om vi använder det via API kostar Mistral Medium 3.5 $1,50 per miljon inmatade tokens och $7,5 per miljon output tokens. GLM-5.1 kostar 1,4/4,4 respektive, och Kimi K2,5 kostar 0,5/2,8 respektive. Dess senaste efterträdare, Kimi K2.6, kostar 0,95/4, och är betydligt bättre än att Mistral är billigare.
Det finns ett märkligt faktum: Mistral använder en "modifierad MIT-licens" istället för den traditionella Apache 2.0, och indikerar att denna modell kan användas kommersiellt eller icke-kommersiellt förutom för "höginkomstföretag".
Jagar antropisk. Utöver själva modellen har företaget presenterat så kallade fjärrprogrammeringsagenter som använder Mistral Vibe CLI för att till exempel skicka pull-förfrågningar till GitHub på ett automatiserat sätt. Den har även det så kallade "Arbetsläget" i LeChat, som låter dig hantera flerstegsuppgifter autonomt.
De är verktyg helt klart avsedda att stärka Mistrals roll som bas för programmeringsagenter, vilket är den väg som har fungerat fantastiskt för Anthropic. Hans fördel: att vara europeisk. Den enda stora styrkan med denna modell är att den har utvecklats av en europeisk startup, och det ger den tydlig synlighet i en tid då många EU-länder pratar om digital suveränitet.
Det är den enda västerländska modellen som verkar vilja konkurrera med Kina när det gäller modeller med öppen vikt, vilket är goda nyheter, men sanningen är att när det gäller prestanda verkar det inte som att Mistral Medium 3.5 kommer att prestera konkurrenskraftigt. På Xataka vill Europa bli tekniskt oberoende av USA och Kina. En startup tjänar pengar tack vare detta: Mistral Det geopolitiska säkerhetsnätverket.
Det, tillsammans med det faktum att det kostar mer än sina konkurrenter, gör beslutet att använda det svårt förutom de som tydligt prioriterar dess europeiska ursprung. Det är Mistrals ess i hålet, och de utnyttjar det till perfektion. Företaget har nyligen skaffat finansiering för att skapa datacenter i Europa, och får näring och mat av denna nya besatthet av att minimera beroendet av nordamerikanska Big Tech.
I Xataka | Mistrals VD skickar ett meddelande till Europa: inte längre att vara USA:s teknologiska vasall
Originalkälla
Publicerad av Xataka
4 maj 2026, 12:30
Denna artikel har översatts automatiskt från spanska. Klicka på länken ovan för att läsa originaltexten.
Visa originaltext (spanska)
Rubrik
Mistral tiene nuevo modelo de IA: la buena noticia es que es 100% europeo; la mala, que es 100% mediocre
Beskrivning
La startup francesa Mistral acaba de lanzar Mistral Medium 3.5, un modelo de IA de pesos abiertos que es el gran exponente europeo en una industria absolutamente dominada por China —que compite directamente con ese tipo de proyectos— y por EEUU. Y si esto es lo mejor que pueden hacer, parece que Europa tiene un problema. Mediocre. Este es un modelo "denso" de 128.000 millones de parámetros y ventana de contexto de 256.000 tokens. Mientras que los modelos con arquitectura Mixture-of-Expertes (MoE) solo activan un subconjunto del total de parámetros para lograr una eficiencia y capacidad envidiables, Mistral los activa todos. Eso lo hace mucho menos eficiente, pero teóricamente debería hacer que su rendimiento fuera prometedor. Y ese es el problema. Que no lo es. Benchmarks. Pedro Domingos, profesor de aprendizaje profundo en la Universidad de Washington, lo expresaba muy bien: "Las empresas de IA convencionales presumen de cómo su modelo es mucho mejor en benchmarks. Soo Mistral presume de cómo su modelo es mucho peor". Es cierto que los modelos con los que se compara son mayores en número total de parámetros, pero como veremos más adelante, aun teniendo en cuenta eso, son más baratos y teóricamente más eficientes gracias al uso de esa arquitectura MoE en muchos de ellos. El modelo, eso sí, unifica el catálogo anterior y sigue la tendencia del mercado de poder establecer el nivel de razonamiento deseado (reasoning_effort) como parámetro. Malos resultados. Y tiene algo de razón: Mistral no parece tener problemas en mostrar los resultados de divesos benchmarks en los que sale mal parado, pero es que además sale mal parado con modelos que no son ni mucho menos los más recientes o potentes del mercado. Así, se compara con Claude Sonnet 4.5/4.6, con Kimi K2.5, con GLM-5.1 o con Qwen 3.5 397B. En casi todos los casos (salvo GLM 5.1) ya hay versiones más recientes y potentes de todos ellos. No tan lejos de los modelos locales. De hecho Medium 3.5 puntú con un 77,6% en SWE-Bench Verified, una prueba de programación en la que Qwen3.6-27b llega al 72,4% con una diferencia fundamental: lo puedes ejecutar "gratis" (con el hardware apropiado, y pagando tú la factura de la luz) con una máquina relativamente asequible. {"videoId":"xa41k1q","autoplay":false,"title":"ChatGPT vs Claude: Probé todo para que no tengas que hacerlo", "tag":"webedia-prod", "duration":"634"} Más caro (y algo más restrictivo). Si lo usamos vía API, Mistral Medium 3.5 cuesta 1,50 dólares por millón de tokens de entrada y 7,5 dólares por millón de tokens de salida. GLM-5.1 cuesta 1,4/4,4 respectivamente, y Kimi K2.5 cuesta 0,5/2,8 respectivamente. Su reciente sucesor, Kimi K2.6, cuesta 0,95/4, y es sensiblemente mejor que Mistral siendo más barato. Hay un dato curioso: Mistral usa una "licencia MIT modificada" en lugar de la Apache 2.0 tradicional, e indica que este modelo se puede usar de forma comercial o no comercial salvo para empresas "con ingresos altos". Persiguiendo a Anthropic. Además del modelo en sí, la empresa ha presentado los llamados agentes de programación remotos mediante Mistral Vibe CLI para por ejemplo enviar pull requests a GitHub de forma automatizada. También cuenta con el llamado "Work Mode" en LeChat, lo que permite gestionar tareas multipaso de forma autónoma. Son herramientas claramente destinadas a fortalecer el papel de Mistral como base para agentes de programación, que es el camino que le ha funcionado fantásticamente a Anthropic. Su ventaja: ser europeo. La única gran fortaleza de este modelo es que ha sido desarrollado por una startup europea, y eso le da clara visibilidad en un momento en el que muchos países de la UE hablan de soberanía digital. Es el único modelo occidental que parece querer competir con China en el ámbito de los modelos de pesos abiertos, lo cual es una buena noticia, pero lo cierto es que en términos de rendimiento no parece que Mistral Medium 3.5 vaya a rendir de forma competitiva. En Xataka Europa quiere independizarse tecnológicamente de EEUU y China. Una startup se está forrando gracias a ello: Mistral La red de seguridad geopolítica. Eso, unido al hecho de que cuesta más que sus competidores, hace difícil la decisión de usarlo salvo para quienes priorizan de forma clara ese origen europeo. Ese es el as de la manga de Mistral, y lo están aprovechando a la perfección. La empresa ha conseguido recientemente financiación para crear centros de datos en Europa, y se nutre y alimenta de esa nueva obsesión por minimizar la dependencia de las Big Tech norteamericanas. En Xataka | El CEO de Mistral manda un mensaje a Europa: se acabó ser el vasallo tecnológico de Estados Unidos (function() { window._JS_MODULES = window._JS_MODULES || {}; var headElement = document.getElementsByTagName('head')[0]; if (_JS_MODULES.instagram) { var instagramScript = document.createElement('script'); instagramScript.src = 'https://platform.instagram.com/en_US/embeds.js'; instagramScript.async = true; instagramScript.defer = true; headElement.appendChild(instagramScript); } })(); - La noticia Mistral tiene nuevo modelo de IA: la buena noticia es que es 100% europeo; la mala, que es 100% mediocre fue publicada originalmente en Xataka por Javier Pastor .