Amerikanska företag fortsätter att sträva efter större och större AI-modeller. De från Kina fortsätter att visa att det inte är nödvändigt
Hittills hade Alibaba en bra öppen modell för programmering. Den är baserad på Qwen3.5-397B-A17B, men problemet är att den var gigantisk med sina 397 miljarder parametrar och 807 GB diskstorlek (och minne). Det kinesiska företaget har gjort något överraskande och tillkännagav i dagarna Qwen3.6-27B-modellen, som i sin kvantiserade version väger mindre än 17 GB.
Man skulle kunna tro att han i den storleken skulle vara mycket sämre än sin storebror.
Men du skulle ha fel. Det är ett bevis på att det går att ge för mycket mindre.
En tät modell. De flesta stora öppna viktmodeller 2026 använder Mixture-of-Experts (MoE) arkitektur: de har många parametrar totalt, men aktiverar bara en bråkdel av dem när vi använder dem. Till exempel indikerade Qwen3.5-397B-A17B-modellen exakt att i sitt namn: av de 397 000 miljoner parametrarna aktiverade den bara 17 000 miljoner (därav A17B) när den användes.
Med Qwen3.6-27B har vi vad som kallas en tät modell: alla 27 miljarder parametrar aktiveras i varje slutledning. Även om det är något mindre effektivt har det klara praktiska fördelar. Till exempel finns det inget behov av att konfigurera en expertrouter, och kvantisering är mer förutsägbar och kompakt.
Idén har fungerat, och resultaten bevisar det. Prestandan hos denna "lilla" AI-modell är till och med högre än en mycket större tidigare version. Riktmärken ljuger inte (för mycket).
I SWE-bench Verified, det mest populära riktmärket för riktiga programmeringsuppgifter, uppnår Qwen3.6-27B 77,2 % poäng jämfört med 76,2 % för 397B-modellen. I Terminal-Bench 2.0, som mäter hur väl modellen utför uppgifter i kommandokonsolen, uppnådde den 59,3 % jämfört med 2,5 % för sin rival. Men i det här testet uppnår den exakt samma poäng som Claude Opus 4.5, en av de bästa nya antropiska modellerna.
Att en "Open Source"-modell som enkelt kan användas lokalt uppnår något sådant här är ovanligt, men vi måste vara försiktiga: riktmärkena är från Alibaba själv, och det finns för närvarande ingen oberoende verifiering, även om de som använder den verkar vara riktigt nöjda med det. Även Alibaba är förvånad. Det som är slående med denna lansering är att företaget som lanserade den marknadsför den över sin mest ambitiösa modell fram till nyligen.
Att de själva jämför båda versionerna och inser att den "lilla" är den mest kraftfulla är betydelsefullt. Det är som att säga från hustaken att de största AI-modellerna inte har någon konkurrens, när de precis har bevisat att så inte är fallet och att modeller som Qwen3.6-27B verkligen kan vara anmärkningsvärda i beteende. I Xataka En ung man har på 80 minuter och med ChatGPT löst ett matematiskt problem som varade i 60 år.
Det är det minst intressanta med historien "24 GB VRAM räcker." Tack vare sin ringa storlek är det möjligt att använda denna modell på relativt lättillgängliga maskiner. Således gör 24 GB videominne i RTX 3090 dessa grafikkort till ett perfekt alternativ för att installera och använda Qwen3.6-27B med utmärkt prestanda. Täta modeller klarar sig inte så bra på MacBook eller Mac mini med enhetligt minne, och även om logiskt sett inte alla har tillgång till grafikkort med 24 GB RAM, fortsätter tillgången till riktigt kapabla lokala modeller att förbättras.
De bästa essenserna, i små flaskor. Alibaba är en ångvält av "små" AI-modeller, och den visade detta i början av mars när den släppte flera från 0,8B till 9B. Lyckligtvis finns det olika alternativ i det segmentet av "Small Language Models" (SLM) och här har vi referensexempel som Gemma 4, nyligen lanserad av Google.
Microsoft med Phi-4 (som behöver en uppdatering, som gpt-oss-20b/120b) eller Mistral med Devstral 2 är exempel på att även västerländska företag gör drag inom detta intressanta område.
Men. Enligt riktmärken är Qwen3.6-27b i vissa riktmärken jämförbar med Claude Opus 4.5, Anthropics mest avancerade modell när den lanserades i november 2025. Det är förvånande och bekräftar att modeller med öppen vikt från kinesiska företag är, som Demis Hassabis sa, mellan 6 och 12 månader Open-modeller efter de mest avancerade eller Google.
Men för att genomföra dem krävs fortfarande en betydande investering, och även om lokala AI-modeller är mycket intressanta när det gäller integritet, om man idag vill ha maximal hastighet och prestanda, är de fortfarande beroende av kommersiella modeller i molnet. I Xataka | Google kommer att investera upp till 40 miljarder dollar i Anthropic eftersom det nya normala för AI investerar i din fiende
Originalkälla
Publicerad av Xataka
28 april 2026, 08:01
Denna artikel har översatts automatiskt från spanska. Klicka på länken ovan för att läsa originaltexten.
Visa originaltext (spanska)
Rubrik
Las empresas de EEUU siguen empeñadas en modelos IA más y más grandes. Las de China siguen demostrando que no hace falta
Beskrivning
Alibaba tenía hasta ahora un modelo abierto estupendo para programar. Se traba de Qwen3.5-397B-A17B, pero el problema es que era gigantesco con sus 397.000 millones de parámetros y sus 807 GB de tamaño en disco (y memoria). La empresa china ha hecho algo sorprendente y ha anunciado estos días el modelo Qwen3.6-27B, que en su versión cuantizada pesa menos de 17 GB. Cualquiera pensaría que con ese tamaño sería mucho peor que su hermano mayor. Pero se equivocaría. Es la prueba de que es posible dar por mucho menos. Un modelo denso. La mayoría de modelos grandes de pesos abiertos en 2026 usan arquitectura Mixture-of-Experts (MoE): tienen muchos parámetros en total, pero solo activan una fracción de ellos cuando los usamos. Por ejemplo el modelo Qwen3.5-397B-A17B precisamente indicaba eso en su nombre: de los 397.000 millones de parámetros, tan solo activaba 17.000 millones (de ahí el A17B) al usarlo. Con Qwen3.6-27B tenemos lo que se llama un modelo denso: los 27.000 millones de parámetros se activan en cada inferencia. Aunque es algo menos eficiente, tienen ventajas prácticas claras. Por ejemplo, no es necesario configurar un enrutador de expertos, y la cuantización es más predecible y compacta. La idea ha funcionado, y los resultados lo demuestran. El rendimiento de este "pequeño" modelo de IA es incluso superior a una versión anterior mucho más grande. Los benchmarks no mienten (demasiado). En SWE-bench Verified, el benchmark más popular para tareas de programación real, Qwen3.6-27B logra el 77,2% de puntuación frente al 76,2% del modelo de 397B. En Terminal-Bench 2.0, que mide qué tal ejecuta el modelo tareas en la consola de comandos, logró un 59,3% frente al 2,5% de su rival. Pero es que en esta prueba logra exactamente la misma puntuación que Claude Opus 4.5, uno de los mejores modelos recientes de Anthropic. Que un modelo "Open Source" que se puede usar en local con facilidad logre algo así es insólito, pero debemos ser cautos: los benchmarks son de la propia Alibaba, y no hay de momento verificación independiente aunque quienes lo están usando parecen estar realmente satisfechos con él. Hasta Alibaba se sorprende. Lo que es llamativo de este lanzamiento es que la propia empresa que lo ha lanzando está impulsándolo por encima de su modelo más ambicioso hasta hace poco. Que ellos mismos comparen ambas versiones y reconozcan que el "pequeño" es el más potente es significativo. Es como decir a los cuatro vientos que los modelos de IA más grandes no tienen competencia, cuando ellos acaban de comprobar que no es así y que modelos como Qwen3.6-27B pueden ser realmene notables en comportamiento. En Xataka Un joven ha resuelto en 80 minutos y con ChatGPT un problema matemático que resistió 60 años. Eso es lo menos interesante de la historia "Bastan" 24 GB de VRAM. Gracias a su reducido tamaño, es posible usar este modelo en máquinas relativamente accesibles. Así, los 24 GB de memoria de vídeo de las RTX 3090 convierten a estas gráficas en una alternativa perfecta para instalar y usar Qwen3.6-27B con un rendimiento excelente. Los modelos densos no van tan bien en MacBook o Mac mini con memoria unificada, y aunque lógicamente no todo el mundo tiene acceso a gráficas con 24 GB de RAM, el acceso a modelos locales realmente capaces sigue mejorando. Las mejores esencias, en fracos pequeños. Alibaba es una apisonadora de modelos de IA "pequeños", y lo demostró a principios de marzo cuando lanzó varios que iban desde los 0.8B a los 9B. Afortunadamente hay alternativas variadas en ese segmento de "Small Language Models" (SLMs) y aquí tenemos ejemplos de referencia como Gemma 4, recién lanzado por Google. Microsoft con Phi-4 (que necesita una actualización, como gpt-oss-20b/120b) o Mistral con Devstral 2 son ejemplos de que las empresas occidentales también están moviendo ficha en este interesante terreno. {"videoId":"x9sjece","autoplay":false,"title":"CHINA está GANANDO la GUERRA TECNOLÓGICA porque lo planeó así hace 10 AÑOS", "tag":"china", "duration":"721"} Pero. Según los benchmarks, Qwen3.6-27b es comparable en algunos benchmarks a Claude Opus 4.5, el modelo más avanzado de Anthropic cuando se lanzó en noviembre de 2025. Eso es sorprendente y confirma que los modelos de pesos abiertos de empresas chinas están, como decía Demis Hassabis, entre 6 y 12 meses por detrás de los modelos más avanzados de Anthropic, OpenAI o Google. Pero para ejecutarlos sigue siendo necesaria una inversión notable, y aunque los modelos de IA en local son muy interesantes de cara a la privacidad, si hoy en día uno quiere la máxima velocidad y rendimiento sigue dependiendo de los modelos comerciales en la nuibe. En Xataka | Google invertirá hasta 40.000 millones de dólares en Anthropic porque la nueva normalidad de la IA es invertir en tu enemigo (function() { window._JS_MODULES = window._JS_MODULES || {}; var headElement = document.getElementsByTagName('head')[0]; if (_JS_MODULES.instagram) { var instagramScript = document.createElement('script'); instagramScript.src = 'https://platform.instagram.com/en_US/embeds.js'; instagramScript.async = true; instagramScript.defer = true; headElement.appendChild(instagramScript); } })(); - La noticia Las empresas de EEUU siguen empeñadas en modelos IA más y más grandes. Las de China siguen demostrando que no hace falta fue publicada originalmente en Xataka por Javier Pastor .