Teknik 1 tim sedan

Så vitt vi vet övervakar byrån som övervakar AI i Spanien ingenting. Vad den har är ett idélaboratorium

Den spanska övervakningsbyrån för artificiell intelligens (AESIA) är nära att avsluta sitt första verksamhetsår. Denna organisation har aktiverat flera initiativ med resultat som fortfarande är svåra att precisera, men en sak är klar: handleda, det som sägs handleda, verkar inte handleda någonting. Faran är återigen att fortsätta den europeiska driften: det är bra att försöka undvika de risker som AI innebär, men vad Europa och Spanien behöver är något annat.

Den varken övervakar eller sanktionerar. Den stora paradoxen med byrån med officiellt huvudkontor i A Coruña är att den, efter månaders drift, ännu inte har utövat sin teoretiska sanktionsbefogenhet och inte heller har granskat en enda kritisk algoritm för Big Tech. För närvarande har dess arbete fokuserat på "tidig tillgång" till regelverket.

På Xataka Spain är det inte alls ledande inom AI, men vi har redan en tillsynsmyndighet med 80 anställda. Vi vet inte så väl vad The Eternal Criticism kommer att reglera. Även om den europeiska AI-lagen redan tillåter att system som bryter mot grundläggande rättigheter förbjuds från februari 2025, har AESIA inte öppnat en enda relevant fil.

Alberto Gago, dess direktör, förklarade nyligen i El País att "Vi är säkra på att ingen förbjuden AI verkar i Spanien." Arbetet är för närvarande väldigt annorlunda: det är begränsat till pedagogik och ackompanjemang, vilket lämnar arbetet med reglerande "bite" för en framtid som för tillfället verkar långt ifrån att komma. Samtidigt fortsätter den verkliga AI-marknaden att definieras av företag från USA eller Kina, som inte slutar släppa nya modeller med praktiskt taget inga regulatoriska begränsningar, medan spanska och europeiska företag har oket av en förordning på sina huvuden som hotar att blockera dem innan de ens kan starta projekt av denna typ. För tillfället skriver han bara manualer.

I själva verket har det för tillfället blivit en gratis juridisk konsult för ett dussin företag i en nyligen skapad "regulatorisk sandlåda". Detta initiativ, som stoltserar med att ligga ett år före de obligatoriska tidsfristerna i den europeiska AI-lagen, vill fungera som ett kontrollerat utrymme där företag kan testa sina AI-system. Av de 200 ansökningarna valdes 12 projekt ut, men resultatet av detta arbete består i att skriva tekniska guider som hjälper företag att följa dessa regler.

Sandlådan väcker också tvivel angående saker som dess varaktighet, som är ett år och kan vara för lång för hur snabbt det här segmentet rör sig.

Ett medborgarcentrum som ett provisoriskt högkvarter. AESIA borde redan använda faciliteterna i La Terraza-byggnaden, men nämnda läge fortsätter under en koncession från RTVE och detta slutar teoretiskt sett inte förrän 2034. Det är svårt att projicera en bild av internationell teknisk suveränitet när byråns huvudkontor verkar från Casa Veeduría, ett utrymme som delas med grannskapsaktiviteter.

Detta provisoriska huvudkontor samexisterar med grannskapsworkshops och föreningsmöten, långt från de massiva datacenter som det syftar till att övervaka. Bilden av en spjutspetsregulator som arbetar bland den här typen av verksamheter är förmodligen inte den mest lämpliga med tanke på dess operativa trovärdighet. Trettio proffs jämfört med de biljoner dollars investeringar från Big Tech.

Det finns en oroväckande disproportion mellan regeringens berättelses ambition och till exempel den verkliga arbetskraften som för närvarande finns tillgänglig i AESIA. Under tillkännagivandet av lanseringen utlovades 80 högt specialiserade medarbetare, men siffrorna för augusti 2025 indikerar att det finns knappt 30 yrkesverksamma i personalen som täcker alla områden. Arbetet verkar mastodont om en organisation som denna vill övervaka alla modeller som kommer att träda i drift i vårt land.

För närvarande finns det två utlysningar på dess officiella hemsida för att tillsätta permanenta och tillfälliga tjänster, förutom sex utlysningar för tjänstemän.

Idélaboratoriet. I april förra året lanserades denna "multidisciplinära fakultet" för att förutse etiska utmaningar gällande kön, minderåriga och desinformation. Även om ämnena är viktiga, krockar det rent akademiska formatet med den extrema hastigheten med vilken AI-industrin rör sig.

Det är särskilt märkligt att byrån utfärdar rekommendationer om leksaker vid jul medan globala företag omdefinierar geopolitisk makt genom massiva språkmodeller som nu till och med hotar att obalansera ekonomins pelare. Goda avsikter är till liten nytta. Det finns en uppenbar obalans mellan detta laboratoriums filosofiska uppdrag och den tekniska verkligheten.

Även om detta medborgarpedagogiska arbete är intressant nog nödvändigt, bör det inte vara huvudfunktionen eller den största bedriften för en teknisk tillsynsmyndighet på hög nivå. AESIA beter sig mer som en medborgarserviceavdelning än som en organisation som kan analysera hur algoritmerna som ger oss kredit eller diagnostiserar sjukdomar fungerar. I Engadget Starten av ALIA, den spanska AI-modellen, har varit oregelbunden och en besvikelse.

Nu vet vi varför ALIA, ett kompromissande exempel. Vi har ett första oroande fall

Så vitt vi vet övervakar byrån som övervakar AI i Spanien ingenting. Vad den har är ett idélaboratorium

Originalkälla

Publicerad av Xataka

7 maj 2026, 13:46

Läs original

Denna artikel har översatts automatiskt från spanska. Klicka på länken ovan för att läsa originaltexten.

Visa originaltext (spanska)

Rubrik

Que sepamos, la agencia que supervisa la IA en España no está supervisando nada. Lo que sí tiene es un Laboratorio de Ideas

Beskrivning

La Agencia Española de Supervisión de Inteligencia Artificial (AESIA) está cerca de cumplir su primer año de vida operativa. Este organismo ha activado varias inciativas con resultados aún difíciles de concretar, pero una cosa está clara: supervisar, lo que se dice supervisar, no parece estar supervisando nada. El peligro, una vez más, es seguir la deriva europea: es bueno tratar de evitar los riesgos que impone la IA, pero lo que necesitan Europa y España es otra cosa. Ni supervisa ni sanciona. La gran paradoja de la agencia con sede oficial en A Coruña es que, tras meses de operatividad, todavía no ha ejercido su teórico poder sancionador ni ha auditado un solo algoritmo crítico de las Big Tech. De momento, su labor se ha centrado en el "acceso anticipado" a la normativa. En Xataka España no es en absoluto puntera en IA, pero ya tenemos una agencia regulatoria con 80 empleados. No sabemos muy bien qué van a regular La eterna crítica. Aunque la Ley de la IA europea ya permite prohibir sistemas que vulneren derechos fundamentales desde febrero de 2025, la AESIA no ha abierto un solo expediente relevante. Alberto Gago, su director, declaraba recientemente en El País que "Estamos seguros de que en España no opera ninguna IA prohibida". La labor es de momento muy distinta: se limita a la pedagogía y al acompañamiento, dejando la labor de "mordida" regulatoria para un futuro que de momento parece lejos de llegar. Mientras tanto, el mercado real de la IA se sigue definiendo por las empresas de EEUU o China, que no paran de sacar nuevos modelos prácticamente sin cortapisas regulatorios mientras que las españolas y europeas tienen sobre sus cabezas el yugo de una regulación que amenaza con bloquearlas antes incluso de que puedan lanzar proyectos de este tipo. De momento solo escribe manuales. De hecho se ha convertido de momento en una consultora legal gratuita para una docena de empresas de un "sandbox regulatorio" recientemente creado. Esa iniciativa, que presume de adelantarse un año a los plazos obligatorios de la Ley de IA europea, quiere actuar como un espacio controlado donde las empresas pueden probar sus sistemas de IA. De las 200 solicitudes se seleccionaron 12 proyectos, pero el resultado de dicho esfuerzo consiste en la redacción de guías técnicas que ayudan a las empresas a cumplir con estas normativas. El sandbox además genera dudas respecto a cosas como su duración, que es de un año y que puede ser un plazo demasiado largo para lo rápido que se mueve este segmento. {"videoId":"x8qrjz7","autoplay":false,"title":"⚡ #OnMareNostrum5 con Mateo Valero", "tag":"", "duration":"180"} Un centro cívico como sede provisional. AESIA debería estar ya utilizando las instalaciones del edificio de La Terraza, pero dicho emplazamiento continúa bajo concesión de RTVE y esta no termina teóricamente hasta 2034. Es difícil proyectar una imagen de soberanía tecnológica internacional cuando la oficina principal de la agencia opera desde la Casa Veeduría, un espacio compartido con actividades vecinales. Esta sede provisional convive con talleres de barrio y reuniones de asociaciones, lejos de los centros de datos masivos que pretende supervisar. La imagen de un regulador de vanguardia trabajando entre este tipo de actividades no es probablemente la más adecuada de cara a su credibilidad operativa. Treinta profesionales frente al billón de dólares de inversión de las Big Tech. Hay una preocupante desproporción entre la ambición de la narrativa gubernamental y, por ejemplo, la plantilla real disponible actualmente en AESIA. Durante el anuncio de su puesta en marcha, se prometieron 80 empleados altamente especializados, pero las cifras de agosto de 2025 apuntan a que apenas hay 30 profesionales en plantilla cubriendo todas las áreas. La labor parece mastodóntica si un organismo así quiere supervisar todos los modelos que entrarán en funcionamiento en nuestro país. En estos momentos en  su sitio web oficial aparecen dos convocatorias para cubrir puestos fijos y temporales, además de seis convocatorias para funcionarios. El Laboratorio de Ideas. El pasado abril se puso en marcha este "claustro multidisciplinar" para anticipar retos éticos sobre género, menores y desinformación. Aunque los temas son vitales, el formato puramente académico choca con la velocidad extrema a la que se mueve la industria de la IA. Resulta especialmente peculiar que el organismo emita recomendaciones sobre juguetes en Navidad mientras las corporaciones globales redefinen el poder geopolítico mediante modelos de lenguaje masivos que ahora amenazan incluso con desequilibrar los pilares de la economía.  Las buenas intenciones no sirven de mucho. Hay un desajuste evidente entre la misión filosófica de este laboratorio y la realidad técnica. Aunque esa labor pedagógica ciudadana es interesante necesaria, no debería ser la función principal ni el mayor logro de una agencia de supervisión técnica de alto nivel. La AESIA se está comportando más como un departamento de atención al ciudadano que como un organismo capaz de analizar cómo funcionan los algoritmos que nos conceden los créditos o diagnostican enfermedades.  En Xataka El arranque de ALIA, el modelo de IA español, ha sido errático y decepcionante. Ahora sabemos por qué ALIA, un ejemplo comprometedor. Tenemos un primer caso preocupante

0 visningar
Dela:

Svep för att byta artikel

Vi använder cookies

Vi använder cookies för att förbättra din upplevelse på vår webbplats. Genom att klicka "Acceptera alla" samtycker du till användningen av alla cookies. Läs mer i vår cookiepolicy och integritetspolicy.