Någon har skapat en AI som inte vet något om vad som hände efter 1930, och den har mer användning än det verkar
Ett av problemen med språkmodeller är att det finns ett brytdatum i träningsdatan, det vill säga modellen känner inte till aktuella händelser som går längre än det datumet. Detta, som inom vissa sektorer kan vara ett allvarligt problem, är just syftet med Talkie-1930, en språkmodell som endast tränas med texter från före 1930. Om du någonsin har undrat hur det skulle vara att prata med någon från det förflutna, så finns det en AI för det.
En vintage språkmodell. Så här har dessa LLM som är utbildade med historiskt innehåll fått namn. Talkie-1930 är en modell med 13 miljarder parametrar som inte har tillgång till modern information och inte heller kan konsultera Internet, utan har bara tränats med böcker, tidningar och andra texter från före 1930.
För att utforska modellen lät forskarna Claude prata med modellen och utvärdera dess svar. Modellen visade stor kunskap om världen, med många historiska detaljer från tiden, och en stor förmåga att imitera viktorianska författares stil som Dickens, även om den var något begränsad i mer satiriska format. I Xataka Bilden som sammanfattar en era: miljontals böcker i ett lager som väntar på att bli förstört efter att ha tränat en AI Mer än ett kulturellt experiment.
Talkie är det närmaste man kan prata med någon som utbildades i början av 1900-talet. Detta förvandlar modellen till ett fönster som låter oss utforska mentaliteten och kulturen från en förgången tid och lära oss hur samhället, politiken eller det dagliga livet beskrevs då. Men bortom nyfikenhet fungerar Talkie-1930 också som ett "kontrollämne" för att bättre studera hur AI fungerar och uppnå viktiga framsteg.
Förutsäga framtiden. Genom att "frysas" 1930 gör Talkie det möjligt att bättre mäta hur långt en modell kan extrapolera och förutsäga framtiden enbart utifrån historiska mönster, utan att fuska med senare data. För att testa denna förutseende kapacitet visade forskarna upp till 5 000 beskrivningar av efterföljande historiska händelser, hämtade från avsnittet "On this day" i New York Times, och mätte modellens grad av överraskning.
Resultatet blev att modellen visade mer överraskning under decennierna efter dataavbrottet, särskilt på 1950- och 1960-talen, men sedan stabiliserades graden av överraskning. Enligt forskarna tyder det på att prediktiv prestation förbättras när tidshorisonten blir längre, men de påpekar att det kommer att bli nödvändigt att träna äldre modeller för att kunna mäta det bra.
Uppfinning. Demis Hassabis, VD för Google DeepMind, tog upp en mycket intressant fråga vid en konferens nyligen: om en AI med en kunskapsgräns fram till 1911 skulle kunna nå den relativitetsteorin som Einstein upptäckte 1915.
I den meningen är modeller som Talkie-1930 ett mycket intressant verktyg för att observera dess förmåga att generera nya idéer som kan leda till upptäckter.
Inga föroreningar. Det är ett av de problem som modeller tränade med stora korpus av aktuell data har, där själva utvärderingsdatan vanligtvis också smyger in och slutar med att deras förmåga överskattas. Med vintagemodeller finns det ingen kontaminering och det gör att du kan utföra mycket specifika experiment, som att se om du kan lära dig programmera utan att ha några datorkunskaper i förväg.
Talkie-1930 är öppen källkod och tillgänglig på Github. Bild | Xataka I Xataka | Ett makroexperiment har försökt ta reda på om vi skiljer verkliga bilder från de som genereras av AI. Svaret är inte optimistiskt
Originalkälla
Publicerad av Xataka
3 maj 2026, 19:00
Denna artikel har översatts automatiskt från spanska. Klicka på länken ovan för att läsa originaltexten.
Visa originaltext (spanska)
Rubrik
Alguien ha creado una IA que no sabe nada de lo que pasó después de 1930, y tiene más utilidad de la que parece
Beskrivning
Uno de los problemas de los modelos de lenguaje es que hay una fecha de corte en los datos de entrenamiento, es decir, que el modelo no conoce hechos actuales que vayan más allá de esa fecha. Esto, que en ciertos sectores puede ser un problema grave, es precisamente el objetivo de Talkie-1930, un modelo de lenguaje entrenado únicamente con textos anteriores a 1930. Si alguna vez te has preguntado cómo sería hablar con alguien del pasado, hay una IA para eso. Un modelo de lenguaje vintage. Así es como se ha bautizado a estos LLM que están entrenados con contenido histórico. Talkie-1930 es un modelo de 13.000 millones de parámetros que no tiene acceso a información moderna ni tampoco puede consultar en internet, sino que solamente ha sido entrenado con libros, periódicos y otros textos anteriores a 1930. Para explorar el modelo, los investigadores pusieron a Claude a conversar con el modelo, evaluando sus respuestas. El modelo mostró un gran conocimiento del mundo, con muchos detalles históricos de la época, y una gran capacidad para imitar el estilo de autores victorianos como Dickens, aunque algo limitado en formatos más satíricos. En Xataka La imagen que resume una era: millones de libros en un almacén esperando a ser destruidos tras entrenar a una IA Más que un experimento cultural. Talkie es lo más parecido a hablar con alguien educado a principios del siglo XX. Esto convierte al modelo en una ventana que nos permite explorar la mentalidad y cultura de un tiempo pasado y conocer cómo se describían la sociedad, la política o la vida cotidiana de entonces. Pero más allá de la curiosidad, Talkie-1930 también funciona como un "sujeto de control" para estudiar mejor el funcionamiento de la IA y lograr avances importantes. Prediciendo el futuro. Al estar “congelado” en 1930, Talkie permite medir mejor hasta dónde puede un modelo extrapolar y predecir el futuro solo a partir de patrones históricos, sin hacer trampa con datos posteriores. Para testear esa capacidad anticipatoria, los investigadores le mostraron hasta 5.000 descripciones de eventos históricos posteriores, tomadas de la sección "On this day" del New York Times, y midieron el grado de sorpresa del modelo. El resultado fue que el modelo mostró más sorpresa en las décadas posteriores al corte de datos, especialmente en los 50 y los 60, pero después su grado de sorpresa se estabilizó. Según los investigadores, esto sugiere que el rendimiento predictivo va mejorando conforme el horizonte temporal es más largo, pero señalan que será necesario entrenar modelos más antiguos para poder medirlo bien. {"videoId":"xa5no8w","autoplay":false,"title":"Usa Claude mejor que el 90% de la gente", "tag":"", "duration":"595"} Invención. Demis Hassabis, CEO de Google DeepMind, planteó una cuestión muy interesante en una conferencia hace poco: si una IA con un límite de conocimiento hasta 1911 podría llegar a la teoría de la relatividad que Einstein descubrió en 1915. En este sentido, modelos como Talkie-1930 son una herramienta muy interesante para observar su capacidad de generar nuevas ideas que puedan desembocar en descubrimientos. Sin contaminación. Es uno de los problemas que tienen los modelos entrenados con grandes corpus de datos actuales, en los que suelen colarse también los propios datos de evaluación y acaba provocando que se sobreestimen sus capacidades. Con los modelos vintage no hay contaminación y eso permite poner en práctica experimentos muy concretos, como ver si es capaz de aprender a programar sin tener ningún tipo de conocimiento de informática previo. Talkie-1930 es de código abierto y está disponible en Github. Imagen | Xataka En Xataka | Un macroexperimento ha intentado averiguar si diferenciamos imágenes reales de generadas por IA. La respuesta no es optimista (function() { window._JS_MODULES = window._JS_MODULES || {}; var headElement = document.getElementsByTagName('head')[0]; if (_JS_MODULES.instagram) { var instagramScript = document.createElement('script'); instagramScript.src = 'https://platform.instagram.com/en_US/embeds.js'; instagramScript.async = true; instagramScript.defer = true; headElement.appendChild(instagramScript); } })(); - La noticia Alguien ha creado una IA que no sabe nada de lo que pasó después de 1930, y tiene más utilidad de la que parece fue publicada originalmente en Xataka por Amparo Babiloni .