Teknik 2 tim sedan

AI gör det allt svårare att veta vad som är verkligt och vad som inte är det. Och sexuella rovdjur för barn noterar

Eran av artificiell intelligens får allt att hända väldigt snabbt, väldigt snabbt. Företag som Mercadona, Google eller Anthropic påpekar redan att den stora majoriteten av deras kod är skriven av en AI, Mozilla ger blommor till Mythos och Jensen Huang är entusiastisk över fördelarna med AI och allt det tillåter oss att skapa. Bland dessa skapelser finns allt, till exempel en enorm mängd material för sexuella övergrepp mot barn.

Forskare ber om hjälp och jag kan berätta att det finns saker som inte är lätta att tillgodogöra sig.

Kort sagt. I onsdags publicerade Bloomberg en rapport som sammanfattar sex månaders utredning där de har fokuserat på den snabba spridningen av material för sexuella övergrepp mot barn som genererats av artificiell intelligens. Det är inget som är förvånande om vi tar hänsyn till den enorma mängd falsk information som vi redan har att hantera varje dag, både i form av text och i allt mer realistiska bilder och även i video, men det finns en viktig nyans.

Även om det i fallet med falska nyheter är pressen och människorna som måste hantera det med sunt förnuft för att inte svälja bluffen, slösa tid i processen, när det gäller detta innehåll som genereras av AI är det polisen och utredarna som måste slösa bort sin tid för att utesluta att det är sann information. Och medan de gör det slutar de att utreda fall av sexuella övergrepp mot barn, andra typer av övergrepp eller försvinnanden som är verkliga. I Xataka spelar Ray-Ban Meta in när du tar av dem.

Och entreprenörer i Kenya ser sina användare nakna utan att de känner till siffrorna.

De är läskiga såklart. Rapporten påpekar att National Center for Missing and Exploited Children fick mer än 1,5 miljoner anmälningar under 2025 som hade en generell generativ intelligenskomponent. Bland dem, mer än 7 000 rapporter om användare som genererar eller innehar material för sexuella övergrepp mot barn som genererats med AI och mer än 30 000 fall av personer som genererar denna typ av innehåll.

Det är dumt. Å andra sidan utvärderade IWF (Internet Watch Foundation) mer än 8 000 AI-genererade bilder och videor som mycket realistiskt representerade sexuella övergrepp mot barn. Det fanns 3 443 videor jämfört med de 13 registrerade 2024.

Totalt en ökning med 26 385 %. Tillväxten är viktig och IWF själv påpekade i rapporten att 65 % av detta videoinnehåll som genereras av AI visar händelser som klassificeras som 'Kategori A', de allvarligaste inom denna typ av material.

Fall. Tro inte att det här är fall av den mörka webben, eftersom AI-chatbotar har upptäckts på den öppna webben som är värd för dessa bilder och uppmuntrar dem att skapas.

Vilken typ av innehåll pratar vi om? Här kommer den känsliga delen. Bloomberg pekar ut några exempel som är en del av de tusentals mer komplexa ärenden som just nu behandlas av myndigheterna och där det finns... allt.

En man som använde ansikten på barn i sitt grannskap för att skapa innehåll med att de hade sexuella relationer med sina mödrar eller mormödrar, en annan som producerade sadistiska bilder av små barn och bebisar, en annan man som anklagades för att ha ändrat bilden av en prepubertär flicka för att förstora hennes bröst och publicerat bilderna på Onlyfans, en präst som tillbringade åratal med att samla in material för att sedan skapa ännu mer sexuella bilder av barn och sedan skapade ännu mer sexuella bilder av sina barn.

AI. I Xataka Användningen av artificiell intelligens för att skapa porr växer. Och det finns de som ser en (kontroversiell) verksamhet där bilder på barn kommer ifrån.

Facebook och Instagram.

Det är det enkla svaret. Enligt Joe O'Barr, en av forskarna som lånat en röst till Bloomberg-utredningen, "stjäl människor bilder från Facebook och Instagram, saker som föräldrar fritt lägger upp, och lägger upp dem på plattformar för artificiell intelligens." Ett mönster som har upptäckts är att många skapar bilder som involverar barn som de känner i den verkliga världen och på så sätt förverkligar sina fantasier. Till exempel ett fall av en man som tog foton av sin partners sexåriga dotter, manipulerade dem med AI och sedan lade upp dem bredvid sina egna nakenbilder på Onlyfans. – Det faktum att gärningsmannen kände offret fick mitt hår att resa sig.

Det betydde att flickan kunde vara i verklig och överhängande fara." Joe O'Barr Vad plattformarna gör. Samma plattformar som bilderna är värda på sitter inte i aktion. Forskare litar på att samma företag kommer att slå larm när de hittar något, men det finns ett problem: Google, xAI, Meta eller OnlyFans delegerar uppgiften med övervakningsuppdrag till AI som inte kan ha rapporterat övervakningsfall som inte har rapporterat AI. och det är därför de antingen anställer länder som Kenya, eller delegerar direkt till AI:n.

Problemet är antalet falska positiva resultat som AI:n hittar och som slutar överbelasta utredarnas 'brevlåda'. En forskare från North Carolina påpekar att han har sett en 11-faldig ökning av de "ledtrådar" som hans kontor får, och förra året skulle han säga att det var 0,00 poäng nöjer sig inte med att undersöka", men eftersom AI:n inte vet detta, skickar den allt: från saker. allvarligt att undersöka även enkla förolämpningar.

, "7bearduration"} och "add. buller" till nätverket av utredare. Som vi sagt tidigare är det en enorm mängd material som hindrar utredarna från att göra sitt arbete i verkliga fall av barn som utsätts för övergrepp eller som saknas. "Vi gör det här massiva arbetet med samma mängd resurser som vi hade för tio år sedan.

Vi orkar inte längre och vi vill inte missa ett riktigt barn som utsätts för sexuella övergrepp", kommenterar en agent till Bloomberg. På Engadget har Alibaba ny Open Source AI för att generera videor. Problemet är att den används för att generera pornografiska djupförfalskningar.

Lagstiftare, ta dig i kragen. Arbetet från dessa forskare beror på att staten arbetar med cirka 10 miljoner dollar och finansierar cirka 10 miljoner dollar. grupper. De påpekar att det är ett mycket litet antal och, för kontextualisera, är vad FBI spenderar på en dag.

De rapporterar att, trots lavinen av rapporter om sexuellt övergrepp mot barn, har finansieringen förblivit oförändrad, som att lagstiftningstakten släpar efter teknologin eller att brottslingar håller på att bli den falska informationen. För om ett barn rovdjur kunde nå två eller tre barn, kunde det med AI nå 40 eller 50 barn "Det är i princip som att fiska med dynamit", säger en pensionerad forskare som tillbringade 30 år i en brigad som kämpar för barns säkerhet, men i slutändan representerar det den andra sidan av en demokrat som vi inte har tagit. för det värre klassificerat som "en förlorad sak". ('script');

AI gör det allt svårare att veta vad som är verkligt och vad som inte är det. Och sexuella rovdjur för barn noterar

Originalkälla

Publicerad av Xataka

23 april 2026, 17:01

Läs original

Denna artikel har översatts automatiskt från spanska. Klicka på länken ovan för att läsa originaltexten.

Visa originaltext (spanska)

Rubrik

La IA hace que cada vez sea más difícil saber qué es real y qué no. Y los depredadores sexuales infantiles están tomado nota

Beskrivning

La era de la inteligencia artificial está haciendo que todo vaya muy rápido muy deprisa. Empresas como Mercadona, Google o Anthropic ya apuntan que la gran mayoría de su código lo escribe una IA, Mozilla echa flores a Mythos y Jensen Huang está entusiasmado con las bondades de la IA y todo lo que nos permite crear. Entre esas creaciones hay de todo, como por ejemplo una enorme cantidad de material de abuso sexual infantil. Los investigadores piden ayuda, y ya te adelanto que hay cosas que no son fáciles de asimilar. En corto. Este miércoles, Bloomberg publicó un reportaje que condensa seis meses de investigación en el que se han enfocado en la rápida proliferación de material de abuso sexual infantil generado por inteligencia artificial. No es algo que extrañe si tenemos en cuenta la enorme cantidad de información falsa con la que ya hay que lidiar día a día tanto en forma de texto como en imágenes cada vez más realistas y hasta en vídeo, pero sí hay un matiz importante. Mientras en el caso de las fake news es la prensa y la gente quien debe aterrizarlo con sentido común para no tragarse el bulo, perdiendo tiempo en el proceso, en el caso de este contenido generado por IA es la policía e investigadores quienes deben perder su tiempo para descartar que se trate de información veraz. Y, mientras están haciendo eso, dejan de investigar casos de abuso sexual infantil, otro tipo de maltrato o desapariciones que sí son reales. En Xataka Las Ray-Ban Meta graban cuando te las quitas. Y contratistas en Kenia ven a sus usuarios desnudos sin que se enteren Las cifras. Asustan, desde luego. En el reportaje se apunta que el Centro Nacional para Menores Desaparecidos y Explotados recibió más de 1,5 millones de denuncias durante 2025 que tenían un componente de inteligencia general generativa. Entre ellas, más de 7.000 informes sobre usuarios que generaban o poseían material de abuso sexual infantil generado con IA y más de 30.000 casos de personas que generaban ese tipo de contenido. Es una burrada. Por otro lado, la IWF (Internet Watch Foundation) evaluó más de 8.000 imágenes y vídeos generados por IA que representaban de forma muy realista actos de abuso sexual infantil. Había 3.443 vídeos frente a los 13 registrados en 2024. En total, un aumento del 26.385%. El crecimiento es importante y la propia IWF apuntó en el informe que el 65% de ese contenido de vídeo generado por IA muestra hechos clasificados como de ‘Categoría A’, la más grave dentro de este tipo de material. {"videoId":"xa23b2u","autoplay":true,"title":"Esta es la mejor IA GRATIS para generar vídeo en 2026", "tag":"webedia-prod", "duration":"673"} Casos. No pienses que son casos de la dark web, ya que se han descubierto chatbots de IA en la web abierta que alojan estas imágenes e incitan a crearlas. ¿De qué tipo de contenido estamos hablando? Aquí viene lo delicado. Bloomberg apunta unos ejemplos que forman parte de esos miles de casos más complejos que se están procesando actualmente por parte de las autoridades y donde hay… de todo. Un hombre que usó las caras de niños de su barrio para generar contenido con ellos manteniendo relaciones sexuales con sus madres o abuelas, otro que produjo imágenes sádicas de niños pequeños y bebés, otro hombre acusado de alterar la imagen de una niña prepúber para aumentarle el pecho y colgar las imágenes en Onlyfans, un cura que pasó años recopilando material y luego creó aún más gracias a la IA o un soldado del ejército que sexualizaba con la IA imágenes de niños que conocía. En Xataka El uso de inteligencia artificial para crear porno se está expandiendo. Y hay quien ve un (polémico) negocio De dónde salen las imágenes de niños. Facebook e Instagram. Esa es la respuesta sencilla. Según Joe O’Barr, uno de los investigadores que ha prestado voz en la investigación de Bloomberg, “la gente roba imágenes de Facebook e Instagram, cosas que los padres publican libremente, y las cuelgan en plataformas de inteligencia artificial”. Un patrón que se ha descubierto es que muchos crean imágenes que involucran niños que conocen en el mundo real, pudiendo cumplir de este modo sus fantasías. Por ejemplo, un caso de un hombre que tomó fotos de la hija de seis años de su pareja, las manipuló con la IA y luego las colgó junto a imágenes propias desnudo en Onlyfans. “El hecho de que el perpetrador conociera a la víctima hizo que se me erizara el pelo. Significaba que la niña podía estar en peligro real e inminente” - Joe O’Barr Qué hacen las plataformas. Esas mismas plataformas en las que se alojan las imágenes no se quedan de brazos cruzados. Los investigadores confían en que esas mismas compañías darán la voz de alerta cuando encuentren algo, pero hay un problema: Google, xAI, Meta u OnlyFans están delegando la tarea de supervisión a la IA. Se han reportado numerosos casos de humanos que no soportan el marcar ese tipo de contenido y es por ello que, o contratan en países como Kenia, o directamente delegan en la IA. El problema es la cantidad de falsos positivos que encuentra la IA y que terminan sobrecargando el ‘buzón’ de los investigadores. Un investigador de Carolina del Norte apunta que ha visto un aumento de 11 veces en esas ‘pistas’ que recibe su oficina, y sólo el año pasado el volumen se duplicó hasta alcanzar los 52.000 informes. Apunta que cualquier humano diría “esto no es contenido que investigar”, pero como la IA no lo sabe, envía de todo: desde cosas serias a investigar hasta simples insultos. {"videoId":"xa23b2u","autoplay":false,"title":"Esta es la mejor IA GRATIS para generar vídeo en 2026", "tag":"webedia-prod", "duration":"673"} Insoportable. “Cuantos más casos tenemos para investigar, más difícil es tratar cada caso de manera individual”, asegura uno de los investigadores. Desde la propia Meta se ha reconocido que su sistema no es perfecto y agrega “algo de ruido” a la red de los investigadores. Como ya decíamos antes, es una enorme cantidad de material que impide que los investigadores realicen su trabajo en casos reales de menores de los que se está abusando o que están desaparecidos. “Estamos haciendo este trabajo masivo con la misma cantidad de recursos que teníamos hace diez años. No podemos soportarlo más y no queremos echar de menos a un niño de verdad del que se esté abusando sexualmente”, comenta un agente a Bloomberg. En Xataka Alibaba tiene nueva IA Open Source para generar vídeos. El problema es que se está usando para generar deepfakes pornográficos Legisladores, a ponerse las pilas. El trabajo de estos investigadores depende del Departamento de Justicia y de una financiación que consiste en unos 30 millones de dólares para 61 grupos de trabajo estatales. Apuntan que es una cifra muy pequeña y, para contextualizar, es lo que el FBI gasta en un día. Denuncian que, a pesar de la avalancha de informes de material de abuso sexual infantil, la financiación se ha mantenido sin cambios. Hay otros problemas como el hecho de que el ritmo de la legislación vaya a la zaga de la tecnología o que los delincuentes se estén envalentonando, precisamente, porque saben que la cantidad de información verdadera y falsa está sepultando a los investigadores. Porque, si antes un depredador infantil podía llegar a dos o tres niños, con la IA podría llegar a 40 o 50 niños. “Es, básicamente, como pescar con dinamita”, apunta un investigador retirado que estuvo 30 años en una brigada de lucha por la seguridad infantil. El reportaje de Bloomberg es durísimo, pero al final representa la otra cara de una tecnología que es extremadamente joven y que no ha tardado nada en democratizarse. Para lo bueno y, como vemos, para lo peor. Ya lo vimos en una forma incipiente de esto como los deep fakes que las propias actrices vulneradas calificaron como "una causa perdida". En Xataka | En ocasiones, las IA eróticas son IA. Y en ocasiones, son un señor de Kenia que cobra dos dólares por hora (function() { window._JS_MODULES = window._JS_MODULES || {}; var headElement = document.getElementsByTagName('head')[0]; if (_JS_MODULES.instagram) { var instagramScript = document.createElement('script'); instagramScript.src = 'https://platform.instagram.com/en_US/embeds.js'; instagramScript.async = true; instagramScript.defer = true; headElement.appendChild(instagramScript); } })(); - La noticia La IA hace que cada vez sea más difícil saber qué es real y qué no. Y los depredadores sexuales infantiles están tomado nota fue publicada originalmente en Xataka por Alejandro Alcolea .

3 visningar
Dela:

Svep för att byta artikel

Vi använder cookies

Vi använder cookies för att förbättra din upplevelse på vår webbplats. Genom att klicka "Acceptera alla" samtycker du till användningen av alla cookies. Läs mer i vår cookiepolicy och integritetspolicy.