"Det kommer att bli ett stressigt jobb", lovar Sam Altman i detta erbjudande. Det är därför han erbjuder mer än en halv miljon dollar i lön.
"Det kommer att bli ett stressigt jobb och du måste dyka in direkt från första stund." Med den ovanliga varningen har Sam Altman, vd för OpenAI, i X presenterat ett av de mest slående – och bäst betalda – jobberbjudandena i den nuvarande tekniksektorn. Målet är att fylla chefspositionen som "Preparation Manager", som uteslutande är dedikerad till att förutse, mäta och begränsa de allvarligaste riskerna med avancerad artificiell intelligens. Siffran förklarar en del av uppriktigheten: upp till 555 000 USD per år i grundlön, plus aktier, enligt företagets interna dokumentation. I Silicon Valley, där lönerna per definition är höga, är över en halv miljon fortfarande ett tydligt tecken på att det finns mer än bara tekniska talanger inblandade. Det som står på spel är möjligheten att de mest avancerade AI-modellerna kommer att orsaka verklig skada i stor skala... och att någon kommer att ha direkt ansvar för att förhindra det. Sätta riskhantering före företagsledning Denna roll kommer att vara en nyckelspelare för OpenAI vid en "kritisk" tidpunkt. Modeller förbättras i en aldrig tidigare skådad hastighet och genererar inte längre bara text eller bilder: de hittar säkerhetsbrister, påverkar mentala tillstånd och börjar visa förmågor som kan återanvändas i destruktiva syften. Altman själv erkänner detta rent ut: 2025, säger han, har företaget redan upplevt "en förhandstitt" av effekterna av dessa system på mental hälsa och börjar nu se modellerna bli tillräckligt kompetenta inom cybersäkerhet för att upptäcka kritiska brister. Företaget antar att utvecklingen av avancerad AI innebär oundvikliga risker, och att det enda ansvarsfulla alternativet är att sätta någon välbetald, med verklig makt och under enorm press, att övervaka var och när skada kan uppstå. I Genbeta VD:n för OpenAI har redan förberett bunkern medan hans företag planerar hur man ska hantera skapandet av en "stark AI". Rollen för Head of Readiness är således inte att vara en företagsfilosof eller en lugnande talesperson, utan snarare den person som är ansvarig för säkerhetsmaskineriet: tekniska bedömningar, hotbeslutsmodeller, missbrukstester, begränsningar och begränsningar. Och faktiskt, ett av huvudansvaret som kommer att falla på den person de anställer kommer att vara att bestämma när en AI-modell är för farlig att lansera, även om det innebär att förlora en fördel till mindre försiktiga konkurrenter. Det är klart att det inte är vilket jobb som helst. I åratal var den återkommande kritiken mot stora AI-företag att de talade lite lättvindigt om riskerna med sin teknik. OpenAI försöker nu svara genom att placera någon med för- och efternamn som svarar för värsta möjliga scenarier. Befattningen övervakar områden som företaget anser vara "allvarliga skador": cybersäkerhet, biologiska och kemiska kapaciteter och AI-system som kan förbättra sig själv. Kom ihåg att OpenAI, enligt sina egna interna skalor, definierar "svår skada" som resultat jämförbara med tusentals dödsfall, storskaliga allvarliga skador eller ekonomiska förluster på hundratals miljarder dollar. Det är den typ av definition som vanligtvis förekommer i statliga beredskapsplaner, inte i jobberbjudanden som publiceras på sociala nätverk. Internt och externt sammanhang OpenAI:s senaste historia visar på interna spänningar, säkerhetstjänstemäns avgångar och offentlig kritik från tidigare ledare som rapporterade att säkerhetskulturen höll på att ta sig tillbaka till snabba släpp (tekniskt sett var det också anledningen till att Altman själv kort blev avsatt som vd). Å andra sidan står OpenAI nu inför en växande våg av stämningar och regulatoriska granskning, och ett socialt klimat av ökande misstro. Faktum är att färska undersökningar visar att majoriteten av den amerikanska befolkningen uppfattar fler risker än fördelar med utbyggnaden av AI, och en stor majoritet föredrar strikta regleringar även om det bromsar utvecklingen. Bild | Marcos Merino genom AI In Genbeta | Säkerhets- och integritetssårbarheter i ChatGPT-webbläsaren börjar komma upp i ljuset (function() { window._JS_MODULES = window._JS_MODULES || {}; var headElement = document.getElementsByTagName('head')[0]; if (_JS_MODULES.instagram) { var script = document.screate'instagram); 'https://platform.instagram.com/en_US/embeds.js'; instagramScript.async = true headElement.appendChild (instagramScript);
Originalkälla
Publicerad av Genbeta
30 december 2025, 11:59
Denna artikel har översatts automatiskt från spanska. Klicka på länken ovan för att läsa originaltexten.
Visa originaltext (spanska)
Rubrik
"Será un trabajo estresante", promete Sam Altman en esta oferta. Por eso ofrece más de medio millón de dólares de sueldo
Beskrivning
"Será un trabajo estresante y tendrás que sumergirte de lleno desde el primer momento". Con esa advertencia poco habitual, Sam Altman, CEO de OpenAI, ha presentado en X una de las ofertas laborales más llamativas —y mejor pagadas— del sector tecnológico actual. El objetivo es cubrir el puesto directivo de 'Responsable de preparación', dedicado exclusivamente a anticipar, medir y contener los riesgos más graves de la inteligencia artificial avanzada. La cifra explica parte de la franqueza: hasta 555.000 dólares anuales de salario base, más acciones, según la documentación interna de la compañía. En Silicon Valley, donde los sueldos son altos por definición, superar el medio millón sigue siendo una señal clara de que hay algo más que el mero talento técnico implicado. Lo que está en juego es la posibilidad de que los modelos de IA más avanzados causen daños reales a gran escala... y de que alguien tenga la responsabilidad directa de evitarlo Anteponer la gestión de riesgos a la comercial Este puesto será una pieza clave para OpenAI en un momento 'crítico'. Los modelos mejoran a una velocidad sin precedentes y ya no solo generan texto o imágenes: encuentran vulnerabilidades de seguridad, influyen en estados mentales y empiezan a mostrar capacidades que podrían ser reutilizadas con fines destructivos. El propio Altman lo reconoce sin rodeos: en 2025, dice, la compañía ya ha experimentado "un adelanto" del impacto de estos sistemas en la salud mental, y ahora empieza a observar cómo los modelos se vuelven lo bastante competentes en ciberseguridad como para detectar fallos críticos. La empresa asume que el desarrollo de IA avanzada conlleva riesgos inevitables, y que la única opción responsable es poner a alguien bien pagado, con poder real y bajo enorme presión, a vigilar dónde y cuándo puede producirse el daño. En Genbeta El CEO de OpenAI ya tiene el búnker preparado mientras su compañía planifica cómo hacer frente a la creación de una 'IA fuerte' Así, el papel del responsable de Preparación no es el de ser un filósofo corporativo ni un portavoz tranquilizador, sino el responsable de la maquinaria de la seguridad: evaluaciones técnicas, modelos de amenaza, pruebas de abuso, mitigaciones y decisiones de lanzamiento. Y, de hecho, una de las principales responsabilidades que recaerán sobre los hombros de la persona que contraten será decidir cuándo un modelo de IA es demasiado peligroso para lanzarse, incluso si eso implica perder ventaja frente a competidores menos cautos. Está claro que no es un empleo cualquieraDurante años, la crítica recurrente a las grandes empresas de IA fue que hablaban con cierta ligereza de los riesgos de su tecnología. OpenAI intenta ahora responder situando a alguien con nombre y apellido que responde por los peores escenarios posibles. El puesto supervisa las áreas que la compañía considera de 'daño severo': ciberseguridad, capacidades biológicas y químicas, y sistemas de IA capaces de auto-mejorarse. Recordemos que, según sus propios baremos internos, OpenAI define 'daño severo' como resultados comparables a miles de muertes, lesiones graves a gran escala o pérdidas económicas de cientos de miles de millones de dólares. Es el tipo de definición que suele aparecer en planes de contingencia gubernamentales, no en ofertas de empleo publicadas en redes sociales. Contexto interno y externoEl historial reciente de OpenAI muestra tensiones internas, salidas de responsables de seguridad y críticas públicas de antiguos líderes que denunciaron que la cultura de seguridad quedaba relegada frente a los lanzamientos rápidos (técnicamente, fue también la razón por la que el propio Altman fue brevemente cesado como CEO). Por otro lado, OpenAI se enfrenta ahora a una oleada creciente de demandas y de escrutinio regulatorio, y a un clima social de cada vez mayor desconfianza. De hecho, encuestas recientes muestran que la mayoría de la población estadounidense percibe más riesgos que beneficios en la expansión de la IA, y una amplia mayoría prefiere regulaciones estrictas aunque eso ralentice el desarrollo. Imagen | Marcos Merino mediante IA En Genbeta | Empiezan a salir a la luz las vulnerabilidades del navegador de ChatGPT en materia de seguridad y privacidad (function() { window._JS_MODULES = window._JS_MODULES || {}; var headElement = document.getElementsByTagName('head')[0]; if (_JS_MODULES.instagram) { var instagramScript = document.createElement('script'); instagramScript.src = 'https://platform.instagram.com/en_US/embeds.js'; instagramScript.async = true; instagramScript.defer = true; headElement.appendChild(instagramScript); } })(); - La noticia "Será un trabajo estresante", promete Sam Altman en esta oferta. Por eso ofrece más de medio millón de dólares de sueldo fue publicada originalmente en Genbeta por Marcos Merino .