Actualidad
Sam Altman busca un ejecutivo para controlar los riesgos de la Inteligencia Artificial
La empresa detrás de ChatGPT creó una posición estratégica para garantizar que la tecnología respete los valores humanos y la seguridad global.

OpenAI, la organización liderada por Sam Altman, ha publicado una búsqueda laboral que marca un cambio de rumbo en su estructura interna. La compañía necesita un nuevo perfil directivo enfocado exclusivamente en la seguridad.
El puesto se denomina Jefe de Alineación de la Misión. Su objetivo principal será garantizar que los avances de la Inteligencia Artificial (IA) no representen una amenaza para la humanidad.
Esta decisión surge tras meses de críticas sobre la velocidad del desarrollo de sus productos. Diversos expertos han señalado que la empresa priorizó el lanzamiento de modelos potentes sobre las precauciones de seguridad.
Un freno necesario al desarrollo desmedido
La descripción del trabajo es clara sobre la necesidad de establecer límites. El nuevo ejecutivo deberá supervisar todas las iniciativas de la empresa para asegurar que se alineen con la misión original de beneficiar a todos.
Además, este rol actuará como un contrapeso interno. La persona elegida tendrá la responsabilidad de cuestionar decisiones técnicas si estas comprometen la seguridad del usuario o de la sociedad.
Por lo tanto, se espera que este líder trabaje en contacto directo con la junta directiva. Esto le otorgará la autoridad necesaria para frenar lanzamientos si los protocolos de riesgo no se cumplen adecuadamente.
Requisitos y contexto de la búsqueda
El candidato ideal debe poseer una combinación de habilidades técnicas y éticas. OpenAI busca alguien capaz de entender la complejidad de los modelos de lenguaje, pero con una visión centrada en el impacto social.
Entre las tareas, figura la gestión de conflictos internos sobre la dirección de la tecnología. El ejecutivo deberá mediar entre los equipos de ingeniería, que buscan rapidez, y los equipos de seguridad.
Sin embargo, encontrar a la persona adecuada no será sencillo. El puesto requiere una experiencia comprobable en la gestión de riesgos tecnológicos a gran escala.
La crisis de seguridad en OpenAI
Esta búsqueda ocurre después de la salida de figuras emblemáticas de la empresa. En los últimos meses, investigadores clave como Ilya Sutskever y Jan Leike renunciaron a sus cargos.
Ambos ex empleados lideraban el equipo de “superalineación”. Este grupo tenía la tarea de controlar las futuras inteligencias artificiales que superaran la capacidad humana.
Su partida generó dudas en la comunidad tecnológica sobre el compromiso real de Sam Altman con la seguridad. Por ello, esta nueva contratación se interpreta como un intento de reconstruir la confianza pública y la estabilidad interna.
Con esta medida, la empresa busca equilibrar la innovación con la responsabilidad, en un momento donde la regulación de la IA es tema de debate mundial.







