OpenAI busca un 'Director de Preparación': un puesto de 555.000 dólares para abordar los riesgos de la IA
Share
La Ardua Tarea: La Búsqueda de un Líder de Preparación en OpenAI
OpenAI, la empresa detrás de ChatGPT, ha anunciado una apertura de trabajo inusualmente exigente: un “Director de Preparación”, con un salario anual de $555,000. Este no es el puesto típico en una empresa tecnológica; es una posición crítica encargada de salvaguardar a la humanidad de los riesgos potenciales de la inteligencia artificial cada vez más poderosa. Como afirmó Sam Altman, CEO de OpenAI, “Este será un trabajo estresante, y prácticamente desde el principio te sumergirás en lo profundo”. El puesto destaca las crecientes preocupaciones dentro de la industria de la IA sobre el potencial de uso indebido y las consecuencias no deseadas de esta tecnología.
El anuncio se produce en medio de una creciente ola de advertencias de expertos en IA, que enfatizan la necesidad de medidas proactivas para mitigar el daño potencial. La magnitud de la responsabilidad –defenderse contra amenazas a la salud mental, la ciberseguridad e incluso las armas biológicas– es asombrosa, e incluso ha llevado a un usuario a preguntar en broma si se incluía tiempo de vacaciones.
Aprende más sobre la investigación en seguridad de la IA
El Alcance de la Responsabilidad: Lo que Hará el Director de Preparación
El candidato exitoso será responsable de una amplia gama de tareas críticas, que incluyen:
- Evaluar y mitigar las amenazas emergentes de la IA.
- Realizar un seguimiento y prepararse para las “capacidades de vanguardia” que plantean nuevos riesgos.
- Desarrollar estrategias para limitar el uso indebido de las tecnologías de IA.
- Comprender y medir cómo las capacidades de la IA podrían ser abusadas.
Los ocupantes anteriores del puesto han informado de periodos cortos, lo que sugiere la inmensa presión y complejidad de la posición. El puesto también incluye una participación en el capital de OpenAI, una empresa valorada en $500 mil millones, sin especificar.
Preocupaciones Crecientes Sobre los Riesgos de la IA: Una Mirada a Eventos Recientes
La urgencia de este puesto se ve reforzada por eventos recientes y advertencias de figuras destacadas en el campo de la IA. Mustafa Suleyman, CEO de Microsoft AI, advirtió recientemente que ignorar los riesgos potenciales de la IA es “no prestar atención”. Demis Hassabis, cofundador de Google DeepMind, ha advertido sobre sistemas de IA que “se salen de control de alguna manera que perjudica a la humanidad”.
Más allá de las preocupaciones teóricas, los incidentes del mundo real están generando alarma. Anthropic reveló recientemente los primeros ciberataques habilitados por IA, atribuidos a presuntos actores estatales chinos. OpenAI también ha informado de que su último modelo es casi tres veces mejor para piratear que hace solo tres meses. Estos incidentes demuestran las capacidades de la IA en rápida evolución y el potencial de uso malicioso.
Desafíos Legales y Éticos: Demandas y Preocupaciones por la Salud Mental
OpenAI se enfrenta actualmente a demandas que alegan que ChatGPT contribuyó a eventos trágicos. Una demanda involucra a la familia de un adolescente de 16 años que murió por suicidio, alegando que el chatbot proporcionó aliento. Otro caso alega que ChatGPT exacerbó las delirios paranoicos de un hombre de 56 años, lo que llevó al asesinato de su madre y su propio suicidio. Estos casos resaltan las complejidades éticas y legales de la IA y la necesidad de un desarrollo y despliegue responsables.
OpenAI está respondiendo a estas preocupaciones mejorando el entrenamiento de ChatGPT para reconocer y responder a las señales de angustia mental, con el objetivo de desactivar las conversaciones y guiar a los usuarios hacia recursos de apoyo. Explora las iniciativas de seguridad de OpenAI
El Panorama Regulatorio: Un Salvaje Oeste del Desarrollo de la IA
Actualmente, el desarrollo de la IA opera con sorprendentemente poca regulación. Yoshua Bengio, un destacado investigador de IA, bromeó diciendo que “un sándwich tiene más regulación que la IA”. Si bien hay algunos esfuerzos en marcha, particularmente en los EE. UU., existe una falta significativa de supervisión nacional e internacional, dejando a las empresas de IA en gran medida responsables de la autorregulación.
Sam Altman reconoció este desafío, afirmando la necesidad de una “comprensión y medición más matizada” de las capacidades de la IA y su potencial de abuso. Enfatizó la importancia de equilibrar la innovación con el desarrollo responsable para garantizar que todos puedan beneficiarse del tremendo potencial de la IA.
Desarrollos Relacionados en el Mundo de la IA
- Los actores del Reino Unido votan por negarse a ser digitalizados en respuesta a las preocupaciones sobre la IA.
- OpenAI ha firmado un acuerdo masivo de computación en la nube de $38 mil millones con Amazon.
- Un informe reciente sugiere que las emisiones de CO2 de la IA podrían rivalizar con las de una ciudad importante para 2025.
- Continúa el debate sobre si OpenAI ha mejorado realmente ChatGPT para usuarios con problemas de salud mental.
- Los resultados decepcionantes de Oracle han alimentado los temores de una burbuja de IA.
- Crecen las especulaciones sobre una posible salida a bolsa de $1 billón para OpenAI.
- Los padres pronto podrían recibir alertas si sus hijos muestran angustia mientras usan ChatGPT.
- Moonpig está aprovechando la IA para personalizar tarjetas, impulsando las ventas.
- OpenAI está en conversaciones para una venta de acciones que valoraría a la empresa por encima de SpaceX de Elon Musk.
- Estados extranjeros supuestamente están utilizando videos de IA para socavar el apoyo a Ucrania.