Tecnología

¡Impactante! Sam Altman Sale del Comité de Seguridad de OpenAI: ¿Qué Significa Esto para el Futuro de la IA?

2024-10-01

Autor: Valentina

OpenAI ha sorprendido al mundo tras anunciar que su fundador y CEO, Sam Altman, ya no formará parte del nuevo Comité de Seguridad. La compañía, que ha estado en el centro de la revolución de la inteligencia artificial desde el lanzamiento de ChatGPT en noviembre de 2022, ha decidido transformar el comité en un organismo de supervisión independiente, presidido por Zico Kolter, director del departamento de aprendizaje automático de la Universidad Carnegie Mellon.

Junto a Altman, otros miembros clave como Bret Taylor, presidente de la junta directiva, y varios expertos técnicos y políticos también se retiraron, lo que levanta dudas sobre la dirección y la seguridad futuras de OpenAI.

La creciente presión relacionada con la seguridad de la inteligencia artificial ha conducido a numerosas renuncias dentro de la empresa. Muchos ex-empleados han expresado su preocupación sobre los riesgos asociados a la IA, argumentando que OpenAI no ha hecho lo suficiente para abordarlos. Esto se ha vuelto aún más relevante tras la desactivación del equipo que se encargaba de mitigar estos riesgos a largo plazo, tan solo un año después de su creación, según declaraciones de Jan Leike, quien dejó claro que "la cultura y los procesos de seguridad han quedado en segundo plano".

El recién formado Comité de Seguridad tiene la misión de emitir recomendaciones críticas para la protección de los proyectos de OpenAI. Sin embargo, la salida de Altman, quien anteriormente se supervisaba a sí mismo, ha dejado a muchos analistas preguntándose si esta estructura será realmente efectiva. Las primeras recomendaciones del comité, dadas a conocer a mediados de septiembre, incluyen la necesidad de establecer una gobernanza independiente para la seguridad, un aspecto que ha generado controversia debido al papel de Altman el cual estaba vinculado a la supervisión de las operaciones comerciales de la empresa.

Además, OpenAI ha mostrado resistencia a iniciativas legislativas, como el proyecto de ley SB 1047 en California, que propone establecer requisitos más estrictos de seguridad para las compañías de inteligencia artificial. Esta ley exigiría que los sistemas de IA sean desconectables y responsables de evitar catástrofes, una reto que OpenAI considera que podría amenazar su crecimiento en el sector, posiblemente empujando a empleados a buscar oportunidades en otros estados.

En el contexto de su reciente transformación, OpenAI está considerando un cambio radical: pasar de ser una organización sin fines de lucro a convertirse en una corporación con fines de lucro, lo que podría aumentar el interés de los inversores. Sin embargo, ¿qué significa realmente esto para la ética y la seguridad de la inteligencia artificial en nuestras vidas? La decisión de alejar a Altman del Comité de Seguridad genera más preguntas de las que responde y podría influir drásticamente en el futuro de la IA.Sigue la situación en OpenAI, ya que puede afectar no solo a la industria, sino a la sociedad en su conjunto. ¡Estaremos atentos a los próximos movimientos de la compañía!