Cover Image for OpenAI enfrenta problemas de seguridad

OpenAI enfrenta problemas de seguridad

OpenAI asegura estar trabajando en el desarrollo de inteligencia artificial general, sin embargo, su progreso se ve afectado por crecientes preocupaciones de seguridad.

OpenAI es una figura destacada en la carrera para desarrollar inteligencia artificial tan avanzada como la humana. Sin embargo, empleados continúan expresando en la prensa y podcasts sus serias preocupaciones sobre la seguridad en el laboratorio de investigación sin fines de lucro de 80 mil millones de dólares. La última crítica proviene de The Washington Post, donde una fuente anónima afirmó que OpenAI aceleró las pruebas de seguridad y celebró su producto antes de garantizar su integridad. "Planearon la fiesta de lanzamiento antes de saber si era seguro lanzarlo", dijo el empleado anónimo al periódico. "Básicamente fracasamos en el proceso".

Los problemas de seguridad son una gran preocupación en OpenAI, y parecen seguir surgiendo. Empleados actuales y antiguos de OpenAI recientemente firmaron una carta abierta exigiendo mejores prácticas de seguridad y transparencia por parte de la startup, poco después de que su equipo de seguridad fuera disuelto tras la partida del cofundador Ilya Sutskever. Jan Leike, un investigador clave de OpenAI, renunció poco después, afirmando en un mensaje que "la cultura y los procesos de seguridad han pasado a un segundo plano en comparación con los productos llamativos" de la empresa.

La seguridad es fundamental para la misión de OpenAI, con una cláusula que establece que colaborarán con otras organizaciones para avanzar en seguridad si se alcanza la IA general artificial en un competidor, en lugar de seguir compitiendo. Afirman estar dedicados a resolver los problemas de seguridad inherentes a un sistema tan grande y complejo. OpenAI incluso mantiene sus modelos privados, en lugar de públicos (lo que ha provocado críticas y demandas), por razones de seguridad. Las advertencias sugieren que la seguridad se ha relegado a un segundo plano a pesar de ser tan importante para la cultura y estructura de la compañía.

Está claro que OpenAI está en el punto de mira, pero los esfuerzos de relaciones públicas por sí solos no serán suficientes para proteger a la sociedad. "Estamos orgullosos de nuestro historial en proporcionar sistemas de IA más capaces y seguros, y creemos en nuestro enfoque científico para abordar los riesgos", dijo la portavoz de OpenAI, Taya Christianson, en un comunicado a The Verge. "Un debate riguroso es fundamental dada la importancia de esta tecnología, y continuaremos interactuando con gobiernos, sociedad civil y otras comunidades en todo el mundo en aras de nuestra misión".

Las apuestas en torno a la seguridad, según OpenAI y otros estudiosos de la tecnología emergente, son enormes. "El desarrollo actual de la IA de vanguardia plantea riesgos urgentes y crecientes para la seguridad nacional", dijo un informe encargado por el Departamento de Estado de EE. UU. en marzo. "El surgimiento de una IA avanzada y AGI tiene el potencial de desestabilizar la seguridad global de formas que recuerdan a la introducción de armas nucleares".

Las alarmas en OpenAI también siguen al golpe de estado en la junta directiva del año pasado que brevemente destituyó al CEO Sam Altman. La junta declaró que fue removido por no ser "consistentemente franco en sus comunicaciones", lo que llevó a una investigación que no logró tranquilizar al personal.

El lanzamiento del GPT-4o por parte de OpenAI "no ha descuidado" la seguridad, según la portavoz Lindsey Held, pero otro representante de la compañía, no identificado, reconoció que el cronograma de revisión de seguridad se comprimió a una semana. "Estamos replanteando toda nuestra forma de hacerlo", dijo el representante anónimo al Post. "Esta simplemente no fue la mejor manera de hacerlo".

En medio de controversias recurrentes, OpenAI ha intentado calmar los temores con algunos anuncios oportunos. Esta semana, anunciaron que se están asociando con el Laboratorio Nacional de Los Álamos para explorar cómo los modelos avanzados de IA, como el GPT-4o, pueden ayudar de manera segura en la investigación bioscientífica, destacando reiteradamente el historial de seguridad de Los Álamos en el mismo anuncio. Al día siguiente, un portavoz anónimo le dijo a Bloomberg que OpenAI creó una escala interna para seguir el progreso de sus grandes modelos de lenguaje hacia la inteligencia artificial general.

Los anuncios de esta semana centrados en la seguridad por parte de OpenAI parecen ser una maniobra defensiva ante la creciente crítica sobre sus prácticas de seguridad. Está claro que OpenAI está bajo escrutinio, pero los esfuerzos de relaciones públicas por sí solos no serán suficientes para proteger a la sociedad. Lo que realmente importa es el impacto potencial en aquellos más allá de la burbuja del Silicon Valley si OpenAI continúa sin desarrollar IA con protocolos de seguridad estrictos, como afirman internamente: la persona promedio no tiene voz en el desarrollo de la IA privatizada, y sin embargo no tiene opción en cuán protegida estará de las creaciones de OpenAI.

"Las herramientas de IA pueden ser revolucionarias", dijo la presidenta de la FTC, Lina Khan, a Bloomberg en noviembre. Pero "en este momento", dijo, existen preocupaciones de que "los insumos críticos de estas herramientas estén controlados por un número relativamente pequeño de empresas".

Si las numerosas críticas contra sus protocolos de seguridad son precisas, esto ciertamente plantea serias preguntas sobre la idoneidad de OpenAI para este papel de tutor de la AGI, un rol que la organización se ha asignado prácticamente a sí misma. Permitir que un grupo en San Francisco controle una tecnología potencialmente transformadora para la sociedad es motivo de preocupación, y hay una demanda urgente incluso dentro de sus propias filas de transparencia y seguridad ahora más que nunca.