Cover Image for Así es como OpenAI determinará la potencia de sus sistemas de inteligencia artificial

Así es como OpenAI determinará la potencia de sus sistemas de inteligencia artificial

OpenAI está calificando sus grandes modelos de lenguaje en una nueva escala interna para determinar cuándo alcanza la IA General Artificial (AGI).

OpenAI ha desarrollado una escala interna para seguir el progreso de sus grandes modelos de lenguaje hacia la inteligencia artificial general, según un portavoz. Los chatbots actuales, como ChatGPT, se ubican en el Nivel 1. La compañía afirma estar cerca del Nivel 2, descrito como un sistema capaz de resolver problemas básicos al nivel de una persona con un doctorado. El Nivel 3 se refiere a agentes de IA capaces de tomar acciones en nombre de un usuario. El Nivel 4 implica IA que puede generar nuevas innovaciones. El Nivel 5, el paso final para lograr la AGI, es una IA que puede realizar el trabajo de organizaciones completas de personas. OpenAI ha definido previamente la AGI como "un sistema altamente autónomo que supera a los humanos en la mayoría de las tareas económicamente valiosas".

La estructura única de OpenAI gira en torno a su misión de lograr la AGI, y cómo define la AGI es crucial. La compañía ha afirmado que "si un proyecto alineado con valores y consciente de la seguridad está cerca de construir AGI" antes que OpenAI, se compromete a no competir con el proyecto y a ayudar en todo lo posible. Aunque la redacción en la carta de OpenAI es vaga, un sistema que OpenAI puede usar para evaluar tanto a sí mismo como a competidores podría ayudar a determinar cuándo se alcanza la AGI de manera más clara.

Sin embargo, la AGI todavía está lejos: se necesitarán miles de millones de dólares en potencia informática para lograr la AGI, si es que se logra. Las opiniones de los expertos, e incluso en OpenAI, varían ampliamente. En octubre de 2023, el CEO de OpenAI, Sam Altman, dijo que estamos "a unos cinco años, más o menos" de alcanzar la AGI.

Esta nueva escala de calificación, aunque aún está en desarrollo, se introdujo un día después de que OpenAI anunciara su colaboración con el Laboratorio Nacional Los Álamos, que tiene como objetivo explorar cómo los modelos avanzados de IA como GPT-4o pueden ayudar de manera segura en la investigación bioscientífica. Un gerente de programa en Los Álamos, responsable de la cartera de biología de seguridad nacional e instrumental en asegurar la asociación con OpenAI, mencionó que el objetivo es probar las capacidades de GPT-4o y establecer un conjunto de factores de seguridad para el gobierno de EE. UU. Eventualmente, los modelos públicos o privados se podrán evaluar en función de estos factores.

En mayo, OpenAI disolvió su equipo de seguridad después de que el líder del grupo, el cofundador de OpenAI Ilya Sutskever, abandonara la empresa. Jan Leike, un investigador clave de OpenAI, renunció poco después afirmando en un post que "la cultura y los procesos de seguridad han quedado en segundo plano frente a productos brillantes" en la empresa. Aunque OpenAI negó que fuera el caso, algunos están preocupados por lo que esto significa si la compañía alcanza la AGI.

OpenAI no ha proporcionado detalles sobre cómo asigna modelos a estos niveles internos (y rechazó la solicitud de comentarios de The Verge). Sin embargo, los líderes de la compañía demostraron un proyecto de investigación utilizando el modelo de IA GPT-4 durante una reunión corporativa y creen que este proyecto muestra habilidades nuevas que reflejan un razonamiento humano. Esta escala podría ayudar a definir de manera estricta el progreso, en vez de dejarlo a interpretaciones. Por ejemplo, la CTO de OpenAI, Mira Murati, mencionó en una entrevista en junio que los modelos en sus laboratorios no son mucho mejores que los disponibles públicamente. Mientras tanto, el CEO Sam Altman dijo a finales del año pasado que la empresa recientemente "empujó hacia atrás el velo de la ignorancia", lo que significa que los modelos son notablemente más inteligentes.