
Nuevos ganadores del Premio Turing alertan nuevamente sobre los peligros de la inteligencia artificial.
Se está empezando a observar un patrón.
Dos científicos pioneros, galardonados con el Turing Award 2023, han expresado su inquietud sobre la prisa con que se lanzan modelos de inteligencia artificial (IA) al mercado sin pruebas adecuadas. Andrew Barto, investigador de la Universidad de Massachusetts, y Richard Sutton, ex científico de investigación en DeepMind, advierten que las empresas de IA no están realizando suficiente comprobación de sus productos antes de su lanzamiento, comparando este proceso con "construir un puente y probarlo haciendo que la gente lo use".
El Turing Award, que es conocido como el "Premio Nobel de la Computación" y tiene un valor de un millón de dólares, fue otorgado a Barto y Sutton por su desarrollo del "aprendizaje por refuerzo". Esta técnica de aprendizaje automático ayuda a los sistemas de IA a tomar decisiones optimizadas mediante ensayo y error. Jeff Dean, vicepresidente senior de Google, ha señalado que esta metodología es "un pilar fundamental del progreso en IA" y ha jugado un papel esencial en la innovación que dio origen a modelos destacados como ChatGPT de OpenAI y AlphaGo de Google.
Barto destacó que "lanzar software a millones de personas sin salvaguardias no es una buena práctica de ingeniería". Según él, las normas de ingeniería han evolucionado para mitigar las consecuencias negativas de la tecnología, algo que no parece estar siendo aplicado por las empresas de desarrollo de IA.
La crítica hacia el desarrollo irresponsable de la IA también ha sido respaldada por figuras prominentes como Yoshua Bengio y Geoffrey Hinton, quienes han sido denominados los “padres de la IA” y han recibido previamente el mismo galardón. En 2023, un grupo de destacados investigadores, ingenieros y directores ejecutivos de IA, incluido Sam Altman de OpenAI, emitió una declaración advirtiendo que "mitigar el riesgo de extinción por la IA debería ser una prioridad global".
Barto ha señalado que las compañías de IA parecen estar más impulsadas por incentivos comerciales que por el avance de la investigación en el campo. OpenAI, que ha hecho repetidos compromisos para mejorar la seguridad de la IA, incluso destituyó a Altman en parte por "comercializar en exceso los avances antes de comprender las consecuencias", y anunció en diciembre su intención de convertirse en una empresa con fines de lucro.