Cover Image for Silicon Valley sofocó el movimiento apocalíptico de la IA en 2024.

Silicon Valley sofocó el movimiento apocalíptico de la IA en 2024.

Desde hace varios años, los expertos en tecnología han expresado su preocupación acerca de la posibilidad de que los sistemas de inteligencia artificial avanzada puedan provocar daños devastadores a la humanidad. Sin embargo,

A lo largo de los últimos años, expertos en tecnología han alarmado sobre los posibles daños catastróficos que los sistemas avanzados de inteligencia artificial podrían infligir a la humanidad. Sin embargo, en 2024, esas advertencias quedaron ensombrecidas por una visión optimista y lucrativa del AI generativo, promovida por la industria tecnológica. Los que advierten sobre los peligros del AI suelen ser llamados "doomers del AI", un término que no les agrada. Sus preocupaciones giran en torno a la posibilidad de que estos sistemas tomen decisiones letales, sean utilizados por gobiernos para oprimir o contribuyan a la descomposición de la sociedad.

En 2023, parecía que estábamos entrando en una era de regulación tecnológica. El tema del peligro del AI pasó de ser un asunto discutido en cafés de San Francisco a ser abordado en medios como MSNBC, CNN y las portadas de The New York Times. Diversos líderes, incluido Elon Musk, junto a más de 1,000 tecnólogos y científicos, pidieron una pausa en el desarrollo del AI para prepararse ante sus riesgos. Luego, científicos destacados de OpenAI y Google firmaron una carta abierta argumentando que el riesgo de extinción humana a causa del AI necesitaba mayor atención. Posteriormente, el presidente Biden emitió una orden ejecutiva destinada a proteger a los estadounidenses de los sistemas de AI.

Sin embargo, en noviembre del mismo año, el consejo de la organización sin fines de lucro detrás de OpenAI despidió a su CEO, Sam Altman, alegando falta de confianza en su liderazgo en un campo tan crítico. Era un momento en el que parecía que los sueños de los emprendedores de Silicon Valley se verían eclipsados por el bienestar de la sociedad. A pesar de ello, los emprendedores se preocuparon más por la narrativa del "AI doom" que por los modelos de AI en sí. Marc Andreessen, cofundador de a16z, publicó un extenso ensayo en 2023 titulado “Por qué el AI salvará al mundo”, donde desmonta la agenda de los doomers y ofrece una visión optimista sobre el futuro de la tecnología.

Andreessen argumentó que la era del AI estaba aquí y que no debería temerse su potencial. Propuso que las empresas de tecnología debían avanzar rápidamente en la creación de AI, con pocas barreras regulatorias, lo que, según él, evitaría que la tecnología estuviera en manos de unos pocos poderosos y permitiría a Estados Unidos competir con China. Esto, claro está, también beneficiaría a las numerosas startups de AI respaldadas por a16z. A pesar de la preocupación generalizada, la inversión en AI se disparó en 2024, así como el regreso de Altman a OpenAI.

El enfoque de Biden sobre la seguridad del AI perdió fuerza en el ámbito político tras la llegada del presidente electo, Donald Trump, quien anunció su intención de revocar la orden ejecutiva de Biden, argumentando que obstaculizaba la innovación. Según informes, Andreessen ha estado asesorando a Trump en cuestiones de AI. Mientras tanto, el interés político en regular el AI ha disminuido y las prioridades de los republicanos se han centrado en construir centros de datos y aplicar AI en el gobierno y el ámbito militar.

La controversia sobre el proyecto de ley SB 1047 en California marcó el punto crítico del debate sobre la seguridad del AI. A pesar de contar con el apoyo de reconocidos investigadores, fue finalmente vetado por el gobernador Gavin Newsom, quien expresó la dificultad de encontrar soluciones prácticas a los riesgos catastróficos del AI. Aunque el proyecto tenía buenas intenciones, presentaba fallos significativos y fue visto como una amenaza para la investigación y la inteligencia artificial de código abierto.

Con el veto de SB 1047, la lucha por regular el AI parece haber perdido ímpetu, aunque eventualmente podrían regresar con una versión modificada del proyecto en 2025. Por otro lado, algunos líderes de la industria como Martin Casado, de a16z, argumentan en contra de una regulación más estricta sobre el AI, declarando que es “tremendamente seguro”. Sin embargo, la realidad presenta casos preocupantes que requieren atención y preparación ante nuevos tipos de riesgos asociados con el AI, que antes podrían parecer absurdos.