Cover Image for El responsable de IA de Meta tiene razón al calificar de 'absurdo' el alarmismo sobre la inteligencia artificial, aunque no por las razones que él sostiene.

El responsable de IA de Meta tiene razón al calificar de 'absurdo' el alarmismo sobre la inteligencia artificial, aunque no por las razones que él sostiene.

La inteligencia artificial no es aterradora en sí misma, pero las posibles maneras en que las personas pueden utilizarla resultan inquietantes.

La inteligencia artificial (IA) se ha convertido en una de las principales preocupaciones tecnológicas del futuro, generando temores sobre su impacto ético, ambiental e incluso la posibilidad de ser utilizada en estafas. La idea de que la IA pueda hacerse consciente y derrocar a la humanidad ha emergido con frecuencia, pero, como señala Yann LeCun, jefe de IA en Meta, esta noción no tiene base. Según LeCun, la inteligencia artificial es menos inteligente que un gato y carece de la capacidad de planear o tener deseos propios, incluyendo la intención de provocar la caída de nuestra especie.

Aunque puede ser cierto que la IA no va a conspirar contra la humanidad, existen razones válidas para estar preocupados. Uno de los principales aspectos de alarma es la dependencia que las personas pueden desarrollar hacia la IA, asumiendo que es más capaz de lo que realmente es. La IA es solo otra herramienta tecnológica, que no es inherentemente buena o mala. Sin embargo, la ley de las consecuencias no intencionadas sugiere que confiar en la IA para decisiones críticas puede no ser prudente.

Consideremos algunas de las catástrofes, o situaciones cercanas a una, que han surgido por confiar en la tecnología en lugar del juicio humano. Por ejemplo, el comercio de acciones que utiliza algoritmos mucho más veloces que los humanos ha llevado a crisis económicas, mientras que un famoso incidente de detección de misiles de la antigua Unión Soviética casi desemboca en una guerra nuclear debido a un error técnico. En esa ocasión, solo un humano logró prevenir un posible apocalipsis.

Si imaginamos que la IA, tal como funciona hoy, toma decisiones en el mercado bursátil sin supervisión humana, se podría dar el caso de que acepte una alarma errónea de un ataque con misiles y actúe sin intervención humana.

Aunque puede parecer increíble que alguien se fíe de una tecnología que puede generar información falsa para controlar armamento nuclear, no es tan descabellado dado el contexto actual. La IA empleada en los servicios de atención al cliente puede decidir de manera automática si se autoriza un reembolso antes de que un humano tenga la oportunidad de argumentar su caso. Esto resalta el riesgo de ceder demasiada autoridad de decisión a la IA.

Es importante recordar que la IA solo puede realizar las tareas para las que ha sido entrenada, basándose en datos proporcionados por humanos, lo que implica que puede reflejar tanto nuestras virtudes como nuestros defectos. La forma en que se manifiesta dependerá de las circunstancias. Por lo tanto, entregar el control de decisiones significativas a la IA es un error. Puede ser útil, pero no debe determinar aspectos como la contratación de personas o la aprobación de seguros para procedimientos médicos.

La iniciativa de Microsoft de llamar "Copilotos" a sus asistentes de IA es acertada, pues sugiere que están ahí para ayudar, sin establecer objetivos o tomar la iniciativa más allá de lo que se les permita. LeCun tiene razón al afirmar que la IA no es más inteligente que un gato; sin embargo, un gato que tenga la capacidad de empujarnos, metafóricamente, no es algo que debamos alentar.