Meta considera la posibilidad de frenar el desarrollo de sistemas de IA que considere demasiado arriesgados.
Meta ha publicado un documento de políticas que detalla las circunstancias bajo las cuales la empresa podría optar por no lanzar ciertas categorías de sistemas de inteligencia artificial considerados 'riesgosos'.
Mark Zuckerberg, CEO de Meta, ha manifestado su compromiso de hacer que la inteligencia general artificial (AGI), entendida como una IA capaz de realizar cualquier tarea que un humano puede hacer, esté disponible para el público en el futuro. Sin embargo, en un reciente documento de políticas, Meta ha indicado que existen situaciones específicas en las que no lanzaría al mercado un sistema de IA altamente capaz que ha sido desarrollado internamente.
El documento, titulado Frontier AI Framework, categoriza a los sistemas de IA en dos tipos que la empresa considera demasiado arriesgados para ser liberados: “sistemas de alto riesgo” y “sistemas de riesgo crítico”. De acuerdo con la definición de Meta, ambos tipos son capaces de contribuir a ataques cibernéticos, así como a ataques químicos y biológicos, diferenciándose en que los sistemas de riesgo crítico podrían ocasionar resultados catastróficos que no pueden ser mitigados en el contexto de su implementación.
Los sistemas de alto riesgo podrían facilitar un ataque, aunque no de manera tan confiable como los de riesgo crítico. Entre los ejemplos que menciona Meta se encuentran el “compromiso automatizado de extremo a extremo de un entorno corporativo protegido por mejores prácticas” y la “proliferación de armas biológicas de alto impacto”. Aunque la lista de posibles catástrofes no es exhaustiva, la compañía la considera como aquellas que son “más urgentes” y plausibles al liberar un sistema de IA poderoso.
Lo que resulta algo sorprendente es que, según el documento, Meta clasifica el riesgo de un sistema no basándose en pruebas empíricas estrictas, sino en la opinión de investigadores internos y externos, quienes están sujetos a revisión por parte de decisores de alto nivel. Meta argumenta que no considera que la ciencia de la evaluación sea lo suficientemente robusta como para ofrecer métricas cuantitativas definitivas que determinen el nivel de riesgo de un sistema.
Si se determina que un sistema representa alto riesgo, Meta limitará su acceso internamente y no lo liberará hasta implementar mitigaciones que reduzcan el riesgo a niveles moderados. Si un sistema es clasificado como de riesgo crítico, Meta implementará protecciones de seguridad no especificadas para prevenir que el sistema sea extraído y detendrá su desarrollo hasta que se logre disminuir su peligrosidad.
El Frontier AI Framework de Meta, que evoluciona con el panorama cambiante de la IA y que la empresa había anunciado que publicaría antes de la Cumbre de Acción sobre IA en Francia este mes, parece ser una respuesta a las críticas sobre el enfoque “abierto” de Meta hacia el desarrollo de sistemas. Mientras que Meta ha adoptado una estrategia que permite una disponibilidad abierta de su tecnología de IA —aunque no necesariamente de código abierto—, otras empresas como OpenAI mantienen sus sistemas protegidos detrás de una API.
Esta estrategia de liberación abierta ha traído tanto beneficios como desafíos. Por un lado, la familia de modelos de IA de Meta, conocida como Llama, ha tenido cientos de millones de descargas; por otro lado, se ha reportado que al menos un adversario de EE. UU. ha utilizado Llama para crear un chatbot de defensa.
Al publicar su Frontier AI Framework, Meta también podría estar buscando destacar la diferencia entre su estrategia y la de la firma de IA china DeepSeek, que también ofrece su tecnología de forma abierta pero con pocas salvaguardas, lo que permite que se desvíe fácilmente hacia la generación de contenido tóxico y dañino. Meta concluye en su documento que al considerar tanto los beneficios como los riesgos al desarrollar y desplegar IA avanzada, es posible ofrecer esta tecnología a la sociedad de manera que se conserven sus beneficios mientras se mantiene un nivel adecuado de riesgo.