Finalmente contamos con una definición 'oficial' para la inteligencia artificial de código abierto.
La OSI, que se ha autoproclamado como el árbitro de todo lo relacionado con el software de código abierto, ha dado a conocer su primera definición de inteligencia artificial de 'código abierto'.
La Open Source Initiative (OSI), una institución establecida para definir y gestionar el concepto de código abierto, ha publicado la versión 1.0 de su Definición de IA de Código Abierto (OSAID). Este documento, resultado de varios años de trabajo conjunto con el sector académico y la industria, busca establecer un estándar que permita a las personas determinar si un modelo de IA puede considerarse de código abierto.
Un objetivo clave de esta definición es ayudar a que los responsables de políticas y desarrolladores de IA tengan una comprensión común. Stefano Maffulli, vicepresidente ejecutivo de la OSI, destacó que las regulaciones en torno a la IA están bajo vigilancia, y algunas entidades, como la Comisión Europea, han mostrado interés en otorgar reconocimiento especial a las iniciativas de código abierto. Para alcanzar este consenso, la OSI realizó un esfuerzo deliberado para involucrar a una amplia variedad de interesados, más allá de los grupos tecnológicos habituales.
Para que un modelo de IA sea clasificado como de código abierto según el OSAID, debe proporcionar información suficiente sobre su diseño que permita a una persona recrearlo "sustancialmente". Además, se requiere que se revelen detalles pertinentes sobre los datos de entrenamiento, incluyendo su origen y procesamiento. Según Maffulli, un modelo de IA de código abierto debe permitir una comprensión completa de su construcción, incluyendo acceso al código completo utilizado en el entrenamiento y filtrado de datos. También se establecen derechos de uso para los desarrolladores, como la libertad para emplear y modificar el modelo sin necesidad de permisos previos.
A pesar de la importancia de la OSAID, la OSI carece de mecanismos de aplicación para presionar a los desarrolladores a adherirse a esta definición. Sin embargo, planea señalar aquellos modelos que son descritos como "código abierto" pero que no cumplen con los criterios establecidos. Aunque los resultados de este enfoque han sido variados, el objetivo es que la comunidad de IA no reconozca como "código abierto" a aquellos que no lo sean realmente.
Históricamente, muchas empresas han utilizado el término "código abierto" de manera ambigua. Empresas como Meta han sido criticadas por utilizar esta clasificación para describir sus estrategias de liberación de modelos de IA, que en muchos casos no cumplen con los estándares de la OSAID. Por ejemplo, Meta requiere que plataformas con más de 700 millones de usuarios activos mensuales soliciten una licencia especial para utilizar sus modelos Llama. Después de discusiones con la OSI, Google y Microsoft acordaron dejar de usar el término para modelos que no sean completamente abiertos, mientras que Meta ha mantenido su posición.
Algunas startups también han enfrentado críticas, como Stability AI y Mistral, que han implementado restricciones que limitan el uso comercial de sus modelos. Un estudio de agosto pasado reveló que muchos modelos "de código abierto" son en realidad solo nominalmente abiertos, ya que los datos necesarios para entrenarlos no se divulgan, y el poder computacional para ejecutarlos es inalcanzable para muchos desarrolladores.
Las opiniones sobre esta situación son divergentes. Meta rechazó las críticas y cuestionó la definición de la OSAID, argumentando que sus políticas de licencia actúan como salvaguardas contra implementaciones dañinas, y que está adoptando un enfoque cauteloso en la divulgación de información sobre sus modelos. La compañía señala que hay otros esfuerzos en marcha para definir "IA de código abierto".
Finalmente, algunos expertos sugieren que la OSAID podría no abordar adecuadamente el tema de la licencia de datos de entrenamiento, lo que podría limitar su efectividad en la práctica. Maffulli reconoce que la definición requerirá actualizaciones, y la OSI ha formado un comité para supervisar su aplicación y proponer enmiendas a futuro. Este esfuerzo se realiza de manera colaborativa, considerando las opiniones de diversos grupos de interés en el ámbito de la IA.