Cover Image for OpenAI emplea sus propios modelos para combatir la interferencia electoral.

OpenAI emplea sus propios modelos para combatir la interferencia electoral.

OpenAI toma medidas enérgicas contra las campañas de ciberdelincuencia que utilizan sus sistemas para manipular elecciones a nivel global. Conoce los detalles del informe completo.

OpenAI ha publicado un informe que revela que durante el año 2024 ha bloqueado más de 20 operaciones y redes deshonestas en diferentes partes del mundo. Estas operaciones variaron en objetivos, escala y enfoque, y se utilizaron para generar malware, así como para redactar cuentas de medios falsas, biografías ficticias y artículos en diversos sitios web. La organización ha realizado un análisis detallado de las actividades que detuvo y ha compartido información clave al respecto.

Según el informe, los actores de amenazas continúan adaptándose y experimentando con los modelos de OpenAI. Sin embargo, hasta el momento no se han encontrado pruebas que indiquen que estas acciones hayan llevado a avances significativos en la creación de malware novedoso o en la construcción de audiencias virales. Este aspecto es crucial, ya que 2024 es un año electoral en varios países, entre ellos Estados Unidos, Rwanda, India y la Unión Europea. Por ejemplo, en julio, OpenAI bloqueó varias cuentas que generaron comentarios sobre las elecciones en Rwanda, los cuales fueron publicados por distintas cuentas en X (anteriormente Twitter). Es alentador que OpenAI afirme que los actores de amenazas no han podido avanzar considerablemente con estas campañas.

Otro logro destacado por la organización fue la interrupción de las actividades de un grupo de amenazas basado en China, conocido como “SweetSpecter”, que intentó realizar ataques de spear-phishing dirigidos a las direcciones corporativas y personales de empleados de OpenAI. En agosto, Microsoft reveló un conjunto de dominios atribuidos a una operación de influencia encubierta iraní denominada “STORM-2035”. Con base en esta información, OpenAI investigó, interrumpió y reportó un conjunto de actividades asociadas en ChatGPT. Además, OpenAI indicó que las publicaciones generadas por sus modelos no lograron captar mucha atención, recibiendo pocos o ningún comentario, "me gusta" o compartidos.

OpenAI se compromete a seguir anticipando cómo los actores malintencionados utilizan modelos avanzados con fines dañinos y a tomar las acciones necesarias para detener estas actividades.

En el ámbito de sus modelos, OpenAI ha anunciado el lanzamiento del modelo de razonamiento denominado "o1", anteriormente conocido como "Project Strawberry", después de meses de especulación. Junto a este, también se ha lanzado una versión "mini" que promete interacciones más rápidas y responsivas aunque con un menor acceso a una base de conocimiento amplia. El modelo "o1" es el primero en la línea de razonamiento de OpenAI, diseñado para emplear deducción similar a la humana para responder preguntas complejas en áreas como ciencia, programación y matemáticas, de manera más rápida que los humanos.

OpenAI ha superado el millón de suscriptores, quienes pagan alrededor de $20 mensuales (o más en Teams y Enterprise). Sin embargo, esto no parece ser suficiente para mantener la viabilidad financiera de la compañía, en medio de informes de que podría elevar los precios de suscripciones hasta $2,000 mensuales para acceder a sus modelos más recientes, en un contexto de rumores sobre una posible bancarrota.

Además, la Iniciativa de Código Abierto (OSI) ha actualizado su definición de lo que constituye un "AI de código abierto". Esta modificación podría excluir a modelos de grandes empresas como Meta y Google, subrayando la necesidad de proporcionar a los desarrolladores y usuarios de AI los mismos principios fundamentales que han brindado beneficios a las comunidades de software de código abierto.