Cover Image for Meta se disculpa tras las afirmaciones de su chatbot de que el tiroteo a Trump no sucedió.

Meta se disculpa tras las afirmaciones de su chatbot de que el tiroteo a Trump no sucedió.

Meta indicó que inicialmente impidió que su inteligencia artificial respondiera preguntas sobre el tiroteo, pero levantó esa restricción tras darse cuenta de que los usuarios lo habían notado.

Meta ha enfrentado críticas después de que su asistente de inteligencia artificial afirmara incorrectamente que el reciente intento de asesinato del expresidente Donald Trump no había ocurrido. Este error, admitido por un ejecutivo de la compañía, se atribuye a la tecnología que impulsa su chatbot y otros sistemas similares.

En una publicación en el blog corporativo, Joel Kaplan, encargado de políticas globales de Meta, describió las respuestas de su inteligencia artificial sobre el tiroteo como "desafortunadas". Kaplan aclaró que, inicialmente, Meta AI fue programado para evitar brindar respuestas sobre el intento de asesinato. Sin embargo, esta restricción fue eliminada tras el aumento de la curiosidad del público sobre el tema. A pesar de esta medida, algunos casos mostraron que el sistema continuó generando respuestas inexactas, incluyendo la afirmación de que el evento no sucedió, algo que la empresa está trabajando para corregir rápidamente.

Las "alucinaciones", un término utilizado para describir las respuestas incorrectas generadas por estos sistemas, se han convertido en un problema común dentro de la industria de la inteligencia artificial generativa. Kaplan, quien también dirige los esfuerzos de cabildeo de la empresa, enfatizó que, como sucede con todos los modelos de inteligencia artificial generativa, existe la posibilidad de que se produzcan salidas inexactas o inapropiadas. Prometió que Meta continuará abordando estas cuestiones y mejorando sus características a medida que evolucionan los sistemas y se obtiene retroalimentación de los usuarios.

La situación no es exclusiva de Meta; Google también tuvo que aclarar que su función de autocompletado en la búsqueda no estaba censurando resultados relacionados con el intento de asesinato. Trump, a través de una publicación en Truth Social, expresó su indignación, afirmando que estas acciones son intentos de manipular las elecciones y exhortando a la gente a actuar contra Meta y Google.

Desde el surgimiento de ChatGPT, la industria tecnológica ha estado lidiando con el reto de limitar la tendencia de la inteligencia artificial generativa a generar falsedades. Firmas como Meta han intentado mejorar la calidad de sus chatbots mediante el uso de datos confiables y resultados de búsqueda en tiempo real para contrarrestar las alucinaciones. Sin embargo, este caso pone de manifiesto la dificultad de superar la tendencia inherente de los modelos de lenguaje grande a crear información errónea.

  • Inteligencia Artificial
  • Meta
  • Desinformación