Resumen de seis meses de la inteligencia artificial en Google Search: ¿Está mejorando la función?
Google reconoció que tiene "tarea pendiente en cuanto a la calidad".
Han pasado seis meses desde que Google comenzó a implementar texto generado por inteligencia artificial en la parte superior de muchas consultas de búsqueda, una característica que se presentó como un experimento. Google ha admitido que, aunque los "resúmenes de IA son, en conjunto, conjuntos de información muy interesantes que resultan útiles para los usuarios", todavía hay áreas que requieren mejora, particularmente en calidad.
Los resúmenes de IA, que se lanzaron con el lema "Deja que Google busque por ti", enfrentaron controversias desde su inicio. Tras algunas semanas de estruendosos errores, como consejos absurdos que sugerían comer rocas o poner pegamento en la pizza, la compañía optó por reducir su presencia en los resultados de búsqueda. Mientras que al inicio aparecían en aproximadamente el 15% de los resultados, para finales de junio esa cifra se veía reducida al 7%.
¿Han mejorado los resúmenes de IA en los últimos seis meses? A pesar de que la calidad parece no haber mostrado un aumento significativo, se ha notado alguna mejora limitada en ciertos casos. Budaraju, la directora senior de gestión de productos de Google para Búsqueda, comentó que los resúmenes funcionan bien, especialmente en situaciones donde no hay una única respuesta y se requieren múltiples perspectivas.
Sin embargo, para quienes utilizan Google de manera más intensa, siguen apareciendo errores sorprendentes. Un ejemplo reciente revela la tendencia de Google Gemini a ofrecer información equivocada de forma confiada. Un usuario preguntó sobre un episodio de Twin Peaks en el que Gordon Cole besa a Shelly y recibió la incorrecta confirmación de que tal escena no existe. A pesar de que la información de que Cole y Shelly se besan está bien documentada, el sistema parece conjugar datos erróneos, creando confusión.
Budaraju explicó que los errores a menudo aparecen en consultas inusuales, sugiriendo que la interpretación errónea por parte del modelo se debe a la falta de información de calidad en la web. La búsqueda de datos imprecisos puede resultar en respuestas artificialmente erróneas, lo que podría alimentar la ignorancia del usuario. Un caso ilustra esto al buscar "cómo usar bicarbonato de sodio para espesar sopa", donde la respuesta generada es incorrecta y potencialmente perjudicial.
Google ha indicado que la mejora de los resúmenes de IA se basa en encuestas de sentimientos, lo que permite a los usuarios seleccionar entre diferentes opciones y expresar su satisfacción. Además, es un desafío que los resúmenes puedan presentar información errónea de manera autoritaria, lo que podría confundir a los usuarios. Un caso particular abordó consultas sobre la carne de delfín, donde se confundió el término "mahi-mahi" como tipo de carne de delfín, provocando confusiones.
A pesar de que los resúmenes de IA continúan evolucionando, la compañía espera que los usuarios también busquen las fuentes de información para validar lo presentado. En consecuencia, es recomendable seguir este consejo y verificar siempre las fuentes relacionadas con los resúmenes generados para tener una mejor comprensión de los temas tratados.