CEO de Google admite: función de «Visión de IA» tiene problema de «alucinaciones»

La reciente introducción por parte de Google de su función «Resúmenes de IA», que promete proporcionar resúmenes concisos al principio de los resultados de búsqueda, ha generado polémica debido a la entrega de información imprecisa y extraña. En una entrevista concedida a The Verge, el CEO de Google, Sundar Pichai, reconoció la existencia de «alucinaciones» en los modelos de IA que dan poder a esta característica, un problema que admitió sigue sin resolverse.

Google AI search malfunction

La Controversia de los Resúmenes Automáticos

Los usuarios han señalado numerosos casos en los que la función «Resumen de IA» ha proporcionado respuestas engañosas e incluso información peligrosa. Por ejemplo, sugerir el uso de pegamento para evitar que el queso se deslice de la pizza y atribuir información falsa a expertos y profesionales. Esta función también ha tenido dificultades para diferenciar hechos de bromas o sátiras, lo que lleva a respuestas sin sentido. Estos ejemplos ilustran los retos que enfrenta.

La Confrontación de Pichai con la Realidad

En la entrevista, Pichai admitió que las «alucinaciones» producidas por la función «Resumen de IA» son «defectos inherentes» en los modelos de lenguaje extenso (LLMs) que constituyen la base de esta tecnología. Afirmó que este problema sigue sin resolverse, a pesar de los esfuerzos continuos de los ingenieros de Google para abordar las diversas respuestas extrañas e incorrectas generadas por la función.

Sin embargo, Pichai también declaró que «El hecho de que la función de Resumen de IA a veces se equivoque no significa que no sea útil. No creo que esa sea la forma correcta de verlo». Destacó que Google ha logrado progresos en mejorar las métricas de precisión factual de la función en comparación con el año pasado y que la industria en su conjunto está mejorando, aunque el problema aún no está resuelto.

Los errores generados por la función «Resumen de IA» han provocado un gran revuelo en línea, con muchos usuarios compartiendo ejemplos de la función proporcionando información incorrecta. Esto daña aún más la credibilidad del motor de búsqueda de Google, que anteriormente había sido criticado por proporcionar a los usuarios resultados de baja calidad.

Con respecto al problema, la consultora de IA y experta en SEO Britney Mueller comentó

“La gente espera que la IA sea mucho más precisa que los métodos tradicionales, ¡pero esto no siempre es el caso! Google está tomando un riesgo arriesgado en la búsqueda para superar a competidores como Perplexity y OpenAI, pero podrían haber utilizado la IA para casos de uso más grandes y valiosos”.

Este sentimiento resalta las altas expectativas que los usuarios tienen sobre la precisión de la IA y los riesgos potenciales que Google enfrenta al implementar esta tecnología prematuramente.

Enfrentando el Futuro de la IA

A pesar de los problemas, Pichai se mantiene optimista sobre la utilidad de la función «Resumen de IA», afirmando que se ha avanzado significativamente. Sin embargo, la continua aparición de errores subraya la necesidad de mayores mejoras y los desafíos inherentes en el desarrollo de sistemas de IA fiables. A medida que Google y otros gigantes tecnológicos se apresuran a incorporar la IA en diversos aspectos de nuestras vidas, es crucial encontrar un equilibrio entre innovación y confianza del usuario. Asegurar la precisión y fiabilidad de estas tecnologías debería ser una prioridad principal para evitar la propagación de información errónea y mantener la confianza de los usuarios en los servicios que proporcionan.

Director de Google Revela: La Característica de «Resúmenes de IA» Lucha contra «Alucinaciones» Inesperadas

La nueva era de la inteligencia artificial prometía cambiar nuestra forma de interactuar con la información en línea, pero no sin sus propios conjuntos de desafíos. La revelación de Sundar Pichai acerca de las «alucinaciones» dentro de los Resúmenes de IA de Google arroja luz sobre una problemática significativa en el corazón de la tecnología emergente. Este reconocimiento no solo cuestiona la fiabilidad de los sistemas actuales de IA, sino que también pone de manifiesto la necesidad imperante de mejora y supervisión constante.

La integridad de la información es fundamental en la era digital, especialmente cuando la sociedad confía cada vez más en la inteligencia artificial para la toma de decisiones y el acceso rápido a conocimientos. Mientras Google trabaja en resolver estos problemas, los usuarios deben permanecer cautelosos y críticos con la información presentada por funciones automatizadas. La transparencia de Pichai, aunque reveladora, es un recordatorio crucial de que la inteligencia artificial, en su estado actual, sigue siendo una herramienta imperfecta que estamos aprendiendo a entender y perfeccionar.

Compartelo!
Deja un comentario