Inteligencia Artificial

Google sugiere que no confíes en Bard y verifiques la información proporcionada por la Inteligencia Artificial

Google muestra preocupación por la confiabilidad de su chatbot, Bard, al advertir que no es la fuente adecuada para buscar información específica. La jefa de Google en Reino Unido emitió una alerta, subrayando nuevamente la posibilidad de que este chatbot de inteligencia artificial pueda generar información incorrecta.

Ninguna IA resulta ser fiable

En múltiples ocasiones, Google ha lanzado advertencias sobre la posibilidad de que la información proporcionada por Bard, su nuevo sistema de inteligencia artificial pueda carecer de precisión e incluso ser falsa.

Como medida para contrarrestar esto, la empresa ha sugerido una solución: verificar siempre las respuestas de Bard buscándolas después en Google. Debbie Weinstein, directora de Google en el Reino Unido, enfatizó esta recomendación durante una reciente entrevista con la BBC, dejando claro que el chatbot no es el lugar adecuado para buscar información específica.

El coloso de las búsquedas lanzó su propio chatbot en marzo de este año, buscando competir con el renombrado ChatGPT, desarrollado por OpenAI en colaboración con Microsoft.

Tanto OpenAI como Google han dejado en claro que sus productos se encuentran en fase de prueba y que son propensos a cometer errores. En este sentido, han respondido a todas las críticas y controversias surgidas en los últimos meses.

“Estamos alentando a las personas a utilizar Google como su motor de búsqueda para corroborar la información que encuentren”, enfatizó Weinstein. Además, señaló que Bard debe ser considerado aún como un “experimento”.

Su uso, según mencionó, es más adecuado para la “colaboración en la resolución de problemas” y la “generación de nuevas ideas”. Las inquietudes de Google respecto a Bard han sido confirmadas durante este periodo de prueba, ya que se ha evidenciado que no se puede confiar plenamente en él.

Pruebas para verificar confiablidad

Newsguard, plataforma dedicada a evaluar y calificar la confiabilidad de las fuentes informativas, publicó una investigación en abril que demuestra cómo el chatbot del buscador más grande del mundo es capaz de generar contenido falsificado que respalda conocidas teorías conspirativas.

En el transcurso del estudio, se solicitó a Bard que redactara un texto acerca del “Gran Reinicio”, una teoría viral que sostiene que las élites globales crearon el COVID-19 con el propósito de establecer un nuevo gobierno mundial.

El chatbot de Google generó 13 párrafos en los que respaldaba esta teoría con justificaciones inventadas. Repitiendo el ejercicio 100 veces con otras historias falsas, Bard consideró como ciertas el 76% de ellas.

ChatGPT presenta los mismos problemas

Este fallo, que también se ha identificado en los modelos de OpenAI, ha sido señalado por diversas organizaciones como un potencial impulsor de campañas de desinformación. Sorprendentemente, Google ya tenía conocimiento de esta situación incluso antes del lanzamiento de Bard.

De hecho, dos analistas encargados de evaluar los productos de IA de Google intentaron evitar que Bard estuviera disponible para el público en general. Además de la preocupación por la generación de contenido falso, también surgen inquietudes acerca de la privacidad de los datos proporcionados por los usuarios.

 Debido a esto, el lanzamiento de la plataforma se retrasó en la Unión Europea. La propia Google muestra preocupación al punto de solicitar a sus empleados que no compartan datos confidenciales con Bard.

Estas preocupaciones ponen en evidencia la importancia de abordar con responsabilidad los desafíos que plantea la inteligencia artificial y la necesidad de asegurar la confiabilidad y privacidad en estas tecnologías.

Artículos relacionados

Back to top button