Inteligencia Artificial

¿Sueles utilizar ChatGPT para citar fuentes? Deberías pensarlo dos veces

En un corto periodo de tiempo, ChatGPT y sus variantes, como el chatbot de Bing, han demostrado ser una herramienta increíblemente valiosa para una amplia gama de usuarios, pero debemos considerar que no son perfectas.

Debilidades de ChatGPT

Durante estas primeras etapas, mientras los usuarios exploran sus capacidades, también se están descubriendo varias debilidades.

Aunque ChatGPT ofrece información relevante y útil, también está experimentando un problema que podría ser cada vez más perjudicial si no se resuelve pronto. El chat de OpenAI está proporcionando respuestas a los usuarios que contienen hechos inventados y desinformación, lo que se está convirtiendo en un problema muy real y creciente.

En efecto, ChatGPT está creando artículos completos del periódico The Guardian que nunca se publicaron en realidad. Esta situación implica que tanto los usuarios como el propio ChatGPT no pueden discernir con confianza entre la verdad y la ficción.

Poca credibilidad en artículos citados por ChatGPT

Es un problema considerable no solo para la credibilidad de la tecnología de ChatGPT, sino también para la capacidad de los usuarios para confiar en que el chat no sea otra fuente de desinformación que parezca ofrecer contenido confiable y valioso.

El problema podría empeorar si la tecnología actual se utiliza en los motores de búsqueda, ofreciendo información que parece provenir de fuentes confiables, pero que en realidad son invenciones del propio ChatGPT.

Se ha escrito mucho sobre la tendencia de la IA generativa de crear hechos y eventos ficticios. Sin embargo, esta peculiaridad es especialmente preocupante para las organizaciones de noticias y los periodistas, ya que la inclusión de estos en sus informes agrega credibilidad a una historia fabricada de manera persuasiva.

Debemos verificar la información proporcionada

Para los lectores y el ecosistema informativo en general, esto plantea nuevas preguntas sobre la confiabilidad de las fuentes citadas. Además, podría alimentar teorías de conspiración sobre temas delicados que nunca han existido.

El problema va más allá de simplemente inventar artículos. Según informa Futurism, varios periodistas de USA Today se sorprendieron al descubrir que ChatGPT había presentado citas de estudios de investigación completos que afirmaban que el acceso a las armas no aumenta el riesgo de mortalidad infantil.

Sin embargo, los estudios citados en las notas de ChatGPT no existían en realidad, eran inventados. Para empeorar las cosas, ChatGPT se defendió a sí mismo al afirmar que las referencias proporcionadas eran auténticas y provenían de revistas científicas revisadas por pares, lo cual era falso.

La solución a este problema no está clara, ni tampoco está claro quién es el responsable. Ahora es responsabilidad de las empresas que desarrollan la IA encontrar una solución a este problema.

Artículos relacionados

Back to top button