a person holding a cell phone with a chatbot on the screen and a chatbot button on the screen, Ai-Mi

Web Editor

Desinformación en la Era de los Chatbots: ¿Son Fiables las IA como Verificadores de Hechos?

El Auge de los Chatbots y la Creciente Amenaza de la Desinformación

La búsqueda de información rápida y precisa es una constante en el mundo actual, impulsada por la velocidad con la que se difunden las noticias y la información en redes sociales. En este contexto, los chatbots de inteligencia artificial (IA) han surgido como una alternativa popular a los motores de búsqueda tradicionales y a los verificadores de datos humanos. Sin embargo, una reciente investigación realizada por NewsGuard revela una preocupante tendencia: los chatbots de IA son propensos a repetir falsedades, incluyendo narrativas de desinformación. Esta situación plantea serias interrogantes sobre la fiabilidad de estas herramientas como fuentes de información confiables.

El Problema con los Chatbots: Falsedades y Respuestas Sesgadas

La investigación de NewsGuard identificó que 10 de los principales chatbots son propensos a repetir falsedades, incluyendo narrativas de desinformación provenientes de fuentes como Rusia. Este problema se agrava porque, en un estudio reciente del Centro Tow para el Periodismo Digital de la Universidad de Columbia, ocho herramientas de búsqueda con IA demostraron ser “generalmente malos para declinar preguntas que no podían responder con precisión, ofreciendo en su lugar respuestas incorrectas o especulativas”.

Un ejemplo claro de este problema es cuando verificadores digitales de la AFP en Uruguay preguntaron a Gemini sobre una imagen de una mujer generada por IA, y el chatbot no solo confirmó su autenticidad, sino que inventó detalles sobre su identidad y el lugar donde probablemente se tomó la imagen. Además, Grok calificó de “auténtico” un supuesto video de una anaconda gigante nadando en el río Amazonas, citando incluso expediciones científicas que parecían creíbles para apoyar su falsa afirmación. En realidad, el video fue generado por IA, y los verificadores de la AFP en América Latina lo identificaron como tal, a pesar de que muchos usuarios citaron la evaluación de Grok como prueba de su autenticidad.

El Contexto: Menos Verificadores Humanos y la Confianza en los Chatbots

Este problema se produce en un momento de particular relevancia. Las empresas tecnológicas, como Meta, han reducido sus inversiones en verificadores de datos humanos, trasladando la tarea de desmentir las falsedades a los usuarios mediante mecanismos como las “notas de la comunidad”. Esto ha llevado a un cambio en el comportamiento de los usuarios, quienes recurren cada vez más a chatbots de IA para recopilar y verificar información.

Influencia Política y Sesgos en los Chatbots

La creciente dependencia de los chatbots también se relaciona con un clima político hiperpolarizado, especialmente en Estados Unidos. Grupos conservadores argumentan que la verificación digital realizada por personas suprime la libertad de expresión y censura el contenido de derecha. Sin embargo, los verificadores profesionales rechazan estas afirmaciones, argumentando que su trabajo es fundamental para mantener la integridad de la información.

El Caso de Grok y la “Modificación No Autorizada”

En el caso de Grok, una herramienta desarrollada por xAI (de Elon Musk), se identificó que la generación de publicaciones no solicitadas que hacían referencia al “genocidio blanco” en Sudáfrica fue el resultado de una “modificación no autorizada”. Cuando se le preguntó a David Caswell, un experto en IA, quién podría haber modificado su sistema, Grok señaló a Musk como el “más probable” culpable. Musk, conocido por sus posturas políticas y su apoyo a Donald Trump, había afirmado previamente que los líderes de Sudáfrica estaban “incitando abiertamente al genocidio” de la población blanca.

La Influencia de las Instrucciones y el Riesgo de Sesgos

Angie Holan, directora de la Red Internacional de Verificación de Datos, explicó que “hemos visto cómo los asistentes de inteligencia artificial pueden falsificar resultados o dar respuestas sesgadas después de que programadores humanos modifiquen específicamente sus instrucciones”. Esto sugiere que los chatbots no son fuentes de información neutrales, sino que pueden ser influenciados por las instrucciones y los sesgos de sus creadores.

Conclusión: La Necesidad de una Mayor Vigilancia y Desarrollo Responsable

Estos hallazazgos revelan la necesidad de una mayor vigilancia sobre los chatbots de IA y un desarrollo más responsable de estas herramientas. La investigación de NewsGuard, el estudio del Centro Tow y los ejemplos concretos con Grok y Gemini demuestran que los chatbots no son fiables como verificadores de hechos. Es fundamental comprender cómo se entrenan estos sistemas, qué tipo de instrucciones reciben y cómo pueden ser influenciados para mitigar el riesgo de propagación de desinformación.

## Preguntas y Respuestas Clave

* **¿Son los chatbots de IA fiables como verificadores de hechos?** No, la investigación demuestra que son propensos a repetir falsedades y ofrecer respuestas sesgadas.
* **¿Por qué los chatbots son propensos a la desinformación?** Debido a que no son fuentes de información neutrales y pueden ser influenciados por las instrucciones y los sesgos de sus creadores.
* **¿Qué factores contribuyen al problema?** La reducción de verificadores humanos, la confianza en los chatbots y el clima político polarizado.
* **¿Qué se ha hecho para abordar este problema?** Se han identificado problemas con herramientas como Grok y Gemini, y se está investigando cómo mitigar el riesgo de propagación de desinformación.
* **¿Cómo se entrenan estos chatbots?** Se les proporciona una gran cantidad de datos para aprender, pero este proceso puede introducir sesgos y errores.