Un reciente estudio ha revelado fallos significativos en las respuestas del chatbot Grok, desarrollado por xAI y propiedad de Elon Musk, al intentar verificar información relacionada con la guerra entre Israel e Irán. Este hallazgo se produce en un momento de creciente dependencia de la inteligencia artificial para obtener información, especialmente cuando las fuentes tradicionales de verificación periodística están disminuyendo.
La investigación, realizada por un laboratorio de investigación digital del Atlantic Council, un prestigioso grupo de reflexión estadounidense, analizó una gran cantidad de mensajes – aproximadamente 130,000 – en la plataforma X (anteriormente Twitter), donde Grok está integrado. El objetivo era evaluar la precisión y fiabilidad de las respuestas del chatbot en situaciones de crisis, específicamente durante el conflicto entre Israel e Irán.
Problemas en la Verificación de Hechos
El estudio encontró que Grok no solo ofrecía respuestas contradictorias, sino que también presentaba dificultades para autentificar el contenido generado por la IA. En lugar de proporcionar información precisa y coherente, el chatbot a menudo daba respuestas que eran inconsistentes entre sí. Esta falta de fiabilidad es preocupante, ya que los usuarios están utilizando herramientas como Grok para obtener información rápida y accesible sobre eventos complejos y urgentes.
Ejemplos Concretos de Errores
El estudio identificó varios ejemplos específicos donde Grok proporcionó información incorrecta. Por ejemplo, tras los ataques de represalia de Irán contra Israel, el chatbot ofreció respuestas que oscilaban entre negar la destrucción de un aeropuerto y afirmar que había sido alcanzado por los ataques. En otras ocasiones, Grok atribuyó erróneamente los daños a un misil disparado desde Yemen, incluso identificando incorrectamente el aeropuerto como ubicado en Beirut, Gaza o Teherán. Estos ejemplos ilustran la dificultad del chatbot para comprender el contexto de los eventos y proporcionar información precisa.
Historial de Errores
Este no es el primer incidente en que Grok ha presentado errores. Los expertos han señalado que el chatbot ya se equivocó al verificar hechos sobre el reciente conflicto entre India y Pakistán, así como durante las manifestaciones en Los Ángeles contra las redadas migratorias ordenadas por el presidente estadounidense Donald Trump. Estos casos anteriores sugieren una tendencia persistente en la falta de fiabilidad del chatbot.
Controversia Anterior
Además de los problemas con la guerra Israel-Irán, Grok causó polémica el mes pasado al referirse erróneamente a un “genocidio blanco” en Sudáfrica. xAI, la empresa detrás del chatbot, atribuyó este error a una “modificación no autorizada” en el sistema. Este incidente subraya la necesidad de una mayor supervisión y control sobre las respuestas generadas por la IA, especialmente cuando se trata de temas sensibles como el genocidio.
El Contexto de la Dependencia de la IA
La creciente dependencia de herramientas como Grok para obtener información se debe a varios factores. En primer lugar, la verificación periodística tradicional está sufriendo una disminución debido a recortes de personal y presiones económicas. En segundo lugar, las plataformas sociales como X (Twitter) se han convertido en fuentes primarias de información para muchos usuarios. Finalmente, la IA ofrece una forma rápida y accesible de procesar grandes cantidades de información.
Preguntas y Respuestas Clave
- ¿Cuál es el principal problema identificado en las respuestas de Grok? Las respuestas eran contradictorias y a menudo no eran precisas.
- ¿En qué tipo de eventos ha mostrado Grok errores? Conflictos internacionales (Israel-Irán, India-Pakistán) y eventos sociales (manifestaciones).
- ¿Por qué se está utilizando la IA para obtener información? Debido a la disminución de la verificación periodística tradicional y al uso de plataformas sociales como X (Twitter) como fuente principal de información.
- ¿Qué atribuyó xAI al error del “genocidio blanco”? Una “modificación no autorizada” en el sistema.