Agencias.- Durante un reciente conflicto de cuatro días entre India y Pakistán, muchos usuarios recurrieron a chatbots de inteligencia artificial para verificar hechos en tiempo real, pero en lugar de respuestas confiables, recibieron información errónea, lo que puso en duda la fiabilidad de estas herramientas para combatir la desinformación.
El caso más destacado fue el de Grok, el asistente de IA integrado en la red social X (antes Twitter), que identificó erróneamente imágenes y videos virales, como un incendio en Nepal que supuestamente era una respuesta militar de Pakistán, o un video del aeropuerto de Sudán presentado como un ataque con misiles. Estas afirmaciones fueron desmentidas por verificadores humanos.
La tendencia de preguntar “¿esto es verdad?” a chatbots como Grok, ChatGPT y Gemini, refleja una dependencia creciente de la IA en un momento en que plataformas como X y Meta han reducido su inversión en verificadores humanos, dejando esa tarea a sistemas automatizados o a los propios usuarios.
Organismos como NewsGuard y el Centro Tow para el Periodismo Digital han alertado que los principales chatbots no solo dan respuestas inexactas o especulativas, sino que también repiten narrativas falsas, incluyendo desinformación rusa o teorías conspirativas, como la del llamado “genocidio blanco”.
Según investigaciones recientes, estos sistemas tienden a confirmar falsedades o incluso inventar detalles, como sucedió cuando Gemini aseguró que una imagen generada por IA era real, aportando incluso contexto falso sobre la identidad de la mujer retratada y el lugar donde fue tomada.
En otro ejemplo, Grok calificó como “auténtico” un video falso de una anaconda gigante, apoyando su evaluación en supuestas expediciones científicas inexistentes. Usuarios replicaron esa información como si fuera verificada, basándose exclusivamente en la afirmación del chatbot.
Recomendamos leer: El caso de Sewell Setzer, el joven que se quitó la vida tras obsesionarse con un chatbot femenino
Expertos señalan que este fenómeno coincide con la transición de muchos usuarios desde buscadores tradicionales hacia chatbots para informarse, lo que podría aumentar la exposición a respuestas automatizadas erróneas en temas sensibles o de actualidad.
A nivel político, el uso de verificadores humanos también ha sido objeto de acusaciones de sesgo, especialmente en Estados Unidos, donde sectores conservadores afirman que se censura contenido de derecha, algo que las organizaciones profesionales rechazan.
Mientras tanto, Meta ha terminado su programa de verificación externo en EE. UU., apostando por herramientas comunitarias como las “notas de la comunidad” en X, que también se enfrentan a limitaciones en cuanto a rapidez y alcance.
La preocupación se extiende además al posible control o manipulación de los resultados de los chatbots según cómo sean programados. En el caso de Grok, su creador, xAI, atribuyó ciertas respuestas polémicas a una “modificación no autorizada”, aunque el propio chatbot señaló a Elon Musk como el probable autor del cambio.
Para Angie Holan, directora de la Red Internacional de Verificación de Datos, existe un riesgo real de que los sistemas de IA proporcionen respuestas sesgadas o prediseñadas, sobre todo cuando se enfrentan a temas polarizantes o controversiales.
A medida que se reduce el rol del factor humano en la verificación digital, crece la presión sobre las empresas tecnológicas para garantizar que sus sistemas no amplifiquen errores ni distorsiones, especialmente en contextos de crisis o conflictos.
(Con información de AFP)




