La inteligencia artificial tiene muchas ventajas y aspectos positivos que ayudan a facilitar el trabajo diario de los periodistas, pero también hay que tener en cuenta la parte negativa: la información incorrecta que puede proporcionar

El término «alucinación» en el contexto de la inteligencia artificial (IA) se refiere a resultados incorrectos o engañosos generados por los modelos de IA. Pueden deberse a varias causas: falta de datos en el entrenamiento, suposiciones incorrectas, o sesgos en los datos usados para el entrenamiento… Y se producen cuando un sistema genera una información incorrecta, inventada o, incluso, imprecisa, pero con apariencia totalmente creíble.
No suelen ser errores evidentes ni incoherencias fáciles de detectar en la mayoría de los casos. De hecho, es todo lo contrario, la información suele estar bien redactada, estructurada y presentada con seguridad, lo que la hace especialmente peligrosa. Y aunque la IA no tiene la intención de engañar porque genera respuestas basadas en probabilidades sin comprender realmente la verdad o falsedad de lo que está diciendo, es un grave problema.
Para entender el problema, es importante comprender cómo funcionan los sistemas de generación automática de texto. Las herramientas de IA generativa no acceden a una base de datos verificada cerrada, sino que lo que hace es generar texto a partir de patrones que ha aprendido durante su entrenamiento en la web. O lo que es lo mismo, predicen qué palabra es la que tiene más probabilidades de ir a continuación de otra en función del contexto.
La IA puede crear y construir respuestas coherentes sin tener información suficiente o cuando el dato correcto no está claro. En lugar de reconocer la duda ante el usuario, suelen «completar» la información que les falta sin atender a datos o evidencias. Y el resultado es una respuesta convincente, pero no necesariamente correcta.
Alucinaciones que pueden pasar desapercibidas
Las alucinaciones pueden aparecer de diferentes formas en el trabajo diario del periodista, desde datos incorrectos hasta referencias que no existen. Algunos ejemplos de alucinaciones que pueden pasar desapercibidas son:
- Citas atribuidas a personas que nunca han dicho esas palabras.
- Estudios o informes inventados, que no existen pero que parecen reales.
- Fechas, cifras o nombres ligeramente incorrectos.
- Contextos mal interpretados o simplificados en exceso.
Todos estos casos tienen algo en común y es que el contenido puede parecer real a primera vista y, por eso, puede colarse en un texto si no se ha revisado previamente con mucho cuidado.
Leer también
¿El riesgo es el error o la credibilidad?
En la profesión del Periodismo siempre se ha convivido con el riesgo del error, pero en el contexto de la IA este problema adquiere una nueva dimensión. La velocidad a la que se genera contenido aumenta y la presión por publicar antes, también. La confianza en herramientas que son «aparentemente» fiables puede hacer que algunos procesos de verificación no se completen y se lleve a error.
Una alucinación no detectada antes de publicar puede traducirse en información falsa publicada, lo que tiene un impacto directo en la credibilidad tanto del medio de comunicación como del profesional encargado de esa pieza, puesto que en Comunicación la confianza se construye a fuego lento pero puede perderse muy rápido.
Ante esta problemática, la clave no es dejar de utilizar la inteligencia artificial. Es aprender a usarla con criterio para organizar información, generar borradores o explorar posibilidades de distintos temas, pero nunca para ser la única fuente de datos ni para sustituir el proceso de verificación. Aquí es el periodista quien sigue teniendo el papel fundamental de contrastar, comprobar y contextualizar toda la información que quiere publicar.
Trabajar con inteligencia artificial supone asumir que cualquier dato debe ser revisado, sobre todo cuando no se conoce el tema a fondo o cuando es una información crítica para la pieza. El verdadero peligro de las alucinaciones no es tecnológico sino profesional. Surge cuando se deposita confianza plena en la herramienta sin ser consciente de sus limitaciones.

