La pesadilla de las noticias falsas de la IA generativa
Las noticias falsas no son algo que se pueda considerar nuevo, pero con el ascenso del Internet el fenómeno se hizo endémico. Sin embargo, con la aparición de la IA generativa, el peligro de este tipo de distorsiones aumenta exponencialmente y se convierte en una seria amenaza.
Las consecuencias de la expansión de las denominadas fake news podría crear un ambiente en el que es difícil diferenciar la realidad de la mentira. Esto se debe a las grandes capacidades de la inteligencia artificial para descontextualizar y generar escenarios similares a la realidad.
Hace pocas horas se produjo una muestra de esa pesadilla de las noticias falsas generadas por bots de inteligencia artificial. Específicamente, la herramienta ZeroGPT fue utilizada por un portal de noticias para anunciar la renuncia de Gary Gensler, jefe de la SEC de EE.UU.
El poder manipulador de la IA generativa
Aunque la IA generativa está en sus primeras etapas, su capacidad muestra un gran potencial para hacer daño en manos de actores negativos. En consecuencia, un portal llamado CryptoAlert publicó informaciones de la supuesta renuncia de Gensler.
El trabajo citó «fuentes anónimas» que confirmaban la inminente salida del funcionario regulador. El artículo, según reporta CoinTelegraph, fue redactado con ayuda del bot ZeroGPT. De hecho, el sitio tendría el 70% de sus publicaciones redactadas con esa herramienta.
En todo caso, el asunto importante es que la noticia falsa encendió de inmediato las redes sociales. Numerosas cuentas se hicieron eco de la mala información, lo que evidencia un problema más grave a la hora de verificar informaciones antes de publicar.
Tal es el caso de la cuenta de Twitter Whalechart, la cual cuenta con millones de seguidores. Esta cuenta publicó el rumor generado por el bot en el citado medio. Posteriormente, el reportero de Fox Business Network, Charles Gasparino, desmintió el rumor, apuntó el portal CoinTelehraph.
El peligro de la IA generativa, es que pueda armar escenarios que engañan de una manera sofisticada. Incluso, algunos sitios pueden generar videos, imágenes o audios falsos para «corroborar» sus falsas noticias.
¿Qué dicen los expertos?
Es importante tener en mente que la IA generativa no es mala ni buena. Se trata de una tecnología que puede servir para grandes avances civilizatorios en las manos correctas. Por otra parte, puede traer grandes problemas en manos de actores malignos.
Un grupo de expertos de la firma de rastreo de noticias falsas, NewsGuard, lanzó una seria advertencia a principios de año. En un trabajo publicado por The New York Times, los expertos recalcaron que el problema es realmente serio en el ámbito de las noticias falsas.
Poco después de la aparición de ChatGPT, los expertos sometieron la herramienta a un profundo análisis y las conclusiones fueron alarmantes. «Esta va a ser la herramienta más poderosa para difundir información errónea que jamás haya existido en Internet» dijo al citado medio, Gordon Crovitz, codirector ejecutivo de NewsGuard.
El experimento sometió al chat con preguntas basadas en falsas narrativas y teorías de la conspiración. Los resultados estuvieron plagados de afirmaciones basadas en este tipo de manipulaciones. La herramienta fue capaz de descontextualizar informaciones reales para torcerlas a favor de ciertas teorías de la conspiración.
«La creación de una narrativa falsa ahora se puede hacer a una escala dramática y con mucha más frecuencia», lamentó el experto. De esta manera, la IA generativa se convierte en un elemento a tener en cuenta a la hora de acceder a la información.
¿Por qué la información falsa es exitosa?
La propaganda ideológica es una forma de información falsa dirigida a manipular sentimientos. En la actual guerra en Ucrania, el asunto llega a un límite escandaloso y las manipulaciones propagandísticas, las omisiones y las mentiras se hacen habituales.
Tanto los medios rusos (RT, Sputnik o Tass) como los occidentales (BBC, DW o AP) están en una carrera por dañar al otro bando. Pero esa clásica forma de manipulación queda corta en comparación con las capacidades de la IA generativa.
Esto último se debe a que las informaciones falsas hechas por Homo sapiens tienen fallas evidentemente humanas. En tanto, la IA es capaz de superar ese tipo de errores. En el caso de las teorías de la conspiración, el asunto se hace complejo.
Las personas que diseminan estas teorías son generalmente amateurs. Esto quiere decir que son incapaces de citar fuentes apropiadamente, redactar de manera profesional o seguir una línea narrativa coherente para mostrar sus puntos de vista.
Para la IA generativa, todo eso se vuelve pan comido. Las herramientas son capaces de crear artículos con receta profesional en todo el sentido de la palabra para promover fake news. Incluso, los detectores a veces no son capaces de identificarlos como trabajos de bots.
En un artículo reciente en The Economist, el filósofo Yuval Noah Harari alerta sobre este creciente peligro. Dice que cada vez es más complicado diferenciar entre un artículo escrito por humanos o por bots. «La IA hackeó el sistema operativo de la civilización humana», opina.