
Inteligencia artificial y desinformación: Cuatro claves para identificar fake news y evitar contenido engañoso
La Inteligencia Artificial (IA) llegó para quedarse en el mundo digital y en el de las comunicaciones, una realidad que puede ser beneficiosa como también peligrosa dependiendo del uso que se le de a esta tecnología.
Durante los últimos días, a través de redes sociales se han difundido una serie de videos virales que han hecho creer a una gran cantidad de internautas que "son reales".
Se trata del video de un canguro abordando un avión y otro de una jirafa actuando como "animal de apoyo emocional". Estos contenidos fueron generados por IA, lo cual sorprendió a muchos debido a la apariencia creíble con la realidad.
Ante ese escenario, es fundamental entrenar nuestra vista y aprender a identificar qué contenidos han sido creados por una IA y cuáles no. Eso es lo que explica Zady Parra, Subgerente Operacional y de Seguridad en Zenta Group.
¿Cómo detectar su una imagen fue hecha con IA?
1) Manos o dedos extraños: Este es el primer detalle en qué debemos fijarnos, según señala la experta. A menudo, estas extremidades aparecen deformes, a veces con más de cinco dedos o con articulaciones incorrectas.
2) Sombras y reflejos: Las imágenes generados con IA presentan inconsistencias en cuanto a la iluminación de la escena.
3) Miradas y pupilas: Un tercer punto es fijarse en los ojos. En imágenes creadas con IA, aparecen desincronizados o poco naturales.
4) Detalles borrosos: Por último, el usuario debe prestar atención a los detalles en zonas complejas de la imagen. Por ejemplo, fijarse en los dientes de la persona, en los accesorios como las joyas, los logotipos y los textos.
¿Qué consecuencias genera la creación de fake news con IA?
Debido a la rapidez con la que se difunden los contenidos en redes sociales, este escenario alimenta el crecimiento exponencial de noticias falsas.
A veces, estas creaciones no solo buscan desinformar, sino también influir en decisiones políticas, alterar mercados financieros y facilitar el ataque de ciberdelincuentes.
De acuerdo con un estudio de la firma Kroll, un 71% de los ejecutivos del sector económico anticipa un incremento considerable del riesgo de delitos financieros durante 2025, debido al uso creciente de inteligencia artificial por parte de ciberdelincuentes.
A su vez, el FBI ha alertado sobre el aumento en el uso de IA generativa para cometer fraudes y suplantaciones de identidad cada vez más sofisticadas.
“También hay que considerar la proliferación que ha habido de extorsiones y engaños, por medio de contenido generado”, comenta Parra, señalando los peligros detrás de los llamados “deep fakes”, donde se manipulan rostros, voces y movimientos de personas reales para crear perfiles falsos o representaciones manipuladas.