Publicidad

Publicidad

Publicidad

Publicidad

Reciba notificaciones de Blu Radio para tener las principales noticias de Colombia y el mundo.
No activar
Activar

Publicidad

Hay que ver para creer: no se deje engañar con videos creados por inteligencia artificial

Por ejemplo, está el caso de un falso video en el que utilizan un segmento de noticias de Caracol TV, en el que supuestamente entrevistan a Luis Díaz y este propone apoyar a una falsa inversionista. Otro caso es cuando te llaman desde el teléfono de un familiar y una voz computarizada, muy similar a la de tu pariente, te pide ayuda económica inmediata porque está en apuros, y luego cuelgan.

Alberto Linero (4).jpg
Alberto Linero
Foto: Blu Radio

En una de mis redes sociales, una señora me escribe preguntándome por unos medicamentos para la diabetes y la próstata. Le respondo que eso es una estafa y que no hago publicidad de ese tipo. Entonces ella me dice que para qué hago videos diciendo eso. Le pido que me envíe el vídeo y resulta ser uno de esos montajes conocidos como "Deepfake". En estos montajes, utilizan algunos de mis videos de reflexión y, con la ayuda de la inteligencia artificial, le ponen una voz muy parecida a la mía. Decido investigar y descubro que esta es una nueva modalidad de estafa muy extendida en las redes sociales.

Por ejemplo, está el caso de un falso video en el que utilizan un segmento de noticias de Caracol TV, en el que supuestamente entrevistan a Luis Díaz y este propone apoyar a una falsa inversionista. Otro caso es cuando te llaman desde el teléfono de un familiar y una voz computarizada, muy similar a la de tu pariente, te pide ayuda económica inmediata porque está en apuros, y luego cuelgan.

Además, existen falsos anuncios que utilizan imágenes de personas conocidas y respetadas en el medio, como Jorge Alfredo Vargas, recomendando inversiones en criptomonedas. Pero tal vez lo que más preocupa es el uso de programas como Sora, que a partir de textos crean vídeos de personas haciendo lo que ellos han decidido. Recientemente, se ha difundido el engaño con videos creados por inteligencia artificial y publicados X y otras redes sociales, mostrando imágenes de personas en situaciones comprometedoras con un realismo perturbador, como el caso de Taylor Swit.

Como recomendación para evitar caer en estas tácticas de fraude, siempre es importante verificar la información con las cuentas verificadas y originales de las personas que aparezcan en los vídeos. Además, es esencial prestar atención a la calidad del video y revisar la información en varios medios y formatos, yendo siempre a fuentes confiables. Definitivamente, estamos en una época en la que debemos ver para creer.

  • Publicidad