Publicidad

Publicidad

Publicidad

Publicidad

Reciba notificaciones de Blu Radio para tener las principales noticias de Colombia y el mundo.
No activar
Activar

Publicidad

¿ChatGPT ayuda a los delincuentes? Europol lanza dura advertencia

Europol advirtió sobre las posibles facilidades que ChatGPT y otros modelos de inteligencia artificial supondrían para los objetivos de los ciberdelincuentes.

ChatGPT
ChatGPT //
Foto AFP

La Agencia de la Unión Europea para la Cooperación Policial (Europol) lanzó una advertencia este lunes en la cual destacó que ChatGPT y otros modelos de inteligencia artificial podrían suponer una “ayuda” para los ciberdelincuentes por su capacidad para escribir códigos en diferentes lenguajes de programación, entre otros.

Y es que, según Europol, la inteligencia artificial podría servirles a los ciberdelincuentes, pues ya no tendrán que ser expertos programadores para conseguir sus objetivos al servicio de actividades al margen de la ley.

Lo anterior conlleva un nuevo reto para las autoridades que, aún sin modelos de inteligencia artificial en el mercado, ya la tenían bien difícil con los ciberdelincuentes y una actividad cada vez más frecuente en el mundo delictivo.

Según la agencia, además de escribir en varios lenguajes de programación con tan solo una instrucción, los modelos de inteligencia artificial como ChatGPTpodrían ayudar a los delincuentes a mantenerse en el anonimato al realizar actividades relacionadas al terrorismo u otras.

Publicidad

Según la investigación realizada por Europol, existen tres áreas en las cuales las autoridades deberían enfocar sus esfuerzos a la hora de tratar temas asociados a la delincuencia y la inteligencia artificial.

La primera de ellas es el conocido phishing, una actividad delincuencial que las autoridades, como primera medida, identificaban fácilmente pues los ciberdelincuentes escribían textos, generalmente, con fallas de ortografía y errores gramaticales graves que los ponían en evidencia. Sin embargo, con los modelos de inteligencia artificial podrán escribir textos coherentes y con excelente ortografía que podrían engañar fácilmente a sus víctimas y así obtener la información que buscan, como claves de cuentas bancarias, entre otros.

Publicidad

“Hasta ahora, este tipo de comunicación engañosa ha sido algo que los delincuentes tenían que producir por su cuenta. En el caso de campañas producidas en masa, las víctimas de este tipo de delitos a menudo podían identificar la naturaleza no auténtica de un mensaje debido a errores ortográficos o gramaticales obvios o su contenido vago o inexacto”, señala Europol.

Con la inteligencia artificial, el phishing o fraude virtual se puede crear de “manera más rápida, mucho más auténtica y a una escala significativamente mayor”, y permiten “responder a mensajes en contexto y adoptar un estilo de escritura específico”.

Otra de las áreas que destaca Europol está ligada a la desinformación, ahora al usuario le parecerá más difícil detectar campañas que buscan desinformar pues el contenido cada vez será más auténtico y cercano a lo que podría escribir un ser humano.

Las capacidades de ChatGPTse prestan a una serie de posibles casos de abuso en el área del terrorismo, la propaganda y la desinformación. El modelo se puede usar para recopilar más información en general que pueda facilitar las actividades terroristas, como, por ejemplo, la financiación del terrorismo o el intercambio anónimo de archivos”, dice.

Publicidad

Por otro lado, la agencia afirma que la ciberdelincuencia podría utilizar modelos de inteligencia artificial para crear recursos basados en diferentes modelos de programación y así lograr sus objetivos en poco tiempo.

“Es posible crear herramientas básicas para una variedad de propósitos maliciosos. A pesar de que son solo básicas, esto proporciona un comienzo para el delito cibernético, ya que permite que alguien sin conocimientos técnicos explote un vector de ataque en el sistema de una víctima”, destaca el informe de la agencia.

Publicidad

La agencia dice que es posible que el modelo de inteligencia artificial identifique un código con una intención maliciosa, sin embargo, si la instrucción es dada en pasos individuales, será más difícil identificarlo.

Por último, también se advierte que la preocupación es aun más grande si se habla de delincuentes con conocimientos avanzados de programación, pues a estos les será mucho más fácil explotar todas las capacidades que tienen estos modelos de inteligencia artificial.

Le puede interesar:

  • Publicidad