Cada vez más personas utilizan herramientas de inteligencia artificial, ya sea para trabajar, estudiar o resolver dudas, entre otros usos. Sin embargo, expertos en ciberseguridad alertan sobre los riesgos de compartir datos sensibles en plataformas como ChatGPT.
La advertencia creció luego de que especialistas recordaran que muchas personas ingresan datos privados sin medir consecuencias. Ya sean documentos laborales, contraseñas, conversaciones personales o información financiera, todo puede quedar expuesto si no se usan estas herramientas con precaución.
Ante ello, Mario Micucci, investigador de seguridad informática de ESET, reveló que uno de los principales problemas es la confianza excesiva que algunos usuarios depositan sobre estas plataformas. Señaló que muchas personas creen que las conversaciones son totalmente privadas y terminan revelando información delicada que puede representar riesgos de seguridad o privacidad.
Cuáles son los riesgos por usar ChatGPT
Según mencionan los expertos de ESET, el principal llamado es no compartir información sensible en los chats de inteligencia artificial. Entre ellos recomiendan evitar:
- Contraseñas.
- Datos bancarios.
- Información médica.
- Documentos empresariales.
- Datos personales de terceros.
- Información confidencial del trabajo.
Mario Micucci explicó que muchas plataformas utilizan interacciones de los usuarios para mejorar sus sistemas, por lo que entregar información privada puede convertirse en un riesgo innecesario si no se conocen las políticas de almacenamiento de datos.
Además, los especialistas advierten que los ciberdelincuentes también entraron en el auge de la IA para crear fraudes, correos falsos y campañas de robo de información cada vez más sofisticadas.
Cómo proteger la privacidad al usar inteligencia artificial
Los especialistas entregaron algunas recomendaciones básicas para reducir riesgos mientras se utilizan plataformas de IA:
- No ingresar datos financieros o contraseñas.
- Evitar subir documentos confidenciales.
- Revisar permisos y configuraciones de privacidad.
- Verificar las políticas de tratamiento de datos.
- Usar contraseñas seguras y autenticación en dos pasos.
Expertos recomiendan usar la IA con precaución
Si bien herramientas como ChatGPT se han convertido en apoyo cotidiano para millones de personas, los expertos señalan que el problema no es la inteligencia artificial, sino el uso que se le brinda.
Desde ESET insisten en que los usuarios deben revisar las configuraciones de privacidad, evitar compartir datos delicados y usar las plataformas como herramientas de apoyo, no como espacios para almacenar información sensible.
Por otro lado, recomiendan desconfiar de enlaces sospechosos relacionados con IA y verificar siempre que se esté ingresando a sitios oficiales.