Tecnología
Especialistas advierten riesgos de seguridad y filtración de datos en conversaciones con chatbots de IA
La empresa de ciberseguridad ESET alertó sobre los riesgos de compartir información personal en chatbots de inteligencia artificial. La compañía explicó cómo pueden filtrarse datos sensibles y qué impacto tendría una exposición.
La advertencia incluye posibles casos de robo de identidad, extorsión y espionaje corporativo. Además, ESET compartió recomendaciones para reducir el riesgo al usar estas herramientas digitales.
Qué datos se comparten en chatbots como ChatGPT y Gemini
La interacción con asistentes de IA se volvió cotidiana. Usuarios conversan con plataformas como ChatGPT, Gemini, Copilot, Claude y Perplexity.
Según ESET, muchas personas tratan estos espacios como privados. Sin embargo, las plataformas pueden almacenar y analizar conversaciones para mejorar el servicio.
La empresa explicó que los usuarios suelen compartir datos personales. Entre ellos figuran nombre, edad, ciudad, rutinas y composición familiar.
Además, muchos comparten información laboral. Esto incluye contratos, informes internos, estrategias comerciales, datos de clientes y hasta código fuente.
También se registran consultas médicas, psicológicas y emocionales. Algunos usuarios describen síntomas, diagnósticos o conflictos personales.
Por otra parte, se comparten opiniones políticas, religiosas y posturas sensibles. Esta información, fuera de contexto, puede causar daños reputacionales.
Cómo pueden filtrarse las conversaciones con IA
ESET indicó que la principal vía de exposición es el acceso no autorizado a la cuenta. Esto ocurre cuando un atacante obtiene la contraseña o mediante ataques de phishing.
Asimismo, el uso de la misma clave en varios servicios aumenta el riesgo. Un fallo en otra plataforma puede comprometer la cuenta del chatbot.
La compañía también alertó sobre posibles brechas de seguridad. Un error técnico podría dejar expuestas conversaciones e historiales.
Además, extensiones o aplicaciones externas pueden representar un peligro. Si un complemento es vulnerable o malicioso, la información puede salir del control del proveedor.
Cinco riesgos tras una filtración de datos
ESET identificó cinco riesgos principales ante una exposición de conversaciones con chatbots de IA.
Primero, el robo de identidad y la ingeniería social. Los atacantes pueden usar datos reales para crear estafas más creíbles.
Segundo, el espionaje corporativo. Información interna puede generar ventajas competitivas para terceros.
Tercero, el daño reputacional. Opiniones privadas o dudas profesionales pueden afectar la credibilidad.
Cuarto, la exposición de datos sensibles. Esto incluye información médica, emocional o ideológica.
Quinto, la extorsión. Un atacante puede usar datos privados para ejercer presión económica.
Recomendaciones de ESET para reducir riesgos
ESET recomendó no compartir datos personales como documentos de identidad o números telefónicos. También sugirió anonimizar casos reales antes de consultarlos.
La empresa aconsejó no adjuntar documentos confidenciales ni credenciales. Además, pidió revisar la configuración de privacidad de cada plataforma.
Otra medida clave es usar contraseñas robustas y activar la autenticación en dos pasos. Asimismo, recomendó separar cuentas personales y laborales.
Finalmente, ESET planteó una pregunta práctica antes de compartir información: pensar si se diría lo mismo en voz alta frente a desconocidos.
La compañía concluyó que los chatbots son herramientas útiles. Sin embargo, no deben considerarse espacios confidenciales ni bóvedas de información sensible.


