La interacción con chatbots (ChatGPT, Gemini, Copilot, Claude, Perplexity, entre otros) pasó a tratarse como un espacio íntimo y seguro. Se le confían inquietudes emocionales, psicológicas, laborales y médicas.
Eset, compañía de detección proactiva de amenazas, analiza qué tipo de información se suele compartir con los chatbots de IA, de qué manera podría quedar expuesta y cuál podría ser el impacto real de una filtración. Además, comparten buenas prácticas digitales para seguir utilizando estas herramientas sin ponerse en riesgo.
“No es una novedad que muchas personas usan los chatbots como si fueran espacios privados. Utilizarlos de esa manera se contradice con la naturaleza de este tipo de herramientas ya que las propias plataformas remarcan que las conversaciones pueden almacenarse, analizarse o revisarse para mejorar el servicio. Los chatbots no fueron concebidos como un lugar confidencial, más allá que la experiencia conversacional invite a pensarlos así. Si bien las principales plataformas de IA afirman aplicar medidas de seguridad y privacidad (controles de acceso, monitoreo, protección de infraestructura), esto no elimina el riesgo de sufrir brechas de datos, ni es sinónimo de invulnerabilidad”, destaca Martina López, Investigadora de Seguridad Informática de ESET Latinoamérica.
Al usarlo como asistente personal o hasta de consejero, muchas veces se comparte mucha información personal y sensible casi sin darse cuenta. como datos personales, información sensible como nombre, edad, ciudad y país, pero también hábitos cotidianos, como lugar de trabajo, con quién se vive y cómo está compuesta tu familia. Esta información combinada y en las manos equivocadas, puede ser peligrosa.
Con la necesidad de 'Ayúdame a mejorar esto', muchos usuarios comparten correos internos, contratos, informes, presentaciones, estrategias comerciales, campañas, detalles de clientes, proveedores, conversaciones y tickets. También código fuente y arquitecturas internas.
Lea aquí: ¡Alto el fuego! Es imprescindible reabrir las vías del diálogo: papa León XIV
Los chatbots también son entendidos por muchas personas como consejeros o especialistas (práctica que puede ser peligrosa). Se comparten cuestiones vinculadas a la salud, como síntomas, diagnósticos y medicación, y también temas personales como conflictos de pareja, duelos, consultas que no harían en otra red social, o el pedido de un consejo.
Los chatbots reciben opiniones de los usuarios vinculados a la ideología política o religiosa, posturas sobre empresas, jefes o colegas, y también información que, fuera de contexto, puede generar daño reputacional.
“El problema no es lo que se comparte, sino esa falsa sensación de intimidad y privacidad, la cual puede romperse muy fácilmente. Meses de conversaciones construyen un perfil, que puede tener un valor muy alto para un ciberatacante”, agrega López de ESET.
La información que se comparte con los chatbots de IA puede quedar expuesta y caer en las manos de los cibercriminales por distintas razones. La principal es si alguien ingresa a la cuenta, esto puede suceder si acceden a la contraseña, se cae en un ataque de phishing o si se usa la misma clave en varios servicios. Otra razón son los Chatbots manipulados que pueden ser inducidos con prompts maliciosos por parte del cibercrimen, para obtener información de los usuarios. Por otro lado, el aceptar los términos y condiciones sin leerlos, ya que los chatbots se recopila y almacena información de uso, como historial y conversaciones, para entrenar su modelo de lenguaje de manera predeterminada. También hay que tener en cuenta alguna brecha de seguridad, un error de la plataforma que deje expuestas las conversaciones e historial de sus usuarios, o si una extensión o app mira más de la cuenta, quizás si se instala un plugin para hacer el chatbot más potente y esa app falla, es vulnerable o es maliciosa, la conversación sale del control del proveedor principal.
Entre los más grandes riesgos se encuentra el robo de identidad / Ingeniería social. Las conversaciones con chatbots aportan contexto humano. Así, el ciberatacante obtiene información sobre hábitos, intereses, rutinas, servicios que se utilizan, problemáticas que los trascienden y hasta el tono que se usa al hablar. Esto permite crear ataques mucho más personalizados, a través de correos o mensajes que parecen escritos por alguien del entorno, estafas que incluyen datos reales de la vida o suplantaciones de identidad mucho más difíciles de detectar.
Dado que muchos usuarios usan chatbots como apoyo laboral, es posible que los atacantes obtengan información confidencial como estrategias, documentos, decisiones internas, información sobre clientes, detalles de precios y/o productos. Más allá de los riesgos legales que esa situación puede ocasionar, también puede significar una ventaja competitiva para terceros o el incumplimiento de ciertos compromisos contractuales.
Si quedan expuestas opiniones privadas, dudas profesionales o pensamientos íntimos, las consecuencias pueden ir desde conflictos laborales a la pérdida de credibilidad profesional.
Exposición de datos sensibles: Este tipo de chatbots también se usan como espacio de consulta íntima, y suelen contener información personal como síntomas, diagnósticos, tratamientos, creencias religiosas o políticas, conflictos personales o familiares. Si eso se filtrara, el impacto para la víctima puede ser devastador: estigmatización, discriminación y hasta vulneración emocional.
Cuando el ciberatacante cuenta con información privada puede presionar a través de amenazas creíbles y chantajes personalizados. ¿El objetivo? Obtener algún tipo de rédito económico por parte de la víctima.
Conozca: Premios Oscar 2026: lista completa de ganadores
Una buena manera de reducir el impacto que puede tener la exposición de conversaciones es adoptar buenas prácticas a la hora de interactuar con estos chatbots.
El equipo de ESET recomienda no compartir datos personales (cédula, fecha de nacimiento, mail, teléfono). Anonimizar casos reales (cambiar nombres, empresas, ubicaciones). No adjuntar documentos sensibles, información confidencial o credenciales. Revisar configuraciones de privacidad (qué se guarda, qué se usa como entrenamiento). Proteger la cuenta con contraseña robusta y doble factor de autenticación. Utilizar cuentas diferentes para trabajo y uso personal
“La comodidad de una conversación fluida, natural y sin juicio, hace que bajemos la guardia y compartamos información que jamás publicaríamos en otro espacio digital. Una filtración de conversaciones no expone solo información sino rutinas, vulnerabilidades, decisiones y emociones. Ahora bien, este escenario debe tomarse como una invitación a entender qué son y qué no. No son espacios confidenciales, ni consejeros personales, ni bóvedas de información sensible. Son herramientas poderosas, pero como toda tecnología, requieren criterio, límites y hábitos digitales responsables”, concluye la investigadora de ESET.
Gracias por valorar La Opinión Digital. Suscríbete y disfruta de todos los contenidos y beneficios en http://bit.ly/SuscripcionesLaOpinion