El uso cotidiano de herramientas de inteligencia artificial plantea dudas sobre privacidad, almacenamiento de conversaciones y acceso a información sensible, advierte ESET
AquíNoticias Staff
La expansión de la inteligencia artificial generativa en tareas cotidianas, desde redactar correos hasta resumir documentos o programar, ha abierto una discusión cada vez más relevante: qué ocurre con los datos que los usuarios introducen en estas plataformas. ESET advirtió que, en el caso de ChatGPT, las conversaciones no desaparecen al cerrar la ventana, sino que forman parte de un proceso de almacenamiento y tratamiento que puede implicar riesgos si se comparte información sensible.
De acuerdo con la firma de ciberseguridad, cuando una persona escribe en ChatGPT su información no se queda únicamente en el navegador. El contenido pasa por distintas capas de procesamiento. La primera es el almacenamiento en servidores, lo que permite conservar historial y contexto de la conversación, además de mantener ciertos registros por razones de seguridad y monitoreo de abusos.
El segundo punto crítico, señaló ESET, es el uso potencial de conversaciones para mejorar modelos de inteligencia artificial. La compañía explicó que en versiones gratuitas y Plus de ChatGPT los datos pueden utilizarse para perfeccionar el sistema, aunque esta opción puede desactivarse en configuración. En contraste, en servicios como Business, Enterprise, Edu, Healthcare y la API, los datos no se usan para entrenamiento de forma predeterminada.
La tercera capa señalada por ESET es la revisión humana. Para supervisar la calidad y seguridad de las respuestas, fragmentos anonimizados de conversaciones pueden ser revisados por especialistas. Esto implica que no sólo un sistema automatizado procesa el contenido, sino que también puede existir intervención humana sobre partes de las interacciones.
Mario Micucci, investigador de Seguridad Informática de ESET Latinoamérica, advirtió que el mayor riesgo radica en compartir datos sensibles como código propietario, credenciales, estrategias de negocio, datos de clientes o documentos internos en herramientas que no cuenten con controles de privacidad adecuados. Según explicó, investigaciones académicas han mostrado que los grandes modelos de lenguaje pueden memorizar fragmentos de datos de entrenamiento y, bajo ciertas condiciones, hacer posible su extracción mediante técnicas especializadas.
A este escenario se suma una amenaza externa: el interés de ciberdelincuentes en las credenciales de acceso. ESET citó datos de 2024 según los cuales más de 225 mil registros de inicio de sesión de ChatGPT fueron hallados a la venta en foros de la Dark Web, muchas veces obtenidos mediante malware del tipo infostealer. El riesgo, por tanto, no sólo está en lo que se escribe, sino en quién podría acceder al historial si una cuenta es comprometida.
El análisis también compara a ChatGPT con otras plataformas. En Gemini, de Google, las conversaciones pueden emplearse para mejorar servicios y también pueden pasar por revisión humana, aunque en entornos corporativos de Google Workspace las políticas empresariales establecen que los datos no se utilizan para entrenar modelos globales. En Claude, de Anthropic, la compañía enfatiza una política de retención mínima de datos y ofrece a clientes comerciales opciones más directas para excluir información del entrenamiento.
ESET subrayó que ninguna de estas herramientas funciona como una bóveda completamente aislada por defecto. La diferencia, apuntó, suele estar en el tipo de cuenta y en el contrato de servicio: mientras las versiones gratuitas pueden aprovechar datos para mejorar sistemas, los planes empresariales ofrecen mayores garantías de privacidad.
Ante este panorama, la compañía recomendó no introducir información que no se haría pública, anonimizar nombres, cifras o claves antes de escribir un prompt, usar contraseñas robustas y autenticación de dos factores, además de revisar manualmente la configuración de privacidad para desactivar historial o entrenamiento cuando sea posible. En el terreno de la inteligencia artificial, concluyó, la productividad también pasa por el criterio y la protección de datos.








