100.000 conversaciones de ChatGPT fueron filtradas en Agosto
Publicado el martes, 23 de septiembre de 2025
En agosto se produjo una filtración de gran relevancia que afectó a ChatGPT: unas 100.000 conversaciones de usuarios quedaron expuestas en Google debido a la función de compartir conversaciones mediante enlaces públicos. Esta opción, disponible hasta hace pocas semanas, permitía que los chats fueran indexables por el buscador, lo que facilitó que curiosos e investigadores recopilaran información sensible contenida en ellos. Ante la situación, OpenAI retiró la función de compartir y solicitó la desindexación de los contenidos.
Las conversaciones filtradas revelaron el amplio rango de información que los usuarios confían a la inteligencia artificial: desde consultas emocionales o textos de marketing, hasta documentos sensibles como contratos, acuerdos de confidencialidad e incluso material relacionado con OpenAI y otras empresas. Este incidente demuestra la vulnerabilidad de los datos cuando no se emplean medidas de seguridad adecuadas y la importancia de comprender qué ocurre realmente al compartir información con estas plataformas.
El caso también evidenció limitaciones en la política de privacidad de OpenAI. Muchos usuarios desconocían que los enlaces compartidos no tenían restricciones y que, en ciertos escenarios legales, la compañía podría estar obligada a entregar conversaciones a las autoridades. Esto subraya que el sistema no está diseñado para usos que exigen confidencialidad estricta, como la relación médico-paciente o abogado-cliente, por lo que confiar datos personales o sensibles a la herramienta conlleva riesgos significativos.
Para reducir la exposición, se recomienda no introducir información financiera, médica, legal o identificativa como direcciones, teléfonos o contraseñas. Antes de usar cualquier plataforma de IA conviene revisar su política de privacidad, comprobar si cumple con el RGPD u otras normativas locales y conocer el destino de los datos. Por su parte, las empresas que integran ChatGPT en sus procesos deberían anonimizar la información, limitar el uso de datos sensibles, firmar acuerdos de confidencialidad y reforzar protocolos de ciberseguridad. Estos pasos son claves para prevenir sanciones y salvaguardar la confianza de clientes y usuarios.
Filtración ChatGPT
23/09/2025 09:30 | Forlopd_Privacidad
SEGURIDAD Y PRIVACIDAD DE DATOS, S.L. (FORLOPD)
URL oficial/canónica: https://ceeivalencia.emprenemjunts.es/?op=113&n=18434
