La advertencia de Sam Altman: tu privacidad con ChatGPT no está protegida
- Candela Sofia
- Jul 29
- 3 min read
El CEO de OpenAI acaba de lanzar una advertencia que debería hacer reflexionar a millones de usuarios: las conversaciones con ChatGPT no cuentan con protección de secreto profesional y podrían ser utilizadas como evidencia en procesos judiciales. Una realidad legal que muchos desconocen y que expone una vulnerabilidad crítica en nuestra era digital.
La confesión que nadie esperaba
Durante su participación en el pódcast "This Past Weekend" el pasado 23 de julio, Sam Altman reveló una verdad incómoda que ha pasado desapercibida para la mayoría de usuarios. Muchas personas están utilizando ChatGPT para obtener orientación sobre cuestiones jurídicas, terapéuticas y médicas, convencidas de que el canal es privado y seguro, pero la realidad legal es completamente diferente.
Las conversaciones mantenidas con ChatGPT no cuentan en la actualidad con ningún privilegio de secreto profesional. Esto significa que, a diferencia de lo que ocurre con médicos, psicólogos o abogados, si un usuario comparte datos sensibles con ChatGPT y posteriormente se presenta una demanda judicial, OpenAI podría verse en la obligación de entregar esa información como parte del proceso legal.

El vacío legal que nos expone
La diferencia con los profesionales tradicionales es abismal. Los médicos, psicólogos y abogados están sujetos a leyes específicas que preservan la privacidad de sus clientes o pacientes, creando una barrera infranqueable para que lo compartido en esos ámbitos pueda ser usado en procesos judiciales sin autorización expresa.
A diferencia de lo que sucede en aplicaciones de mensajería cifradas como Signal o WhatsApp, las conversaciones mantenidas con ChatGPT no cuentan con encriptación de extremo a extremo ni protección legal específica. Altman reconoció que OpenAI conserva registros de las conversaciones, lo que las hace potencialmente accesibles para autoridades judiciales.
Una práctica más extendida de lo que imaginamos
El problema se agrava porque ChatGPT se ha convertido en una especie de confesionario digital. ChatGPT tuvo una violación de datos el 20 de marzo de 2024, cuando un error en una biblioteca de código abierto permitía a los usuarios ver títulos del historial de chat de otros usuarios. Aunque el incidente se resolvió rápidamente, evidenció la fragilidad de estos sistemas.
Según expertos en privacidad digital, con los modelos de Inteligencia Artificial como ChatGPT no deberías compartir ninguna información que pueda considerarse personal, privada, secreta o confidencial. Sin embargo, la facilidad de uso y la aparente intimidad de la conversación llevan a muchos usuarios a ignorar esta recomendación.
Las medidas de protección actuales son insuficientes
Aunque OpenAI ofrece algunas opciones de privacidad, estas son limitadas. Los usuarios pueden desactivar la opción "Hacer referencia a las memorias guardadas" en la configuración de Personalización, y pueden desactivar la opción de que ChatGPT utilice los datos ingresados para entrenar modelos futuros desde la configuración de privacidad.
Sin embargo, estas medidas no resuelven el problema fundamental: según el Reglamento (UE) 2016/679, ChatGPT no cumpliría con la privacidad de datos porque no sabemos cuál es el uso que se va a hacer de nuestros datos personales e información confidencial.
La urgencia de una adaptación legal
Altman asegura haber tenido ya conversaciones con responsables políticos interesados en reducir esa brecha, pero aún no se han dado pasos decisivos. La pregunta es si la legislación podrá evolucionar al ritmo que demanda la tecnología.
La consultora Gartner predijo que para finales de 2023, el 65% de la población mundial tendría sus datos personales protegidos por normativas de privacidad, mientras que en 2024 la cifra subiría al 75%. Sin embargo, estas proyecciones no contemplan específicamente las interacciones con sistemas de IA.

Recomendaciones para usuarios conscientes
Mientras llega una regulación específica, los expertos recomiendan:
Activar las configuraciones de privacidad disponibles y no compartir datos sensibles
Utilizar datos ficticios o anonimizados al interactuar con estas herramientas
Distinguir entre datos "personales" (donde incluimos claves y credenciales) que nunca deberíamos compartir, y datos "sensibles" donde sí tenemos opciones de protección
El futuro de la privacidad digital
La advertencia de Sam Altman no busca ralentizar la adopción de la IA, sino subrayar la necesidad de adaptar las reglas del juego digital a la realidad del siglo XXI. La privacidad es un derecho fundamental, pero en el ámbito de la inteligencia artificial aún queda camino por recorrer para blindarla frente a nuevas amenazas.
La empresa estaría obligada a entregar tus chats si un juez lo solicita en un litigio, una realidad que debería hacer reflexionar a cualquier usuario sobre qué información comparte y con qué propósito.
La conclusión es clara: hasta que existan protecciones legales específicas, debemos tratar a ChatGPT como lo que es: una herramienta poderosa, pero no un confidente protegido por el secreto profesional. La transparencia de Altman, aunque incómoda, es necesaria para una adopción responsable de estas tecnologías que ya forman parte de nuestro día a día.
Comentários