Sam Altman advierte: Lo que compartes con ChatGPT no es confidencial
En medio del auge de la inteligencia artificial en la vida cotidiana, una advertencia directa del CEO de OpenAI, Sam Altman, ha encendido las alarmas: lo que compartes con ChatGPT no tiene ningún tipo de protección legal. En otras palabras, tus conversaciones con esta herramienta de IA podrían ser almacenadas, revisadas e incluso utilizadas en un proceso judicial en tu contra.
Este anuncio impacta especialmente en un contexto donde millones de usuarios recurren a ChatGPT para hablar de salud mental, relaciones personales, finanzas, trabajo e incluso temas legales. ¿Estamos ante una crisis de confianza digital?
Sam Altman deja en claro que OpenAI no guarda secretos
Sam Altman ha lanzado una advertencia contundente: lo que compartes con ChatGPT no tiene confidencialidad legal, y podría ser utilizado como evidencia en tribunales. Esto representa un cambio radical en cómo percibimos la privacidad digital. Su mensaje cobra especial relevancia en contextos sensibles como salud mental, asesoría legal o problemas personales, donde muchas personas usan ChatGPT como si fuera un terapeuta o confidente digital.
Durante una entrevista en el podcast This Past Weekend con Theo Von (julio 2025), Altman reconoció que muchos jóvenes utilizan ChatGPT como si fuera un terapeuta o confidente, y que la empresa es plenamente consciente de ello.
“No hay un privilegio legal en las conversaciones con la IA. Si alguien te demanda, tus chats podrían ser usados en tu contra.”
— Sam Altman
El CEO de OpenAI calificó esta situación como “muy mal” y dejó entrever su preocupación ética frente al uso creciente de la IA como sustituto de apoyo emocional profesional.
¿Qué implica que no haya confidencialidad legal?
A diferencia de lo que ocurre cuando conversas con un médico, un abogado o un psicólogo, los chats con ChatGPT no están protegidos por el secreto profesional. Esto significa que:
-
No existe blindaje legal para lo que compartes con la IA.
-
En caso de una demanda o citación judicial, OpenAI podría estar obligada a entregar tus conversaciones como prueba.
-
El contenido podría ser utilizado como evidencia legal.
¿Por qué es preocupante?
Millones de personas, muchas de ellas vulnerables, utilizan ChatGPT como una especie de «coach emocional». Si bien la IA puede ofrecer respuestas útiles, también retiene la información compartida. Y eso genera preocupaciones serias. Pero yendo más lejos, muchos cargar archivos y bases de datos en esta IA, con el propósito de automatizar y agilizar tiempos, esto implica quedar expuesto ante el uso total de nuestros datos.
-
Falta de claridad sobre quién accede a los datos.
-
Posibilidad de que los datos se usen para entrenar nuevos modelos.
-
Peligro de exposición si hay una brecha de seguridad o una orden judicial.
¿Cómo maneja OpenAI tus conversaciones?
OpenAI ha explicado que, aunque permite a los usuarios borrar conversaciones desde su historial, los datos pueden permanecer en sus servidores hasta por 30 días, o más si existe una investigación en curso o requerimientos legales.
“Los datos pueden ser usados para mejorar el sistema, prevenir abusos y responder a solicitudes legales.”
— Política de privacidad de OpenAI
Esto significa que tus interacciones no son tan efímeras ni privadas como podrías pensar, dejando aún más claro y conciso lo que explicó Sam Altman sobre la privacidad que tiene OpenAI.
¿Qué solución propone Sam Altman para reducir esta brecha legal?
El CEO de OpenAI reconoce que se necesita un nuevo marco legal. Altman ha sugerido que se establezcan normas similares a las que rigen el secreto médico o legal:
-
Crear un “privilegio IA-usuario”, que garantice confidencialidad bajo ciertas condiciones.
-
Fomentar un debate público sobre la protección de datos en contextos de IA.
-
Colaborar con legisladores y representantes gubernamentales para establecer límites claros en la retención y uso de datos.
No obstante, hasta ahora no existe una legislación que ampare estas ideas, por lo que los riesgos permanecen.
Salud mental y dependencia emocional
Altman también expresó preocupación sobre la dependencia emocional de algunos usuarios hacia la IA. ChatGPT puede brindar contención inicial, pero no reemplaza a un profesional de salud mental.
De hecho, un uso prolongado de la IA como terapia puede:
-
Crear dependencia emocional artificial.
-
Fomentar la desinformación (por las alucinaciones que aún puede tener el modelo).
-
Generar expectativas no realistas sobre privacidad y soporte emocional.
Recomendaciones para los usuarios
Si usas ChatGPT de forma habitual, ten en cuenta estos consejos:
✅ Evita compartir información sensible, como contraseñas, datos bancarios, enfermedades, o detalles íntimos.
✅ No trates a ChatGPT como terapeuta, abogado o doctor. Es una IA sin responsabilidad legal ni ética profesional.
✅ Elimina tus conversaciones regularmente si usas la versión que lo permite.
✅ Activa el modo de privacidad o historial desactivado para reducir la retención de datos.
✅ Infórmate sobre las políticas de privacidad de OpenAI y otras plataformas de IA.
Sam Altman ya dio el aviso, tú eliges qué hacer
La advertencia de Sam Altman no es menor: nos recuerda que, aunque la inteligencia artificial puede parecer cercana y útil, no debemos olvidar que sigue siendo un sistema controlado por una empresa, sin las garantías legales que ofrecen los vínculos humanos profesionales.
En un mundo donde cada vez más confiamos en la tecnología para expresarnos, trabajar y hasta desahogarnos, el derecho a la privacidad debe evolucionar a la misma velocidad que la innovación.