Unión Rayo
  • Economía
  • Motor
  • Sociedad
  • EN
  • Unión Rayo
Unión Rayo

La alerta del CEO de OpenAI: evita contarle estas cosas a ChatGPT si no quieres que tu privacidad corra peligro

por Antonio R.
17 de agosto de 2025
en Sociedad
La alerta del CEO de OpenAI: evita contarle estas cosas a ChatGPT si no quieres que tu privacidad corra peligro.

La alerta del CEO de OpenAI: evita contarle estas cosas a ChatGPT si no quieres que tu privacidad corra peligro.

Ni ladrillo ni piedra: una familia construye su propia casa con 7 habitaciones gracias a este sorprendente material reciclado

Buenas noticias para los viajeros: el Gran Museo Egipcio se inaugura al fin y exhibe todos los secretos de Tutankamón

Mercadona lo vuelve a hacer: estos caramelos son la opción perfecta de quienes se quieren cuidar y cuestan 1,35 euros

El uso de la Inteligencia Artificial cada vez es mayor, sobre todo entre los más jóvenes. Es así gracias a la inmediatez de respuesta, el anonimato, la posibilidad de acceder en cualquier momento y que nulo coste económico. Pero los expertos, entre ellos el CEO de OpenAI, Sam Altman, reconoce que existen riesgos y que por ello lo ideal sería no hacer comentarios sobre diversos temas sensibles en el ChatGPT, como sería confesar o describir delitos, pues se pueden interpretar como pruebas incriminatorias.

El ChatGPT no está legalmente obligado a proteger la información ni existe un marco jurídico que ampare esta cuestión como lo hace el secreto médico o el abogado-cliente. Esta práctica nos muestra una situación muy preocupante, sobre todo ahora que la tecnología avanza de manera vertiginosa y la legislación no lograr abarcar todos los ámbitos con la misma rapidez.

Así, Altman explicaba en una entrevista que si un juez precisa de las transcripciones de las conversaciones que se puedan tener, OpenAI podría verse obligada a entregarlas incluso si previamente se ha borrado el historial. En su propia política de privacidad, la empresa admite conservar datos de usuarios, incluidos chats, con fines legales y de investigación interna.

Los precedentes legales y la necesidad de una regulación urgente

Todavía no existe casos conformados de una conversación de ChatGPT usada en un proceso judicial, pero sí que se han dado situaciones similares. Fue en 2017 cuando se requirieron las grabaciones realizadas por Amazon Echo en el momento de un asesinato en Estados Unidos. El juez reclamó las grabaciones a la empresa de Jeff Bezos y las mismas fueron utilizadas como pruebas.

Que este tipo de conversaciones comiencen a vincularse con una investigación criminal establece un paradigma legal en el que cualquier plataforma digital puede convertirse en un testimonio válido en un pleito. Una conversación con ChatGPT puede ser objeto de solicitud por parte de la autoridad judicial, al igual que una conversación por Telegram o Instagram. Lo mismo ocurre con los correos electrónicos.

En la Unión Europa, la regulación exige a las empresas cumplir con las ordenes judiciales a pesar de las garantías de protección de datos que existen para los ciudadanos. Desde OpenAI se ha reconocido que se trabaja en un marco normativo que permita la privacidad real en las interacciones con IA, similar al secreto profesional. Sin embargo, Altman admite que, por el momento, este sistema no existe.

¿Qué se le puede contar a ChatGPT?

Esta herramienta es muy válida para consultas cotidianas o preguntas rápidas y generales, pero existen riesgos elevados si se comparte información sensible. Por ello, los expertos recomiendan:

  • Hay que evitar confesar o describir delitos, actividades ilegales o situaciones personales que puedan interpretarse como pruebas incriminatorias.
  • No utilizar ChatGPT como sustituto de un profesional si lo que se busca es ayuda legal, psicológica o médica realmente confiable.
  • Hay que tener en cuenta que borrar chats no garantiza su eliminación competa, por lo que una orden judicial puede requerir la retención, incluso recuperación, de datos que supuestamente se habían eliminado.

Sam Altman recalca que no se trata de fomentar desconfianza total en la Inteligencia Artificial, pero hay que se consciente de que esta tiene unos límites: puede ofrecer asesoramiento, ideas o respuestas útiles, pero no puede ni debe sustituir la confidencialidad ni experiencia de profesionales humanos.

La confianza de los usuarios en el ChatGPT no está respaldada por un paraguas legal sólido, por lo que hasta que esto se consolide, Altman cree que se debe actuar con cautela.

  • Aviso legal
  • Política de privacidad
  • Política de cookies

© 2025 Unión Rayo

  • Economía
  • Motor
  • Sociedad
  • EN
  • Unión Rayo

© 2025 Unión Rayo