SERIAS IMPLICACIONES

Sam Altman, CEO de OpenAI hace importante advertencia sobre pedir consejos psicológicos a ChatGPT

Desde que la IA llegó muchas personas han confundido los usos e implicaciones de esta herramienta

Sam Altman es una de las voces más confiables sobre IA al ser el CEO de la compañía más grande de inteligencia generativa.Créditos: Pixabay
Escrito en TENDENCIAS el

Un reciente y crucial aviso de Sam Altman, CEO de OpenAI, figura líder en el mundo de la IA ha encendido las alarmas, usar herramientas como ChatGPT para fines terapéuticos podría comprometer tu privacidad de formas inesperadas.

En la era digital, la búsqueda de apoyo para la salud mental ha encontrado nuevos caminos, y la inteligencia artificial (IA), con sus capacidades conversacionales, ha surgido como una opción para muchos.

Herramientas como ChatGPT ofrecen una interfaz accesible para desahogarse o buscar consejos. Sin embargo la confidencialidad y la privacidad de los datos está a debate en esta delicada situación personal.

¿Por qué advierten sobre usar ChatGPT como terapeuta?

No existe confidencialidad legal cuando se utiliza ChatGPT como una herramienta terapéutica. Esto significa que las conversaciones que mantienes con el chatbot no están protegidas por el mismo nivel de privilegio paciente-terapeuta.

Sam Altman ha sido claro, tus interacciones podrían no ser tan privadas como esperas, lo cual tiene serias implicaciones para quienes buscan un espacio seguro para expresar sus pensamientos más íntimos.

¿Qué riesgos implica la falta de confidencialidad legal en la IA terapéutica?

En primer lugar, la información que compartes con la IA puede ser almacenada, analizada y utilizada por OpenAI para mejorar sus modelos de lenguaje. Aunque se anonimicen los datos, la naturaleza sensible de la información personal plantea preocupaciones sobre tu privacidad.

Además, sin un marco legal que proteja estas conversaciones, la información podría ser accesible por terceros en determinadas circunstancias, como requerimientos judiciales o brechas de seguridad.

Esto contrasta fuertemente con la relación establecida con un terapeuta humano, donde la ley protege estrictamente la confidencialidad de las sesiones, salvo contadas excepciones (como riesgo de daño a sí mismo o a otros).

Los usuarios, a menudo buscando un espacio libre de juicio, podrían estar exponiendo sus datos más vulnerables sin ser plenamente conscientes de las implicaciones legales y de seguridad.

¿Es la inteligencia Artificial una alternativa segura para el apoyo psicológico?

La promesa de la inteligencia artificial para la salud mental es enorme: acceso 24/7, bajo costo y la eliminación de barreras geográficas. Existen aplicaciones y chatbots diseñados específicamente para el apoyo psicológico, algunos con cierto nivel de validación.

Sin embargo, la advertencia de Altman reitera que ChatGPT, en su formato general, no es una herramienta diseñada ni regulada para ofrecer terapia profesional.