Lectura fácil
La inteligencia artificial ha dado un paso definitivo hacia el ámbito clínico con el nacimiento de ChatGPT Health. Se trata de una iteración especializada del famoso asistente de IA diseñada para que los usuarios puedan realizar consultas relacionadas con la salud y el bienestar de forma más precisa. La compañía liderada por Sam Altman ha subrayado que el objetivo principal de esta herramienta no es sustituir a los profesionales sanitarios, sino actuar como un soporte informativo avanzado. Sin embargo, este lanzamiento ha encendido las alarmas entre los expertos en ciberseguridad, quienes advierten sobre los peligros de compartir información sensible.
La especialización técnica de ChatGPT Health
A diferencia del modelo genérico que conocemos, esta versión consiste en un modelo entrenado y formateado expresamente para el sector sanitario. La gran diferencia radica en que ChatGPT Health se ha desarrollado de la mano de profesionales médicos, adaptando su lenguaje para que entienda mejor el contexto de las dolencias y los síntomas. Gracias a este entrenamiento específico, puede ofrecer respuestas mucho más acertadas que el modelo estándar, evitando ambigüedades que podrían ser peligrosas en temas de salud.
Además de las consultas directas, este nuevo espacio permite la integración de datos provenientes de dispositivos "wearables". Esto significa que la aplicación puede analizar métricas como los pasos diarios, las calorías quemadas o el seguimiento del sueño para ofrecer una visión holística del bienestar del usuario.
Los riesgos de privacidad en ChatGPT Health y el historial médico
A pesar de las ventajas tecnológicas, surge una pregunta crítica: ¿cuáles son los riesgos de compartir nuestro historial médico con la IA? Informativos Telecinco ha consultado con el departamento de IA de ASHO, empresa líder en tecnología sanitaria, sobre la idoneidad de volcar datos personales en ChatGPT Health. Desde ASHO explican que la información de los pacientes en los hospitales se almacena bajo estrictos reglamentos como el RGPD europeo.
El uso de estándares como el sistema CIE-10 para catalogar información sanitaria actúa como una primera capa de seguridad que impide que personas no autorizadas comprendan los datos. Al introducir esta información en ChatGPT Health, el usuario rompe esa cadena de custodia profesional. Una vez que los datos se comparten con OpenAI, pasan a formar parte de la base de entrenamiento de los algoritmos de la compañía, perdiendo el control absoluto sobre la privacidad de dicha información.
Ciberseguridad: Cifrado vs. Entrenamiento de algoritmos
El foco de los expertos está en la ciberseguridad. Mientras que en los centros hospitalarios se aplican medidas como el cifrado de extremo a extremo y la anonimización de datos para la investigación, al interactuar con ChatGPT los protocolos pueden ser diferentes. Aunque la plataforma sea segura, el hecho de que la IA aprenda de nuestras interacciones supone que la información sensible deja de estar en un entorno estanco y protegido por el secreto médico profesional.
Precisión algorítmica y el papel del médico
Otro desafío es la precisión. La inteligencia artificial generativa no es perfecta y suele presentar errores o recomendaciones poco precisas. En el terreno de la salud, esto puede traducirse en diagnósticos erróneos. Aunque los algoritmos de ChatGPTtienen una potencia de cálculo superior al ojo humano para detectar patrones, desde ASHO insisten en que "es siempre el médico quién tiene la última palabra".
La capacidad de procesamiento de la IA es una ayuda inestimable para el cribado de enfermedades, pero el juicio clínico, la empatía y la responsabilidad legal siguen siendo exclusivos del personal sanitario. En definitiva, ChatGPT Health se presenta como una herramienta poderosa para el autocuidado y la información, siempre y cuando el usuario mantenga la cautela necesaria respecto a su intimidad biológica y no pretenda reemplazar la consulta presencial con un profesional cualificado.
Añadir nuevo comentario