OpenAI lanza ChatGPT Salud y desata el debate ético

La nueva experiencia de OpenAI para salud y bienestar promete respuestas más útiles al conectar datos personales, pero vuelve a poner sobre la mesa una pregunta clave: ¿bajo qué estándares debe operar un asistente conversacional sanitario?

OpenAI ha anunciado ChatGPT Salud, una experiencia dentro de ChatGPT pensada específicamente para preguntas de salud y bienestar y, sobre todo, para conectar datos personales (historia clínica y aplicaciones) con el fin de ofrecer respuestas más contextualizadas. El anuncio es relevante no solo por la tecnología, sino por el cambio de enfoque: pasamos del “chat para dudas sueltas” a un entorno en el que el asistente puede ayudar a entender resultados, resumir informes o preparar una cita con el profesional sanitario, apoyándose en información aportada por el usuario.

¿Qué permite (y qué no) ChatGPT Salud?
Según la información publicada, ChatGPT Salud facilita la conexión de forma segura con datos de salud y bienestar procedentes de la historia clínica y de apps, para que las conversaciones se basen en datos del propio usuario.

Interpretar resultados recientes de pruebas y ayudar a comprenderlos.
Preparar preguntas para una próxima consulta médica y organizar la información relevante.
Recibir recomendaciones generales de alimentación, ejercicio y hábitos de bienestar.
Entender métricas de wearables y apps de actividad física.
Orientar sobre opciones de cobertura o seguros en función de hábitos y necesidades (según los casos de uso descritos).
Un límite importante: no está planteado como herramienta de diagnóstico ni tratamiento. Su objetivo es apoyar la comprensión, la preparación y la conversación con profesionales.

OpenAI presenta ChatGPT Salud como un espacio separado del resto de chats, con medidas reforzadas de protección, cifrado y aislamiento de información. También destaca que estas conversaciones no se utilizan para entrenar los modelos principales de la compañía. En el despliegue inicial se menciona una disponibilidad limitada y un enfoque por fases, con integraciones que, en algunos casos, arrancan en Estados Unidos. Para el sector, el mensaje es claro: si la propuesta se apoya en datos sensibles, la confianza y la gobernanza no pueden ser accesorias.

El contexto español: ya existe un marco para exigir calidad y ética
En España el debate no llega tarde. Desde el Instituto #SaludsinBulos, la iniciativa sin ánimo de lucro de COM Salud para fomentar la comunicación ética en salud, se impulsó un consenso sobre asistentes conversacionales en salud, en colaboración con el Colegio de Fisioterapeutas de la Comunidad de Madrid y otras organizaciones, y que fue presentado en el marco de Hackathon Salud, con recomendaciones para que estas herramientas aporten valor sin comprometer la seguridad del paciente ni la confianza. La idea de fondo es sencilla: el potencial es enorme, pero solo es sostenible si se fijan criterios verificables. Ese consenso articula los requisitos en tres pilares: información veraz, comunicación y ética.

ChatGPT Salud frente al consenso: un checklist práctico
1) Información veraz: fuentes, actualización y “anti-alucinaciones”
El consenso reclama que un asistente de salud se apoye en fuentes fiables, que el origen sea identificable, que exista diversidad de referencias, actualización y mecanismos explícitos para minimizar errores y respuestas engañosas. En salud, “sonar convincente” no basta: un error puede traducirse en daño. Implicación práctica: si un asistente interpreta una analítica o resume un informe, debería poder explicar en qué se basa, qué no puede concluir y cuándo corresponde derivar la conversación a un profesional.

2) Comunicación: empatía, escucha activa y acceso equitativo
El segundo pilar pone el foco en la calidad de la interacción: escucha activa, empatía, claridad y adaptación al nivel de alfabetización en salud del usuario. El consenso también insiste en la equidad y en evitar que la tecnología amplíe brechas (por edad, discapacidad, idioma o nivel socioeconómico). Implicación práctica: la experiencia conversacional debe ayudar a tomar mejores decisiones informadas, no a sustituir la consulta ni a generar falsa seguridad. Por ese motivo, desde el Instituto #SaludsinBulos se ha impulsado la iniciativa Mírame a los Ojos, que promueve la comunicación clínica eficaz con la ayuda de la IA.

3) Ética: trazabilidad, transparencia, privacidad y supervisión humana
El consenso insiste en requisitos éticos: trazabilidad (documentar datos, desarrollo y evaluación), transparencia sobre límites, privacidad y confidencialidad, seguridad y una orientación clara a la no-maleficencia (prevención de daños). Además, deja una condición de fondo: la IA complementa, pero no sustituye a los profesionales. La supervisión humana y la derivación a atención sanitaria cuando procede deben estar integradas en el diseño.

Desinformación y deepfakes: el riesgo que no desaparece
La conversación pública sobre IA y salud convive con un problema persistente: la desinformación. El consenso alerta, además, del uso de deepfakes para suplantar a profesionales y promover productos o intervenciones sin respaldo. En este escenario, un asistente conversacional puede ser parte de la solución… o un amplificador del problema.

Qué deberían pedir hoy sanitarios, gestores y desarrolladores
La oportunidad es evidente: educación sanitaria más accesible, mejor preparación para la consulta, apoyo para comprender información clínica y herramientas que acompañen hábitos de bienestar. Pero el listón es alto. Si queremos que estas soluciones sean realmente útiles y seguras, el camino pasa por exigir estándares como los del consenso: fuentes identificables, validación y actualización, comunicación empática, privacidad robusta, trazabilidad y supervisión. La noticia no es solo que OpenAI “entre” en salud: es que el sector ya tiene criterios para pedirle que lo haga bien.

GD

leave a reply