OpenAI quiere que compartas tu historial clínico con ChatGPT: varios expertos denuncian que será «peligroso» para la salud y la privacidad

Compartir

Ir al médico ya no es cosa de dos, doctor y paciente. En medio está, cada vez más, la inteligencia artificial. Más de 230 millones de personas en todo el mundo acuden cada semana a ChatGPT para consultas sobre su salud. Esa realidad, preocupante para muchos, no para de crecer. OpenAI anunció el miércoles una nueva función con la que impulsa a sus usuarios a compartir su historia clínica con el chatbot. Aunque la influyente start-up tecnológica asegura que no la ha diseñado para hacer diagnósticos, varios expertos coinciden en advertir de que esta prestación despierta varias dudas técnicas, jurídicas y éticas.

ChatGPT Salud (ChatGPT Health, en inglés) es un espacio «privado y cifrado» dentro del popular asistente conversacional de IA que permitirá «entender mejor los resultados de tus análisis, seguir tus datos de salud y prepararte para tu próxima cita médica». Los usuarios podrán volcar sus datos médicos en el sistema, diseñado junto a más de 260 profesionales de la salud, pero también conectar los generados por aplicaciones como Apple Health, MyFitnessPal o Peloton. Por ahora, su acceso es limitado.

Sedienta por rentabilizar sus inversiones, OpenAI está apostando por desplegar sus soluciones al entorno sanitario, donde otros tipos de IA ya están jugando un rol destacado en la predicción del riesgo de enfermedades o en la gestión administrativa. «El acceso limitado a la atención médica, el estigma y la comodidad de obtener respuestas en casa reducen las barreras. Con tan poca fricción, la adopción se acelerará», ha vaticinado la investigadora Shalini Kurapati. Esa oportunidad de negocio explica que ayer también anunciase OpenAI for Healthcare, una serie de productos destinados a las organizaciones sanitarias.

Un paciente recibe la técnica HIFU en el Hospital Germans Trias (Can Ruti) de Badalona / Hospital Germans Trias

Errores que pueden costar vidas

Los modelos de lenguaje que dan forma a los chatbots de IA son probabilísticos y estocásticos, lo que significa que construyen frases para que sean plausibles, pero no para que sean ciertas. Ese problema inherente a la llamada IA generativa, conocido popularmente como alucinación, hace que el uso de ChatGPT para cuestiones como la salud sea potencialmente «peligroso», advierte Alfonso Valencia, profesor ICREA y director del Departamento de Ciencias de la Vida del Barcelona Supercomputer Center. Una reciente investigación de científicos de las universidades de Stanford y Harvard muestra que los modelos desplegados en el entorno sanitario fallan al no incluir recomendaciones críticas en hasta un 22% de los casos.

¿Qué pasa si un usuario comparte un cuadro de síntomas concreto y la aplicación le recomienda un tratamiento inadecuado? Aunque OpenAI asegura que la nueva función «no está diseñada para diagnosticar», los expertos recuerdan que ChatGPT ya lo hace. «Va a cometer errores, a generar malas interpretaciones y a poner al doctor en una posición complicada», vaticina el directivo del BSC. «Eso abre la puerta a recomendaciones sobre tu salud marcadas por sesgos culturales o de raza», añade Jorge Morell, abogado especializado en Derecho de nuevas tecnologías.

En el campo de la salud, esos errores pueden «mandar a alguien al hospital» y, en definitiva, costar vidas. OpenAI y otras empresas que comercializan asistentes conversacionales de IA afrontan varias demandas por el suicidio de usuarios. En algunas ocasiones, el chatbot instó a la víctima a ocultar sus intenciones a su familia. «Si las ha habido por cuestiones de salud mental también las habrá por recomendaciones clínicas incorrectas», añade Morell.

Las clases profesionales, como los médicos, mantienen su capacidad de acceder a la élite / Archivo

«Atentado contra la privacidad»

Por ahora, y como ya es habitual en el sector tecnológico, la última novedad de OpenAI no estará disponible en la Unión Europea, pues no está claro que cumpla con el Reglamento General de Protección de Datos (RGPD) ni con la Ley de IA, que considera la aplicación de sistemas algorítmicos en el ámbito de la sanidad como de alto riesgo para los ciudadanos. En Europa, los datos de salud se consideran especialmente sensibles, lo que dificulta su tratamiento. «¿Qué pasa si un usuario comparte la historia clínica de sus padres o hijos? El reto será verificar si cuenta con su consentimiento específico para hacerlo», señala Morell.

Otros expertos ven otros problemas. La nueva función es «para las compañías aseguradoras, para poder hacer mejores perfilados de sus posibles clientes y ajustar las cuotas y servicios», ha asegurado la delegada de Protección de Datos y perito judicial Laura San Miguel, que considera la función un «atentado contra la privacidad brutal». El pecado original, apunta Valencia, es «la cesión de nuestra identidad y autonomía a empresas estadounidenses».

El ChatGPT es un chatbot de IA que utiliza modelos de lenguaje para comprender y generar texto de forma conversacional, como si hablaras con una persona real. / Frank Rumpenhorst / DPA / Archivo

¿Seguridad de los datos?

Por otro lado, OpenAI asegura que la información sensible que el usuario comparta con ChatGPT Salud quedará aislada del resto de conversaciones con el chatbot y no se utilizará para entrenar sus modelos de IA. Con esta declaración, la firma promete que se preservará la privacidad. No obstante, OpenAI podría sufrir una brecha de seguridad que exponga a sus usuarios. En 2023, un ciberataque a la ahora quebrada empresa genómica y biotecnológica 23andMe logró robar datos genéticos de casi siete millones de personas. «Es cuestión de tiempo que eso suceda», valora Morell. «La privacidad ha muerto en gran parte porque somos muy comodones».

Aunque considera que «a largo plazo estas aplicaciones acabarán integrándose», Valencia apuesta por otra IA en los centros médicos: sistemas informáticos que ayuden a los médicos a gestionar el trato a los pacientes, a interpretar los resultados o a tratar enfermedades, pero que lo hagan cumpliendo con las normas. El BSC desarrolla junto al Hospital Sant Joan de Déu y con la ayuda de la Generalitat de Catalunya un sistema para ayudar a clasificar y contestar llamadas al sistema de emergencia primaria de menores. Sin embargo, lamenta,a OpenAI y a otras apps de autodiagnóstico «no les estamos exigiendo lo mismo que al resto del sector».

Noticias Relacionadas