Hospitales europeos lanzan una red de IA para acordar garantías de privacidad

Se supone quela inteligencia artificial (IA) pronto desencadenará la mayor transformación en la prestación de asistencia sanitaria desde que el sector médico iniciara su camino hacia la profesionalización tras la pandemia de la gripe de 1918.

El problema es que para lograrlo serán necesarios nuevos canales institucionales de conocimiento, ingeniería y colaboración ética que aún no existen.

Esta semana, en la feria Hlth Europe celebrada en Ámsterdam, se ha presentado en Europa el consorcio Trustworthy & Responsible AI Network (TRAIN), respaldado por Microsoft, con el firme propósito de dar respuesta a esta necesidad.

Las instituciones que han firmado para formar parte de TRAIN son Erasmus MC y el Centro Médico Universitario de Utrecht (Países Bajos), el Hospital Universitario Sahlgrenska y el Hospital Universitario Skåne (Suecia), el Hospital Universitario HUS Helsinki (Finlandia), la Universita Vita-Salute San Raffaele (Italia) y la Fundación 29, organización sin ánimo de lucro dedicada a la defensa de los pacientes.

El lanzamiento de TRAIN en Estados Unidos tuvo lugar en marzo, y a él se sumaron organizaciones médicas y hospitales famosos como el Boston Children’s Hospital, la Cleveland Clinic, el Johns Hopkins Medicine y el Mount Sinai Health System.

Por encima de todo esto, por supuesto, está Microsoft como socio tecnológico, más como facilitador que como líder, pero no por ello menos importante.

¿Qué es TRAIN?

Los objetivos declarados del consorcio abarcan una mezcla de cuestiones técnicas y éticas que suelen mencionarse en los anuncios sobre IA:

  • Colaborar para desarrollar herramientas que “permitan una IA fiable y responsable”.
  • Acordar barandillas que pongan límites a cómo debe utilizarse la IA.
  • Compartir las mejores prácticas sobre los resultados de la IA en la atención sanitaria, incluido cómo evitar el escollo de la parcialidad. Esto se hará a través de un “registro federado de resultados de IA”.

En resumen, los miembros no compartirán datos ni algoritmos, pero habrá un sistema colectivo que permitirá compartir la experiencia y el aprendizaje.

Es una perspectiva muy similar a la de otro colectivo de IA, la Coalition for Health AI (CHAI), cuyo lanzamiento en Estados Unidos el pasado mes de marzo incluyó a 20 instituciones médicas sin ánimo de lucro, entre ellas varias que también son miembros de TRAIN. Entre los socios ingenieros de CHAI figuran Microsoft (de nuevo), Amazon, Google y CVS Health.

¿Cómo podría utilizarse la IA en la sanidad?

Según los optimistas de la IA, la tecnología permitirá acortar los largos y arduos procesos de descubrimiento de fármacos, reduciendo el coste de su desarrollo. Mientras tanto, la enorme burocracia asociada a la atención al paciente y a los historiales médicos será automatizada por máquinas.

La toma de decisiones clínicas y los diagnósticos se acelerarán en un orden de magnitud y serán más precisos.

Todo el mundo recuerda las conjeturas y la incertidumbre de la pandemia. En el futuro, esto podría desaparecer a medida quelos análisis basados en IA hagan predicciones sobre la evolución viral antes de que haya ocurrido.

Si bien es cierto que la IA se ha exagerado en el sector tecnológico en su conjunto, en la sanidad ya existen muchos elementos importantes.

La base de todo esto son los datos, el elemento que alimenta la IA pero que también la amenaza si la seguridad y la privacidad de los historiales de los pacientes se ponen en peligro de algún modo.

En juego

Una cuestión obvia es la implicación e influencia de las grandes tecnológicas, en este caso Microsoft. En los comentarios enviados a CIO, Microsoft enumera una serie de herramientas de IA responsable que pone a disposición de los miembros de TRAIN, por ejemplo, a través del proyecto de código abierto Responsible AI Dashboard.

Según David Rhew, vicepresidente de Sanidad de Microsoft, la participación de la empresa se centrará en ayudar a implantar las tecnologías subyacentes. En su opinión, uno de los principales problemas es que las exigencias de la IA pueden dar lugar a un sistema multinivel en el que solo prosperen las instituciones más grandes.

“Es necesario garantizar que la revolución de la IA no solo beneficie a las instalaciones con buenos recursos, sino que las organizaciones con pocos recursos también puedan aprovechar la IA e implementarla de forma responsable”, afirmó Rhew.

“Algunos centros médicos académicos (CMA) y organizaciones sanitarias ya cuentan con procesos para probar y aprobar algoritmos de IA. Sin embargo, muchas de estas organizaciones necesitan ayuda para escalar sus procesos con el fin de satisfacer las necesidades del creciente uso de la IA”.

Dentro de esto, procesos básicos como la evaluación de las salvaguardas de la IA podrían convertirse rápidamente en enormemente complejos.

“Las complejidades del sector pueden abordarse desde todos los ángulos cuando las organizaciones públicas, privadas, educativas y de investigación de diversos ámbitos del sector se unen para colaborar”, defiende Rhew.

Esto ocurre en un momento en que las normas sobre privacidad de datos se están endureciendo en Europa con la Ley de Inteligencia Artificial. Pero el mayor problema es el fragmentado panorama normativo, ya muy vigilado por la Ley de Portabilidad y Responsabilidad del Seguro Médico (HIPAA), el Reglamento de Dispositivos Médicos (MDR) y el GDPR. Los comentarios de Rhew en el comunicado de prensa de Microsoft hacen hincapié en este tema.

“El objetivo principal de TRAIN es permitir a individuos y organizaciones poner en práctica los principios de la IA responsable a través de barreras tecnológicas. TRAIN también permitirá a las organizaciones colaborar a través de enfoques federados que preserven la privacidad”.

“La formación de TRAIN en Europa ayudará a fomentar la confianza en la aplicación de la IA en la salud y garantizará el mantenimiento de la privacidad de los datos”.

© Foundry