La sepsis ocurre cuando microorganismos patógenos o sus toxinas invaden el cuerpo de una persona. La respuesta del sistema inmunitario a dicha invasión puede causar daño tisular, insuficiencia orgánica y la muerte. La sepsis es la principal causa de muerte en los hospitales estadounidenses. Dado que se ha demostrado que el tratamiento oportuno con antibióticos y líquidos intravenosos reduce la mortalidad por sepsis, es fundamental predecir con precisión el riesgo de aparición de sepsis lo antes posible. En los últimos años, muchas empresas han intentado utilizar modelos de inteligencia artificial (IA) para realizar estas predicciones tempranas.
Epic, una empresa estadounidense con acceso a los historiales médicos de más de 250 millones de personas se convirtió en uno de los primeros líderes de la industria. Lanzó su Modelo de Sepsis Epic (ESM, por sus siglas en inglés) en 2017. Supuestamente, los hospitales podrían usar el ESM con sus historiales médicos existentes, ahorrando tiempo y dinero.
Cientos de hospitales adoptaron el ESM y la empresa ampliamente publicitó su tasa de adopción. Si tantos hospitales lo están adoptando, el modelo de IA debe ser fantástico, ¿verdad? Bueno, quizás. Lo que Epic no hizo fue publicar resultados de ningún estudio revisado por pares que demostrara la precisión del modelo. De hecho, como suele ocurrir con las nuevas tecnologías, Epic afirmó que su modelo era un secreto comercial patentado, lo que impidió que investigadores independientes comprobaran su precisión.
Resulta que la tasa de adopción no era indicativa de la precisión del modelo, lo cual no debería sorprender dado que eventualmente se reveló que Epic le había pagado a varios hospitales hasta un millón de dólares cada uno para adoptar el ESM.
Aunque Epic afirmó una tasa de precisión de entre el 76% y el 83% para ESM, el primer estudio independiente completo, hecho posible gracias al acceso de los investigadores a los registros de un hospital que utilizaba récords médicos electrónicos, encontró una precisión de tan solo 63%. Esto no es mucho mejor que lanzar una moneda al aire, señalan los escépticos de la IA Arvind Narayanan y Sayash Kapoor. Además, ESM reconoció solo el 7 % de los casos de sepsis que los médicos pasaron por alto.
Este estudio motivó un editorial por parte de los Dres. Habib, Lin y Grant, quienes opinaron que «la naturaleza de ‘caja negra’ de estas futuras herramientas de aprendizaje automático» exige especial precaución por parte de los sistemas de salud que decidan confiar en ellas. Dado que solo Epic (y quizás ni siquiera Epic) podía comprender por qué ESM tomaba las decisiones que tomaba, el detectar errores y minimizarlos podría ser casi imposible.
Finalmente, después de varios años de uso, ESM revisó su algoritmo, instando a los usuarios a entrenarlo con los datos específicos de sus pacientes. “Tras años de insistir en que un modelo listo para usar podría salvar vidas, Epic se retractó de sus afirmaciones.” (Narayanan y Kapoor)
En 2024, otra empresa recibió la primera autorización de la FDA para una herramienta de IA para la detección de sepsis.