banner

Noticias

Oct 05, 2023

Aprovechamiento de datos clínicos en instituciones de atención médica para el aprendizaje continuo de modelos predictivos de riesgo

Scientific Reports volumen 12, Número de artículo: 8380 (2022) Citar este artículo

Accesos 2018

5 citas

11 Altmetric

Detalles de métricas

La flexibilidad inherente de los modelos predictivos clínicos basados ​​en el aprendizaje automático para aprender de los episodios de atención al paciente en una nueva institución (capacitación específica del sitio) tiene el costo de la degradación del rendimiento cuando se aplica a cohortes de pacientes externos. Para explotar todo el potencial de los macrodatos clínicos interinstitucionales, los sistemas de aprendizaje automático deben adquirir la capacidad de transferir su conocimiento a través de los límites institucionales y aprender de nuevos episodios de atención al paciente sin olvidar patrones previamente aprendidos. En este trabajo, desarrollamos un algoritmo de aprendizaje que preserva la privacidad llamado WUPERR (Propagación de la incertidumbre del peso y repetición de la representación episódica) y validamos el algoritmo en el contexto de la predicción temprana de la sepsis utilizando datos de más de 104 000 pacientes en cuatro sistemas de atención médica distintos. Probamos la hipótesis de que el algoritmo de aprendizaje continuo propuesto puede mantener un rendimiento predictivo más alto que los métodos de la competencia en cohortes anteriores una vez que se ha entrenado en una nueva cohorte de pacientes. En la tarea de predicción de sepsis, después del entrenamiento incremental de un modelo de aprendizaje profundo en cuatro sistemas hospitalarios (a saber, hospitales HA, HB, HC y HD), WUPERR mantuvo el valor predictivo positivo más alto en los tres primeros hospitales en comparación con un enfoque de aprendizaje de transferencia de referencia (HA: 39,27% vs 31,27%, HB: 25,34% vs 22,34%, HC: 30,33% vs 28,33%). El enfoque propuesto tiene el potencial de construir modelos más generalizables que pueden aprender de los grandes datos clínicos interinstitucionales de una manera que preserva la privacidad.

El notable resurgimiento de la inteligencia artificial y su impacto en la automatización industrial, la optimización de la satisfacción del cliente y los ingresos durante la última década ha resultado en un creciente interés en la aplicación de tecnologías relacionadas con la atención médica1,2,3. En particular, las técnicas de aprendizaje profundo han ganado una mayor atención en la medicina clínica, incluida la detección y clasificación, el diagnóstico, el pronóstico, el apoyo a la toma de decisiones y la recomendación de tratamiento4,5,6,7,8,9,10,11,12,13. Para obtener una amplia adopción clínica, los modelos clínicos basados ​​en el aprendizaje profundo deben ser generalizables y portátiles, y garantizar la privacidad de los pacientes cuyos datos se utilizan para el entrenamiento y las evaluaciones del modelo14,15. En la práctica, los modelos entrenados con datos de un solo sistema de atención médica a menudo carecen de capacidad de generalización debido a las diferencias en la demografía local, equipos y ensayos de laboratorio, registros de salud electrónicos (EHR), frecuencia de medición de datos y variaciones en las prácticas clínicas y administrativas que incluyen codificación y definiciones de varios diagnósticos clínicos16. Se ha argumentado que los grandes datos clínicos, cuando se combinan con la flexibilidad inherente de los modelos de aprendizaje profundo para aprender de nuevos datos/experiencias, podrían, en teoría, abordar parte de esta heterogeneidad. Sin embargo, los datos de atención médica siguen estando aislados y la accesibilidad de los datos y la privacidad del paciente plantean un desafío sustancial para aprovechar al máximo el poder de los análisis avanzados en el ámbito de la atención médica15,17. Como tal, en la actualidad, los datos clínicos típicos utilizados para el desarrollo de modelos suelen ser varios órdenes de magnitud más pequeños que los que alimentan las aplicaciones industriales del aprendizaje profundo18.

Una validación independiente y externa reciente de una puntuación de riesgo de predicción de sepsis basada en aprendizaje automático ampliamente utilizada destacó el problema de la generalización del modelo en presencia de cambios en la distribución de datos y cambios en la combinación de casos de la población19,20. Una solución potencial para mejorar la validez externa de los sistemas de aprendizaje profundo es ajustar dichos modelos en cada nuevo entorno de atención (también conocido como Transfer Learning)21,22. Sin embargo, este enfoque puede resultar en que muchas versiones del mismo algoritmo operen en diferentes entornos de atención, lo que genera preocupaciones regulatorias con respecto a la gestión del cambio y desafíos científicos con respecto a la producción de conocimiento generalizable23. Por lo tanto, es deseable diseñar algoritmos y modelos de aprendizaje que puedan aprovechar los datos de los pacientes en diversas cohortes de pacientes de una manera que preserve la privacidad y con planes de control de cambios bien definidos24 que puedan mantener un rendimiento aceptable mientras gestionan el riesgo potencial para los pacientes.

El aprendizaje federado y/o distribuido es un método de aprendizaje de modelos a partir de datos distribuidos en diferentes fuentes25. Se han propuesto métodos de preservación de la privacidad para aprovechar dichos datos para el aprendizaje respetando los límites institucionales y la autonomía sobre los datos de los pacientes26,27. Dichos modelos asumen que los datos están disponibles a la vez en múltiples sitios26,28, sin embargo, en la práctica, los modelos de aprendizaje profundo a menudo se desarrollan y se implementan con el tiempo de manera secuencial (por ejemplo, a medida que una empresa expande su base de clientes), donde un modelo entrenado y validado en datos de una sola institución de salud (Hospital-A) se difunde e implementa en un segundo (Hospital-B) y sitios posteriores (Hospital-C, etc.). Como alternativa a los dos extremos de (1) mantener todos los coeficientes del modelo fijos y (2) la implementación del modelo específico del sitio donde los coeficientes del modelo se ajustan con precisión a cada población local de pacientes, uno puede imaginar un escenario en el que un solo modelo continúa aprendiendo de nuevas cohortes de pacientes y mantiene la capacidad de generalización. Este escenario está estrechamente relacionado con el marco de aprendizaje continuo (también conocido como aprendizaje permanente) en la literatura de aprendizaje profundo, donde se entrena un modelo para aprender una serie de tareas secuencialmente (p. ej., predecir la mortalidad en el Hospital A, B, C, etc.) mientras se mantiene un desempeño aceptable en tareas previas (también conocido como superación del 'olvido catastrófico')29,30,31.

A pesar de la necesidad de algoritmos sólidos de aprendizaje continuo en entornos clínicos, las aplicaciones de dichos métodos para el modelado clínico predictivo siguen siendo escasas32. Aquí consideramos un problema clínicamente significativo relacionado con la predicción de sepsis en pacientes críticamente enfermos. Usando datos de cuatro cohortes de sepsis, desarrollamos y validamos un marco de aprendizaje continuo (ver Fig. 1) para entrenar secuencialmente modelos predictivos que mantienen un rendimiento clínicamente aceptable en todas las cohortes mientras preservan la privacidad de los datos del paciente. Inspirándonos en los últimos desarrollos en la literatura sobre aprendizaje permanente, proponemos un marco de consolidación de peso elástico articular (EWC)33 y repetición de representación episódica (ERR)34,35,36,37 para actualizar continuamente nuestros modelos predictivos en nuevas cohortes de pacientes. La Figura 1 ilustra los componentes básicos del marco propuesto de repetición de representación de episodios e incertidumbre de peso (WUPERR). WUPERR logra el aprendizaje continuo a través de dos mecanismos: (1) el seguimiento de los pesos de la red que son esenciales para las tareas anteriores y, por lo tanto, deben permanecer sin cambios en el transcurso del aprendizaje de una nueva tarea; y (2) intercalar representaciones de datos de entrenamiento de tareas anteriores durante la adquisición de una nueva tarea. Para lograr la privacidad, WUPERR reemplaza las características sin procesar a nivel del paciente con representaciones ocultas aprendidas a través de una red neuronal (p. ej., activación de neuronas en la primera capa de la red), lo que elimina la necesidad de mover la información de salud protegida fuera de los límites institucionales.

El objetivo de este estudio fue examinar si el enfoque de aprendizaje continuo propuesto proporciona una generalización mejorada en todas las cohortes de pacientes. Planteamos la hipótesis de que la incorporación de las metodologías EWC y ERR daría como resultado un modelo más generalizable que un enfoque de transferencia de aprendizaje explorado previamente en este contexto21. Para explorar más a fondo el efecto del aprendizaje continuo en varios parámetros de la red, realizamos un análisis por capas de la adaptación del peso con el aprendizaje de nuevas tareas. Probamos el algoritmo WUPERR en el contexto del entrenamiento secuencial de un modelo de aprendizaje profundo para la predicción temprana de sepsis en cuatro poblaciones geográficamente distintas dentro de los Estados Unidos (un total de 104 322 pacientes). Nuestro enfoque de aprendizaje continuo propuesto permite aprovechar los datos a través de los límites institucionales para entrenar secuencialmente puntajes de riesgo predictivos generalizables de una manera que preserve la privacidad.

Diagrama esquemático del algoritmo WUPERR. El entrenamiento comienza con un conjunto de pesos inicializados aleatoriamente, que se entrenan en la primera tarea (p. ej., predicción sobre los datos del Hospital-A). En todas las tareas de aprendizaje posteriores, los pesos de la capa de entrada (\(W_1^A\)) se mantienen congelados. Los parámetros de red óptimos, las incertidumbres de los parámetros en la tarea A y el conjunto de representaciones de la cohorte de entrenamiento del Hospital-A (\(\{h_1^A\}\)) luego se transfieren al Hospital-B. Las capas más profundas del modelo se ajustan para realizar la segunda tarea (por ejemplo, la predicción de los datos del Hospital-B) mediante la reproducción de la representación de los datos del Hospital-A y el Hospital-B. Del mismo modo, los parámetros óptimos y sus niveles de incertidumbre junto con las representaciones del Hospital-A y el Hospital-B se transfieren al Hospital-C para afinar el modelo al realizar la tercera tarea. Tenga en cuenta que en ningún momento la información de salud protegida (PHI+) sale de los límites institucionales de un hospital determinado. Finalmente, en el momento de la evaluación (sobre los datos de prueba) en una tarea determinada, el modelo se evalúa en todas las cohortes del hospital.

Evaluamos el rendimiento del algoritmo de aprendizaje propuesto para la predicción temprana de la aparición de sepsis en pacientes hospitalizados en cuatro sistemas de atención médica. En las Figs. del material complementario se muestra un estudio comparativo de WUPERR con varios modelos de referencia. S4–S6, sin embargo, en aras de la brevedad, solo informamos el rendimiento de WUPERR frente al aprendizaje de transferencia en la siguiente sección.

Evaluación de modelos de aprendizaje continuo para la predicción temprana de la aparición de sepsis, medida mediante la métrica del área bajo la curva (AUC). (a) Ilustra el AUC de un modelo (mediana [IQR]) entrenado mediante el aprendizaje por transferencia. El rendimiento del modelo se informa (utilizando diferentes marcadores; consulte la leyenda) en todas las cohortes después del entrenamiento secuencial con los datos de un hospital determinado en el eje x. (b) muestra el AUC del modelo WUPERR propuesto, bajo la misma configuración experimental que (a). En el momento de la evaluación (sobre los datos de prueba) en un sitio determinado, el modelo se evalúa en todas las cohortes del hospital. El estilo de línea sólida indica que, en el momento de la evaluación del modelo (sobre los datos de prueba) en un sitio determinado, el modelo ya había visto los datos de entrenamiento de ese sitio. Por ejemplo, dado que el modelo se entrena primero con los datos del Hospital-A, el rendimiento del modelo en este conjunto de datos después del aprendizaje continuo en todos los hospitales posteriores se muestra en estilo de línea sólida para indicar que el modelo ya había visto esta cohorte de pacientes en el pasado. (c) resume el rendimiento del modelo (mediana [IQR]) en los hospitales A–C después del aprendizaje continuo en los cuatro hospitales con Transfer learning (rojo) y WUPERR (azul).

Evaluación de modelos de aprendizaje continuo para la predicción temprana de la aparición de Sepsis, medida mediante valor predictivo positivo (VPP) y sensibilidad. (Atlanta) Ilustra el VPP de un modelo (mediana [IQR]) entrenado mediante transferencia de aprendizaje (medido en un umbral fijo de 0,41 correspondiente a una sensibilidad del 80 % en el Hospital-A después de la Tarea 1, para todos los pliegues y en todas las tareas). El rendimiento del modelo se informa (utilizando diferentes marcadores; consulte la leyenda) en todas las cohortes después del entrenamiento secuencial con los datos de un hospital determinado en el eje x. (Atlanta) muestra el VPP del modelo WUPERR propuesto, bajo la misma configuración experimental que (Atlanta). (Atlanta) resume el rendimiento del modelo (mediana [IQR]) en Hospitals AC después del aprendizaje continuo en los cuatro hospitales con Transfer learning (rojo) y WUPERR (azul). (d–f) resuma los resultados de sensibilidad del modelo bajo el mismo protocolo experimental.

El marco WUPERR se utilizó para entrenar un modelo para predecir secuencialmente la aparición de sepsis (definida según las definiciones de consenso de Sepsis-3 para sepsis y choque séptico) con cuatro horas de antelación38. Para investigar el impacto de las variaciones en las distribuciones de datos en el rendimiento de nuestro modelo, entrenamos nuestro modelo secuencialmente en más de 104 000 pacientes pertenecientes a cuatro centros de cuidados intensivos con varias características demográficas subyacentes. El modelo se entrenó primero en el conjunto de datos Hospital-A (Tarea 1), seguido de Hospital-B (Tarea 2), Hospital-C (Tarea 3) y Hospital-D (Tarea 4). Se comparó el rendimiento del modelo entrenado secuencialmente utilizando el marco WUPERR con un enfoque de aprendizaje de transferencia de referencia. Las Figuras 2a–c muestran el desempeño de WUPERR en los cuatro conjuntos de datos del hospital, donde el modelo se entrenó en una cohorte a la vez y el desempeño se informa sobre los datos de prueba de todas las demás cohortes (cohortes anteriores y posteriores). Con el enfoque de transferencia de aprendizaje, observamos que con la progresión en el entrenamiento en nuevas cohortes, el rendimiento del modelo degeneró en cohortes anteriores. Mientras que el entrenamiento secuencial de WUPERR permitió que el modelo mantuviera un rendimiento comparable en tareas más antiguas. Por ejemplo, al final de la Tarea 4 con aprendizaje de transferencia, el AUC del modelo en la Tarea 2 fue de 0,90 [0,89–0,91], una caída del AUC de 0,93 [0,92–0,94] cuando el modelo se entrenó con los datos del Hospital -B (correspondiente a la tarea 2). En comparación, al final de la Tarea 4 con WUPERR, el modelo mantuvo su rendimiento en la Tarea 2 con un AUC de 0,93 [0,91–0,94]. En particular, observamos que la superioridad de WUPERR sobre el aprendizaje de transferencia crece a medida que aumenta la cantidad de cohortes de capacitación posteriores a las que se expuso el modelo (consulte la Fig. 2c, rendimiento en el Hospital-A al final de la capacitación en el hospital-D). Además, observamos que al final de la Tarea 4, el modelo entrenado con el enfoque WUPERR se desempeñó mejor que el aprendizaje de transferencia en todas las cohortes del Hospital (ver Fig. 2b).

En la Fig. 3, comparamos el valor predictivo positivo (PPV) del modelo entrenado secuencialmente en cuatro cohortes utilizando el enfoque WUPERR versus el enfoque de aprendizaje de transferencia de referencia. Se eligió un umbral de decisión correspondiente al 80% de sensibilidad después de completar el entrenamiento en la Tarea 1. Este umbral de decisión se usó luego para medir el valor predictivo positivo (VPP) para todas las tareas restantes. Observamos que WUPERR superó consistentemente el enfoque de aprendizaje por transferencia en todas las tareas (ver Fig. 3a–c). Por ejemplo, con WUPERR, el valor predictivo positivo (VPP) del Hospital-A mejoró de 37,28 [35,57–37,69] después de la Tarea 1 a 39,27 [38,11–39,78] al final de la Tarea 4, mientras que con el enfoque de aprendizaje por transferencia el valor predictivo positivo (PPV) se redujo a 31,28 [30,11–31,78] al final de la Tarea 4. Además, WUPERR pudo mantener niveles de sensibilidad consistentes en la cohorte del Hospital-A mientras se capacitaba secuencialmente en las Tareas 2, 3 y 4 (79,70 [78,50 –82,57], 79,76 [79,57–81,20], 80,06 [79,87–81,50], respectivamente). En comparación, el nivel de sensibilidad en la cohorte Hospital-A cayó por debajo del 80 % cuando el modelo se entrenó en las Tareas 2, 3 y 4 en el caso del enfoque de aprendizaje de transferencia (ver Fig. 3d). Se observaron patrones similares de sensibilidad para las otras cohortes de hospitales. Finalmente, observamos que WUPERR fue sólido para el orden de capacitación y superó constantemente el enfoque de transferencia de aprendizaje, incluso cuando se intercambió el orden de los hospitales (consulte las figuras complementarias S7–S12).

En este estudio, diseñamos y validamos un algoritmo de aprendizaje continuo para entrenar modelos analíticos predictivos clínicos generalizables en múltiples cohortes de pacientes. WUPERR integra la memoria de ensayo con la propagación de la incertidumbre del peso y permite que los modelos clínicos de aprendizaje profundo aprendan nuevas tareas mientras mantienen un rendimiento aceptable en las tareas anteriores. Evaluamos nuestro algoritmo propuesto en cuatro tareas consecutivas que involucran la predicción temprana de sepsis en pacientes hospitalizados. Nuestros resultados indican que WUPERR puede manejar con éxito los cambios en la distribución de datos que a menudo afectan negativamente la capacidad de generalización de los modelos predictivos clínicos. En virtud del uso de representaciones de datos para el aprendizaje continuo, WUPERR permite que los datos de capacitación sin procesar permanezcan en cada sitio y, por lo tanto, mantiene la privacidad y la autonomía de los datos de atención médica. Comparamos WUPERR con varios puntos de referencia, incluidos Transfer Learning21, EWC33 y Experience Replay utilizando tres métricas de rendimiento clínicamente relevantes, a saber, AUCroc, valor predictivo positivo y sensibilidad. Uno puede esperar que el aprendizaje de un modelo específico del sitio logre el mejor rendimiento, aunque tal modelo puede no generalizarse bien a sitios externos. WUPERR superó la línea de base Transfer Learning y EWC en términos de las tres métricas para aliviar el olvido. Una de las principales ventajas de WUPERR es la capacidad de aprender a partir de la representación integrada de puntos de datos, lo que convierte a WUPERR en un enfoque apropiado para el aprendizaje continuo que preserva la privacidad.

La investigación sobre el aprendizaje automático y el aprendizaje profundo ha producido resultados prometedores en la identificación, el diagnóstico y la administración de tratamientos en el cuidado de la salud39,40. El rendimiento mejorado de los algoritmos de aprendizaje profundo tiene el costo de requerir conjuntos de datos grandes y diversos41. Sin embargo, las consideraciones sobre la privacidad del paciente y la gestión de datos han contribuido a crear silos de datos y han hecho que la tarea de construir grandes conjuntos de datos multicéntricos sea poco práctica. Algunos de los desafíos de aprender modelos complejos a partir de silos de datos han sido abordados por el aprendizaje federado, donde un algoritmo de aprendizaje descentralizado se basa en actualizaciones de modelos locales para construir un modelo global25,42,43. Huang et al., introdujeron el marco de aprendizaje federado basado en la comunidad (CBFL) para predecir la estancia prolongada en la UCI y la mortalidad44. Qayyum et al., utilizaron el aprendizaje federado agrupado (CFL) para identificar pacientes con Covid-1945. Si bien son prometedores, los modelos de aprendizaje federado tienden a aprender un modelo promedio que puede funcionar de manera subóptima dentro de un sitio local determinado. En particular, los métodos estándar de aprendizaje federado no abordan el problema del cambio de distribución de datos y la desviación del modelo que resultan de las diferencias en la demografía de los pacientes y las prácticas relacionadas con el flujo de trabajo. Por otro lado, los métodos de aprendizaje continuo (como WUPPER) permiten que los modelos aprendan nuevas tareas de forma incremental mientras conservan su desempeño en tareas anteriores. Esto permite que un modelo se adapte a cambios dinámicos y cambios en la distribución de datos en diferentes sitios de atención médica. Un análisis longitudinal reciente de un algoritmo de alerta de sepsis en cuatro sistemas de salud geográficamente diversos informó un cambio significativo en el conjunto de datos debido a un cambio en la combinación de casos a lo largo del tiempo46. Como tal, se necesita el monitoreo de algoritmos47 y el aprendizaje continuo para garantizar que dichos sistemas se adapten a los cambios subyacentes en la distribución de datos y puedan mantener un alto nivel de precisión.

Este estudio tiene varias limitaciones. El método de aprendizaje propuesto permite que un modelo se adapte a las distribuciones de datos cambiantes en los sitios clínicos; sin embargo, un requisito clave es la calidad de los datos de entrada y las etiquetas. Recientemente, se introdujo la predicción conforme para proporcionar un marco probabilístico para evaluar muestras fuera de distribución y detectar valores atípicos y datos ruidosos47. WUPERR se puede utilizar en asociación con la predicción conforme para controlar la calidad de los datos de entrada en cada sitio para el aprendizaje continuo. Además, las diferencias en la calidad de las etiquetas en varios sitios pueden representar un desafío para el aprendizaje continuo. La combinación de WUPERR con métodos para evaluar y corregir el ruido de las etiquetas puede proporcionar un mecanismo para entrenar modelos de alta calidad. Además, WUPERR no aborda el problema de la disponibilidad parcial de datos, pero el trabajo reciente en redes neuronales en constante crecimiento se puede combinar con WUPERR para diseñar algoritmos que pueden aprovechar variables y características adicionales en nuevos conjuntos de datos48,49. Finalmente, los conjuntos de datos utilizados en este estudio se recopilaron de los principales centros médicos académicos y pueden no ser representativos de hospitales comunitarios y rurales más pequeños. Sin embargo, es probable que nuestro marco propuesto beneficie a los hospitales más pequeños que pueden no tener los recursos necesarios para mantener grandes almacenes de datos clínicos, ya que se ha demostrado que las redes neuronales preentrenadas ajustadas superan a las redes neuronales entrenadas desde cero en conjuntos de datos más pequeños22. En resumen, nuestros hallazgos proporcionan evidencia clínica significativa sobre la aplicabilidad del aprendizaje continuo para diseñar y actualizar modelos predictivos clínicos generalizables.

Un total de 104 000 pacientes adultos ingresados ​​en las UCI en cuatro instituciones de atención médica geográficamente diversas, que incluyen UC San Diego Health, Emory University Hospital, Grady Hospital y Beth Israel Deaconess Medical Center (en adelante, Hospital-A, Hospital-B, Hospital- C y Hospital-D, respectivamente) conformaron la cohorte de estudio. Todos los análisis se realizaron de acuerdo con las directrices y normativas pertinentes. El uso de datos no identificados utilizados en este estudio fue aprobado por la Junta de Revisión Institucional (IRB) de UC San Diego (IRB\(\#\)191098), la IRB de Emory University/Grady Hospital (IRB\(\# \)110675), y el Centro Médico Beth Israel Deaconess (IRB\(\#\)0403000206)50 y los comités del IRB de UC San Diego, Emory University/Grady Hospital y Beth Israel Deaconess Medical Center, ya que el uso de datos retrospectivos no identificados no requiere el consentimiento del paciente según las normas de privacidad de la Ley de Portabilidad y Responsabilidad del Seguro Médico (HIPAA). Los pacientes de 18 años o más fueron seguidos durante su estadía en la UCI hasta el momento del primer episodio de sepsis o, de lo contrario, hasta el momento de la transferencia fuera de la UCI. Seguimos las últimas pautas proporcionadas por el Tercer Consenso Internacional de Definiciones para Sepsis (Sepsis-3)38,51 que definió la sepsis como una disfunción orgánica potencialmente mortal causada por una respuesta desregulada del huésped a la infección. Como tal, los dos criterios principales para establecer el tiempo de inicio de la sepsis incluyeron: (1) evidencia de disfunción orgánica aguda y (2) sospecha de infección. La sospecha clínica de infección se definió mediante la extracción de hemocultivos y el nuevo inicio de antibióticos intravenosos (IV) continuados durante > = 3 días consecutivos (excluyendo el uso profiláctico) que cumplieron cualquiera de las siguientes condiciones: (a) si se ordenó primero una extracción de hemocultivos, luego, la orden de antibióticos tenía que ocurrir dentro de las siguientes 72 h, o (b) si la orden de antibióticos se producía primero, entonces tenía que realizarse una extracción de hemocultivo dentro de las siguientes 24 horas. La evidencia de disfunción orgánica se definió como un aumento en la puntuación de la Evaluación Secuencial de Falla Orgánica (SOFA) en dos o más puntos. En particular, se consideró la evidencia de disfunción orgánica que ocurriera 48 h antes a 24 h después del momento de la sospecha de infección, como lo sugieren Singer et al.51. Finalmente, se tomó como tiempo de sospecha clínica de infección el tiempo de aparición de la sepsis. Para permitir el examen inicial y la estabilización de los pacientes y la recopilación adecuada de datos con fines de predicción, nos centramos en la predicción horaria secuencial de la sepsis a partir de la hora cuatro después del ingreso en la UCI. Se excluyeron los pacientes a los que se identificó que tenían sepsis antes de la hora de inicio de la predicción o aquellos sin medición de la frecuencia cardíaca o la presión arterial antes de la hora de inicio de la predicción o aquellos cuya estancia en una unidad de atención dada fuera superior a 21 días.

Se extrajeron un total de 40 variables clínicas en los cuatro hospitales (ver Materiales complementarios Fig. S2). Además, para cada constante vital y variable de laboratorio, se registraron sus tendencias locales (pendiente de cambio) y el tiempo transcurrido desde la última medición de la variable (TSLM), lo que resultó en un total de 108 características (el mismo conjunto de variables se ha utilizado en un estudio previamente publicado47). Las características de los pacientes de las cuatro cohortes se han tabulado en la Tabla complementaria S1. Todas las variables continuas se informan como medianas con rangos intercuartílicos (RIC) del 25 % y el 75 %. Las variables binarias se reportan como porcentajes. Todos los signos vitales y las variables de laboratorio se organizaron en intervalos de series de tiempo no superpuestos de 1 h y 1 día para adaptarse a las diferentes frecuencias de muestreo de los datos disponibles para la cohorte de sepsis. Todas las variables con frecuencias de muestreo superiores a una vez cada hora (o día) se volvieron a muestrear uniformemente en intervalos de tiempo de 1 h (o 1 día), tomando los valores medianos si se disponía de múltiples mediciones. Las variables se actualizaban cada hora cuando se disponía de nuevos datos; de lo contrario, se mantuvieron los valores antiguos (interpolación de muestreo y retención). Se utilizó la imputación media para reemplazar todos los valores faltantes restantes (principalmente al comienzo de cada registro).

WUPERR combina la repetición de representación episódica (ERR) y la propagación de incertidumbre de peso (WUP) para permitir el aprendizaje continuo de tareas mientras se mitiga el problema del olvido catastrófico. El objetivo de WUPERR es minimizar la caída en el rendimiento de las tareas más antiguas cuando el modelo se entrena en una nueva tarea (es decir, un nuevo hospital). WUPERR intenta lograr este objetivo mediante la consolidación de parámetros de red importantes para modelar la predicción en tareas anteriores (a través de un esquema de regularización de peso específico) y la repetición de experiencias episódicas (manteniendo representaciones de datos de muestra encontrados durante el entrenamiento anterior y revisando periódicamente esos ejemplos durante el reentrenamiento) . La figura 1 muestra el diagrama esquemático del algoritmo WUPERR.

Sean N, J, K el número de parámetros de la red neuronal, el número de épocas de entrenamiento y el número total de tareas, respectivamente. En el tiempo de entrenamiento de la tarea k, la pérdida \(L(j;\theta )\) calculada en la época j es la siguiente:

donde \(L_{CE}(j;\theta )\) corresponde a la pérdida de clasificación de entropía cruzada, \(\theta _{n}^{k}(j-1)\) corresponde al n-ésimo parámetro de la red neuronal de la época anterior, \(I_{n}^{k}(j-1)\) es una aproximación de la información de Fisher (inversa de la incertidumbre) asociada con el parámetro \(\theta _{n}\) durante la tarea k y la época \(j-1\). La información aproximada de Fisher correspondiente al parámetro \(\theta _{n}\) durante la tarea k y la época j se calcula de la siguiente manera:

Tenga en cuenta que la magnitud del gradiente corresponde al grado de inclinación de la superficie de pérdida alrededor de un punto en el espacio de parámetros, lo que a su vez proporciona una medida de la ganancia de información. Para la tarea \(k (k = 2,\ldots , K)\), \(I_n^k\) se inicializa como \(max (I_n^1,\ldots , I_n^{k-1})\).

Usamos la Optimización Bayesiana para establecer el parámetro de regularización de la función de costo (Ec. (1)) y el parámetro de promedio móvil de estimación de incertidumbre (Ec. (2)), lo que resultó en los valores óptimos de \(\gamma =0.99\) y \( \beta =0.80\), respectivamente.

Tenga en cuenta que, después de la tarea 1, los parámetros correspondientes a la primera capa de la red neuronal se congelan. Además, después de completar el entrenamiento en cada Tarea k, se almacenan las representaciones ocultas (\(h_1^k\); salida de la primera capa de la red neuronal) correspondientes a una muestra aleatoria de pacientes del Hospital-k. Desde la Tarea 2 en adelante, ajustamos la red neuronal (excepto la primera capa) con datos de la nueva cohorte de pacientes (Hospital-k) y representaciones ocultas almacenadas de tareas anteriores. Tenga en cuenta que, empíricamente, la congelación de los pesos de la capa 1 tuvo un impacto insignificante en el rendimiento del modelo, ya que el reentrenamiento del modelo afecta predominantemente los parámetros de la capa superior (consulte la Fig. S13 complementaria).

El rendimiento del algoritmo WuPERR se comparó con cuatro modelos de referencia, que se enumeran a continuación:

Capacitación específica del sitio: en este enfoque, entrenamos el modelo de forma aislada en cada sitio del hospital donde se entrena un nuevo modelo en cada tarea de forma independiente.

Transferencia de aprendizaje: la transferencia de aprendizaje supone que las tareas de origen y de destino se derivan del mismo espacio de características, como resultado de lo cual la transferencia de conocimientos de tareas anteriores podría acelerar el procedimiento de aprendizaje en nuevas tareas y, por lo tanto, mejorar el rendimiento del modelo. En este enfoque, los parámetros de la red neuronal después del entrenamiento en la tarea k-1, se transfirieron a la tarea k y se ajustaron aún más con los datos de la tarea k.

Transferencia de aprendizaje-congelación: en este enfoque, la primera capa de la red neuronal se congeló después del entrenamiento en la tarea 1. Los parámetros de la red neuronal después del entrenamiento en la tarea k-1 se transfirieron a la tarea k y se ajustaron aún más ( todas las capas excepto la primera capa) usando datos de la tarea k.

Consolidación elástica del peso (EWC)33: este enfoque se basa en términos de regularización para evitar el olvido. EWC protege el rendimiento de la red neuronal en tareas antiguas al ralentizar el proceso de aprendizaje en pesos seleccionados y permanecer en una región correspondiente a un error más bajo para tareas anteriores mientras se aprende una nueva tarea. Para identificar los pesos que llevan más información, EWC se basa en una matriz de información del pescador. EWC implementa la suma de penalizaciones cuadráticas sobre tareas ya vistas para evitar el olvido en los DNN.

Respuesta de representación episódica (ERR): en ERR, usamos representaciones de datos de tareas anteriores además de datos de la actual para ajustar un modelo. La figura complementaria S13 muestra la norma de Frobenius por capas de los cambios en los pesos de nuestra red, a medida que el entrenamiento continuó desde la Tarea 1 hasta la Tarea 4. Observamos los mayores cambios en los pesos de la red en las capas más profundas, lo que puede sugerir que estas capas son más importantes para aprender una nueva tarea. en consecuencia, se observó que congelar los pesos dentro de la primera capa de red tuvo poco efecto sobre la capacidad de la red para adaptarse a un nuevo conjunto de datos. Esto nos permitió usar la primera capa (después de entrenar en la Tarea 1) como una red de codificación para obtener representaciones de las capas superiores de la red. Desde la Tarea 2 en adelante, usamos estas representaciones de datos de entrada en cada sitio nuevo, junto con la representación de datos de sitios anteriores, para entrenar el modelo. Lo último (es decir, reproducir representaciones de datos de tareas anteriores) permitió que la red recordara las tareas más antiguas mientras aprendía de un nuevo conjunto de datos.

El modelo de predicción era una red neuronal totalmente conectada de cuatro capas (dos capas ocultas), con funciones de activación de unidad lineal rectificada (ReLU). Para el entrenamiento se empleó el optimizador Adam con una tasa de aprendizaje de 1e-3. Los diversos parámetros e hiperparámetros de la arquitectura de red se enumeran en la Tabla complementaria S2. Se realizó una optimización bayesiana (utilizando la cohorte de desarrollo de la Tarea 1) para obtener los hiperparámetros óptimos.

En cada sitio, dividimos el conjunto de datos de la tarea en un 80-20 % para el entrenamiento y la prueba del modelo, respectivamente. Dentro de cada iteración de entrenamiento, combinamos las representaciones de datos de tareas nuevas (es decir, salidas de datos de entrenamiento de la primera capa de red) con representaciones de datos seleccionadas al azar de tareas anteriores. En los cuatro conjuntos de datos, se utilizó una validación cruzada de diez veces con fines de capacitación y prueba. En la cohorte de sepsis, el conjunto de entrenamiento Hospital-A se estandarizó aplicando primero transformaciones de normalización, luego restando la media y dividiendo por la desviación estándar. A continuación, todos los conjuntos de datos restantes en la cohorte de sepsis (Hospitales B, C y D) se normalizaron usando exactamente las mismas transformaciones utilizadas en los datos de entrenamiento.

WUPERR se comparó con varios métodos de aprendizaje continuo de referencia para predecir la sepsis en cuatro hospitales en tres métricas que incluyen AUCroc, valor predictivo positivo y sensibilidad. Dado que las tasas de incidencia de sepsis variaron entre los diferentes sitios de atención médica, también informamos el rendimiento del modelo utilizando la métrica de valor predictivo positivo, en un umbral correspondiente a la sensibilidad del 80 % en la tarea 1. Además, en el momento de la evaluación (en la prueba datos) en un sitio determinado, el modelo se evaluó en todas las cohortes del hospital. Cabe señalar que se usa un estilo de línea continua (en las Figs. 2, 3 y las Figs. S4–S12 del material complementario) para representar un sitio hospitalario cuyos datos de entrenamiento ya han sido vistos por el modelo, mientras que una línea discontinua indica que el modelo aún no ha sido entrenado en el sitio hospitalario correspondiente. Por ejemplo, en la Fig. 2, dado que el modelo se entrena por primera vez con los datos del Hospital-A, el rendimiento del modelo en este conjunto de datos después del aprendizaje continuo en todos los hospitales posteriores se muestra en estilo de línea continua para indicar que el modelo ya había visto esta cohorte de pacientes en el pasado. El preprocesamiento de datos se realizó con Numpy52 y los modelos se implementaron con TensorFlow53.

Los conjuntos de datos de muestra analizados en el estudio actual están disponibles a través del sitio web PhysioNet Challenge 2019 (https://physionet.org/content/challenge2019/) y el repositorio WUPERR_CLP (https://github.com/NematiLab/WUPERR_CLP). Para obtener más información, póngase en contacto con el autor correspondiente.

El código utilizado para entrenar y validar el modelo estará disponible en https://github.com/NematiLab/WUPERR_CLP.

Yu, K.-H., Beam, AL & Kohane, IS Inteligencia artificial en el cuidado de la salud. Nat. biomedicina Ing. 2, 719–731. https://doi.org/10.1038/s41551-018-0305-z (2018).

Artículo PubMed Google Académico

Topol, EJ Medicina de alto rendimiento: la convergencia de la inteligencia humana y artificial. Nat. Medicina. 25, 44–56. https://doi.org/10.1038/s41591-018-0300-7 (2019).

Artículo CAS PubMed Google Académico

Lee, CS & Lee, AY Aplicaciones clínicas del aprendizaje automático de aprendizaje continuo. Dígito de lanceta. Salud 2, e279–e281. https://doi.org/10.1016/S2589-7500(20)30102-3 (2020).

Artículo PubMed PubMed Central Google Académico

Tyler, NS y col. Un sistema de apoyo a la decisión de inteligencia artificial para el manejo de la diabetes tipo 1. Nat. metab. 2, 612–619. https://doi.org/10.1038/s42255-020-0212-y (2020).

Artículo PubMed PubMed Central Google Académico

Zhou, Y., Wang, F., Tang, J., Nussinov, R. y Cheng, F. Inteligencia artificial en la reutilización de fármacos para la COVID-19. Dígito de lanceta. Saludhttps://doi.org/10.1016/S2589-7500(20)30192-8 (2020).

Artículo PubMed PubMed Central Google Académico

McKinney, SM et al. Evaluación internacional de un sistema de IA para el cribado del cáncer de mama. Naturaleza 577, 89–94. https://doi.org/10.1038/s41586-019-1799-6 (2020).

Artículo ADS CAS PubMed Google Scholar

Abramoff, MD et al. Detección automatizada mejorada de la retinopatía diabética en un conjunto de datos disponible públicamente a través de la integración del aprendizaje profundo. investigando Oftalmol. Vis. ciencia 57, 5200–5206. https://doi.org/10.1167/iovs.16-19964 (2016).

Artículo Google Académico

De Fauw, J. et al. Aprendizaje profundo clínicamente aplicable para el diagnóstico y derivación en enfermedades de la retina. Nat. Medicina. 24, 1342–1350. https://doi.org/10.1038/s41591-018-0107-6 (2018).

Artículo CAS PubMed Google Académico

Esteva, A. et al. Clasificación a nivel dermatólogo del cáncer de piel con redes neuronales profundas. Naturaleza 542, 115–118. https://doi.org/10.1038/nature21056 (2017).

Artículo ADS CAS PubMed PubMed Central Google Scholar

Fleuren, LM et al. Aprendizaje automático para la predicción de la sepsis: una revisión sistemática y un metanálisis de la precisión de las pruebas de diagnóstico. Medicina de Cuidados Intensivos 46, 383–400. https://doi.org/10.1007/s00134-019-05872-y (2020).

Artículo PubMed PubMed Central Google Académico

Yim, J. et al. Predicción de la conversión a degeneración macular húmeda relacionada con la edad mediante el aprendizaje profundo. Nat. Medicina. 26, 892–899. https://doi.org/10.1038/s41591-020-0867-7 (2020).

Artículo CAS PubMed Google Académico

Kim, H., Goo, JM, Lee, KH, Kim, YT y Park, CM Modelo de aprendizaje profundo basado en TC preoperatorio para predecir la supervivencia libre de enfermedad en pacientes con adenocarcinomas de pulmón. Radiología 296, 216–224. https://doi.org/10.1148/radiol.2020192764 (2020).

Artículo PubMed Google Académico

Wang, P. et al. El sistema de detección automática en tiempo real aumenta las tasas de detección de adenomas y pólipos colonoscópicos: un estudio prospectivo, aleatorizado y controlado. Tripa 68, 1813–1819. https://doi.org/10.1136/gutjnl-2018-317500 (2019).

Artículo PubMed Google Académico

Wang, F., Casalino, LP & Khullar, D. Aprendizaje profundo en medicina: promesa, progreso y desafíos. Pasante JAMA. Medicina. 179, 293–294. https://doi.org/10.1001/jamainternmed.2018.7117 (2019).

Artículo PubMed Google Académico

Ching, T. et al. Oportunidades y obstáculos para el aprendizaje profundo en biología y medicina. JR Soc. Interfaz 15, 20170387. https://doi.org/10.1098/rsif.2017.0387 (2018).

Artículo PubMed PubMed Central Google Académico

Una encuesta sobre el aprendizaje profundo en medicina: ¿Por qué, cómo y cuándo? | Lector mejorado de Elsevier, https://doi.org/10.1016/j.inffus.2020.09.006.

Shokri, R. & Shmatikov, V. Aprendizaje profundo para preservar la privacidad. En Actas de la 22.ª Conferencia ACM SIGSAC sobre seguridad informática y de las comunicaciones, CCS '15, 1310–1321, https://doi.org/10.1145/2810103.2813687 (Association for Computing Machinery, Nueva York, NY, EE. UU., 2015).

Beam, AL & Kohane, IS Big data y aprendizaje automático en el cuidado de la salud. JAMA 319, 1317–1318. https://doi.org/10.1001/jama.2017.18391 (2018).

Artículo PubMed Google Académico

Wong, A. et al. Validación externa de un modelo patentado de predicción de sepsis ampliamente implementado en pacientes hospitalizados. Pasante JAMA. Medicina. 181, 1065–1070 (2021).

Artículo Google Académico

Wong, A. et al. Cuantificación de alertas de modelos de sepsis en 24 hospitales de EE. UU. antes y durante la pandemia de COVID-19. Red JAMA Abierto 4, e2135286 (2021).

Artículo Google Académico

Wardi, G. et al. Predicción de la progresión al shock séptico en el departamento de emergencias utilizando un algoritmo de aprendizaje automático generalizable externamente. Ana. emergente Med.https://doi.org/10.1016/j.annemergmed.2020.11.007 (2021).

Artículo PubMed PubMed Central Google Académico

Holder, AL, Shashikumar, SP, Wardi, G., Buchman, TG y Nemati, S. Una herramienta basada en datos optimizada localmente para predecir el uso de vasopresores asociado a la sepsis en la UCI. crítico Cuidado Med. 49, e1196–e1205 (2021).

Académico de Google de PubMed

Salud, C. f. D. a. R. Inteligencia Artificial y Machine Learning en el Software como Dispositivo Médico. FDA (FDA, 2021)

Vokinger, KN, Feuerriegel, S. y Kesselheim, AS Aprendizaje continuo en dispositivos médicos: el plan de acción de la FDA y más allá. Dígito de lanceta. Salud 3, e337–e338 (2021).

Artículo Google Académico

Rieke, N. et al. El futuro de la salud digital con el aprendizaje federado. npj Dígito. Medicina. 3, 1–7. https://doi.org/10.1038/s41746-020-00323-1 (2020).

Artículo Google Académico

Kaissis, G. et al. Privacidad de extremo a extremo que preserva el aprendizaje profundo en imágenes médicas multiinstitucionales. Nat. Mach. Intel. 3, 473–484. https://doi.org/10.1038/s42256-021-00337-8 (2021).

Artículo Google Académico

Warnat-Herresthal, S. et al. Swarm Learning para el aprendizaje automático clínico descentralizado y confidencial. Naturaleza 594, 265–270. https://doi.org/10.1038/s41586-021-03583-3 (2021).

Artículo ADS CAS PubMed PubMed Central Google Scholar

Price, WN & Cohen, IG Privacidad en la era de los grandes datos médicos. Nat. Medicina. 25, 37–43. https://doi.org/10.1038/s41591-018-0272-7 (2019).

Artículo CAS PubMed PubMed Central Google Scholar

Zenke, F., Poole, B. & Ganguli, S. Aprendizaje continuo a través de la inteligencia sináptica. En Actas de la 34.ª Conferencia internacional sobre aprendizaje automático, 3987–3995 (PMLR, 2017). ISSN: 2640-3498.

van de Ven, GM & Tolias, AS Tres escenarios para el aprendizaje continuo. arXiv:1904.07734 [cs, estadísticas] (2019).

Goodfellow, IJ, Mirza, M., Xiao, D., Courville, A. y Bengio, Y. Una investigación empírica del olvido catastrófico en redes neuronales basadas en gradientes. arXiv:1312.6211 [cs, stat] (2015).

Kiyasseh, D., Zhu, T. & Clifton, D. Un marco de aprendizaje profundo clínico para el aprendizaje continuo de las señales cardíacas a través de enfermedades, tiempo, modalidades e instituciones. Nat. común 12, 4221. https://doi.org/10.1038/s41467-021-24483-0 (2021).

Artículo ADS CAS PubMed PubMed Central Google Scholar

Kirkpatrick, J. et al. Superando el olvido catastrófico en redes neuronales. arXiv:1612.00796 [cs, stat] (2017).

Rebuffi, S.-A., Kolesnikov, A., Sperl, G. & Lampert, CH iCaRL: Clasificador incremental y aprendizaje de representación. arXiv:1611.07725 [cs, estadística] (2017).

Rolnick, D., Ahuja, A., Schwarz, J., Lillicrap, TP y Wayne, G. Experimente la reproducción para el aprendizaje continuo. arXiv:1811.11682 [cs, stat] (2019).

Lopez-Paz, D. & Ranzato, MA Gradiente de memoria episódica para el aprendizaje continuo. En Avances en sistemas de procesamiento de información neuronal, vol. 30 (Curran Associates, Inc., 2017).

Shin, H., Lee, JK, Kim, J. y Kim, J. Aprendizaje continuo con repetición generativa profunda. arXiv:1705.08690 [cs] (2017).

Evaluación de los Criterios Clínicos para Sepsis: Para las Definiciones del Tercer Consenso Internacional para Sepsis y Shock Séptico (Sepsis-3) | Medicina de Cuidados Críticos | JAMA | Red JAMA.

Rajkomar, A., Dean, J. & Kohane, I. Aprendizaje automático en medicina. N. ingl. J.Med. 380, 1347–1358. https://doi.org/10.1056/NEJMra1814259 (2019).

Artículo PubMed Google Académico

Norgeot, B., Glicksberg, BS & Butte, AJ Un llamado a la atención médica de aprendizaje profundo. Nat. Medicina. 25, 14–15. https://doi.org/10.1038/s41591-018-0320-3 (2019).

Artículo CAS PubMed Google Académico

Miotto, R., Wang, F., Wang, S., Jiang, X. y Dudley, JT Aprendizaje profundo para el cuidado de la salud: revisión, oportunidades y desafíos. Breve. Bioinformar. 19, 1236-1246. https://doi.org/10.1093/bib/bbx044 (2018).

Artículo PubMed Google Académico

Xu, J. et al. Aprendizaje federado para la informática sanitaria. J. Salud c. Informar. Res. 5, 1–19. https://doi.org/10.1007/s41666-020-00082-4 (2021).

Artículo PubMed Google Académico

Sheller, MJ et al. Aprendizaje federado en medicina: facilitar colaboraciones multiinstitucionales sin compartir datos de pacientes. ciencia Rep. 10, 12598. https://doi.org/10.1038/s41598-020-69250-1 (2020).

Artículo ADS CAS PubMed PubMed Central Google Scholar

Huang, L. et al. La agrupación de pacientes mejora la eficiencia del aprendizaje automático federado para predecir la mortalidad y el tiempo de estancia en el hospital mediante registros médicos electrónicos distribuidos. J. Biomédica. Informar. 99, 103291. https://doi.org/10.1016/j.jbi.2019.103291 (2019).

Artículo PubMed Google Académico

Qayyum, A., Ahmad, K., Ahsan, MA, Al-Fuqaha, A. y Qadir, J. Aprendizaje federado colaborativo para la atención médica: diagnóstico multimodal de COVID-19 en el borde. arXiv:2101.07511 [cs] (2021).

Wong, A. et al. Cuantificación de alertas de modelos de sepsis en 24 hospitales de EE. UU. antes y durante la pandemia de COVID-19. Red JAMA Abierto 4, e2135286. https://doi.org/10.1001/jamanetworkopen.2021.35286 (2021).

Artículo PubMed PubMed Central Google Académico

Shashikumar, SP, Wardi, G., Malhotra, A. & Nemati, S. El algoritmo de predicción de sepsis de inteligencia artificial aprende a decir "no sé". tecnología Rep. (2021). https://doi.org/10.1101/2021.05.06.21256764.

Hung, C.-Y. et al. Compactar, recoger y crecer para no olvidar el aprendizaje continuo. En Avances en sistemas de procesamiento de información neuronal, vol. 32 (Curran Associates, Inc., 2019).

Li, X., Zhou, Y., Wu, T., Socher, R. y Xiong, C. Aprenda a crecer: un marco de aprendizaje de estructura continua para superar el olvido catastrófico. En Actas de la 36.ª Conferencia internacional sobre aprendizaje automático, 3925–3934 (PMLR, 2019). ISSN: 2640-3498.

Johnson, A. et al. MIMIC-IV, https://doi.org/10.13026/S6N6-XD98. Número de versión: 1.0 Tipo: conjunto de datos.

Cantante, M. et al. Las definiciones del tercer consenso internacional para la sepsis y el shock séptico (sepsis-3). JAMA 315, 801–810. https://doi.org/10.1001/jama.2016.0287 (2016).

Artículo CAS PubMed PubMed Central Google Scholar

Harris, CR et al. Programación de matrices con NumPy. Naturaleza 585, 357–362 (2020).

Artículo ADS CAS Google Académico

Abadi, M. et al. Tensorflow: un sistema para el aprendizaje automático a gran escala. En OSDI vol. 16, 265–283 (2016).

Descargar referencias

El Dr. Nemati está financiado por los Institutos Nacionales de Salud (\(\#\)R01LM013998 y \(\#\)R35GM143121), y la Fundación Gordon and Betty Moore (\(\#\)GBMF9052). El Dr. Holder cuenta con el respaldo del Instituto Nacional de Ciencias Médicas Generales de los Institutos Nacionales de Salud (\(\#\)K23GM37182) y de Baxter International. Los recursos computacionales para los experimentos informados fueron posibles gracias a una generosa subvención de crédito en la nube de Amazon, como parte de un premio de investigación de AWS al Dr. Shashikumar. Nos gustaría agradecer a la Dra. Gari D. Clifford y la Dra. Lucila Ohno-Machado por sus interesantes debates relacionados con el análisis para preservar la privacidad.

División de Informática Biomédica, Universidad de California San Diego, San Diego, EE. UU.

Fatemeh Amrollahi, Supreeth P. Shashikumar y Shamim Nemati

División de Medicina Pulmonar, Cuidados Críticos, Alergia y del Sueño, Facultad de Medicina de la Universidad de Emory, Atlanta, EE. UU.

André L. Titular

También puede buscar este autor en PubMed Google Scholar

También puede buscar este autor en PubMed Google Scholar

También puede buscar este autor en PubMed Google Scholar

También puede buscar este autor en PubMed Google Scholar

FA, SPS y SN participaron en la concepción y diseño original del trabajo. FA desarrolló las arquitecturas de red, realizó los experimentos, SPS y SN revisaron los experimentos y contribuyeron a la interpretación de los resultados. ALH proporcionó experiencia clínica y contribuyó a la interpretación de los resultados y la redacción final. FA preparó todas las figuras. FA, SPS, ALH y SN escribieron y editaron el manuscrito.

Correspondencia a Shamim Nemati.

Los autores declaran no tener conflictos de intereses.

Springer Nature se mantiene neutral con respecto a los reclamos jurisdiccionales en mapas publicados y afiliaciones institucionales.

Acceso abierto Este artículo tiene una licencia internacional Creative Commons Attribution 4.0, que permite el uso, el intercambio, la adaptación, la distribución y la reproducción en cualquier medio o formato, siempre que se otorgue el crédito correspondiente al autor o autores originales y a la fuente. proporcionar un enlace a la licencia Creative Commons e indicar si se realizaron cambios. Las imágenes u otro material de terceros en este artículo están incluidos en la licencia Creative Commons del artículo, a menos que se indique lo contrario en una línea de crédito al material. Si el material no está incluido en la licencia Creative Commons del artículo y su uso previsto no está permitido por la regulación legal o excede el uso permitido, deberá obtener el permiso directamente del titular de los derechos de autor. Para ver una copia de esta licencia, visite http://creativecommons.org/licenses/by/4.0/.

Reimpresiones y permisos

Amrollahi, F., Shashikumar, SP, Holder, AL et al. Aprovechamiento de datos clínicos en instituciones de atención médica para el aprendizaje continuo de modelos predictivos de riesgo. Informe científico 12, 8380 (2022). https://doi.org/10.1038/s41598-022-12497-7

Descargar cita

Recibido: 13 enero 2022

Aceptado: 11 de mayo de 2022

Publicado: 19 mayo 2022

DOI: https://doi.org/10.1038/s41598-022-12497-7

Cualquier persona con la que compartas el siguiente enlace podrá leer este contenido:

Lo sentimos, un enlace para compartir no está disponible actualmente para este artículo.

Proporcionado por la iniciativa de intercambio de contenido Springer Nature SharedIt

Al enviar un comentario, acepta cumplir con nuestros Términos y Pautas de la comunidad. Si encuentra algo abusivo o que no cumple con nuestros términos o pautas, márquelo como inapropiado.

COMPARTIR