La experiencia de inteligencia artificial en el sector sanitario traza una hoja de ruta para otras industrias

La industria de la salud ha dependido de la inteligencia artificial durante mucho tiempo. Con sus muchos desafíos, el sector ha tenido que lidiar con la forma en que los hospitales, siempre con problemas de liquidez y márgenes estrechos, pueden dedicar los recursos necesarios para el uso de la IA. Estas herramientas pueden requerir tanta supervisión y verificación que se pierdan eficiencias y valor. Sin embargo, los estándares emergentes de atención médica tecnológica pueden hacer necesaria su uso.

La experiencia del sector salud con las cuestiones básicas de la adquisición y la implementación de IA debería ser instructiva para las organizaciones de todos los sectores que están evaluando si deberían implementar una herramienta de IA y por qué.

Algunas de estas preguntas básicas incluyen si la herramienta es necesaria o útil para la organización, si la organización tiene la experiencia para evaluar y probar la herramienta, y los recursos y la voluntad para monitorear esta tecnología aún no probada para el control de calidad.

Las herramientas de inteligencia artificial basadas en reglas (aquellas que hacen predicciones basadas en conjuntos de datos definidos que incluyen registros médicos y otros datos clínicos) han estado en el conjunto de herramientas del médico durante muchos años.

Pueden ayudar en la toma de decisiones diagnósticas mediante:

  • Analizar las probabilidades de ciertas enfermedades o condiciones
  • Proporcionar orientación para la cirugía robótica y asistida por láser
  • Revisión de ecografías, mamografías y otras imágenes radiológicas.
  • Generar avisos de seguridad clínica en el sistema computarizado de ingreso de órdenes de medicamentos del proveedor que alertan sobre posibles errores de medicación cuando un médico ingresa una orden en el historial médico electrónico de un paciente

Las cuestiones en la debida diligencia de adquisición de tales herramientas habrían incluido cómo evaluar la herramienta, incluida la pertinencia de los datos utilizados para entrenar los algoritmos; pruebas rigurosas antes de implementar la herramienta; y la designación de una persona o comité para monitorear el resultado, específicamente buscando errores, ambigüedades y cuánta supervisión humana requeriría la herramienta.

¿La herramienta, en última instancia, ahorra tiempo y agrega valor medible, o debe ser tratada como una enfermera de primer año o un médico residente cuyas decisiones deben ser cuestionadas nuevamente?

La experiencia con herramientas de toma de decisiones diagnósticas y de CPOE proporciona una buena hoja de ruta para el tipo de evaluación que se debe realizar en una herramienta de IA en cualquier industria para asegurar la aprobación y la financiación. En la CPOE, el médico ingresa una orden de medicación, junto con cierta información del paciente, como el género, la edad y un código de diagnóstico para la afección primaria del paciente.

El CPOE puede emitir una alerta indicando que la dosis es demasiado alta o demasiado baja para un paciente de ese perfil, basándose en los datos utilizados para entrenar el algoritmo del CPOE. De manera similar, una herramienta de toma de decisiones diagnósticas proporciona al médico probabilidades de diagnóstico basadas en los síntomas documentados en la historia clínica electrónica, en comparación con los datos de síntomas de las historias clínicas utilizadas para el algoritmo.

Si bien estas herramientas pueden ser útiles, ninguna de ellas implica una evaluación práctica del paciente, necesaria para llegar a un diagnóstico o recetar la medicación adecuada. Es posible que algunos síntomas y marcadores críticos no estén en los registros médicos que la herramienta utiliza para la evaluación, lo que hace necesaria una supervisión humana significativa.

Existen algunos casos en los que el grado de supervisión humana necesaria podría superar la utilidad de la herramienta de IA. En teoría, una herramienta de IA generativa podría analizar las entradas de la historia clínica de un paciente y generar documentos como historiales médicos y notas físicas y resúmenes de alta, que tradicionalmente redactan los médicos.

El problema es que las herramientas de inteligencia artificial generativa son famosas por sus errores conocidos como “alucinaciones”, en los que la herramienta básicamente inventa hechos. Si bien puede haber vidas en juego en la precisión de esas entradas, lo que hace que la revisión humana de los resultados de la herramienta sea crucial, pocos trabajadores tienen más escasez de tiempo que los médicos de los hospitales.

Esto plantea la pregunta: ¿La revisión humana de documentos generados por IA requeriría más tiempo que la preparación de documentos sin la herramienta?

El uso de la IA en el ámbito de la atención sanitaria también está sujeto a normas de responsabilidad bastante estrictas, aunque confusas, que entran en la matriz de decisiones para la adquisición y el despliegue de herramientas de IA. Algunas cuestiones que se deben tener en cuenta son las siguientes:

  • ¿Los estándares de atención médica exigen el uso de las herramientas de inteligencia artificial disponibles, de modo que un médico podría ser responsable por no usarlas? ¿O podría el médico depender demasiado de la herramienta?
  • Si hubiera verificación o rechazo de una decisión médica sugerida por la herramienta, ¿debería racionalizarse la decisión mediante documentación contemporánea?
  • ¿Cuánto tiempo requiere esa documentación?
  • ¿Los datos utilizados para entrenar el algoritmo fueron oportunos, suficientemente completos y pertinentes para la población local de pacientes?

Las empresas de cualquier industria altamente regulada y propensa a litigios deben tener en cuenta la exposición a responsabilidad al decidir adquirir e implementar una nueva herramienta de IA.

Dado que el pasado suele ser un prólogo, las organizaciones de otros sectores pueden aprender de los años de experiencia del sector sanitario con la IA. Hacer las preguntas adecuadas en el momento de la adquisición o antes de ella, o contratar a expertos que puedan plantearlas, puede facilitar el uso de la IA y reducir los riesgos económicos y legales.

Este artículo no refleja necesariamente la opinión de Bloomberg Industry Group, Inc., el editor de Bloomberg Law y Bloomberg Tax, o sus propietarios.

Información del autor

Kenneth Rashbaum es socio de Barton y asesora a corporaciones multinacionales, organizaciones de servicios financieros y organizaciones de ciencias biológicas.

Escriba para nosotros: Pautas para los autores

Leave a Comment