La experiencia de inteligencia fabricado en el sector taza traza una hoja de ruta para otras industrias

La industria de la vitalidad ha dependido de la inteligencia fabricado durante mucho tiempo. Con sus muchos desafíos, el sector ha tenido que torear con la forma en que los hospitales, siempre con problemas de solvencia y márgenes estrechos, pueden destinar los posibles necesarios para el uso de la IA. Estas herramientas pueden requerir tanta supervisión y demostración que se pierdan eficiencias y valía. Sin retención, los estándares emergentes de atención médica tecnológica pueden hacer necesaria su uso.

La experiencia del sector vitalidad con las cuestiones básicas de la adquisición y la implementación de IA debería ser instructiva para las organizaciones de todos los sectores que están evaluando si deberían implementar una útil de IA y por qué.

Algunas de estas preguntas básicas incluyen si la útil es necesaria o útil para la estructura, si la estructura tiene la experiencia para evaluar y probar la útil, y los posibles y la voluntad para monitorear esta tecnología aún no probada para el control de calidad.

Las herramientas de inteligencia fabricado basadas en reglas (aquellas que hacen predicciones basadas en conjuntos de datos definidos que incluyen registros médicos y otros datos clínicos) han estado en el conjunto de herramientas del médico durante muchos abriles.

Pueden ayudar en la toma de decisiones diagnósticas mediante:

  • Analizar las probabilidades de ciertas enfermedades o condiciones
  • Proporcionar orientación para la cirugía robótica y asistida por láser
  • Revisión de ecografías, mamografías y otras imágenes radiológicas.
  • Producir avisos de seguridad clínica en el sistema computarizado de ingreso de órdenes de medicamentos del proveedor que alertan sobre posibles errores de receta cuando un médico ingresa una orden en el historial médico electrónico de un paciente

Las cuestiones en la debida diligencia de adquisición de tales herramientas habrían incluido cómo evaluar la útil, incluida la pertinencia de los datos utilizados para entrenar los algoritmos; pruebas rigurosas ayer de implementar la útil; y la designación de una persona o comité para monitorear el resultado, específicamente buscando errores, ambigüedades y cuánta supervisión humana requeriría la útil.

¿La útil, en última instancia, ahorra tiempo y agrega valía medible, o debe ser tratada como una enfermera de primer año o un médico residente cuyas decisiones deben ser cuestionadas nuevamente?

La experiencia con herramientas de toma de decisiones diagnósticas y de CPOE proporciona una buena hoja de ruta para el tipo de evaluación que se debe realizar en una útil de IA en cualquier industria para sostener la aprobación y la financiación. En la CPOE, el médico ingresa una orden de receta, inmediato con cierta información del paciente, como el clase, la etapa y un código de diagnosis para la afección primaria del paciente.

El CPOE puede emitir una alerta indicando que la dosis es demasiado suscripción o demasiado desestimación para un paciente de ese perfil, basándose en los datos utilizados para entrenar el cálculo del CPOE. De modo similar, una útil de toma de decisiones diagnósticas proporciona al médico probabilidades de diagnosis basadas en los síntomas documentados en la historia clínica electrónica, en comparación con los datos de síntomas de las historias clínicas utilizadas para el cálculo.

Si aceptablemente estas herramientas pueden ser avíos, ninguna de ellas implica una evaluación maña del paciente, necesaria para resistir a un diagnosis o formular la receta adecuada. Es posible que algunos síntomas y marcadores críticos no estén en los registros médicos que la útil utiliza para la evaluación, lo que hace necesaria una supervisión humana significativa.

Existen algunos casos en los que el cargo de supervisión humana necesaria podría exceder la utilidad de la útil de IA. En teoría, una útil de IA generativa podría analizar las entradas de la historia clínica de un paciente y ocasionar documentos como historiales médicos y notas físicas y resúmenes de suscripción, que tradicionalmente redactan los médicos.

El problema es que las herramientas de inteligencia fabricado generativa son famosas por sus errores conocidos como “alucinaciones”, en los que la útil básicamente inventa hechos. Si aceptablemente puede sobrevenir vidas en pasatiempo en la precisión de esas entradas, lo que hace que la revisión humana de los resultados de la útil sea crucial, pocos trabajadores tienen más escasez de tiempo que los médicos de los hospitales.

Esto plantea la pregunta: ¿La revisión humana de documentos generados por IA requeriría más tiempo que la preparación de documentos sin la útil?

El uso de la IA en el ámbito de la atención sanitaria incluso está sujeto a normas de responsabilidad conveniente estrictas, aunque confusas, que entran en la matriz de decisiones para la adquisición y el despliegue de herramientas de IA. Algunas cuestiones que se deben tener en cuenta son las siguientes:

  • ¿Los estándares de atención médica exigen el uso de las herramientas de inteligencia fabricado disponibles, de modo que un médico podría ser responsable por no usarlas? ¿O podría el médico subordinarse demasiado de la útil?
  • Si hubiera demostración o rechazo de una audacia médica sugerida por la útil, ¿debería racionalizarse la audacia mediante documentación contemporánea?
  • ¿Cuánto tiempo requiere esa documentación?
  • ¿Los datos utilizados para entrenar el cálculo fueron oportunos, suficientemente completos y pertinentes para la población restringido de pacientes?

Las empresas de cualquier industria enormemente regulada y propensa a litigios deben tener en cuenta la exposición a responsabilidad al animarse mercar e implementar una nueva útil de IA.

Transmitido que el pasado suele ser un prólogo, las organizaciones de otros sectores pueden estudiar de los abriles de experiencia del sector taza con la IA. Hacer las preguntas adecuadas en el momento de la adquisición o ayer de ella, o contratar a expertos que puedan plantearlas, puede proveer el uso de la IA y acortar los riesgos económicos y legales.

Este artículo no refleja necesariamente la opinión de Bloomberg Industry Group, Inc., el editor de Bloomberg Law y Bloomberg Tax, o sus propietarios.

Información del autor

Kenneth Rashbaum es socio de Barton y asesora a corporaciones multinacionales, organizaciones de servicios financieros y organizaciones de ciencias biológicas.

Escriba para nosotros: Pautas para los autores