AComo parte de una tendencia doméstico que se produjo durante la pandemia, muchos más pacientes de NYU Langone Health comenzaron a usar herramientas de registros médicos electrónicos (EHR) para hacer preguntas a sus médicos, renovar recetas y revisar los resultados de las pruebas. Muchas de estas consultas digitales llegaron a través de una aparejo de comunicación citación In Basket, que está integrada en el sistema EHR de NYU Langone, EPIC.
Aunque los médicos siempre han dedicado tiempo a resolver los mensajes de la historia clínica electrónica, en los últimos abriles han manido un aumento anual de más del 30 por ciento en la cantidad de mensajes que reciben diariamente, según un artículo de Paul A. Testa, MD, director de información médica en NYU Langone. El Dr. Testa escribió que no es raro que los médicos reciban más de 150 mensajes de In Basket por día. Como los sistemas de vigor no están diseñados para manejar este tipo de tráfico, los médicos terminaron llenando el malogrado, pasando largas horas a posteriori del trabajo revisando los mensajes. Esta carga se cita como una de las razones por las que la centro de los médicos informan de agotamiento.
Ahora, un nuevo estudio, dirigido por investigadores de la Talento de Medicina Grossman de la Universidad de Nueva York, muestra que una aparejo de inteligencia industrial puede redactar respuestas a las consultas de los pacientes en su historia clínica electrónica con la misma precisión que sus profesionales de la vigor humanos y con una maduro “empatía” percibida. Los hallazgos resaltan el potencial de estas herramientas para acortar drásticamente la carga de trabajo de los médicos y, al mismo tiempo, mejorar su comunicación con los pacientes, siempre que los proveedores humanos revisen los borradores de la inteligencia industrial antaño de enviarlos.
NYU Langone ha estado probando las capacidades de la inteligencia industrial generativa (genAI), en la que los algoritmos informáticos desarrollan opciones probables para la ulterior palabra en cualquier oración en función de cómo las personas han usado las palabras en contexto en Internet. Un resultado de esta predicción de la ulterior palabra es que los chatbots genAI pueden replicar a las preguntas en un jerga convincente y similar al humano. En 2023, NYU Langone licenció “una instancia privada” de GPT-4, el pariente más fresco del renombrado chatbot chatGPT, que permite a los médicos intentar con datos de pacientes reales sin dejar de cumplir las normas de privacidad de datos.
Publicado en linde el 16 de julio en Red JAMA abiertaEl nuevo estudio examinó los borradores de respuestas generados por GPT-4 a las consultas de los pacientes en su bandeja de entrada, pidiendo a los médicos de atención primaria que los compararan con las respuestas humanas reales a esos mensajes.
“Nuestros resultados sugieren que los chatbots podrían acortar la carga de trabajo de los proveedores de atención médica al permitir respuestas eficientes y empáticas a las preocupaciones de los pacientes”, dijo el autor principal del estudio, el Dr. William Small, profesor clínico adjunto en el Unidad de Medicina de la Talento de Medicina Grossman de la Universidad de Nueva York. “Descubrimos que los chatbots de IA integrados en la historia clínica electrónica que utilizan datos específicos de los pacientes pueden redactar mensajes de calidad similar a los de los proveedores humanos”.
Para el estudio, 16 médicos de atención primaria evaluaron 344 pares de respuestas de IA y humanas a mensajes de pacientes asignados aleatoriamente en cuanto a precisión, relevancia, integridad y tono, e indicaron si utilizarían la respuesta de IA como primer dechado o tendrían que principiar desde cero a redactar el mensaje para el paciente. Fue un estudio ciego, por lo que los médicos no sabían si las respuestas que estaban revisando habían sido generadas por humanos o por la aparejo de IA.
El equipo de investigación descubrió que la precisión, integridad y relevancia de las respuestas de los proveedores humanos y de la IA generativa no diferían estadísticamente. Las respuestas de la IA generativa superaron a las de los proveedores humanos en términos de comprensibilidad y tono en un 9,5 por ciento. Por otra parte, las respuestas de la IA tenían más del doble de probabilidades (125 por ciento más probabilidades) de ser consideradas empáticas y un 62 por ciento más de probabilidades de utilizar un jerga que transmitiera positividad (posiblemente relacionada con la esperanza) y afiliación (“estamos juntos en esto”).
Por otra parte, las respuestas de la IA incluso fueron un 38 por ciento más largas y un 31 por ciento más propensas a utilizar un jerga engorroso, por lo que es necesario un maduro entrenamiento de la aparejo, afirman los investigadores. Mientras que los humanos respondieron a las consultas de los pacientes a un nivel de sexto escalón, la IA escribía a un nivel de octavo escalón, según una medida en serie de legibilidad citación puntuación Flesch Kincaid.
Los investigadores argumentaron que el uso de información privada de pacientes por parte de los chatbots, en puesto de la información caudillo de Internet, se aproxima más a cómo se usaría esta tecnología en el mundo existente. Se necesitarán estudios futuros para confirmar si los datos privados mejoraron específicamente el rendimiento de las herramientas de IA.
“Este trabajo demuestra que la aparejo de IA puede ocasionar borradores de respuestas de incorporación calidad a las solicitudes de los pacientes”, afirmó el autor correspondiente, el Dr. Devin Mann, director sénior de Innovación Informática en Tecnología de la Información del Centro Médico Langone de NYU. “Con esta aprobación médica, la calidad de los mensajes de GenAI será igual en el futuro cercano en calidad, estilo de comunicación y facilidad de uso a las respuestas generadas por humanos”, agregó el Dr. Mann, quien incluso es profesor en los Departamentos de Vitalidad y Medicina de la Población.
Unido con el Dr. Small y el Dr. Mann, los autores del estudio de NYU Langone fueron Beatrix Brandfield-Harvey, BS; Zoe Jonassen, PhD; Soumik Mandal, PhD; Elizabeth R. Stevens, MPH, PhD; Vincent J. Major, PhD; Erin Lostraglio; Adam C. Szerencsy, DO; Simon A. Jones, PhD; Yindalon Aphinyanaphongs, MD, PhD; y Stephen B. Johnson, PhD. Otros autores fueron Oded Nov, MSc, PhD, en la NYU Tandon School of Engineering, y Batia Mishan Wiesenfeld, PhD, de la NYU Stern School of Business.
El estudio fue financiado por las subvenciones 1928614 y 2129076 de la National Science Foundation y las subvenciones P500PS_202955 y P5R5PS_217714 de la Swiss National Science Foundation.
Consultas de los medios
Greg Williams
Teléfono: 212-404-3500
Gregory.Williams@NYULangone.org