Tecnologia

Herramienta de inteligencia artificial responde con éxito a preguntas de pacientes en historiales médicos electrónicos


AComo parte de una tendencia nacional que se produjo durante la pandemia, muchos más pacientes de NYU Langone Health comenzaron a usar herramientas de registros médicos electrónicos (EHR) para hacer preguntas a sus médicos, renovar recetas y revisar los resultados de las pruebas. Muchas de estas consultas digitales llegaron a través de una herramienta de comunicación llamada In Basket, que está integrada en el sistema EHR de NYU Langone, EPIC.

Aunque los médicos siempre han dedicado tiempo a gestionar los mensajes de la historia clínica electrónica, en los últimos años han visto un aumento anual de más del 30 por ciento en la cantidad de mensajes que reciben diariamente, según un artículo de Paul A. Testa, MD, director de información médica en NYU Langone. El Dr. Testa escribió que no es raro que los médicos reciban más de 150 mensajes de In Basket por día. Como los sistemas de salud no están diseñados para manejar este tipo de tráfico, los médicos terminaron llenando el vacío, pasando largas horas después del trabajo revisando los mensajes. Esta carga se cita como una de las razones por las que la mitad de los médicos informan de agotamiento.

Ahora, un nuevo estudio, dirigido por investigadores de la Facultad de Medicina Grossman de la Universidad de Nueva York, muestra que una herramienta de inteligencia artificial puede redactar respuestas a las consultas de los pacientes en su historia clínica electrónica con la misma precisión que sus profesionales de la salud humanos y con una mayor “empatía” percibida. Los hallazgos resaltan el potencial de estas herramientas para reducir drásticamente la carga de trabajo de los médicos y, al mismo tiempo, mejorar su comunicación con los pacientes, siempre que los proveedores humanos revisen los borradores de la inteligencia artificial antes de enviarlos.

NYU Langone ha estado probando las capacidades de la inteligencia artificial generativa (genAI), en la que los algoritmos informáticos desarrollan opciones probables para la siguiente palabra en cualquier oración en función de cómo las personas han usado las palabras en contexto en Internet. Un resultado de esta predicción de la siguiente palabra es que los chatbots genAI pueden responder a las preguntas en un lenguaje convincente y similar al humano. En 2023, NYU Langone licenció “una instancia privada” de GPT-4, el pariente más reciente del famoso chatbot chatGPT, que permite a los médicos experimentar con datos de pacientes reales sin dejar de cumplir las normas de privacidad de datos.

Publicado en línea el 16 de julio en Red JAMA abiertaEl nuevo estudio examinó los borradores de respuestas generados por GPT-4 a las consultas de los pacientes en su bandeja de entrada, pidiendo a los médicos de atención primaria que los compararan con las respuestas humanas reales a esos mensajes.

“Nuestros resultados sugieren que los chatbots podrían reducir la carga de trabajo de los proveedores de atención médica al permitir respuestas eficientes y empáticas a las preocupaciones de los pacientes”, dijo el autor principal del estudio, el Dr. William Small, profesor clínico adjunto en el Departamento de Medicina de la Facultad de Medicina Grossman de la Universidad de Nueva York. “Descubrimos que los chatbots de IA integrados en la historia clínica electrónica que utilizan datos específicos de los pacientes pueden redactar mensajes de calidad similar a los de los proveedores humanos”.

Para el estudio, 16 médicos de atención primaria evaluaron 344 pares de respuestas de IA y humanas a mensajes de pacientes asignados aleatoriamente en cuanto a precisión, relevancia, integridad y tono, e indicaron si utilizarían la respuesta de IA como primer borrador o tendrían que empezar desde cero a redactar el mensaje para el paciente. Fue un estudio ciego, por lo que los médicos no sabían si las respuestas que estaban revisando habían sido generadas por humanos o por la herramienta de IA.

El equipo de investigación descubrió que la precisión, integridad y relevancia de las respuestas de los proveedores humanos y de la IA generativa no diferían estadísticamente. Las respuestas de la IA generativa superaron a las de los proveedores humanos en términos de comprensibilidad y tono en un 9,5 por ciento. Además, las respuestas de la IA tenían más del doble de probabilidades (125 por ciento más probabilidades) de ser consideradas empáticas y un 62 por ciento más de probabilidades de utilizar un lenguaje que transmitiera positividad (posiblemente relacionada con la esperanza) y afiliación (“estamos juntos en esto”).

Por otra parte, las respuestas de la IA también fueron un 38 por ciento más largas y un 31 por ciento más propensas a utilizar un lenguaje complejo, por lo que es necesario un mayor entrenamiento de la herramienta, afirman los investigadores. Mientras que los humanos respondieron a las consultas de los pacientes a un nivel de sexto grado, la IA escribía a un nivel de octavo grado, según una medida estándar de legibilidad llamada puntuación Flesch Kincaid.

Los investigadores argumentaron que el uso de información privada de pacientes por parte de los chatbots, en lugar de la información general de Internet, se aproxima más a cómo se usaría esta tecnología en el mundo real. Se necesitarán estudios futuros para confirmar si los datos privados mejoraron específicamente el rendimiento de las herramientas de IA.

“Este trabajo demuestra que la herramienta de IA puede generar borradores de respuestas de alta calidad a las solicitudes de los pacientes”, afirmó el autor correspondiente, el Dr. Devin Mann, director sénior de Innovación Informática en Tecnología de la Información del Centro Médico Langone de NYU. “Con esta aprobación médica, la calidad de los mensajes de GenAI será igual en el futuro cercano en calidad, estilo de comunicación y facilidad de uso a las respuestas generadas por humanos”, agregó el Dr. Mann, quien también es profesor en los Departamentos de Salud y Medicina de la Población.

Junto con el Dr. Small y el Dr. Mann, los autores del estudio de NYU Langone fueron Beatrix Brandfield-Harvey, BS; Zoe Jonassen, PhD; Soumik Mandal, PhD; Elizabeth R. Stevens, MPH, PhD; Vincent J. Major, PhD; Erin Lostraglio; Adam C. Szerencsy, DO; Simon A. Jones, PhD; Yindalon Aphinyanaphongs, MD, PhD; y Stephen B. Johnson, PhD. Otros autores fueron Oded Nov, MSc, PhD, en la NYU Tandon School of Engineering, y Batia Mishan Wiesenfeld, PhD, de la NYU Stern School of Business.

El estudio fue financiado por las subvenciones 1928614 y 2129076 de la National Science Foundation y las subvenciones P500PS_202955 y P5R5PS_217714 de la Swiss National Science Foundation.

Consultas de los medios

Greg Williams
Teléfono: 212-404-3500
Gregory.Williams@NYULangone.org



Source link

Related Articles

Leave a Reply

Your email address will not be published. Required fields are marked *

Back to top button