La IA generativa en la industria de la salud necesita una dosis de explicabilidad

La IA generativa en salud necesita explicabilidad

La notable velocidad a la que las herramientas de IA generativa basadas en texto pueden completar tareas de escritura y comunicación de alto nivel ha llamado la atención tanto de las empresas como de los consumidores. Sin embargo, los procesos que tienen lugar detrás de escena para habilitar estas impresionantes capacidades pueden hacer que sea arriesgado para industrias sensibles y reguladas por el gobierno, como seguros, finanzas o atención médica, aprovechar la IA generativa sin tomar precauciones considerables.

Algunos de los ejemplos más ilustrativos de esto se pueden encontrar en la industria de la salud.

Tales problemas suelen estar relacionados con los extensos y diversos conjuntos de datos utilizados para entrenar Modelos de Lenguaje Grande (LLMs) – los modelos de los que se alimentan las herramientas de IA generativa basadas en texto para realizar tareas de alto nivel. Sin intervención explícita externa de los programadores, estos LLMs tienden a raspar datos indiscriminadamente de diversas fuentes en Internet para ampliar su base de conocimientos.

Este enfoque es más apropiado para casos de uso orientados al consumidor de bajo riesgo, en los que el objetivo final es dirigir a los clientes hacia ofertas deseadas con precisión. Sin embargo, cada vez más, los grandes conjuntos de datos y las rutas confusas por las que los modelos de IA generan sus resultados están oscureciendo la explicabilidad que los hospitales y los proveedores de atención médica requieren para rastrear y prevenir posibles inexactitudes.

En este contexto, la explicabilidad se refiere a la capacidad de comprender los caminos lógicos de cualquier LLM dado. Los profesionales de la salud que buscan adoptar herramientas de IA generativa asistencial deben tener los medios para comprender cómo sus modelos producen resultados para que los pacientes y el personal cuenten con total transparencia en diversos procesos de toma de decisiones. En otras palabras, en una industria como la atención médica, donde están en juego vidas humanas, los riesgos son simplemente demasiado altos para que los profesionales interpreten mal los datos utilizados para entrenar sus herramientas de IA.

Afortunadamente, existe una manera de evitar el dilema de la explicabilidad de la IA generativa, solo requiere un poco más de control y enfoque.

Misterio y Escepticismo

En la IA generativa, el concepto de entender cómo un LLM llega del Punto A -la entrada- al Punto B -la salida- es mucho más complejo que con algoritmos no generativos que siguen patrones más definidos.

Las herramientas de IA generativa establecen innumerables conexiones mientras van de la entrada a la salida, pero para el observador externo, cómo y por qué realizan una determinada serie de conexiones sigue siendo un misterio. Sin una forma de ver el “proceso de pensamiento” que toma un algoritmo de IA, los operadores humanos carecen de un medio exhaustivo para investigar su razonamiento y rastrear posibles inexactitudes.

Además, los conjuntos de datos en constante expansión utilizados por los algoritmos de aprendizaje automático complican aún más la explicabilidad. Cuanto más grande sea el conjunto de datos, mayor será la probabilidad de que el sistema aprenda tanto información relevante como irrelevante y produzca “alucinaciones de IA” – falsedades que se desvían de los hechos externos y la lógica contextual, por muy convincentes que sean.

En la industria de la salud, este tipo de resultados defectuosos pueden provocar una serie de problemas, como diagnósticos erróneos y prescripciones incorrectas. Además de las consecuencias éticas, legales y financieras, tales errores podrían dañar fácilmente la reputación de los proveedores de atención médica y las instituciones médicas que representan.

Entonces, a pesar de su potencial para mejorar las intervenciones médicas, mejorar la comunicación con los pacientes y fortalecer la eficiencia operativa, la IA generativa en la atención médica sigue estando envuelta en escepticismo, y con razón: el 55% de los médicos no creen que esté lista para su uso médico y el 58% desconfía de ella por completo. Sin embargo, las organizaciones de atención médica siguen adelante, con el 98% integrando o planeando una estrategia de implementación de IA generativa en un intento de mitigar el impacto de la escasez de mano de obra en el sector.

Controla la Fuente

La industria de la salud a menudo se ve atrapada en la actualidad del consumidor, que valora la eficiencia y la rapidez por encima de garantizar medidas de seguridad sólidas. Las noticias recientes sobre los peligros de raspar datos casi ilimitados para entrenar LLMs, lo que ha llevado a demandas por infracción de derechos de autor, han llevado estos problemas al primer plano. Algunas empresas también enfrentan reclamos de que se extrajo información personal de los ciudadanos para entrenar estos modelos de lenguaje, lo que podría violar las leyes de privacidad.

Los desarrolladores de IA para industrias altamente reguladas deben ejercer control sobre las fuentes de datos para limitar posibles errores. Es decir, dar prioridad a la extracción de datos de fuentes confiables y aprobadas por la industria, en lugar de raspar páginas web externas de manera indiscriminada y sin permiso expreso. Para la industria de la salud, esto significa limitar las entradas de datos a páginas de preguntas frecuentes, archivos CSV y bases de datos médicas, entre otras fuentes internas.

Si esto suena algo limitante, intenta buscar un servicio en el sitio web de un gran sistema de salud. Las organizaciones de atención médica de los Estados Unidos publican cientos, si no miles, de páginas informativas en sus plataformas; la mayoría están tan ocultas que los pacientes nunca pueden acceder a ellas. Las soluciones de IA generativa basadas en datos internos pueden proporcionar esta información a los pacientes de manera conveniente y sin problemas. Esto es beneficioso para todas las partes, ya que el sistema de salud finalmente obtiene un retorno de la inversión de este contenido, y los pacientes pueden encontrar los servicios que necesitan de forma instantánea y sin esfuerzo.

¿Qué sigue para la IA generativa en las industrias reguladas?

La industria de la salud se beneficiará de la IA generativa de varias maneras.

Considere, por ejemplo, el agotamiento generalizado que afecta al sector de la salud en los Estados Unidos últimamente: se estima que casi el 50% de la fuerza laboral renunciará para el año 2025. Los chatbots impulsados por IA generativa podrían ayudar a aliviar gran parte de la carga de trabajo y preservar los equipos de acceso a pacientes sobreexigidos.

En el lado del paciente, la IA generativa tiene el potencial de mejorar los servicios de los centros de llamadas de los proveedores de atención médica. La automatización de la IA tiene el poder de abordar una amplia gama de consultas a través de diversos canales de contacto, incluyendo preguntas frecuentes, problemas de TI, recetas farmacéuticas y referencias de médicos. Además de la frustración que conlleva esperar en espera, solo alrededor de la mitad de los pacientes en los Estados Unidos resuelven con éxito sus problemas en su primera llamada, lo que resulta en altas tasas de abandono y acceso limitado a la atención médica. La baja satisfacción del cliente resultante crea una mayor presión para que la industria actúe.

Para que la industria realmente se beneficie de la implementación de la IA generativa, los proveedores de atención médica deben facilitar una reestructuración intencional de los datos a los que acceden sus LLM.