Explicabilidad del modelo, revisada SHAP y más allá
Explicabilidad del modelo, SHAP revisado y más
El rápido aumento de los modelos de lenguaje grandes ha dominado gran parte de la conversación sobre IA en los últimos meses, lo cual es comprensible dado la novedad de los LLMs y la rapidez con la que se integran en los flujos de trabajo diarios de los profesionales de ciencia de datos y ML.
Las preocupaciones de larga data sobre el rendimiento de los modelos y los riesgos que representan siguen siendo cruciales, y la explicabilidad está en el centro de estas preguntas: ¿cómo y por qué los modelos producen las predicciones que nos ofrecen? ¿Qué hay dentro de la caja negra?
Esta semana, volvemos al tema de la explicabilidad del modelo con varios artículos recientes que abordan sus complejidades con sutileza y ofrecen enfoques prácticos para que los profesionales experimenten. ¡Feliz aprendizaje!
- En el centro de cualquier desafío de explicabilidad está la pregunta de qué características de sus datos contribuyen más a la predicción de un modelo. La introducción de Khouloud El Alami al análisis de importancia de características con SHAP es un recurso amigable para principiantes, basado en el proyecto de investigación del autor en Spotify.
- Si ya has trabajado con SHAP en el pasado y buscas ampliar tus herramientas, Conor O’Sullivan ofrece una guía práctica para manejar casos de uso más especializados, específicamente cómo mostrar gráficos SHAP para problemas de clasificación y agregar valores SHAP para objetivos de múltiples clases.
- Para una nueva perspectiva sobre las posibilidades que la explicabilidad del modelo abre, no te pierdas el reciente artículo de Diksha Sen Chaudhury sobre un proyecto que une datos de salud y aprendizaje automático. El objetivo de Diksha era mostrar cómo el uso de SHAP puede hacer que un modelo no solo sea interpretable, sino también útil para investigadores que deseen comparar resultados con los hallazgos en la literatura médica.
- Como Vegard Flovik lo expresa acertadamente, “para aplicaciones en industrias de activos pesados críticos para la seguridad, donde los errores pueden llevar a resultados desastrosos, la falta de transparencia puede ser un obstáculo importante para la adopción”. Para abordar esta brecha, Vegard proporciona una guía exhaustiva para el marco de código abierto Iguanas, y muestra cómo puedes aprovechar sus capacidades de generación automática de reglas para aumentar la explicabilidad.
- Aunque los valores SHAP han demostrado ser beneficiosos en muchos escenarios del mundo real, también tienen limitaciones. Samuele Mazzanti advierte contra darle demasiado peso (¡juego de palabras!) a la importancia de las características, y recomienda prestar igual atención a la contribución del error, ya que “el hecho de que una característica sea importante no implica que sea beneficiosa para el modelo”.
Sabemos que el comienzo de septiembre es un momento agitado para muchos de ustedes, pero si tienen un poco más de tiempo libre, no se equivocarán con ninguno de nuestros otros artículos recomendados esta semana:
- Si estás en un bootcamp de ciencia de datos en este momento o estás pensando en asistir a uno en el futuro, la guía completa de Alexandra Oberemok para aprovechar al máximo la experiencia es imprescindible.
- Corredores, esto es para ustedes: la nueva inmersión profunda de barrysmyth explora los datos de maratones para evaluar diferentes estrategias para optimizar su rendimiento.
- Para su artículo debut en TDS, Christian Burke nos lleva detrás de escena de un innovador proyecto de arte generativo de IA del MOMA en el que él desempeñó un papel clave.
- Olga Chernytska compartió una nueva entrega en su excelente serie “Building Better ML Systems”, esta vez centrada en aspectos fundamentales, métricas y conjuntos de pruebas.
- ¿No estás seguro de cómo manejar datos faltantes? Miriam Santos proporciona un recurso completo sobre este problema perenne y explica cómo identificar y marcar valores faltantes en conjuntos de datos del mundo real.
- Si buscas una explicación técnica detallada, el resumen de Antonieta Mastrogiuseppe sobre el algoritmo de descenso de gradiente es claro y bien ejecutado.
¡Gracias por apoyar el trabajo de nuestros autores! Si disfrutas de los artículos que lees en TDS, considera convertirte en miembro de VoAGI: desbloquea todo nuestro archivo (y cada otra publicación en VoAGI, también).
- “Navegando la Odisea de los Datos Principales Tendencias en Analíti...
- Conoce a TinyLlama un pequeño modelo de IA que tiene como objetivo ...
- Alibaba presenta dos modelos de lenguaje de visión amplia (LVLM) de...