Interpretable AI con SHAP
Interpretable AI with SHAP
Un caso para la IA interpretable
Vivimos en la era de la IA. Está en todas partes, y los medios no nos permiten olvidar el impacto que sigue teniendo en el mundo tal como lo conocemos. Debido a la creciente popularidad de la IA y sus aplicaciones, cada vez más personas están tomando conciencia del papel que juega el aprendizaje automático en la vida cotidiana, desde los sistemas de recomendación hasta las previsiones y la IA generativa.
Con la creciente sensibilidad de la población en general hacia todo lo relacionado con la IA, es cada vez más importante que los científicos de datos e ingenieros puedan interpretar, cuando sea necesario, por qué sus modelos hacen ciertas predicciones y decisiones. Por lo general, un buen modelo puede tomar un problema y explicar lo que es probable que se observe en el futuro. Sin embargo, esto solo aborda una parte del problema real:
“El modelo también debe explicar cómo llegó a la predicción (el por qué), porque una predicción correcta solo resuelve parcialmente tu problema original.” – Christoph Molnar, Aprendizaje automático interpretable
La cita anterior enfatiza la necesidad de abordar el proceso que un modelo utiliza para hacer sus predicciones. Hay muchos métodos para explicar modelos, pero me voy a centrar en un método que se ha vuelto cada vez más popular debido a su eficacia y simplicidad.
SHAP (SHapley Additive exPlanations)
SHAP es una aplicación del valor de Shapley, un concepto bien probado de la teoría de juegos cooperativos que mide la contribución individual de cada jugador al resultado de un juego. Por ejemplo, si cuatro amigos están jugando juntos a un juego cooperativo, se pueden calcular los valores de Shapley para medir en qué medida cada amigo contribuyó al resultado del juego.
- 2024 Bola de cristal de gestión de datos principales 4 tendencias e...
- Científicos de la Computación de la Universidad de Massachusetts Am...
- El cambio de la IA generativa de GPT-3.5 a GPT-4
Cuando se trata de aprendizaje automático interpretable, SHAP trata a los jugadores en un juego como características individuales en un modelo y trata el resultado del juego como las predicciones del modelo. Por lo tanto, SHAP mide cómo cada característica en un modelo afecta una predicción individual.
Detalles
Los valores de Shapley se calculan mediante la simulación de un juego en el que algunos jugadores están ausentes y otros están presentes. Al simular varios juegos con diferentes grupos de jugadores presentes y calcular los resultados, el modelo puede…