130 Trucos y Recursos de Aprendizaje Automático Seleccionados Cuidadosamente de 3 Años (Además de un eBook Gratuito)
130 Trucos y Recursos de Aprendizaje Automático Seleccionados
Cada uno vale tu tiempo

Introducción
Existen dos tipos de trucos en ciencia de datos y aprendizaje automático: los trucos que son raros y muy geniales. Están diseñados para captar tu atención, pero en última instancia, nunca los utilizarás porque sus casos de uso son demasiado limitados. Piensa en esos fragmentos de código de una línea en Python que son terribles en términos de legibilidad.
En la segunda categoría, hay trucos que son raros, geniales y tan útiles que comenzarás a utilizarlos de inmediato en tu trabajo.
En mi viaje de tres años en el mundo de los datos, he recopilado más de 100 trucos y recursos que entran en la segunda categoría (a veces puede haber una pequeña superposición con la primera categoría) y los he organizado en un libro en línea: Tricking Data Science.
Aunque hay más de 200 elementos en el libro en línea y están organizados de manera ordenada, he seleccionado los mejores 130 para este artículo, ya que VoAGI ofrece una experiencia de lectura mucho mejor.
¡Por favor, disfrútalo!
- La intersección entre CDP y IA Cómo la Inteligencia Artificial está...
- Más oradores anunciados para ODSC APAC 2023
- NLP Moderno Una Visión Detallada. Parte 4 Los Últimos Desarrollos
En caso de que desees saltar al libro sin leer el artículo completo (quiero decir, por 50 minutos, ¿quién lo haría?), te pediría que dejes esos 50 aplausos y me sigas antes de hacerlo 🙂
Trucos
1. Importancia de la Permutación con ELI5
La importancia de la permutación es una de las formas más confiables de ver las características importantes en un modelo.
Sus ventajas:
- Funciona en cualquier estructura de modelo
- Fácil de interpretar e implementar
- Consistente y confiable
La importancia de la permutación de una característica se define como el cambio en el rendimiento del modelo cuando esa característica se mezcla al azar.
La importancia de la permutación está disponible a través del paquete eli5. A continuación se muestran los puntajes de importancia de la permutación para un modelo de Regresión XGBoost👇
La función show_weights muestra las características que más perjudican el rendimiento del modelo después de haber sido mezcladas, es decir, las características más importantes.