Titre : | Gradient Boosting : une introduction (2022) |
Auteurs : | Guillaume Saupin, Auteur |
Type de document : | Article : texte imprimé |
Dans : | GNU / Linux magazine France (N°256, Mars / avril 2022) |
Article en page(s) : | p. 14-22 |
Langues: | Français |
Sujets : |
IESN Data science ; Gradient (mathématique - analyse) ; Machine learning ; Mathématique |
Résumé : | "Lorsqu'il s'agit de résoudre des problèmes de Machine Learning sur données tabulées, c'est-à-dire issues de base de données relationnelles ou de fichiers de type CSV, les grandes gagnantes sont les méthodes de Gradient Boosting. Pour preuve, XGBoost, LightGBM, ou encore CatBoost se retrouvent généralement en tête des meilleurs algorithmes dans les concours de type Kaggle. Dans cet article, nous allons entrer dans le détail de leur fonctionnement, à l'aide de code, pour en cerner toutes les subtilités." (Extrait de GNU/Linux magazine n°256) |
Exemplaires (1)
Localisation | Section | Support | Cote de rangement | Statut | Disponibilité |
---|---|---|---|---|---|
Bibliothèque IESN | _Périodiques | Périodique | 68 GNU 256 | Empruntable sur demande | Disponible |