Machine learning avec Scikit-Learn
Saved in:
Main Author : | |
---|---|
Other Authors : | |
Format : | Book |
Language : | français |
Title statement : | Machine learning avec Scikit-Learn / Aurélien Géron; traduit de l'anglais par Anne Bohy |
Published : |
Malakoff :
Dunod
, DL 2017 |
Physical Description : | 1 vol. (XII-244 p.) |
Traduction de : | Hands-on machine learning with Scikit-Learn and TensorFlow |
Subjects : | |
Related Items : | Additional physical form:
Machine learning avec Scikit-Learn |
- P. VII
- Avant-propos
- P. 1
- Chapitre 1. - Vue d'ensemble du Machine Learning
- P. 2
- 1.1 Qu'est-ce que l'apprentissage automatique ?
- P. 3
- 1.2 Pourquoi utiliser l'apprentissage automatique ?
- P. 6
- 1.3 Types de systèmes d'apprentissage automatique
- P. 21
- 1.4 Principales difficultés de l'apprentissage automatique
- P. 28
- 1.5 Test et validation
- P. 30
- 1.6 Exercices
- P. 33
- Chapitre 2. - Un projet de Machine Learning de bout en bout
- P. 33
- 2.1 Travailler avec des données réelles
- P. 35
- 2.2 Prendre du recul pour une vision d'ensemble
- P. 40
- 2.3 Récupérer les données
- P. 52
- 2.4 Découvrir et visualiser les données pour mieux les comprendre
- P. 58
- 2.5 Préparer les données pour les algorithmes d'apprentissage automatique
- P. 66
- 2.6 Sélectionner et entraîner un modèle
- P. 70
- 2.7 Régler avec précision votre modèle
- P. 75
- 2.8 Lancer, surveiller et maintenir votre système
- P. 75
- 2.9 Essayez !
- P. 76
- 2.10 Exercices
- P. 77
- Chapitre 3. - Classification
- P. 77
- 3.1 MNIST
- P. 80
- 3.2 Entraînement d'un classificateur binaire
- P. 80
- 3.3 Mesures de performances
- P. 91
- 3.4 Classification multi-classes
- P. 93
- 3.5 Analyse des erreurs
- P. 97
- 3.6 Classification multi-étiquettes
- P. 98
- 3.7 Classification multi-sorties
- P. 99
- 3.8 Exercices
- P. 101
- Chapitre 4. - Entraînement de modèles
- P. 102
- 4.1 Régression linéaire
- P. 106
- 4.2 Descente de gradient
- P. 116
- 4.3 Régression polynomiale
- P. 118
- 4.4 Courbes d'apprentissage
- P. 121
- 4.5 Modèles linéaires régularisés
- P. 128
- 4.6 Régression logistique
- P. 136
- 4.7 Exercices
- P. 137
- Chapitre 5. - Machines à vecteurs de support
- P. 137
- 5.1 Classification SVM linéaire
- P. 141
- 5.2 Classification SVM non linéaire
- P. 146
- 5.3 Régression SVM
- P. 148
- 5.4 Sous le capot
- P. 156
- 5.5 Exercices
- P. 159
- Chapitre 6. - Arbres de décision
- P. 159
- 6.1 Entraîner et visualiser un arbre de décision
- P. 161
- 6.2 Effectuer des prédictions
- P. 163
- 6.3 Estimation des probabilités des classes
- P. 163
- 6.4 Algorithme d'entraînement CART
- P. 164
- 6.5 Complexité algorithmique
- P. 164
- 6.6 Impureté Gini ou entropie ?
- P. 165
- 6.7 Hyperparamètres de régularisation
- P. 167
- 6.8 Régression
- P. 169
- 6.9 Instabilité
- P. 170
- 6.10 Exercices
- P. 173
- Chapitre 7. - Apprentissage d'ensemble et forêts aléatoires
- P. 174
- 7.1 Classificateurs par vote
- P. 176
- 7.2 Bagging et pasting
- P. 180
- 7.3 Parcelles aléatoires et sous-espaces aléatoires
- P. 180
- 7.4 Forêts aléatoires
- P. 183
- 7.5 Boosting
- P. 191
- 7.6 Stacking
- P. 193
- 7.7 Exercices
- P. 195
- Chapitre 8. - Réduction de dimension
- P. 196
- 8.1 Le fléau de la dimension
- P. 197
- 8.2 Principales approches de la réduction de dimension
- P. 201
- 8.3 PCA
- P. 208
- 8.4 PCA à noyau
- P. 211
- 8.5 LLE
- P. 213
- 8.6 Autres techniques de réduction de dimension
- P. 214
- 8.7 Exercices
- P. 217
- Le mot de la fin
- P. 219
- Annexe A. - Solutions des exercices
- P. 231
- Annexe B. - Liste de contrôle de projet de Machine Learning
- P. 237
- Annexe C. - SVM : le problème dual
- P. 241
- Index