Le machine learning avec Python : la bible des data scientists

La 4e de couv. indique : "Le machine learning (ou apprentissage automatique) est désormais partie intégrante de nombreuses applications commerciales et projets de recherche. Mais ce domaine ne reste pas l'apanage des grandes entreprises dotées d'un département en recherche et développ...

Description complète

Enregistré dans:
Détails bibliographiques
Auteurs principaux : Müller Andreas C. (Auteur), Guido Sarah (Auteur)
Autres auteurs : Rougé Daniel (Traducteur)
Format : Livre
Langue : français
Titre complet : Le machine learning avec Python : la bible des data scientists / Andreas C. Müller et Sarah Guido; [traduction de l'anglais, Daniel Rougé]
Publié : Paris : First interactive , DL 2018
Description matérielle : 1 vol. (XII-376 p.)
Traduction de : Introduction to machine learning with Python
Sujets :
LEADER 09898cam a2200529 4500
001 PPN224736191
003 http://www.sudoc.fr/224736191
005 20240604055600.0
010 |a 978-2-412-03446-0  |b br.  |d 35 EUR 
035 |a (OCoLC)1027708648 
073 1 |a 9782412034460 
100 |a 20180306h20182018k y0frey0103 ba 
101 1 |a fre  |c eng  |e fre 
102 |a FR 
105 |a a z 001yy 
106 |a r 
181 |6 z01  |c txt  |2 rdacontent 
181 1 |6 z01  |a i#  |b xxxe## 
182 |6 z01  |c n  |2 rdamedia 
182 1 |6 z01  |a n 
183 1 |6 z01  |a nga  |2 rdacarrier 
200 1 |a Le machine learning avec Python  |e la bible des data scientists  |f Andreas C. Müller et Sarah Guido  |g [traduction de l'anglais, Daniel Rougé] 
210 |a Paris  |c First interactive  |d DL 2018 
215 |a 1 vol. (XII-376 p.)  |c ill., couv. ill.  |d 23 cm 
303 |a Le nom de l'éditeur (O'Reilly) de la version anglaise du livre figure sur la page de couverture 
320 |a Index 
330 |a La 4e de couv. indique : "Le machine learning (ou apprentissage automatique) est désormais partie intégrante de nombreuses applications commerciales et projets de recherche. Mais ce domaine ne reste pas l'apanage des grandes entreprises dotées d'un département en recherche et développement. Si vous connaissez un minimum le langage de programmation Python, vous apprendrez grâce à ce livre à concevoir vos propres solutions de machine learning. Avec la masse de données qui circulent actuellement, la seule limite que peuvent connaître vos applications de machine learning, c'est votre imagination. Cet ouvrage énumère les étapes nécessaires à la création d'une application de machine learning réussie avec Python et la librairie scikit-learn. Ses auteurs se sont efforcés de ne pas trop insister sur les aspects mathématiques de l'apprentissage automatique, mais plutôt sur les utilisations pratiques de ces algorithmes. Si vous êtes déjà quelque peu familiarisé avec les librairies NumPy et matplotlib, vous n'en serez que plus à l'aise. Au programme de ce livre : concepts fondamentaux et applications de machine learning ; avantages et inconvénients d'utiliser les algorithmes de machine learning les plus courants ; comment représenter les données traitées par le machine learning, et sur lesquelles se concentrer ; méthodes avancées d'évaluation de modèle et ajustement des paramètres ; le concept de pipeline pour le chaînage des modèles et l'encapsulation du flux de travail ; techniques de traitement des données textuelles ; suggestions pour améliorer vos compétences en apprentissage automatique et en sciences des données" 
359 2 |p P. ix  |b Préface  |p P. ix  |c Qui devrait lire ce livre ?  |p P. x  |c Pourquoi nous avons écrit ce livre  |p P. x  |c Naviguer dans le livre  |p P. xi  |c Conventions utilisées dans ce livre  |p P. xii  |c Utiliser les exemples de code  |p P. 1  |b 1. Introduction  |p P. 2  |c Pourquoi l'apprentissage automatique ?  |p P. 2  |c Les problèmes que l'apprentissage automatique peut résoudre  |p P. 5  |c Comprendre votre but et comprendre vos données  |p P. 6  |c Pourquoi Python ?  |p P. 6  |c scikit-learn  |p P. 7  |d Installer scikit-learn  |p P. 8  |c Librairies et outils essentiels  |p P. 8  |d Jupyter Notebook  |p P. 9  |d NumPy  |p P. 9  |d SciPy  |p P. 10  |d matplotlib  |p P. 11  |d pandas  |p P. 12  |d mglearn  |p P. 13  |c Python 2 versus Python 3  |p P. 13  |c Versions utilisées dans ce livre  |p P. 15  |c Une première application : classifier des espèces d'iris  |p P. 16  |d À la rencontre des données  |p P. 19  |d Mesurer la réussite : entraîner et tester les données  |p P. 20  |d Au commencement de tout : vérifier vos données  |p P. 22  |d Construire votre premier modèle : les K plus proches voisins  |p P. 24  |d Faire des prédictions  |p P. 25  |d Évaluer le modèle  |p P. 26  |c Résumé et perspectives  |p P. 29  |b 2. Apprentissage supervisé  |p P. 29  |c Classification et régression  |p P. 30  |c Généralisation, surapprentissage et sous-apprentissage  |p P. 33  |d Relation entre complexité du modèle et taille du jeu de données  |p P. 33  |c Algorithmes pour l'apprentissage automatique supervisé  |p P. 34  |d Exemples de jeux de données  |p P. 38  |d Les k plus proches voisins  |p P. 48  |d Modèles linéaires  |p P. 71  |d Classifieurs bayésiens naïfs  |p P. 73  |d Arbres de décision  |p P. 86  |d Ensembles d'arbres de décision  |p P. 95  |d SVM à noyau  |p P. 107  |d Réseaux de neurones (deep learning)  |p P. 121  |c Estimer l'incertitude pour les classifieurs  |p P. 122  |d La fonction de décision  |p P. 124  |d Prédire les probabilités  |p P. 127  |d Classification multiclasse et incertitude  |p P. 129  |c Résumé et perspectives  |p P. 133  |b 3. Apprentissage non supervisé et prétraitement  |p P. 133  |c Types d'apprentissages non supervisés  |p P. 134  |c Les défis de l'apprentissage non supervisé  |p P. 135  |c Prétraitement et recalibrage  |p P. 135  |d Différents types de prétraitement  |p P. 136  |d Appliquer des transformations aux données  |p P. 139  |d Recalibrer de la même manière le jeu d'apprentissage et le jeu de test  |p P. 141  |d Effet du prétraitement sur l'apprentissage supervisé  |p P. 142  |c Réduction de la dimension, extraction de caractéristiques et apprentissage de variétés  |p P. 143  |d Analyse en composantes principales (PCA)  |p P. 159  |d Factorisation en matrices non négatives (NMF)  |p P. 167  |d Apprentissage de variétés avec t-SNE  |p P. 171  |c Clustering  |p P. 171  |d Partitionnement en k-moyennes  |p P. 185  |d Clustering agglomératif  |p P. 189  |d DBSCAN  |p P. 194  |d Comparer et évaluer les algorithmes de clustering  |p P. 209  |d Résumons les méthodes de clustering  |p P. 209  |c Résumé et perspectives 
359 2 |p P. 213  |b 4. Représentation des données et ingénierie des caractéristiques  |p P. 214  |c Variables catégorielles  |p P. 215  |d Encodage one-hot (variables indicatrices)  |p P. 220  |d Les nombres peuvent encoder des catégories  |p P. 222  |c Binning, discrétisation, modèles linéaires et arbres  |p P. 226  |c Interactions et polynômes  |p P. 234  |c Transformations non linéaires univariées  |p P. 237  |c Sélection automatique de caractéristiques  |p P. 238  |d Statistiques univariées  |p P. 240  |d Sélection de caractéristiques basée sur le modèle  |p P. 242  |d Sélection itérative de caractéristiques  |p P. 243  |c Savoir utiliser l'expertise  |p P. 252  |c Résumé et perspectives  |p P. 253  |b 5. Évaluation et amélioration du modèle  |p P. 254  |c Validation croisée  |p P. 255  |d Validation croisée dans scikit-learn  |p P. 256  |d Bénéfices de la validation croisée  |p P. 257  |d Validation croisée à k-plis stratifiée et autres stratégies  |p P. 263  |c Recherche sur grille  |p P. 263  |d Exemple simple de recherche sur grille  |p P. 264  |d Le danger du surapprentissage des paramètres et du jeu de validation  |p P. 266  |d Recherche sur grille avec validation croisée  |p P. 278  |c Métriques dévaluation et scoring  |p P. 278  |d Ne jamais oublier le but final  |p P. 279  |d Métriques dévaluation pour la classification binaire  |p P. 300  |d Métriques pour la classification multiclasse  |p P. 303  |d Métriques de régression  |p P. 303  |d Utiliser des métriques d'évaluation dans la sélection de modèles  |p P. 305  |c Résumé et perspectives  |p P. 307  |b 6. Chaînage d'algorithmes et pipelines  |p P. 308  |c Sélection de paramètres avec prétraitement  |p P. 310  |c Construire des pipelines  |p P. 311  |c Utiliser des pipelines dans des recherches sur grille  |p P. 314  |c Interface générale de la classe Pipeline  |p P. 315  |d Créer facilement un pipeline avec make_pipeline  |p P. 317  |d Accéder aux attributs des étapes  |p P. 317  |d Accéder aux attributs d'un pipeline depuis GridSearchCV  |p P. 319  |c Étapes de prétraitement et paramètres du modèle  |p P. 321  |c Effectuer une recherche sur grille pour trouver quel modèle utiliser  |p P. 322  |c Résumé et perspectives  |p P. 325  |b 7. Travailler avec des données textuelles  |p P. 325  |c Types de données représentés sous forme de chaînes de caractères  |p P. 327  |c Exemple d'application : analyse de sentiment dans des commentaires de films  |p P. 330  |c Représenter les données textuelles sous forme de sacs de mots  |p P. 331  |d Appliquer une représentation par sac de mots à un jeu de données jouet  |p P. 333  |d La représentation par sac de mots appliquée aux critiques de films  |p P. 337  |c Mots vides (stop words)  |p P. 338  |c Pondérer les données avec tf-idf  |p P. 341  |c Investiguer les coefficients du modèle  |p P. 342  |c Des sacs avec plusieurs mots (n-grammes)  |p P. 347  |c Tokenisation avancée, racinisation et lemmatisation  |p P. 350  |c Modèles de sujets et partitionnement de document  |p P. 350  |d L'allocation de Dirichlet latente (LDA)  |p P. 357  |c Résumé et perspectives  |p P. 359  |b 8. Pour conclure  |p P. 359  |c Aborder un problème d'apprentissage automatique  |p P. 360  |d Est-ce qu'il y des humains dans la boucle ?  |p P. 361  |c Du prototype à la production  |p P. 362  |c Tester des systèmes de production  |p P. 362  |c Construire votre propre estimateur  |p P. 363  |c Pour aller plus loin  |p P. 363  |d Théorie  |p P. 364  |d Autres packages et ressources pour l'apprentissage automatique  |p P. 365  |d Ranking, systèmes de recommandation, et autres types d'apprentissage  |p P. 365  |d Inférence, programmation et modélisation probabiliste  |p P. 366  |d Réseaux de neurones  |p P. 367  |d Recalibrer les jeux de données  |p P. 368  |d Améliorer vos compétences  |p P. 368  |c Conclusion  |p P. 369  |b Index 
454 | |t Introduction to machine learning with Python  |n O'Reilly Media  |d cop. 2017 
606 |3 PPN027940373  |a Apprentissage automatique  |2 rameau 
606 |3 PPN051626225  |a Python (langage de programmation)  |2 rameau 
606 |3 PPN223831433  |a Scikit-Learn  |2 rameau 
606 |3 PPN035198222  |a Exploration de données  |2 rameau 
676 |a 006.31  |v 23  |z fre 
686 |a 68T05  |c 2000  |2 msc 
700 1 |3 PPN196396069  |a Müller  |b Andreas C.  |4 070 
701 1 |3 PPN196396182  |a Guido  |b Sarah  |4 070 
702 1 |3 PPN028974867  |a Rougé  |b Daniel  |f 1952-2020  |c mathématicien  |4 730 
801 3 |a FR  |b Electre  |c 20180216  |g AFNOR 
801 3 |a FR  |b Abes  |c 20190219  |g AFNOR 
930 |5 441092105:613507762  |b 441092105  |j u 
930 |5 441092104:617599769  |b 441092104  |j u 
930 |5 441092306:63004127X  |b 441092306  |a 681.3 MUL  |j u 
979 |a ECN 
979 |a SCI 
998 |a 815319