Qu’est ce que le machine learning ?

Besoin d'aide ?
somdn_product_page

(Nombre de téléchargements - 0)

Catégorie :

Pour des questions et des demandes, contactez notre service d’assistance E-mail : info@chatpfe.com

Table des matières

Liste des tableaux
Acronyms
I Introduction générale
1 Introduction
2 problématique
3 Contribution
II État de l’art
1 Qu’est ce que le machine learning ?
2 performance et surapprentissage
3 Les différents types de machine learning
3.1 apprentissage supervisé et non supervisé
3.2 régression et classification
4 Les différents type d’algorithme
4.1 La régression linéaire
4.2 Les k plus proches voisins
4.3 Le classifieur naïf de Bayes
4.4 k-means
4.5 Les arbres de décision
4.6 Les forets aléatoires
4.7 Les machines à vecteur de support
4.8 Le perceptron multicouches
5 Conclusion
III Deep Learning
1 Introduction
2 Histoire du deep learning
3 Pourquoi le deep learning ?
4 Les différents types de modèles
4.1 Les réseaux de neurones convolutifs
4.1.1 Inspiration
4.1.2 L’opération de convolution
4.1.3 Couche convolutif
4.1.4 Couche de pooling
4.1.5 Perceptron
4.1.6 Quelques réseaux convolutifs célèbres
4.2 Réseau de neurones récurrents
4.2.1 C’est quoi un Recurrent Neural Network (RNN) ?
4.2.2 Apprentissage
4.2.3 Application
4.3 deep generative model
5 Optimisation pour l’apprentissage en Deep Learning
5.1 Les variantes de la descente de gradient
5.1.1 Batch gradient descent
5.1.2 Descente de gradient stochastique
5.1.3 Mini-batch gradient descent
5.2 Algorithmes d’optimisation de la descente de gradient
5.2.1 Momentum
5.2.2 Nesterov accelerated gradient
5.2.3 Adagrad
5.2.4 RMSprop
5.2.5 Adam optimizer
5.3 Les méthodes du second ordre
5.4 Les limites théoriques de l’optimisation
6 Les fonctions d’activation
6.1 Caractéristiques
6.2 Quelque fonction d’activation
6.2.1 Rectified Linear Units et leur généralisations
6.2.2 Sigmoïde et tangente hyperbolique
7 Conclusion
IV Contribution
1 Introduction
2 Problématique étudié
3 Présentation des outils
3.1 Le software
3.1.1 Theano
3.1.2 TensorFlow
3.1.3 Keras
3.1.4 PyTorch
3.1.5 Autres frameworks
3.2 Le hardware
4 Quelques notions
5 Architecture
6 initialisation des paramètres
6.1 Glorot initialization
6.1.1 Comment ?
7 L’apprentissage
7.0.1 Discussion
8 Régularisation
8.1 Dropout
9 Exponential Linear Units
10 Batch normalization
11 Global average pooling
12 Interface
13 Conclusion
V Conclusion et perspectives
Bibliographie

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *