Formation TensorFlow
2520€ HT / personne |
4 jours (28 heures) |
Présentation
Notre formation Tensorflow vous permettra d’utiliser le framework TensorFlow, l’un des outils les plus utilisés pour l’apprentissage automatique et l’analyse de données.
Cette formation vous permettra de découvrir les bases de TensorFlow ainsi que ses applications dans la résolution de problèmes complexes. Tout au long de la formation, vous aurez l’opportunité de mettre en pratique vos connaissances grâce à des exercices pratiques et des exemples concrets.
Vous apprendrez comment déployer des modèles TensorFlow sur différentes plates-formes, telles que les applications mobiles et web, et comment les intégrer à des systèmes existants.
Nous nous pencherons ensuite sur les fonctions de coût, les optimiseurs et les différentes méthodes de régularisation pour améliorer les performances du modèle.
Comme dans toutes nos formations, celle-ci vous présentera la toute dernière version stable de TensorFlow 2.17, sortie en Juillet 2024 couplée à Python 3.13.
Objectifs
- Découvrir les nouveautés de la v2 et être capable d’installer et d’utiliser TensorFlow de manière autonome
- Comprendre le concept de Deep Learning et être capable de l’utiliser avec TensorFlow
- Manipuler des volumes importants de données en utilisant les bonnes pratiques grâce à TensorFlow
- Configurer une machine pour runner des modèles de deep learning
- Créer un pipeline de données avec data augmentation
- Utiliser des modèles pré-construits (estimators) de TensorFlow sur un Dataset
- Comprendre la théorie derrière les différents blocs des réseaux de neurones
- Construire un réseau de neurones avec TensorFlow
- Comprendre la théorie de l’entrainement d’un réseau de neurones
- Lancer l’entrainement du réseau
- Surveiller et affiner l’entrainement grâce à Tensorboard et à des callbacks
- Utiliser des réseaux déjà pré-entraînés pour les appliquer à un cas précis
- Appliquer les réseaux de neurones à différents cas d’application
Public visé
- Data Analyst / Data Scientist / Data Engineer
- Développeurs, Architectes Big Data, Lead Developer
Pré-requis
- Connaissance de Python idéalement, ou langage récent de programmation
- Connaissances en Mathématiques (exemple : gradient, moyenne/écart type), idéalement niveau bac+2 école d’ingénieur
- Tester Mes Connaissances
PRÉ-REQUIS LOGICIELS
- L’installation de TensorFlow peut se faire avec une compatibilité GPU sous Windows comme sur Linux
- Ou bien pour celles et ceux qui n’ont pas un PC assez puissant ou qui ne veulent pas de cette complexité, vous pourrez tout à fait réaliser l’ensemble du cours sur Google Colab (qui met à disposition des GPUs gratuitement sous réserve d’avoir un compte)
RECOMMANDATIONS DE LECTURES AVANT ET APRÈS LA FORMATION
Je vous recommande les ressources suivantes pour vous aider à approfondir vos connaissances en TensorFlow :
- Le blog TensorFlow de Google, qui contient des informations détaillées sur les dernières versions de TensorFlow et des astuces pour son utilisation
- Le livre Hands-On Machine Learning with Scikit-Learn, Keras, and TensorFlow de Aurélien Géron
- La chaîne YouTube TensorFlow de Google, qui propose des tutoriels vidéo sur les principes de l’apprentissage automatique et de TensorFlow
- Les forums de développeurs TensorFlow pour discuter avec d’autres utilisateurs et poser des questions sur le Framework
- Le blog de Jason Brownlee, qui propose des astuces et des exemples de code pour l’apprentissage automatique et TensorFlow
Programme de notre formation TensorFlow version 2
Journée 1 matin : Manipulation de vecteurs et tenseurs avec TensorFlow
- Installation
- Installation de Tensorflow
- Google Collab
- Utiliser Tensorflow comme Numpy
- Tenseurs et opérations
- Variables
- Cas d’usages
- Huber Loss
- Import d’images
Après-midi : Construire un pipeline de données
- Tensorflow Data API
- Concept de Dataset
- Enchaîner les transformations
- Shuffle de la donnée
- Entrelacement
- Création d’un pipeline de lecture de CSV complet
- Optimisations
- API de prétraitement Tensorflow
- Utilité
- Colonnes numériques
- Colonnes catégorielles
- Utilisation en tant que layer
Journée 2 matin : Introduction aux réseaux de neurones avec Keras
- Keras
- De la biologie aux neurones artificiels
- Le neurone biologique
- Calculs logiques avec des neurones
- Le perceptron
- Les MLPs et la rétropropagation
- MLPs de régression
- MLPs de classification
- Implémenter des MLPs avec Tensorflow
- Sauvegarder et restaurer un modèle
- Utiliser des callbacks
Après-midi : Entraîner des Réseaux de Neurones
- Le problème du “Vanishing Gradient”
- Réutilisation de modèles pré-entraînés
- Optimiseurs plus rapides
- Mise en pratique
- Création d’un classificateur d’image avec l’API Séquentielle
- Création d’une régression avec l’API Séquentielle
- Création de modèles complexes avec l’API Fonctionnelle
- Optimisation des hyperparamètres
Journée 3 matin : CNN
- La vision par ordinateur
- L’architecture du cortex visuel
- Les couches de convolutions
- Les couches de Pooling
- Les différentes architectures des réseaux de neurones convolutionnels (CNN)
- Data Augmentation
Après-midi : Travaux pratique sur les Modèles
- Implémentation d’un CNN Simple sur TensorFlow
- Utilisation de modèles pré-entraînés
- Modèles pré-entraînés pour du Transfer Learning
- Classification et localisation d’objets
Journée 4 matin : Cas d’applications
- Traitement des données séquentielles avec des RNNs et des CNNs
- Les neurones et les layers récurrents
- Entraîner un RNN
- Prédire une série temporelle
- Mise en pratique du Natural Language Processing with RNNs
- Comment préparer les données textuelles ?
- Comment séparer le dataset en de multiples fenêtres ?
- Générer du fake Shakespear
- Classification de texte : Analyse Sentimentale
Après-midi : Autoencoders
- Representation Learning et Generative Learning avec des AutoEncodeurs et des GANs
- Créer un PCA avec une partie d’AutoEncodeur
- Construire un “Stacked Autoencoder” avec TensorFlow
- Générer de faux vêtements avec des GANs
Module Complémentaire Tensorflow IoT – 2 jours supplémentaires (uniquement pour des formations d’équipe)
TensorFlow appliqué à l’IoT
- Pourquoi utiliser un système l’embarqué ?
- IoT et IA (Théorie)
- État de l’art : Exemples concrets et possibilités d’application de l’AI à IoT
- Les deux principales architectures
- Cloud AI (Théorie)
- Exemples avec Google Cloud
- On device inference (Théorie)
- Exemples d’applications sur Raspberry Pi
- IoT et IA (Théorie)
TENSORFLOW
- Une brève revue
- Contrainte
- De Python à C++ (Théorie)
- Python 3.X et n’importe quelle version de C++, en utilisant Bazel
- Hardware (Théorie)
- Raspberry (Ubuntu 16.04 ou 18.04) ARM64
- Les VPU / TPU
- Intel Movidius Neural Compute Stick
- De Python à C++ (Théorie)
Présentation de TensorFlow Lite Optimisation
- Initialiser un environnement (Théorie + Exercices)
- R1.14 (stable) ou R2.0 (stable/preview)
- Workflow
- Présentation globale (Théorie)
- Obtenir un modèle (Exercices)
- Exemple avec InceptionV3
- Convertir (exercices)
- Utilisation de TensorFlow Lite Converter
- Charger le graphique en C++
- Déployer et appliquer
- Sur un système Ubuntu (16.04 ou 18.04)
- Optimiser (Exercices)
- Quantization
- Performance
- Best practices (Théorie + Exercices)
- Supprimer la redondance
- Jouer avec le multi-threading
- Best practices (Théorie + Exercices)
Module Complémentaire TensorFlow Avancé – 4 jours supplémentaires (uniquement pour des formations d’équipe)
Les Nouveautés TensorFlow 2.x
- Construction de modèle facile avec l’API Keras
- Déploiement de modèles robustes en production sur n’importe quelle plate-forme
- Nettoyage des API obsolètes et réduction des duplications
- Itération immédiate et un débogage intuitif
- Nouvelles extensions
- Tensors Ragged
- TensorFlow Probability
- Tensor2Tensor
- Module de Compatibilité à TensorFlow 1
- tensorflow.compat.v1
Comprendre le Deep Learning
- Deep Learning : La révolution de l’Intelligence Artificielle
- Les limites du Machine Learning
- Avantages du Deep Learning face au Machine learning
- Les raisons de passer au Deep
- Exemples de la vie réelle et scénarios applicables
- Les Math derrière le Machine Learning : Linear Algebra
- Scalars
- Vectors
- Matrices
- Tensors
- Hyperplanes
- Les Math derrière le Machine Learning : Statistics
- Probability
- Conditional Probabilities
- Posterior Probability
- Distributions
- Samples vs Population
- Resampling Methods
- Selection Bias
- Likelihood
- Les algorithmes du Machine Learning
- Regression
- Classification
- Clustering
- Reinforcement Learning
- Underfitting & Overfitting
- Optimization
- Convex Optimization
TensorFlow
- Définition : Neural Networks
- Biological Neuron
- Perceptron
- Multi-Layer Feed-Forward Networks
- Apprentissage Neuronal (Learning Neural Networks)
- Backpropagation Learning
- Gradient Descent
- Stochastic Gradient Descent
- Quasi-Newton Optimization Methods
- Generative vs Discriminative Models
- Activation Functions
- Linear
- Sigmoid
- Tanh
- Hard Tanh
- Softmax
- Rectified Linear
- Loss Functions
- Loss Function Notation
- Loss Functions for Regression
- Loss Functions for Classification
- Loss Functions for Reconstruction
- Hyperparameters
- Learning Rate
- Regularization
- Momentum
- Sparsity
Comprendre les réseaux neuronaux
- Defining Deep Learning
- Defining Deep Networks
- Common Architectural Principals of Deep Networks
- Reinforcement Learning application in Deep Networks
- Parameters
- Layers
- Activation Functions – Sigmoid, Tanh, ReLU
- Loss Functions
- Optimization Algorithms
- Hyperparameters
Convolutional Neural Network (CNN Algorithm)
- Introduction à CNN
- Mise en application et architecture d’un CNN
- Couches de convolution : Pooling layers in a CNN
- Couches de convolution et de mise en commun dans une CNN
- Comprendre et visualiser un CNN
- Transfert d’apprentissage et mise au point des réseaux de neurones convolutionnels
Recurrent Neural Networks (RNN Algorithm)
- Introduction au RNN Model
- Cas d’utilisation du RNN
- Modelling sequences
- Apprentissage RNNs avec Backpropagation
- Long Short-Term memory (LSTM)
- Recursive Neural Tensor Network Theory
- Recurrent Neural Network Model
RBM & Autoencoders
- Restricted Boltzmann Machine
- Applications de RBM
- Collaborative Filtering avec RBM
- Introduction à l’Autoencoders
- Autoencoders applications
- Comprendre et utiliser Autoencoders
- Variational Autoencoders
- Deep Belief Network
Pour aller plus loin
Introduction au Deep Learning
Formation Pytorch
Formation Metaflow
Formation Deep Learning pour l’interprétation et le traitement d’images
Formation Deep Learning pour le traitement du langage
Formation Deep Reinforcement Learning
Langues et Lieux disponibles
Langues
- Français
- Anglais / English
Lieux
-
France entière
- Paris
- Lille
- Reims
- Lyon
- Toulouse
- Bordeaux
- Montpellier
- Nice
- Sophia Antipolis
- Marseille
- Aix-en-Provence
- Nantes
- Rennes
- Strasbourg
- Grenoble
- Dijon
- Tours
- Saint-Étienne
- Toulon
- Angers
-
Belgique
- Bruxelles
- Liège
-
Suisse
- Genève
- Zurich
- Lausanne
-
Luxembourg
Nos Formateurs Référents
Maxence
Raphaël
Data Scientist
Témoignages
Les – : Un manque de temps sur la fin pour aborder les GAN
Afficher tous les témoignages
Les – : Un manque de temps sur la fin pour aborder les GAN
Les + : Formation assez complète, riche et dense qui permet de faire le tour de différents types de réseaux de neurones et qui allie théorie et pratique.
Les – : La durée de 4 jours relativement courte
Je souhaite suivre : Formation en Data Engineering
En synthèse : Très bien! Formateur très compétent et à l’écoute.
Merci Thomas
Je recommande la formation
Les + : Application pratique approfondie
Les – : Passage rapide sur la théorie
Les + : Manipulation, Alternance théorie/pratique. Expérience de terrain du formateur.
Les – : –
Je souhaite suivre : Je ne sais pas
En synthèse : L’accueil est impeccable, le cadre de travail très agréable. Le matériel pédagogique est également bien adapté aux besoins de la formation.
La formation est de haut niveau et demande de très solides connaissances. Le formateur a su se partager entre les stagiaires en présentiel et ceux en distanciel.
Je recommande la formation
Les + : Beaucoup de cas d’usage concret et formateur disponible, les TPs sont bien et permettre de bien comprendre les problématiques.
Les – : Peut être un peut cours pour traiter l’ensemble des sujets, j’aurais aimer aborder l’apprentissage par renforcement et le sujet autour du déploiement des modèles et le suivi en production
Je souhaite suivre : pour le moment je n’ai pas d’autres besoin, je vais déjà digérer celle-ci 🙂
Les + : panorama global des applications possibles du deep learning
Les – : un peu trop dense
Je recommande la formation
Les + : multiples cas d’usage
Les – : bien comprendre la théorie
Je souhaite suivre : opencv ?
Les + : Super formateur, formation très tournée pratique qui donne de bonnes bases en TensorFlow , on ne s’ennuie pas !
Locaux sympas.
Les – : Il manquerait un peu de théorique pour mieux comprendre les mathématiques derrière les concepts utilisés.
Bcp de pratique + échanges
Rapide
Merci au formateur !
Navigation Site Reviews
Noter la formation
2520€ HT / personne |
4 jours (28 heures) |
UNE QUESTION ? UN PROJET ? UN AUDIT DE CODE / D'INFRASTRUCTURE ?
Pour vos besoins d’expertise que vous ne trouvez nulle part ailleurs, n’hésitez pas à nous contacter.
ILS SE SONT FORMÉS CHEZ NOUS