-tout-savoir-sur-lintelligence-artificielle

Tout savoir sur l'Intelligence Artificielle

Du 02/09/2020 au 27/10/2020

Avec la puissance des machines, les algorithmes d'Intelligence Artificielle vont progressivement s'installer dans le paysage du TI. Ce ne sera pas un déferlement, mais une lame continue, incontournable.

Votre package comprends :
  • Abonnement au site LeMarson pendant un an
  • 14 sessions en direct
  • Des documents à télécharger en relation avec les thèmes traités
  • Des QCM pour vous évaluer à chaque session
Tarif du séminaire
  • Montant total à régler $2,300.00
Inscrivez-vous
14 sessions au programme
Session 1 : Généralités de l’IA et les prérequis mathématiques
Séminaire

Session 1 : Généralités de l’IA et les prérequis mathématiques

L’objet de ce séminaire, c’est quoi l’IA, histoire : de la cybernétique à l’IA, comment en est-on arrivé là, la robotique, les grands noms, tout ce qu’il faut savoir pour bien se positionner. L’approche IA nécessite un certain nombre de prérequis mathématiques. Notre objectif ici n’est pas de se noyer dans un jargon protecteur, mais de donner un sens aux principaux outils mathématiques que l’on va rencontrer dans notre cheminement. Approche d’autant plus nécessaire que les algorithmes qui caractérisent les différents aspects de l’IA, Machine Learning, Deep Learning, etc, ont tous une base de ce type. L’important étant de comprendre à « quoi » ils servent plutôt que de détailler le « comment » ils fonctionnent.
Session 2 : Faisons connaissance avec les réseaux neuronaux, fonctionnement, pondération, transfert
Séminaire

Session 2 : Faisons connaissance avec les réseaux neuronaux, fonctionnement, pondération, transfert

Les réseaux neuronaux sont un élément essentiel du montage de l’IA, ce qui ne veut pas dire que tous les algorithmes sont fondés dessus. On est au cœur du fantasme, simuler le comportement d’un cerveau humain. On verra qu’il n’en est rien. On les trouvera essentiellement dans les session «deep learning ». Il est essentiel de bien comprendre leur fonctionnement général, ce qu’ils font et comment sont implémentés les algorithmes d’apprentissage et d’inférence. Un réseau neuronal est constitué d’une couche d’entrée, d’une couche de sortie et d’un ensemble de couches intermédiaires, des niveaux porteurs des traitements de simulation et d’apprentissage. Il nous faut maîtriser leurs différentes organisations, ce qu’est un perceptron, une fonction d’activation, la pondération des liens inter-neurones, le type « forward propagation », la propagation arrière, l’algorithme de « Gradient Descent », la fonction erreur, etc. Nous veillerons à ne pas nous perdre dans les méandres de l’expression mathématique.
Session 3 : Les types de réseaux neuronaux
Séminaire

Session 3 : Les types de réseaux neuronaux

Il existe un grand nombre d’architectures de réseaux neuronaux, selon les applications auxquelles on les destine, RBN (Radial Basis Network), perceptron multi-niveaux, récurrents, LSTM, Hopfield, de type convolution, etc. Chacun d’eux sera présenté avec ses avantages et inconvénients et nature des applications de destination.
Session 4 : Machine Learning : présentation générale
Séminaire

Session 4 : Machine Learning : présentation générale

Ce qu’est le Machine Learning dans ses grandes lignes, avec sa « fille aînée », le deep learning. L’apprentissage. Trois formes d’apprentissage : supervisé et la nécessité de disposer d’un jeu de données (dataset) sur lequel appliquer l’algorithme, non supervisé et par renforcement. Ce qui les distingue. L’importance de l’annotation, de la normalisation et du compartimentage des données. Peut-on définir la taille optimum d’un dataset, de manière à avoir les plus grands chances d’effectuer une inférence (reconnaissance à partir de données non labellisées) optimale. Sachant que les datasets s’achètent auprès de « brokers » et qu’il convient de ne pas inonder le processus d’apprentissage. Les problèmes de sous et de sur-apprentissage. Les référentiels de datasets. Les métriques d’analyse d’erreurs. Pour chaque famille ML, nous suivrons pas à pas le fonctionnement des algorithmes, avec de nombreuses illustrations, mais sans codage.
Session 5 : ML : apprentissage supervisé, classifications
Séminaire

Session 5 : ML : apprentissage supervisé, classifications

Tout sur les techniques de classification De nombreuses méthodes sont concernées : régression linéaire, SVM (Support Vector Machines), régression logistique, Naive Bayes (algorithme « naïf » de Bayes), Analyse Discriminante Linéaire, arbres de décision, algorithme des plus proches voisins (K-Nearest Neighbor algorithm). Nous sommes ici au cœur du sujet et chaque technique sera présentée avec un exemple précis. Nous nous ferons aider par les moyens visuels adéquats, car il faut impérativement avoir une idée claire de ce que fait chacun de ces algorithmes, de manière à y recourir lorsque le besoin s’en fera sentir, à travers une API.
Session 6 : ML : apprentissage supervisé, régressions
Séminaire

Session 6 : ML : apprentissage supervisé, régressions

L’autre grand domaine de l’apprentissage supervisé, consiste à « deviner » une cible linéaire ou non, caractérisée par une valeur numérique, en fonction du dataset d’apprentissage. Certains algorithmes de classification sont utilisables pour les calculs de régression : Naive Bayes, arbres de décision, K-Nearest Neighbors, auxquels s’ajoutent les algorithmes de LARS Lasso, Random Forest, Elastic Net, Ada Boost, LVQ, etc. Exemples concrets. Là encore, il nous faudra prendre le temps de bien poser les jalons.
Session 7 : ML : apprentissage non supervisé, clustering
Séminaire

Session 7 : ML : apprentissage non supervisé, clustering

Les algorithmes d’apprentissage non supervisé déterminent par eux-mêmes les caractéristiques d’un élément, ses « features », pour construire un vecteur représentatif constitué d’un certain nombre de ces « features ». Les algorithmes et exemples d’usages : K-Means Clustering, Mean-Shift Clustering, GMM, DBSCAN, HAC, etc. Cette technique regroupe elle aussi deux phases, d’apprentissage et d’inférence. Mais sans nécessiter d’annotations.
Session 8 : ML : apprentissage non supervisé, association et réduction dimensionnelle, apprentissage par renforcement
Séminaire

Session 8 : ML : apprentissage non supervisé, association et réduction dimensionnelle, apprentissage par renforcement

Les techniques d’association ont pour objet d’analyser les relations existant entre des variables caractéristiques d’un évènement ou de détecter ces associations. Il s’agit ici des caractéristiques qui reviennent systématiquement lors de ces évènements. La réduction dimensionnelle a pour objet de réduire le nombre de variables analysées et donc de simplifier le modèle (réduction du nombre d’éléments des vecteurs de « features »). Ces algorithmes permettent d’optimiser l’ensemble des conséquences (récompenses ou punitions), résultant d’une série d’actions portant sur un environnement, dont elles font varier l’état. L’idée est qu’un agent va apprendre la séquence d’actions optimale, qui lui permettra d’obtenir la meilleure récompense au bout du processus. De nombreux algorithmes sont à classer dans cette famille, Q-Learning, SARSA, DQN, DQPG, etc.
Session 9 : Les applications ML, API, langages
Séminaire

Session 9 : Les applications ML, API, langages

In fine, les développeurs opteront pour un algorithme adapté au problème qui leur est soumis et choisiront une API et le langage de programmation adéquats. Progression de Python, nombreuses API pour ce langage. Tour d’horizon des applications concernées, avec des exemples concrets et la boîte à outils utilisée. Des exemples de code seront fournis, pour illustrer nos propos, mais sans s’attarder sur la syntaxe.
Session 10 : Deep learning, généralités
Séminaire

Session 10 : Deep learning, généralités

Le « deep learning » ou apprentissage en profondeur, est un ensemble de méthodes qui bénéficient des progrès des réseaux neuronaux, pour reconnaître des objets, images, images dans les images, sons, phrases dans une communication téléphonique, etc. C'est une branche particulière du "Machine Learning", avec un grand nombre de couches "cachées", d'où l'idée de "deep" (100 à 200 couches contre quelques couches pour le "Machine Learning"). Extraction automatique des caractéristiques d'entrée : l'algorithme analyse les données soumises Les mêmes phases que pour le Machine Learning : le système cherche à appliquer une transformation non linéaire aux valeurs d'entrée et à créer un modèle de sortie, c'est la phase d'éducation ou d'entraînement, qui s'effectue sur des données labellisées et dans la seconde, dite de découverte, il améliore le modèle avec une méthode mathématique (dite dérivative) pour "coller" au plus près à la réalité.
Session 11 : Les principaux algorithmes de deep learning et focus sur les réseaux convolutifs, capsules de Hinton
Séminaire

Session 11 : Les principaux algorithmes de deep learning et focus sur les réseaux convolutifs, capsules de Hinton

Les réseaux convolutifs sont une forme très répandue de réseaux neuronaux artificiels, dédiés à la reconnaissance d’images et au traitement du langage naturel. A l’aide d’exemples concrets, nous allons expliquer le cheminement du processus depuis la décomposition d’une source (image), jusqu’à sa reconnaissance finale, en insistant sur les points clés : kernel, slide, padding, filtrage, la convolution proprement dite qui est une fonction mathématique, le pooling ou simplification des matrices et flattening, la mise à plat finale. Les capsules de Hinton sont une évolution des réseaux de deep learning. Une capsule embarque tous les éléments caractéristiques d’un objet, la « pose » : sa position, taille et orientation, luminosité et déformation par rapport à une représentation idéale.
Session 12 : Deep learning : API, langages, applications
Séminaire

Session 12 : Deep learning : API, langages, applications

Tensor Flow : Google, le plus connu, Keras : conçu pour simplifier les mécanismes de deep learning, très utilisé pour les POCs, très prometteur dans le futur, PyTorch (Nvidia), DeepLearning4J (Java), CNTK (Microsoft Cognitive Toolkit), intégré avec les autres outils de Microsoft, etc. C’est ici que l’on va passer en revue les applications possibles de « deep learning », des réalisations concrètes et pratiques, avec des recommandations sur la manière de conduire les projets, sur la distinction qu’il faut faire entre la connaissance intime des algorithmes et leur mise en œuvre, via les API. Comme pour la session 12 du Machine Learning, c’est une phase très importante de notre approche, savoir exactement ce que l’on peut faire avec ces technologies. Le discours sera à la fois métier et technique.
Session 13 : Le futur de l’IA, politique, religion, emplois
Séminaire

Session 13 : Le futur de l’IA, politique, religion, emplois

Dégager le vrai du faux : l’’IA et les emplois, les incompréhensions liées à la robotique, l’arme politique entre les mains des grandes puissances, les risques pour la démocratie, les algorithmes peuvent-ils devenir intelligents et dominer le genre humain. Il se dit n’importe quoi sur le sujet et nous tenons à rétablir la vérité, bien loin des élucubrations marketing des fournisseurs, qui tiennent pour résolus les nombreux problèmes techniques et de compréhension qui se posent aux entreprises intéressées. C’est lors de cette session, que l’interactivité de nos cours sera la plus utile.
Session 14 : Conclusion du séminaire, revue QCM
Séminaire

Session 14 : Conclusion du séminaire, revue QCM

Avant de se quitter, ce dont il faudra se souvenir. Ne pas être trop optimistes sur les capacités actuelles et réelles de l'IA, bien comprendre les principes sous-jacents et pour les non-TI, avoir une idée précise (et prudente) des applications envisageables, ne pas se lancer dans des applications insuffisamment matures. L'IA est plus qu'une technologie, c'est un métier, une spécialité, qui demande un long "apprentissage", préférer les solutions déjà entraînées et ne pas vouloir tout reconstruire de zéro, englober le management dans les cercles de réflexion, ne pas (trop) communiquer sur le futur, qui peut faire peur. Accompagner le changement dans les usages et désamorcer sans les négliger les aspects sociaux qu'induit le passage à l'IA. Un QCM global que nous allons commenter conclura ce séminaire.