Posté par: mkraft Catégorie: IA Mots clés: , , , , , , , Commentaires: 0

Depuis plusieurs années, Google propose des formations gratuites destinées à aider les étudiants, les employés et les dirigeants d’entreprises à développer de nouvelles compétences ou à accroître leur efficacité. Récemment, Google a introduit des cours gratuits sur le sujet d’actualité qu’est l’IA générative. Ces cours sont accessibles sur la plateforme en ligne Coursera et s’adressent aux débutants ainsi qu’aux développeurs souhaitant intégrer l’IA générative dans leurs applications. À la fin de chaque cours, les participants recevront un certificat qu’ils pourront partager sur LinkedIn ou ajouter à leur CV pour attester de leurs compétences.

Parmi les cours destinés aux débutants, on trouve les suivants :

Introduction à l’IA générative : Ce cours de 42 minutes explique les concepts fondamentaux de l’IA générative, son utilité et ses différences par rapport aux méthodes de machine learning traditionnelles. Il présente également les outils de Google pour le développement d’applications d’IA générative.

Introduction aux grands modèles de langage : Ce cours de micro-apprentissage, récemment mis à jour, explore les grands modèles de langage (LLM) en expliquant leur utilisation, les cas d’application et comment améliorer leurs performances en ajustant les prompts. Il présente également les outils de Google pour créer des applications d’IA générative.

Introduction à l’IA responsable : Ce cours explique le concept d’IA responsable, son importance et comment Google l’intègre dans ses produits. Il aborde également les sept principes directeurs de l’IA chez Google.

Introduction à Generative AI Studio : Ce cours présente Generative AI Studio, un outil de Vertex AI présenté lors de Google I/O 2023, qui permet de créer et personnaliser des modèles d’IA générative pour les intégrer dans des applications. Il explore ses fonctionnalités, options et propose des démonstrations d’utilisation.

D’autres cours sont destinés aux apprenants de niveau intermédiaire, notamment ceux ayant des compétences en machine learning et en programmation Python. Parmi ces cours, on trouve :

Introduction à la génération d’images : Ce cours se concentre sur les modèles de diffusion, une famille de modèles d’apprentissage automatique qui se sont récemment avérés prometteurs dans la génération d’images. Il enseigne la théorie derrière ces modèles, leur entraînement et leur déploiement sur Vertex AI. Une connaissance préalable du machine learning, du deep learning, des réseaux neuronaux convolutifs (CNN) et de la programmation Python est nécessaire.

Créer des modèles de sous-titrage d’images : Ce module de 52 minutes vous apprend à construire un modèle de sous-titrage d’images à l’aide du deep learning. Il explore les composants clés de ce type de modèle, notamment l’encodeur et le décodeur, et comment les entraîner et les évaluer. Ce cours vous fournit les compétences nécessaires pour développer votre propre modèle de sous-titrage d’images et l’utiliser pour générer des légendes. Une connaissance préalable du machine learning, du deep learning, du traitement du langage naturel (NLP), de la vision par ordinateur et de la programmation Python est requise.

Mécanisme d’attention : Ce cours vous initie au mécanisme d’attention, une technique puissante permettant aux réseaux neuronaux de se focaliser sur des parties spécifiques d’une séquence d’entrée. Il explique le fonctionnement de l’attention et comment l’utiliser pour améliorer les performances dans diverses tâches de machine learning, y compris la traduction automatique, la rédaction de résumés et la réponse aux questions. Une connaissance préalable du machine learning, du deep learning, du traitement du langage naturel, de la vision par ordinateur et de la programmation Python est nécessaire.

Modèles Transformers et modèle BERT : Ce cours de 45 minutes décrit les principaux composants de l’architecture Transformer, en mettant l’accent sur le mécanisme d’auto-attention, et explique comment il a été utilisé pour créer le modèle BERT (Bidirectional Encoder Representations from Transformers), l’un des modèles les plus populaires et polyvalents. Il explore également les différentes tâches auxquelles le modèle BERT peut être appliqué, telles que la classification de texte, la réponse aux questions et le traitement du langage naturel. Ce cours exige une certaine familiarité avec le machine learning, une compréhension du mécanisme d’attention et des embeddings lexicaux, ainsi qu’une expérience en Python et TensorFlow.

Architecture Encodeur-Décodeur : Ce cours offre un aperçu de l’architecture encodeur/décodeur, une architecture puissante couramment utilisée pour les tâches “seq2seq”, telles que la traduction automatique, la synthèse de texte et la réponse aux questions. Il présente les principaux composants de l’architecture encodeur/décodeur, ainsi que des instructions sur la manière de les entraîner et de les exécuter. Un tutoriel d’atelier correspondant explique comment utiliser TensorFlow pour mettre en œuvre une version simplifiée de cette architecture afin de générer des poèmes à partir de zéro. Une solide base en Python et TensorFlow est requise pour suivre ce cours.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *