Les modèles d'apprentissage automatique sont de plus en plus souvent utilisés pour prendre des décisions importantes, qu'il s'agisse d'aider les médecins à diagnostiquer un problème de santé, de recommander des candidats appropriés pour un poste vacant ou de détecter des transactions frauduleuses dans le secteur financier. Il devient crucial de pouvoir comprendre et interpréter le fonctionnement interne et les prédictions de ces modèles, afin de réduire les erreurs, d'instaurer la confiance et d'acquérir de nouvelles connaissances. C'est l'objectif de l'IA explicable, aussi souvent appelée XAI, un terme largement utilisé pour décrire les processus et les méthodes visant à rendre les modèles d'apprentissage automatique et leurs résultats compréhensibles pour les humains.
Ce que vous apprendrez lors de ce webinaire
- Nous partageons des idées et des études de cas pratiques démontrant les objectifs et l'importance de l'IA explicable. Nous examinerons comment une solution d'apprentissage automatique peut être rendue plus explicable ou interprétable, non seulement au niveau du modèle, mais aussi tout au long du projet d'apprentissage automatique.
- Nous définissons des actions spécifiques que vous pouvez entreprendre à chaque étape - depuis la définition du problème et les données utilisées, le modèle lui-même, jusqu'à l'interface utilisateur - pour rendre les résultats de nos modèles plus interprétables et plus utiles.
- Google partage des informations sur Vertex Explainable AI helps, un outil qui vous aide à comprendre les résultats de votre modèle pour les tâches de classification et de régression.
Accédez au webinaire en remplissant le formulaire ci-dessous.