Le site des activités des étudiants
et du personnel de l'UQTR
Chargement Évènements

« Tous les Évènements

  • Cet évènement est passé

11e séminaire en intelligence artificielle et ses applications

27 avril 2022, 13 h 30 à 15 h 30

Gratuit

Date : Mercredi 27 avril  avril 2022, 13h30-15h30, en commodal (hybride), salle UQTR B 1222 Albert Tessier et par Zoom.

Titre : Deux exemples d’application de l’analyse aux problèmes d’apprentissage

Conférencier: Olivier Lafitte,  directeur de l’Unité Mixte Internationale – Centre de Recherches Mathématiques (UMI-CRM) est professeur à l’Institut Galilée de l’Université Paris 13 à Villetaneuse et chercheur au Laboratoire d’Analyse, Géométrie et Applications (LAGA) ainsi que membre de l’équipe Modélisation et Calcul Scientifique. Il assure aussi la direction de l’école graduée (formation d’ingénieur) en mathématiques appliquées à l’Université Paris 13, MACS (Mathématiques Appliquées et Calcul Scientifique) depuis 2003. Il est aussi professeur invité à l’Ecole des Mines de Paris depuis 1995, et professeur invité à l’École Centrale de Marseille et l’École Centrale de Casablanca (depuis 1996 et 2016 respectivement). M. Lafitte est un ancien élève de l’École Polytechnique de Palaiseau en France (l’X), promotion 1984. UMI-CRM, U. de Montréal, U. Sorbonne Paris Nord, INP Grenoble.

Résumé : Une première partie sera consacrée à un problème d’apprentissage supervisé classique pour lequel une solution analytique est possible. Une idée classique en apprentissage supervisé consiste à calculer un classifieur fort en combinant des classifieurs faibles, ADABOOST en est une implémentation. Nous étudions ce problème dans le cas particulier de trois classifieurs et de deux classes en introduisant une représentation originale du coût basée sur une table de vérité. Cette approche permet d’identifier directement le classifieur résultant (et de calculer sa performance) sans avoir besoin d’exécuter un algorithme numérique ni même d’avoir recours un substitut convexe du problème. Cependant, les substituts convexes étant très largement utilisés, quelques-uns ont été comparés avec cette approche, et les différences entre les classifieurs résultants, la robustesse de ces résultats ainsi que ceux de la méthode logique sont explorés. Une deuxième partie essaie d’apporter un éclairage amusant sur la méthode très souvent employée dans les problèmes de classification qui est la méthode des noyaux reproduisant. Ces noyaux reproduisant s’appuient sur la construction d’éléments Kx d’un espace de Hilbert H tels que < Kx , φ >= φ(x) pour toute fonction φ de l’espace de Hilbert. Il est souvent acquis dans les problèmes de classification (Kernel trick) qu’une matrice Ki,j associée à des points xi , xj dans la base d’exemples considérés est la trace sur la base d’exemples d’une application x → Kx de X (espace dans lequel les exemples sont choisis, typiquement Rd) dans un espace de Hilbert inconnu H pour lesquels < Kxi,Kxj >= Ki,j. Nous construisons Kx pour des espaces de Hilbert simples en dimension d = 1 qui sont H1([−1, 1]), H_01([−1, 1]), H1(R).

Pour participer à la conférence ZOOM:
https://uqtr.zoom.us/j/82939544298?pwd=bWRDdG1WUWUzK3FtTW1INTRJelF5Zz09

Attention: Cette activité peut être enregistrée. Merci de ne pas y accéder si vous ne voulez pas être enregistré.

ID de réunion : 829 3954 4298
Mot de passe : 187235

Organisateur

Laboratoire d’intelligence artificielle appliquée (LI2A)
E-mail :
Nadia.Ghazzali@uqtr.ca

Lieu

local 1222 du pavillon Albert-Tessier et sur Zoom