News

 

Les papiers acceptés sont ici --->

CFP

 

Présentation de l'atelier

Cet atelier a pour objectif de réunir les chercheurs intéressés par les mécanismes d’attentions et leur apport dans le domaine de l’apprentissage automatique. Notre ambition est de permettre aux participants d'aborder tous les thèmes allant de la modélisation de l’attention aux applications en passant par les architectures basées sur de tels mécanismes. Les problématiques abordées lors de cet atelier peuvent concerner les processus de modélisation, extraction d’information, etc., ou les applications associées. L'atelier concerne aussi bien les chercheurs du monde académique que ceux du secteur industriel, et autant les notions conceptuelles que les applications. L'atelier est ouvert en termes de propositions. Nous souhaitons stimuler un échange et des discussions aussi bien du point de vue théorique qu’expérimental :

  • Quels succès ont été récemment rencontrés, et quels échecs ? 
  • Quel est l’apport ?
  • Comment l’évaluer ?
  • Quid de l'explicabilité ? 

Les présentations pourront concerner un travail abouti, des réflexions sur la modélisation ou  un travail préliminaire, ainsi que la réalisation de démonstrations.

  

Format des soumissions

Nous proposons deux types de soumissions :

  • Soumission classique : article 12 pages maximum 
  • Soumission courte : article 2 pages maximum

Les articles sont soumis suivent le format d'EGC. Les actes de l'atelier seront de plus mis à disposition sur le Web. 

 

Dates importantes

  • Date limite de soumission des articles : 27 novembre 2022. Extension : 1er décembre 2022
  • Notification aux auteurs : 16 décembre.

 

Lien de soumission 

Les soumissions se font sur:  https://easychair.org/my/conference?conf=m3a2023

 

Objectifs de l'atelier

Réunir les chercheurs et industriels intéressés par les mécanismes d’attentions et leur apport dans le domaine de l’apprentissage automatique.

 

Thèmes de l'atelier (liste non exhaustive) : 

Une liste de thèmes est donnée ci-dessous, reste ouverte et est non limitative :

  • Réseaux de neurones et mécanismes d’attention (ex. transformers,...)
  • Capacité des architectures basées sur l’attention à encoder et extraire l’information pertinente
  • Combinaison des mécanismes d’attention et des approches classiques d’apprentissage
  • IA frugale et complexité des mécanismes d’attention 
  • Adaptabilité des mécanismes d’attention à l’apprentissage fédéré 
  • Explicabilité des modèles basés sur l’attention (lien avec les valeurs de Shapley….)
  • Les mécanismes d'attention dans les réseaux neuronaux profonds et leur explication
  • Transférabilité des connaissances dans les modèles basés sur l’attention 
  • Données temporelles et mécanismes d’attention
  • Évaluation des valeurs générées par les mécanismes d'attention
  • Applications académiques et industrielles des modèles basés sur l’attention
  • Visualisation optimale des attentions

 

Organisateurs

  • Mohamed-Djallel DILMI - LIPN, USPN-UPXIII
  • Florent FOREST - IMOS, EPFL
  • Hanene AZZAG - LIPN, USPN-UPXIII
  • Mustpha LEBBAH - David Lab, Université Paris Saclay - Campus UVSQ

 

Comité de programme (en cours)

 

  • Mohamed-Djallel DILMI - LIPN, USPN-UPXIII
  • Florent FOREST - IMOS, EPFL
  • Hanene AZZAG - LIPN, USPN-UPXIII
  • Mustpha LEBBAH - David Lab, Université Paris Saclay - Campus UVSQ
  • Gilles Venturini - Université de Tours
  • Fabien Picarougne - Polytech Nantes
  • Cyril de Runz - Université de Tours
  • Rakia Jaziri - Université Paris 8 Vincennes - Saint-Denis
  • ...
Personnes connectées : 2 Flux RSS | Vie privée
Chargement...