SequeL est une équipe de recherche travaillant dans le domaine de l’apprentissage automatique ; plus précisément, SequeL est dédié à l’étude du problème de décision séquentielle dans l’incertain, c’est-à-dire, comment un « agent » ayant une certaine tâche à accomplir peut acquérir un comportement optimal afin de réaliser cette tâche, dans un environnement inconnu. SequeL est composé d’environ 25 membres. Les activités vont de la recherche fondamentale à la coneption d’algorithmes et la valorisation de ses recherches auprès d’entreprises. Les questions étudiées sont par exemple « Que peut apprendre efficacement une machine de Turing ? », ou dans un contexte budgétisé « étant donné une quantité de ressources de calcul, quelle est le meilleur comportement qui puisse être appris ? », ou encore des questions plus orientées vers des applications dans la recommandation de produits en ligne.
Les recherches menées dans SequeL ont produit le programme de jeu de Go multi-récompensé Crazy Stone; plusieurs doctorants de l’équipe ont vu leurs travaux récompensés par des prix Gilles Kahn, Jacques Neveu, ou encore ECCAI. SequeL a remporté la compétition “ICML 2011 Exploration vs. Exploitation” et la compétition “ACM RecSYS 2014”, toutes deux dans le cadre des systèmes de recommandation. L’expertise présente dans SequeL a débouché sur des collaborations avec de nombreuses entreprises internationales, nationales et des PMEs locales, parmi lesquelles nous citons Orange Labs, Intel, Technicolor, Deezer.
Philippe Preux
Méthodes adaptatives pour l’optimisation dans un environnement stochastique 29/09/2021
Sur l’échantillonnage des processus déterminantaux RESUME 19/05/2020
Sur le rôle de l'être humain dans le dialogue homme/machine 14/12/2018
Novel Learning and Exploration-Exploitation Methodes for Effective Recommender Systems 19/10/2018
Traduction Neuronale : Architectures et Applications 15/06/2018
Apprentissage séquentiel efficace dans des environnements structurés avec contraintes 18/12/2017
Apprentissage par renforcement : le cas multijoueur 18/12/2017
Thompson Sampling pour l'exploration-exploitation dans les systèmes linéaires 13/12/2017
Apprentissage séquentiel avec similitudes 28/11/2016
Usages of Graphs and Synthetic Data for Software Propagation Analysis 03/11/2016
Méthodes des moments pour l'inférence de systèmes séquentiels linéaires rationnels 08/07/2016
Computational and sample complexity of planning and reinforcement learning algorithms 14/12/2015
Machine Learning for Decision-Making under Uncertainty 12/05/2015
Maisqual : Amélioration de la qualité logicielle par fouille de données. 01/07/2014
Algorithmes budgétisés d'itération sur les politiques obtenues par classification. 12/06/2014
Sur Quelques Problèmes non supervisés impliquant des séries temporelles hautement dépendantes 18/11/2013
Apprentissage incrémental en ligne sur flux de données 30/11/2012
De l'échantillonnage optimal en grande et petite dimension 05/10/2012
Compromis exploration - Exploitation en optimisation et contrôle 01/06/2012
Apprentissage Séquentiel : Bandits, Statistique et Renforcement 03/10/2011
Algorithmes d'Ensembles Actifs pour le LASSO 08/07/2011
Jeux de bandits et fondations du clustering 10/06/2010