De nombreuses tâches en statistiques, apprentissage, ou traitement du signal, relèvent de l'échantillonnage. Il s'agit de résumer une grande collection d'objets (potentiellement infinie) par un sous-ensemble fini de ces objets. La sélection de variables en régression, par exemple, consiste à sélectionner quelques variables représentatives pour réduire la dimension d'un jeu de données. L'intégration Monte-Carlo, de son côté, consiste à approcher une intégrale par des sommes pondérées d'évaluations de l'intégrande, prises en un petit nombre de points dans le support de la mesure cible. La recherche sur les algorithmes randomisés d'échantillonnage est riche, et les algorithmes de sélection de variables ou de noeuds d'intégration indépendante, ou en tirant d'une chaine de Markov, sont nombreux. Dans ce manuscrit, nous passons en revue notre travail sur l'échantillonnage avec des distributions à dépendance négative, aussi appelées répulsives. Pour la sélection de variables comme pour l'intégration Monte Carlo, nous montrons comment, pour un cout computationnel polynomial, nous pouvons donner des algorithmes d'échantillonnage dont on peut prouver qu'ils atteignent une performance donnée avec moins de variables ou de noeuds que leurs compétiteurs indépendants. Nous décrivons également nos travaux en traitement statistique du signal, sur l'identification des zéros de transformées temps-fréquence de bruits blancs. Bien que non présentée comme telle, il s'agit d'une tâche proche de l'échantillonnage, où la dépendance négative a un rôle à jouer.
soutenue le 12/12/2022