PRIDE

PRIDE - Apprentissage automatique décentralisé et préservant la vie privée

Coordinateur : Monsieur Aurélien Bellet INRIA de l’Université de Lille - CRIStAL

Équipe : MAGNET du Groupe Thématique : DatInG.

Dates : 10/20 - 10/26

Résumé :

L’apprentissage automatique est omniprésent dans les applications mais soulève des problèmes de confidentialité lorsqu’il est appliqué sur des données personnelles. Le point de départ de PRIDE est que ces données doivent appartenir aux personnes qui les produisent. Ceci nécessite de revoir les algorithmes d’apprentissage afin qu’ils opèrent sur des données décentralisées tout en empêchant la reconstruction des données brutes. La differential privacy fournit une notion solide de protection, mais les algorithmes décentralisés actuels ne sont pas en mesure d’apprendre des modèles performants sous cette contrainte. Le but de PRIDE est de développer des outils théoriques et algorithmiques pour apprendre de manière décentralisée tout en garantissant la differential privacy, à travers deux objectifs :

  • (1) prouver que les protocoles gossip renforcent naturellement les garanties ;
  • (2) proposer des algorithmes à l’intersection de l’apprentissage décentralisé et du calcul multipartite sécurisé.

Abstract

Machine learning (ML) is ubiquitous in AI-based services and data-oriented scientific fields but raises serious privacy concerns when training on personal data. The starting point of PRIDE is that personal data should belong to the individual who produces it. This requires to revisit ML algorithms to learn from many decentralized personal datasets while preventing the reconstruction of raw data. Differential Privacy (DP) provides a strong notion of protection, but current decentralized ML algorithms are not able to learn useful models under DP. The goal of PRIDE is to develop theoretical and algorithmic tools that enable differentially-private ML methods operating on decentralized datasets, through two complementary objectives :

  • (1) prove that gossip protocols naturally reinforce DP guarantees ;
  • (2) propose algorithms at the intersection of decentralized ML and secure multi-party computation.