Régulation

Des chercheurs de l’EPFL améliorent une technique conciliant machine learning et privacy

Découvrez FLeet, une innovation des chercheurs de l'EPFL et de l'INRIA pour améliorer l'apprentissage fédéré. Ce système optimise l'apprentissage distribué tout en protégeant la vie privée, permettant des mises à jour asynchrones du modèle pour une meilleure performance et une consommation énergétique réduite, notamment pour les smartphones.

Des chercheurs de l’EPFL améliorent une technique conciliant machine learning et privacy

Amélioration de l'apprentissage fédéré : FLeet, une solution pour l'apprentissage en continu

Des chercheurs de l’EPFL et de l’INRIA ont développé une solution pour améliorer la performance de l'apprentissage fédéré, une technique permettant d'entraîner un algorithme centralisé de manière distribuée sans dévoiler les données personnelles des utilisateurs.

Le concept d'apprentissage fédéré, initié par Google en 2016, permet de protéger la vie privée tout en utilisant les données locales des utilisateurs pour améliorer des outils intelligents. Il est souvent combiné avec d’autres techniques, telles que le calcul multipartite sécurisé ou la confidentialité différentielle.

L'exemple le plus courant d'apprentissage fédéré se retrouve dans les claviers Android, comme Gboard. Les utilisateurs bénéficient de prédictions de texte plus précises, tout en minimisant l’exploitation des données sensibles et en réduisant la consommation d’énergie.

Cependant, l'apprentissage fédéré a ses limites, notamment en termes de disponibilité des appareils (connectivité et batterie), ce qui restreint son application à des mises à jour quotidiennes, adaptées aux claviers mais insuffisantes pour des services nécessitant des mises à jour en temps réel, comme les recommandations sur les réseaux sociaux.

Pour résoudre ce problème, les chercheurs ont développé FLeet, un système de middleware qui permet des mises à jour asynchrones des modèles d’apprentissage. FLeet intègre deux composants clés : le premier gère la consommation énergétique et prédit les périodes de calcul optimales selon les capacités de chaque appareil. Le second, un algorithme de descente de gradient, permet de tolérer les mises à jour asynchrones, minimisant leur impact sur la convergence du modèle et améliorant ainsi l'efficacité de l'apprentissage fédéré.

Cette solution permet ainsi d'améliorer la qualité de l'apprentissage fédéré tout en réduisant l’utilisation de la batterie, ouvrant la voie à des applications plus efficaces et durables.

 

Source : ICTjournal

Régulation, Conception
2 min de lecture
févr. 12, 2021
Par L. F.
Partager

Articles associés

janv. 27, 2025 • 2 min de lecture
Avec Operator, les ambitions d’OpenAI dans l’IA agentique se précisent

Découvrez Operator d'OpenAI, un agent IA qui réinvente l'automatisation des tâches web. Capable de r...

déc. 16, 2024 • 2 min de lecture
Le Conseil fédéral définit sa stratégie numérique pour 2025

Découvrez la stratégie numérique de la Suisse pour 2025, axée sur l'intelligence artificielle (IA),...

déc. 13, 2023 • 2 min de lecture
Mistral AI dégaine un nouveau LLM formé avec l'approche «Mixture of Experts»

Mistral AI, la start-up française devenue licorne, a lancé son nouveau modèle de langage Mixtral 8x7...