SwePub
Sök i LIBRIS databas

  Utökad sökning

onr:"swepub:oai:DiVA.org:ri-59799"
 

Sökning: onr:"swepub:oai:DiVA.org:ri-59799" > Auto-Weighted Robus...

Auto-Weighted Robust Federated Learning with Corrupted Data Sources

Li, Shenghui, 1994- (författare)
Uppsala universitet,Datorteknik,Avdelningen för datorteknik
Ngai, Edith (författare)
The University of Hong Kong, China
Ye, Fanghua (författare)
University College London, UK
visa fler...
Voigt, Thiemo (författare)
Uppsala universitet,RISE,Datavetenskap,Uppsala University, Sweden,Datorarkitektur och datorkommunikation,Avdelningen för datorteknik,Research Institutes of Sweden (RISE), Sweden
visa färre...
 (creator_code:org_t)
2022-06-11
2022
Engelska.
Ingår i: ACM Transactions on Intelligent Systems and Technology. - : Association for Computing Machinery. - 2157-6904 .- 2157-6912. ; 13:5
  • Tidskriftsartikel (refereegranskat)
Abstract Ämnesord
Stäng  
  • Federated learning provides a communication-efficient and privacy-preserving training process by enabling learning statistical models with massive participants without accessing their local data. Standard federated learning techniques that naively minimize an average loss function are vulnerable to data corruptions from outliers, systematic mislabeling, or even adversaries. In this article, we address this challenge by proposing Auto-weighted Robust Federated Learning (ARFL), a novel approach that jointly learns the global model and the weights of local updates to provide robustness against corrupted data sources. We prove a learning bound on the expected loss with respect to the predictor and the weights of clients, which guides the definition of the objective for robust federated learning. We present an objective that minimizes the weighted sum of empirical risk of clients with a regularization term, where the weights can be allocated by comparing the empirical risk of each client with the average empirical risk of the best ( p ) clients. This method can downweight the clients with significantly higher losses, thereby lowering their contributions to the global model. We show that this approach achieves robustness when the data of corrupted clients is distributed differently from the benign ones. To optimize the objective function, we propose a communication-efficient algorithm based on the blockwise minimization paradigm. We conduct extensive experiments on multiple benchmark datasets, including CIFAR-10, FEMNIST, and Shakespeare, considering different neural network models. The results show that our solution is robust against different scenarios, including label shuffling, label flipping, and noisy features, and outperforms the state-of-the-art methods in most scenarios.

Ämnesord

TEKNIK OCH TEKNOLOGIER  -- Elektroteknik och elektronik (hsv//swe)
ENGINEERING AND TECHNOLOGY  -- Electrical Engineering, Electronic Engineering, Information Engineering (hsv//eng)
NATURVETENSKAP  -- Data- och informationsvetenskap -- Datavetenskap (hsv//swe)
NATURAL SCIENCES  -- Computer and Information Sciences -- Computer Sciences (hsv//eng)

Nyckelord

Federated learning
robustness
Auto-weighted
distributed learning
neural networks

Publikations- och innehållstyp

ref (ämneskategori)
art (ämneskategori)

Hitta via bibliotek

Till lärosätets databas

Hitta mer i SwePub

Av författaren/redakt...
Li, Shenghui, 19 ...
Ngai, Edith
Ye, Fanghua
Voigt, Thiemo
Om ämnet
TEKNIK OCH TEKNOLOGIER
TEKNIK OCH TEKNO ...
och Elektroteknik oc ...
NATURVETENSKAP
NATURVETENSKAP
och Data och informa ...
och Datavetenskap
Artiklar i publikationen
ACM Transactions ...
Av lärosätet
RISE
Uppsala universitet

Sök utanför SwePub

Kungliga biblioteket hanterar dina personuppgifter i enlighet med EU:s dataskyddsförordning (2018), GDPR. Läs mer om hur det funkar här.
Så här hanterar KB dina uppgifter vid användning av denna tjänst.

 
pil uppåt Stäng

Kopiera och spara länken för att återkomma till aktuell vy