SwePub
Sök i LIBRIS databas

  Extended search

onr:"swepub:oai:DiVA.org:liu-193736"
 

Search: onr:"swepub:oai:DiVA.org:liu-193736" > Communication-Effic...

  • 1 of 1
  • Previous record
  • Next record
  •    To hitlist

Communication-Efficient Resource Allocation for Wireless Federated Learning Systems

Hu, Chung-Hsuan, 1988- (author)
Linköpings universitet,Kommunikationssystem,Tekniska fakulteten
Larsson, Erik G., Professor, 1974- (thesis advisor)
Linköpings universitet,Kommunikationssystem,Tekniska fakulteten
Chen, Zheng, Assistant Professor, 1990- (thesis advisor)
Linköpings universitet,Kommunikationssystem,Tekniska fakulteten
show more...
Fodor, Viktoria, Professor (opponent)
Division of network and systems engineering, KTH Royal Institute of Technology, Stockholm, Sweden
show less...
 (creator_code:org_t)
ISBN 9789180752312
Linköping : Linköping University Electronic Press, 2023
English 30 s.
Series: Linköping Studies in Science and Technology. Licentiate Thesis, 0280-7971 ; 1969
  • Licentiate thesis (other academic/artistic)
Abstract Subject headings
Close  
  • The training of machine learning (ML) models usually requires a massive amount of data. Nowadays, the ever-increasing number of connected user devices has benefited the development of ML algorithms by providing large sets of data that can be utilized for model training. As privacy concerns become vital in our society, using private data from user devices for training ML models becomes tricky. Therefore, federated learning (FL) with on-device information processing has been proposed for its advantages in preserving data privacy. FL is a collaborative ML framework where multiple devices participate in training a common global model based on locally available data. Unlike centralized ML architecture wherein the entire set of training data need to be centrally stored, in an FL system, only model parameters are shared between user devices and a parameter server. Federated Averaging (FedAvg) is one of the most representative and baseline FL algorithms, with an iterative process of model broadcasting, local training, and model aggregation. In every iteration, the model aggregation process can start only when all the devices have finished local training. Thus, the duration of one iteration is limited by the slowest device, which is known as the straggler issue. To resolve this commonly observed issue in synchronous FL methods, altering the synchronous procedure to an asynchronous one has been explored in the literature; that is, the server does not need to wait for all the devices to finish local training before conducting updates aggregation. However, to avoid high communication costs and implementation complexity that the existing asynchronous FL methods have brought in, we alternatively propose a new asynchronous FL framework with periodic aggregation. Since the FL process involves information exchanges over a wireless medium, allowing partial participation of devices in transmitting model updates is a common approach to avoid the communication bottleneck. We thus further develop channel-aware data-importance-based scheduling policies, which are theoretically motivated by the convergence analysis of the proposed FL system. In addition, an age-aware aggregation weighting design is proposed to deal with the model update asynchrony among scheduled devices in the considered asynchronous FL system. The effectiveness of the proposed scheme is empirically proved of alleviating the straggler effect and achieving better learning outcomes compared to some state-of-the-art methods. From the perspective of jointly optimizing system efficiency and learning performance, in the rest of the thesis, we consider a scenario of Federated Edge Learning (FEEL) where in addition to the heterogeneity of data and wireless channels, heterogeneous computation capability and energy availability are also taken into account in the scheduling design. Besides, instead of assuming all the local data are available at the beginning of the training process, a more practical scenario where the training data might be generated randomly over time is considered. Hence, considering time-varying local training data, wireless link condition, and computing capability, we formulate a stochastic network optimization problem and propose a dynamic scheduling algorithm for optimizing the learning performance subject to per-round latency requirement and long-term energy constraints. The effectiveness of the proposed design is validated by numerical simulations, showing gains in learning performance and system efficiency compared to alternative methods. 
  • Att träna modeller inom maskininlärning (ML) kräver vanligtvis enorma mängder data. Numera har det ständigt ökande antalet uppkopplade enheter varit till nytta för utvecklingen av ML-algoritmer då de tillhandahåller stora datamängder som kan användas till att träna modellerna. Eftersom integritetsfrågor blir viktigare i samhället blir det dock besvärligare att använda privat data från användarnas enheter för att träna ML-modeller. Därför har federerad inlärning (FL), där informationsbearbetningen sker på enheten, föreslagits för sina fördelar med att bevara användarens data privat. FL är en samarbetsbaserad ML-teknik där flertalet enheter deltar i träningen av en gemensam global modell som endast baseras på lokalt tillgängliga data. Till skillnad från centraliserad ML-arkitektur där all träningsdata måste lagras i en central server, behöver ett FL-system endast dela modellparametrar mellan användarnas enheter och en central parameterserver.Federerat genomsnitt (FedAvg) är en av de mest representativa och grundläggande FL-algoritmerna, med en iterativ process som inkluderar modellsändning, lokal träning och modellaggregering. I varje iteration kan modellaggregeringsprocessen endast starta efter att alla enskilda enheter har avslutat sin lokala träning. Följaktligen är varaktigheten av varje iteration strikt begränsad av den långsammaste enheten, vilket brukar kallas eftersläntrarproblemet (eng: the straggler issue). För att lösa det här problemet har övergången från en synkroniserad procedur till en osynkroniserad undersökts i litteraturen. Servern behöver i det senare fallet inte vänta på att alla enheter ska avsluta sin lokala träning innan aggregeringen utförs. För att undvika de höga kommunikationskostnaderna och implementationskomplexiteten som de befintliga asynkrona FL-metoderna har medfört, föreslår vi i stället ett nytt asynkront FL-ramverk med periodisk aggregering. Eftersom FL-processen inkluderar informationsutbyte över resursbegränsade trådlösa medium, är det vanligt att endast en delmängd av de deltagande enheterna tillåts delta i modelluppdateringarna för att undvika flaskhalsar i den trådlösa kommunikationen. Därför vidareutvecklar vi policyer för schemaläggning av enheter för att uppnå bättre prestanda i inlärningen, detta genom att bedöma betydelsen av lokala data och precisionen i den utbytta informationen. Därutöver är aggregeringsvikterna utformade för att lindra den negativa effekten på inlärningsprestandan som uppstår på grund av den asynkrona informationen i FL-systemet. Det bevisas empiriskt att det föreslagna schemat effektivt lindrar eftersläntrarproblemet och uppnår bättre inlärningsresultat än vissa andra moderna metoder.Från perspektivet att gemensamt optimera systemeffektiviteten och inlärningsprestandan, betraktar vi i resten av avhandlingen ett scenario av federerad kantinlärning där heterogen beräkningskapacitet och tillgången till energi också tas med i schemaläggningen. I stället för att anta att all den lokala data är tillgänglig i början av träningsprocessen, beaktas ett mer praktiskt scenario där träningsdata genereras slumpmässigt över tid. Genom att betrakta den tidsvarierande lokala träningsdatan, kvaliteten på den trådlösa länken och den tillgängliga beräkningskapaciteten, formulerar vi ett stokastiskt nätverksoptimeringsproblem och föreslår en dynamisk schemaläggningsalgoritm som optimerar inlärningsprestandan med hänsyn till begränsningar i fördröjningar och energiförbrukning. Effektiviteten av den föreslagna designen bekräftas av numeriska simuleringar, vilka visar vinster i inlärningsprestanda och systemeffektivitet jämfört med alternativa metoder.  

Subject headings

NATURVETENSKAP  -- Data- och informationsvetenskap -- Datavetenskap (hsv//swe)
NATURAL SCIENCES  -- Computer and Information Sciences -- Computer Sciences (hsv//eng)

Publication and Content Type

vet (subject category)
lic (subject category)

Find in a library

To the university's database

  • 1 of 1
  • Previous record
  • Next record
  •    To hitlist

Search outside SwePub

Kungliga biblioteket hanterar dina personuppgifter i enlighet med EU:s dataskyddsförordning (2018), GDPR. Läs mer om hur det funkar här.
Så här hanterar KB dina uppgifter vid användning av denna tjänst.

 
pil uppåt Close

Copy and save the link in order to return to this view