SwePub
Sök i LIBRIS databas

  Utökad sökning

id:"swepub:oai:DiVA.org:kth-334292"
 

Sökning: id:"swepub:oai:DiVA.org:kth-334292" > Asynchronous Parall...

Asynchronous Parallel Incremental Block-Coordinate Descent for Decentralized Machine Learning

Chen, Hao (författare)
KTH,Teknisk informationsvetenskap
Ye, Yu (författare)
KTH,Teknisk informationsvetenskap
Xiao, Ming, 1975- (författare)
KTH,Teknisk informationsvetenskap
visa fler...
Skoglund, Mikael, 1969- (författare)
KTH,Teknisk informationsvetenskap
visa färre...
 (creator_code:org_t)
Institute of Electrical and Electronics Engineers (IEEE), 2023
2023
Engelska.
Ingår i: IEEE Transactions on Big Data. - : Institute of Electrical and Electronics Engineers (IEEE). - 2332-7790. ; 9:4, s. 1252-1259
  • Tidskriftsartikel (refereegranskat)
Abstract Ämnesord
Stäng  
  • Machine learning (ML) is a key technique for big-data-driven modelling and analysis of massive Internet of Things (IoT) based intelligent and ubiquitous computing. For fast-increasing applications and data amounts, distributed learning is a promising emerging paradigm since it is often impractical or inefficient to share/aggregate data to a centralized location from distinct ones. This paper studies the problem of training an ML model over decentralized systems, where data are distributed over many user devices and the learning algorithm run on-device, with the aim of relaxing the burden at a central entity/server. Although gossip-based approaches have been used for this purpose in different use cases, they suffer from high communication costs, especially when the number of devices is large. To mitigate this, incremental-based methods are proposed. We first introduce incremental block-coordinate descent (I-BCD) for the decentralized ML, which can reduce communication costs at the expense of running time. To accelerate the convergence speed, an asynchronous parallel incremental BCD (API-BCD) method is proposed, where multiple devices/agents are active in an asynchronous fashion. We derive convergence properties for the proposed methods. Simulation results also show that our API-BCD method outperforms state of the art in terms of running time and communication costs.

Ämnesord

NATURVETENSKAP  -- Data- och informationsvetenskap (hsv//swe)
NATURAL SCIENCES  -- Computer and Information Sciences (hsv//eng)

Nyckelord

Decentralized learning
block-coordinate descent
incremental method
asynchronous machine learning

Publikations- och innehållstyp

ref (ämneskategori)
art (ämneskategori)

Hitta via bibliotek

Till lärosätets databas

Hitta mer i SwePub

Av författaren/redakt...
Chen, Hao
Ye, Yu
Xiao, Ming, 1975 ...
Skoglund, Mikael ...
Om ämnet
NATURVETENSKAP
NATURVETENSKAP
och Data och informa ...
Artiklar i publikationen
IEEE Transaction ...
Av lärosätet
Kungliga Tekniska Högskolan

Sök utanför SwePub

Kungliga biblioteket hanterar dina personuppgifter i enlighet med EU:s dataskyddsförordning (2018), GDPR. Läs mer om hur det funkar här.
Så här hanterar KB dina uppgifter vid användning av denna tjänst.

 
pil uppåt Stäng

Kopiera och spara länken för att återkomma till aktuell vy