SwePub
Sök i LIBRIS databas

  Utökad sökning

onr:"swepub:oai:DiVA.org:ri-65535"
 

Sökning: onr:"swepub:oai:DiVA.org:ri-65535" > Improved deep reinf...

Improved deep reinforcement learning for car-following decision-making

Yang, Xiaoxue (författare)
Tongji University, China
Zou, Yajie (författare)
Tongji University, China
Zhang, Hao (författare)
Tongji University, China
visa fler...
Qu, Xiaobo (författare)
Tsinghua University, China
Chen, Lei (författare)
RISE,Mobilitet och system
visa färre...
 (creator_code:org_t)
Elsevier B.V. 2023
2023
Engelska.
Ingår i: Physica A. - : Elsevier B.V.. - 0378-4371 .- 1873-2119. ; 624
  • Tidskriftsartikel (refereegranskat)
Abstract Ämnesord
Stäng  
  • Accuracy improvement of Car-following (CF) model has attracted much attention in recent years. Although a few studies incorporate deep reinforcement learning (DRL) to describe CF behaviors, proper design of reward function is still an intractable problem. This study improves the deep deterministic policy gradient (DDPG) car-following model with stacked denoising autoencoders (SDAE), and proposes a data-driven reward representation function, which quantifies the implicit interaction between ego vehicle and preceding vehicle in car-following process. The experimental results demonstrate that DDPG-SDAE model has superior ability of imitating driving behavior: (1) validating effectiveness of the reward representation method with low deviation of trajectory; (2) demonstrating generalization ability on two different trajectory datasets (HighD and SPMD); (3) adapting to three traffic scenarios clustered by a dynamic time warping distance based k-medoids method. Compared with Recurrent Neural Networks (RNN) and intelligent driver model (IDM), DDPG-SDAE model shows better performance on the deviation of speed and relative distance. This study demonstrates superiority of a novel reward extraction method fusing SDAE into DDPG algorithm and provides inspiration for developing driving decision-making model. © 2023 Elsevier B.V.

Ämnesord

TEKNIK OCH TEKNOLOGIER  -- Samhällsbyggnadsteknik -- Transportteknik och logistik (hsv//swe)
ENGINEERING AND TECHNOLOGY  -- Civil Engineering -- Transport Systems and Logistics (hsv//eng)

Nyckelord

Car-following model
Deep reinforcement learning
Driving behavior imitation
Stacked denoising autoencoders
Behavioral research
Decision making
Learning systems
Recurrent neural networks
Auto encoders
Car-following modeling
De-noising
Deterministics
Driving behaviour
Policy gradient
Reinforcement learnings
Stacked denoising autoencoder
Reinforcement learning

Publikations- och innehållstyp

ref (ämneskategori)
art (ämneskategori)

Hitta via bibliotek

  • Physica A (Sök värdpublikationen i LIBRIS)

Till lärosätets databas

Hitta mer i SwePub

Av författaren/redakt...
Yang, Xiaoxue
Zou, Yajie
Zhang, Hao
Qu, Xiaobo
Chen, Lei
Om ämnet
TEKNIK OCH TEKNOLOGIER
TEKNIK OCH TEKNO ...
och Samhällsbyggnads ...
och Transportteknik ...
Artiklar i publikationen
Physica A
Av lärosätet
RISE

Sök utanför SwePub

Kungliga biblioteket hanterar dina personuppgifter i enlighet med EU:s dataskyddsförordning (2018), GDPR. Läs mer om hur det funkar här.
Så här hanterar KB dina uppgifter vid användning av denna tjänst.

 
pil uppåt Stäng

Kopiera och spara länken för att återkomma till aktuell vy