SwePub
Sök i LIBRIS databas

  Utökad sökning

WFRF:(Fersman Elena)
 

Sökning: WFRF:(Fersman Elena) > BEERL :

BEERL : Both Ends Explanations for Reinforcement Learning

Terra, Ahmad (författare)
KTH,Mekatronik och inbyggda styrsystem,Ericsson AB, Royal Institute of Technology, Stockholm, 164 83, Sweden
Inam, Rafia, 1974- (författare)
KTH,Mekatronik och inbyggda styrsystem,Ericsson AB, Royal Institute of Technology, Stockholm, 164 83, Sweden
Fersman, Elena (författare)
KTH,Mekatronik och inbyggda styrsystem,Ericsson Inc., Royal Institute of Technology, Santa Clara, 95054, CA, United States
 (creator_code:org_t)
2022-10-28
2022
Engelska.
Ingår i: Applied Sciences. - : MDPI AG. - 2076-3417. ; 12:21, s. 10947-
  • Tidskriftsartikel (refereegranskat)
Abstract Ämnesord
Stäng  
  • Deep Reinforcement Learning (RL) is a black-box method and is hard to understand because the agent employs a neural network (NN). To explain the behavior and decisions made by the agent, different eXplainable RL (XRL) methods are developed; for example, feature importance methods are applied to analyze the contribution of the input side of the model, and reward decomposition methods are applied to explain the components of the output end of the RL model. In this study, we present a novel method to connect explanations from both input and output ends of a black-box model, which results in fine-grained explanations. Our method exposes the reward prioritization to the user, which in turn generates two different levels of explanation and allows RL agent reconfigurations when unwanted behaviors are observed. The method further summarizes the detailed explanations into a focus value that takes into account all reward components and quantifies the fulfillment of the explanation of desired properties. We evaluated our method by applying it to a remote electrical telecom-antenna-tilt use case and two openAI gym environments: lunar lander and cartpole. The results demonstrated fine-grained explanations by detailing input features’ contributions to certain rewards and revealed biases of the reward components, which are then addressed by adjusting the reward’s weights.

Ämnesord

NATURVETENSKAP  -- Data- och informationsvetenskap -- Datavetenskap (hsv//swe)
NATURAL SCIENCES  -- Computer and Information Sciences -- Computer Sciences (hsv//eng)

Nyckelord

bias
deep reinforcement learning
explainability
explainable reinforcement learning
reward decomposition
reward prioritization

Publikations- och innehållstyp

ref (ämneskategori)
art (ämneskategori)

Hitta via bibliotek

Till lärosätets databas

Hitta mer i SwePub

Av författaren/redakt...
Terra, Ahmad
Inam, Rafia, 197 ...
Fersman, Elena
Om ämnet
NATURVETENSKAP
NATURVETENSKAP
och Data och informa ...
och Datavetenskap
Artiklar i publikationen
Applied Sciences
Av lärosätet
Kungliga Tekniska Högskolan

Sök utanför SwePub

Kungliga biblioteket hanterar dina personuppgifter i enlighet med EU:s dataskyddsförordning (2018), GDPR. Läs mer om hur det funkar här.
Så här hanterar KB dina uppgifter vid användning av denna tjänst.

 
pil uppåt Stäng

Kopiera och spara länken för att återkomma till aktuell vy