SwePub
Sök i LIBRIS databas

  Utökad sökning

id:"swepub:oai:lup.lub.lu.se:41440028-0669-4123-819b-5a09056d6662"
 

Sökning: id:"swepub:oai:lup.lub.lu.se:41440028-0669-4123-819b-5a09056d6662" > Dual Control by Rei...

Dual Control by Reinforcement Learning Using Deep Hyperstate Transition Models

Rosdahl, Christian (författare)
Lund University,Lunds universitet,Institutionen för reglerteknik,Institutioner vid LTH,Lunds Tekniska Högskola,LTH profilområde: AI och digitalisering,LTH profilområden,Department of Automatic Control,Departments at LTH,Faculty of Engineering, LTH,LTH Profile Area: AI and Digitalization,LTH Profile areas,Faculty of Engineering, LTH
Cervin, Anton (författare)
Lund University,Lunds universitet,Institutionen för reglerteknik,Institutioner vid LTH,Lunds Tekniska Högskola,LTH profilområde: AI och digitalisering,LTH profilområden,Department of Automatic Control,Departments at LTH,Faculty of Engineering, LTH,LTH Profile Area: AI and Digitalization,LTH Profile areas,Faculty of Engineering, LTH
Bernhardsson, Bo (författare)
Lund University,Lunds universitet,Institutionen för reglerteknik,Institutioner vid LTH,Lunds Tekniska Högskola,LTH profilområde: AI och digitalisering,LTH profilområden,LTH profilområde: Teknik för hälsa,Department of Automatic Control,Departments at LTH,Faculty of Engineering, LTH,LTH Profile Area: AI and Digitalization,LTH Profile areas,Faculty of Engineering, LTH,LTH Profile Area: Engineering Health,Faculty of Engineering, LTH
 (creator_code:org_t)
12
Elsevier BV, 2022
2022
Engelska 7 s.
Ingår i: IFAC papers online. - : Elsevier BV. - 2405-8963. ; 55, s. 395-401
  • Konferensbidrag (refereegranskat)
Abstract Ämnesord
Stäng  
  • In dual control, the manipulated variables are used to both regulate the system and identify unknown parameters. The joint probability distribution of the system state and the parameters is known as the hyperstate. The paper proposes a method to perform dual control using a deep reinforcement learning algorithm in combination with a neural network model trained to represent hyperstate transitions. The hyperstate is compactly represented as the parameters of a mixture model that is fitted to Monte Carlo samples of the hyperstate. The representation is used to train a hyperstate transition model, which is used by a standard reinforcement learning algorithm to find a dual control policy. The method is evaluated on a simple nonlinear system, which illustrates a situation where probing is needed, but it can also scale to high-dimensional systems. The method is demonstrated to be able to learn a probing technique that reduces the uncertainty of the hyperstate, resulting in improved control performance.

Ämnesord

TEKNIK OCH TEKNOLOGIER  -- Elektroteknik och elektronik -- Reglerteknik (hsv//swe)
ENGINEERING AND TECHNOLOGY  -- Electrical Engineering, Electronic Engineering, Information Engineering -- Control Engineering (hsv//eng)

Nyckelord

adaptive control
adaptive control by neural networks
Bayesian methods
nonlinear adaptive control
reinforcement learning control
stochastic optimal control problems

Publikations- och innehållstyp

kon (ämneskategori)
ref (ämneskategori)

Hitta via bibliotek

Till lärosätets databas

Hitta mer i SwePub

Av författaren/redakt...
Rosdahl, Christi ...
Cervin, Anton
Bernhardsson, Bo
Om ämnet
TEKNIK OCH TEKNOLOGIER
TEKNIK OCH TEKNO ...
och Elektroteknik oc ...
och Reglerteknik
Artiklar i publikationen
IFAC papers onli ...
Av lärosätet
Lunds universitet

Sök utanför SwePub

Kungliga biblioteket hanterar dina personuppgifter i enlighet med EU:s dataskyddsförordning (2018), GDPR. Läs mer om hur det funkar här.
Så här hanterar KB dina uppgifter vid användning av denna tjänst.

 
pil uppåt Stäng

Kopiera och spara länken för att återkomma till aktuell vy