Control systems and reinforcement learning
著者
書誌事項
Control systems and reinforcement learning
Cambridge University Press, 2022
- : hardback
大学図書館所蔵 全1件
  青森
  岩手
  宮城
  秋田
  山形
  福島
  茨城
  栃木
  群馬
  埼玉
  千葉
  東京
  神奈川
  新潟
  富山
  石川
  福井
  山梨
  長野
  岐阜
  静岡
  愛知
  三重
  滋賀
  京都
  大阪
  兵庫
  奈良
  和歌山
  鳥取
  島根
  岡山
  広島
  山口
  徳島
  香川
  愛媛
  高知
  福岡
  佐賀
  長崎
  熊本
  大分
  宮崎
  鹿児島
  沖縄
  韓国
  中国
  タイ
  イギリス
  ドイツ
  スイス
  フランス
  ベルギー
  オランダ
  スウェーデン
  ノルウェー
  アメリカ
注記
Bibliography: p. 415-430
Inculdes index
内容説明・目次
内容説明
A high school student can create deep Q-learning code to control her robot, without any understanding of the meaning of 'deep' or 'Q', or why the code sometimes fails. This book is designed to explain the science behind reinforcement learning and optimal control in a way that is accessible to students with a background in calculus and matrix algebra. A unique focus is algorithm design to obtain the fastest possible speed of convergence for learning algorithms, along with insight into why reinforcement learning sometimes fails. Advanced stochastic process theory is avoided at the start by substituting random exploration with more intuitive deterministic probing for learning. Once these ideas are understood, it is not difficult to master techniques rooted in stochastic control. These topics are covered in the second part of the book, starting with Markov chain theory and ending with a fresh look at actor-critic methods for reinforcement learning.
目次
- 1. Introduction
- Part I. Fundamentals Without Noise: 2. Control crash course
- 3. Optimal control
- 4. ODE methods for algorithm design
- 5. Value function approximations
- Part II. Reinforcement Learning and Stochastic Control: 6. Markov chains
- 7. Stochastic control
- 8. Stochastic approximation
- 9. Temporal difference methods
- 10. Setting the stage, return of the actors
- A. Mathematical background
- B. Markov decision processes
- C. Partial observations and belief states
- References
- Glossary of Symbols and Acronyms
- Index.
「Nielsen BookData」 より