近刊検索 デルタ

2017年9月21日発売

共立出版

速習 強化学習 基礎理論とアルゴリズム

基礎理論とアルゴリズム

小山田創哲/編集・翻訳
前田新一/翻訳
小山雅典/翻訳
ほか

978-4-320-12422-6

本体価格:3,000円+税

判型:B5変形

openbd

このエントリーをはてなブックマークに追加
内容紹介
GoogleのAlphaGoによるプロ棋士打破は,人工知能がヒトを超えた学習を行った歴史的出来事として認識された。強化学習はここで重要な役割を果たしてているだけでなく,自動運転やロボット制御などの重要な分野への応用も知られ,いま世間の強い関心を集めている。その一方,日本語で強化学習を体系的に学べる教科書は多くはなく,代表的な教科書であるSutton and Barto (1998)とその訳書も出版から20年が経とうとしている。
 本書はトップ会議のチュートリアルで利用されたり,2010年の出版以降わずか数年で500弱の引用がされたりという事実からも窺えるように,入門書として広く読まれている良書である。本書の内容は動的計画法などの基本的かつ重要なアルゴリズムに始まり,比較的新しい手法も体系的に網羅しつつもコンパクトに自己完結している。原著の出版から7年あまり経つが,近年の発展は本書で掲載されたアルゴリズム・アイデアをその基礎においている。特に本書では,深層学習を利用した深層強化学習を含む最近の発展に,本書で紹介されたアルゴリズムがどのように使われているかを解説した訳者補遺を追加することで,本書と最先端の研究との橋渡しをしている。
目次
第1章 マルコフ決定過程
1.1 本書の表記と前提とする知識
1.2 マルコフ決定過程
1.3 価値関数
1.4 MDPを解くための動的計画法

第2章 価値推定問題
2.1 有限な状態空間でのTD学習
 2.1.1 テーブルTD(0)法
 2.1.2 逐一訪問モンテカルロ法
 2.1.3 TD(λ)法: モンテカルロ法とTD(0)法の統一
2.2 大規模状態空間でのアルゴリズム
 2.2.1 関数近似を用いたTD(λ)法
 2.2.2 勾配TD学習 (gradient temporal difference learning)
 2.2.3 最小二乗法
 2.2.4 関数空間の選択

第3章 制御
3.1 学習問題一覧
3.2 閉ループでの対話型学習
 3.2.1 バンディット問題における探索活用並行学習
 3.2.2 バンディット問題における純粋探索学習
 3.2.3 マルコフ決定過程における純粋探索学習
 3.2.4 マルコフ決定過程における探索活用並行学習
3.3 直接法
 3.3.1 有限MDPにおけるQ学習
 3.3.2 関数近似器を用いたQ学習
3.4 Actor-critic法
 3.4.1 Criticの実装
 3.4.2 Actorの実装

第4章 さらなる勉強のために
4.1 参考文献
4.2 応用
4.3 ソフトウェア
4.4 謝辞

付録A 割引マルコフ決定過程の理論
A.1 縮小写像とバナッハの不動点定理
A.2 MDPへの適用

付録B TD(λ)法の前方観測的な見方と後方観測的な見方について

付録C 深層強化学習を含む最近の発展
C.1 深層強化学習のための深層学習
 C.1.1 ニューラルネットワークを用いた関数近似
 C.1.2 CNN (convolutional neural network)
C.2 価値反復に基づく強化学習アルゴリズムにおける発展
 C.2.1 DQN (deep Q-network)
 C.2.2 Double DQN
 C.2.3 デュエリングネットワーク (dueling network)
 C.2.4 優先順位付き経験再生 (prioritized experience replay)
C.3 方策反復に基づく強化学習アルゴリズムにおける発展
 C.3.1 A3C (asynchronous advantage actor-critic)
 C.3.2 TRPO (trust region policy optimization)
 C.3.3 GAE (generalized advantage estimator)
C.4 深層強化学習の囲碁AIへの応用: AlphaGo
 C.4.1 強化学習問題としての囲碁
 C.4.2 深層ニューラルネットワークの学習
 C.4.3 深層ニューラルネットワークを使ったモンテカルロ木探索法による着手の選択
C.5 おわりに

参考文献

索 引

※近刊検索デルタの書誌情報はopenBDのAPIを使用しています。