【レビュー】機械学習スタートアップシリーズ Pythonで学ぶ強化学習 入門から実践まで


【PR】この記事には広告を含む場合があります
  • 出版情報
  • ・著者:久保隆宏/著
  • ・出版日:20190117
  • ・ページ数:304P
  • レビュー数
  • ・週間:0記事
  • ・月間:0記事
  • ・年間:0記事
  • ・全期間:8記事

ジャンルTop10選

目次

強化学習が実装できる! エンジニアのために、Pythonのサンプルコードとともに、ゼロからていねいに解説。実用でのネックとなる強化学習の弱点とその克服方法、さらに活用領域まで紹介した。コードも公開!


・Pythonプログラミングとともに、ゼロからていねいに解説。
・コードが公開されているから、すぐ実践できる。
・実用でのネックとなる強化学習の弱点と、その克服方法まで紹介。

【おもな内容】

Day1 強化学習の位置づけを知る

Day2 強化学習の解法(1): 環境から計画を立てる
 価値の定義と算出: Bellman Equation
 動的計画法による状態評価の学習: Value Iteration
 動的計画法による戦略の学習: Policy Iteration
 モデルベースとモデルフリーとの違い

Day3 強化学習の解法(2): 経験から計画を立てる
 経験の蓄積と活用のバランス: Epsilon-Greedy法
 計画の修正を実績から行うか、予測で行うか: Monte Carlo vs Temporal Difference
 経験を状態評価、戦略どちらの更新に利用するか

Day4 強化学習に対するニューラルネットワークの適用
 強化学習にニューラルネットワークを適用する
 状態評価を、パラメーターを持った関数で実装する: Value Function Approximation
 状態評価に深層学習を適用する: Deep Q-Network
 戦略を、パラメーターを持った関数で実装する: Policy Gradient
 戦略に深層学習を適用する: Advantage Actor Critic(A2C)
 状態評価か、戦略か

Day5 強化学習の弱点
 サンプル効率が悪い
 局所最適な行動に陥る、過学習をすることが多い
 再現性が低い
 弱点を前提とした対応策

Day6 強化学習の弱点を克服するための手法
 サンプル効率の悪さへの対応:モデルベースとの併用/表現学習
 再現性の低さへの対応:進化戦略
 局所最適な行動/過学習への対応:模倣学習/逆強化学習

Day7 強化学習の活用領域
 行動の最適化
 学習の最適化

概要

強化学習が実装できる! エンジニアのために、Pythonのサンプルコードとともに、ゼロからていねいに解説。コードも公開!

レビューの一覧

 ・『Pythonで学ぶ強化学習 入門から実践まで』を読んでみた 第二章[2020-06-19に投稿]

 ・『Pythonで学ぶ強化学習 入門から実践まで』を読んでみた 第一章[2020-06-17に投稿]

 ・日本一詳しくMaximumEntropyIRLのソースコードを解説してみる[2019-10-22に投稿]

 ・Pythonで学ぶ強化学習[2019-08-05に投稿]

 ・非線形モデル予測制御におけるニュートン法をpythonで実装する(強化学習との関係をそえて)[2019-05-21に投稿]

 ・強化学習(TD法)で薬物依存をモデル化してみた![2019-05-01に投稿]

 ・書籍「Pythonで学ぶ強化学習」のサンプルコードを実行可能な環境をdockerで構築 (GUI出力対応)[2019-04-08に投稿]

 ・【保存版・初心者向け】独学でAIエンジニアになりたい人向けのオススメのAI勉強方法 (2019年改定版)[2019-03-23に投稿]


amazonで確認