| 000 | 00000cam c2200205 c 4500 | |
| 001 | 000046153589 | |
| 005 | 20250811102319 | |
| 007 | ta | |
| 008 | 230712s2023 ulka b 000c kor | |
| 020 | ▼a 9791156000990 ▼g 93000 | |
| 035 | ▼a (KERIS)BIB000016771325 | |
| 040 | ▼a 243007 ▼c 243007 ▼d 211009 | |
| 041 | 1 | ▼a kor ▼h eng |
| 082 | 0 4 | ▼a 006.31 ▼2 23 |
| 085 | ▼a 006.31 ▼2 DDCK | |
| 090 | ▼a 006.31 ▼b 2023z9 | |
| 100 | 1 | ▼a Ravichandiran, Sudharsan ▼0 AUTH(211009)172182 |
| 245 | 1 0 | ▼a Python을 사용한 심층 강화 학습 : ▼b 마스터 클래식 RL, 딥 RL, 분포 RL, 역 RL 등 OpenAI Gym 및 TensorFlow 포함 / ▼d Sudharsan Ravichandiran 지음 ; ▼e 김귀훈 [외]옮김 |
| 246 | 1 9 | ▼a Deep reinforcement learning with Python : ▼b master classic RL, deep RL, distributional RL, inverse RL, and more with OpenAI Gym and TensorFlow ▼g (2nd ed.) |
| 260 | ▼a 서울 : ▼b 홍릉, ▼c 2023 | |
| 300 | ▼a xvi, 688 p. : ▼b 삽화 ; ▼c 26 cm | |
| 490 | 1 0 | ▼a Expert insight |
| 500 | ▼a 공역자: 임현교, 김주봉, 최호빈 | |
| 504 | ▼a 참고문헌 수록 | |
| 650 | 0 | ▼a Reinforcement learning |
| 650 | 0 | ▼a Python (Computer program language) |
| 700 | 1 | ▼a 김귀훈, ▼g 金貴訓, ▼d 1974-, ▼e 역 ▼0 AUTH(211009)172033 |
| 700 | 1 | ▼a 임현교, ▼g 林賢敎, ▼d 1989-, ▼e 역 ▼0 AUTH(211009)172034 |
| 700 | 1 | ▼a 김주봉, ▼g 金周奉, ▼d 1992-, ▼e 역 ▼0 AUTH(211009)172181 |
| 700 | 1 | ▼a 최호빈, ▼e 역 |
| 830 | 0 | ▼a Expert insight |
| 945 | ▼a ITMT |
Holdings Information
| No. | Location | Call Number | Accession No. | Availability | Due Date | Make a Reservation | Service |
|---|---|---|---|---|---|---|---|
| No. 1 | Location Main Library/Monographs(3F)/ | Call Number 006.31 2023z9 | Accession No. 111882573 | Availability Available | Due Date | Make a Reservation | Service |
Contents information
Author Introduction
수다르산 라비찬디란(지은이)
데이터 과학자이자 연구원이자 저명한 저술가. 안나 대학교에서 정보 기술 학사 학위를 취득했다. 연구 분야는 자연어 처리 및 컴퓨터 비전, 딥러닝 및 강화학습의 실제 구현에 중점을 두고 있다. 오 픈 소스 기여자이며 스택 오버플로 질문에 답하는 것을 좋아한다. 또한 베스트셀러 『Hands-On Reinforcement Learning with Python』(Manning, 2018)을 집필했다.
김귀훈(옮긴이)
임현교(옮긴이)
김주봉(옮긴이)
최호빈(옮긴이)
Table of Contents
제1장 Fundamentals of Reinforcement Learning 제2장 A Guide to the Gym Toolkit 제3장 The Bellman Equation and Dynamic Programming 제4장 Monte Carlo Methods 제5장 Understanding Temporal Difference Learning 제6장 Case Study-e MAB Problem 제7장 Deep LearningFoundation 제8장 A Primer on TensorFlow 제9장 Deep Q Networkand Its Variants 제10장 Policy Gradient Method 제11장 Actor-Critic Methods - A2C and A3C 제12장 Learning DDPG, TD3 and SAC 제13장 TRPO, PPO and ACKTR Methods 제14장 Distributional Reinforcement Learning 제15장 Imitation Learning and Inverse RL 제16장 Deep Reinforcement Learning with Stable Baselines 제17장 Reinforcement Learning Frontiers


