| 000 | 00000cam c2200205 c 4500 | |
| 001 | 000046023167 | |
| 005 | 20200407173804 | |
| 007 | ta | |
| 008 | 200407s2020 ggkad 001c kor | |
| 020 | ▼a 9791158391942 ▼g 93500 | |
| 035 | ▼a (KERIS)BIB000015547287 | |
| 040 | ▼a 211046 ▼c 211046 ▼d 211009 | |
| 041 | 1 | ▼a kor ▼h jpn |
| 082 | 0 4 | ▼a 006.31 ▼2 23 |
| 085 | ▼a 006.31 ▼2 DDCK | |
| 090 | ▼a 006.31 ▼b 2020z9 | |
| 100 | 1 | ▼a 赤石雅典 |
| 245 | 1 0 | ▼a 딥러닝을 위한 수학 : ▼b 인공지능의 핵심 원리를 이해하고 파이썬으로 구현해 보는 / ▼d 아카이시 마사노리 지음 ; ▼e 신상재 옮김 |
| 246 | 1 9 | ▼a 最短コ-スでわかるディ-プラ-ニングの数学 : ▼b 綴じ込み!最短コ-スマップ |
| 246 | 3 | ▼a Saitan kosu de wakaru dipu raningu no sugaku : ▼b tojikomi saitan kosu mappu |
| 260 | ▼a 파주 : ▼b 위키북스, ▼c 2020 | |
| 300 | ▼a xx, 304 p., 접지 [1]장 : ▼b 삽화, 도표 ; ▼c 25 cm | |
| 440 | 0 0 | ▼a 데이터 사이언스 시리즈 = ▼x DS ; ▼v 052 |
| 500 | ▼a 부록: 그리스 문자 목록 | |
| 500 | ▼a 색인수록 | |
| 700 | 1 | ▼a 신상재, ▼e 역 |
| 900 | 1 0 | ▼a 아카이시 마사노리, ▼e 저 |
| 900 | 1 0 | ▼a Akaishi, Masanori, ▼e 저 |
| 945 | ▼a KLPA |
Holdings Information
| No. | Location | Call Number | Accession No. | Availability | Due Date | Make a Reservation | Service |
|---|---|---|---|---|---|---|---|
| No. 1 | Location Science & Engineering Library/Sci-Info(Stacks1)/ | Call Number 006.31 2020z9 | Accession No. 121252900 (25회 대출) | Availability Available | Due Date | Make a Reservation | Service |
Contents information
Book Introduction
미분과 벡터, 행렬과 확률과 같은 딥러닝에 필요한 수학을 고등학교 1학년 수준부터 복습해 나가면서 설명하고 있다. 최단 코스로 익힐 수 있도록 꼭 필요한 수학 개념만 간추려서 설명하고 그것들의 관계를 그림으로 표현했다. 이론으로 배운 수학적 개념은 주피터 노트북에서 실행할 수 있도록 소스코드도 함께 제공한다.
AI의 블랙박스를 열어 보자!
딥러닝의 본질을 이해하는 데 필요한 '수학'을 '최단 코스'로 배울 수 있습니다!
이 책은 미분과 벡터, 행렬과 확률과 같은 딥러닝에 필요한 수학을 고등학교 1학년 수준부터 복습해 나가면서 설명하고 있습니다.
최단 코스로 익힐 수 있도록 꼭 필요한 수학 개념만 간추려서 설명하고 그것들의 관계를 그림으로 표현했습니다.
이론으로 배운 수학적 개념은 주피터 노트북에서 실행할 수 있도록 소스코드도 함께 제공합니다.
이 책을 통해 '딥러닝'의 동작 원리를 직접 체험해보기 바랍니다.
Information Provided By: :
Author Introduction
아카이시 마사노리(지은이)
액센츄어 주식회사 비즈니스 컨설팅본부 AI 그룹 시니어 대표. 1985년 도쿄대학 공학부 계수공학과 졸업. 1987년 동 대학원 석사과정 수료. 같은 해 일본 IBM에 입사해 2020년 12월에 퇴직. 2021년 3월 액센츄어 입사. 현재는 AI 인재육성 관련 일을 주로 담당하고 있다. 사외강사 교토정보대학원대학교 객원교수. 저서로 《딥러닝을 위한 수학》 《돈 되는 파이썬 인공지능 프로그래밍》 등이 있다.
신상재(옮긴이)
- 신상재 / 번역하는 개발자 - 삼성SDS 소프트웨어 아키텍트 / 1인출판 프로젝트 ZZOM 운영자 <a href="https://www.youtube.com/@translating-developer" target="_blank" rel="noopener noreferrer">- https://www.youtube.com/@translating-developer</a> <a href="https://www.facebook.com/sangjae.shin" target="_blank" rel="noopener noreferrer">- https://www.facebook.com/sangjae.shin</a> 삼성SDS에서 소프트웨어 아키텍트를 거쳐 프로젝트 매니지먼트 컨설팅을 하고 있다. 입문자를 위한 IT, 드로잉, 번역 노하우를 1인출판 프로젝트 ZZOM을 통해 공개하고 있다. 역서로 『출근했더니 스크럼 마스터가 된 건에 관하여』, 『처음 배우는 그래픽 레코딩』, 『사고법 도감』, 『딥러닝을 위한 수학』, 『비즈니스 프레임워크 도감』, 『인공지능을 위한 수학』, 『1억배 빠른 양자 컴퓨터가 온다』, 『스프링 철저 입문』, 『클라우드 인프라와 API의 구조』, 『TCP/IP 쉽게, 더 쉽게』, 『네트워크 엔지니어의 교과서』, 『XCODE로 배우는 코코아 프로그래밍』, 『OBJECTIVE C』가 있다.
Table of Contents
[1부] 준비편 실습 환경 구성 __소스코드 다운로드 __개인 PC에서 주피터 노트북 사용하기 __아나콘다를 사용하는 경우(윈도우) __아나콘다를 사용하는 경우(macOS) __비주얼 스튜디오 코드를 사용하는 경우 __클라우드에서 주피터 노트북 사용하기 미리 알아두면 좋을 지식 __인공지능 관련 용어의 관계도 __인공지능의 포함 관계 __머신러닝의 포함 관계 이 책에서 사용하는 수학 기호와 그리스 문자 [2부] 도입편 ▣ 01장: 머신러닝 입문 1.1 인공지능과 머신러닝 1.2 머신러닝이란? __1.2.1 머신러닝 모델이란? __1.2.2 학습 방법 __1.2.3 지도학습에서의 회귀와 분류 __1.2.4 학습 단계와 예측 단계 __1.2.5 손실함수와 경사하강법 1.3 처음으로 만나는 머신러닝 모델 1.4 이 책에서 다루는 머신러닝 모델 1.5 머신러닝과 딥러닝에서 수학이 필요한 이유 1.6 이 책의 구성 [3부] 이론편 ▣ 02장: 미분과 적분 2.1 함수 __2.1.1 함수란? __2.1.2 함수의 그래프 2.2 합성함수와 역함수 __2.2.1 합성함수 __2.2.2 역함수 2.3 극한과 미분 __2.3.1 미분의 정의 __2.3.2 미분과 함숫값의 근사 표현 __2.3.3 접선의 방정식 2.4 극대와 극소 2.5 다항식의 미분 __2.5.1 xn의 미분 __2.5.2 미분의 선형성과 다항식의 미분 __2.5.3 xr의 미분 2.6 곱의 미분 2.7 합성함수와 역함수의 미분 __2.7.1 합성함수의 미분 __2.7.2 역함수의 미분 2.8 몫의 미분 2.9 적분 ▣ 03장: 벡터와 행렬 3.1 벡터 3.1.1 벡터란? __3.1.2 벡터의 표기 방법 __3.1.3 벡터의 성분 표시 __3.1.4 다차원으로 확장 __3.1.5 벡터 성분의 표기 방법 3.2 덧셈, 뺄셈, 스칼라배 __3.2.1 벡터의 덧셈 __3.2.2 벡터의 뺄셈 __3.2.3 벡터의 스칼라배 3.3 길이와 거리 __3.3.1 벡터의 길이 __3.3.2 Σ 기호의 의미 __3.3.3 벡터 간의 거리 3.4 삼각함수 __3.4.1 삼각비 __3.4.2 삼각함수 __3.4.3 삼각함수의 그래프 __3.4.4 직각삼각형의 변을 삼각함수로 표현하기 3.5 내적 __3.5.1 절댓값과 내적의 정의 __3.5.2 벡터 성분과 내적의 공식 3.6 코사인 유사도 __3.6.1 코사인 유사도 3.7 행렬과 행렬 연산 __3.7.1 1 출력 노드의 내적 표현 __3.7.1 3 출력 노드의 행렬곱 표현 ▣ 04장: 다변수함수의 미분 4.1 다변수함수 4.2 편미분 4.3 전미분 4.4 전미분과 합성함수 4.5 경사하강법 ▣ 05장: 지수함수와 로그함수 5.1 지수함수 __5.1.1 거듭제곱의 정의와 법칙 __5.1.2 거듭제곱의 확장 __5.1.3 함수로의 확장 5.2 로그함수 5.3 로그함수의 미분 5.4 지수함수의 미분 5.5 시그모이드 함수 5.6 소프트맥스 함수 ▣ 06장: 확률과 통계 6.1 확률변수와 확률분포 6.2 확률밀도함수와 확률분포함수 6.3 가능도함수와 최대가능도 추정 [4부] 실습편 ▣ 07장: 선형회귀 모델 7.1 손실함수의 편미분과 경사하강법 7.2 예제 개요 7.3 학습 데이터의 표기 방법 7.4 경사하강법의 접근법 7.5 예측 모델 7.6 손실함수 7.7 손실함수의 미분 계산 7.8 경사하강법의 적용 7.9 프로그램 구현 7.10 다중회귀 모델로의 확장 ▣ 08장: 로지스틱 회귀 모델 (이진 분류) 8.1 예제 개요 8.2 회귀 모델과 분류 모델의 차이 8.3 예측 모델 8.4 손실함수(교차 엔트로피 함수) 8.5 손실함수의 미분 계산 8.6 경사하강법의 적용 8.7 프로그램 구현 ▣ 09장: 로지스틱 회귀 모델 (다중 클래스 분류) 9.1 예제 개요 9.2 모델의 기본 개념 9.3 가중치 행렬 9.4 소프트맥스 함수 9.5 손실함수 9.6 손실함수의 미분 계산 9.7 경사하강법의 적용 9.8 프로그램 구현 ▣ 10장: 딥러닝 모델 10.1 예제 개요 10.2 모델 구성과 예측함수 10.3 손실함수 10.4 손실함수의 미분 계산 10.5 오차역전파 10.6 경사하강법의 적용 10.7 프로그램 구현 (1) 10.8 프로그램 구현 (2) 10.9 프로그램 구현 (3) 10.10 프로그램 구현 (4) [5부] 발전편 ▣ 11장: 실용적인 딥러닝을 위해 11.1 프레임워크의 활용 11.2 CNN 11.3 RNN과 LSTM 11.4 수치미분 11.5 심화 학습법 11.6 과적합 대책 11.7 학습의 단위 11.8 가중치 행렬의 초기화 11.9 다음 목표를 향해 [6부] 부록 그리스 문자 목록



