| 000 | 00000cam c2200205 c 4500 | |
| 001 | 000046128681 | |
| 005 | 20260102150405 | |
| 007 | ta | |
| 008 | 220921s2022 ggkad 001c kor | |
| 020 | ▼a 9791158393441 ▼g 93000 | |
| 035 | ▼a (KERIS)BIB000016395511 | |
| 040 | ▼a 244009 ▼c 244009 ▼d 211009 | |
| 041 | 1 | ▼a kor ▼h jpn |
| 082 | 0 4 | ▼a 006.31 ▼2 23 |
| 085 | ▼a 006.31 ▼2 DDCK | |
| 090 | ▼a 006.31 ▼b 2022z40 | |
| 100 | 1 | ▼a 赤石雅典 ▼0 AUTH(211009)153813 |
| 245 | 2 0 | ▼a (차근차근 실습하며 배우는) 파이토치 딥러닝 프로젝트 : ▼b 파이썬부터 머신러닝 기초, 이미지 인식, 파인 튜닝까지 / ▼d 아카이시 마사노리 지음 ; ▼e 하승민 옮김 |
| 246 | 1 9 | ▼a 最短コースでわかるPyTorch & 深層学習 (ディープラーニング) プログラミング |
| 246 | 3 9 | ▼a 最短コースでわかるPyTorch and 深層学習 プログラミング |
| 246 | 3 | ▼a Saitan kosu de wakaru paitochi ando shinsō gakushū (dipu raningu) puroguramingu |
| 260 | ▼a 파주 : ▼b 위키북스, ▼c 2022 | |
| 300 | ▼a xxiii, 484 p., 접지 [1]장 : ▼b 삽화, 도표 ; ▼c 24 cm | |
| 490 | 1 0 | ▼a 데이터 사이언스 시리즈 = ▼a DS ; ▼v 083 |
| 500 | ▼a 부록: 1. 파이썬 입문, 2. 넘파이 입문, 3. 매트플롯립 입문 | |
| 500 | ▼a 색인수록 | |
| 700 | 1 | ▼a 하승민, ▼d 1988-, ▼e 역 ▼0 AUTH(211009)174177 |
| 830 | 0 | ▼a 데이터 사이언스 시리즈 ; ▼v 083 |
| 830 | 0 | ▼a DS ; ▼v 083 |
| 900 | 1 0 | ▼a 아카이시 마사노리, ▼e 저 |
| 900 | 1 0 | ▼a Akaishi, Masanori, ▼e 저 |
| 945 | ▼a ITMT |
소장정보
| No. | 소장처 | 청구기호 | 등록번호 | 도서상태 | 반납예정일 | 예약 | 서비스 |
|---|---|---|---|---|---|---|---|
| No. 1 | 소장처 과학도서관/Sci-Info(1층서고)/ | 청구기호 006.31 2022z40 | 등록번호 121260870 (15회 대출) | 도서상태 대출가능 | 반납예정일 | 예약 | 서비스 |
| No. 2 | 소장처 과학도서관/Sci-Info(1층서고)/ | 청구기호 006.31 2022z40 | 등록번호 121261596 (14회 대출) | 도서상태 대출중 | 반납예정일 2026-04-13 | 예약 | 서비스 |
컨텐츠정보
책소개
최근에 특히 주목받는 딥러닝 프레임워크인 '파이토치(PyTorch)'에 관한 입문 서적이다. 이미지 인식을 주 소재로 삼아 파이토치의 장점을 이해하고, 독자가 직접 파이토치 프로그램을 파이썬(Python)으로 구현할 수 있게 돕는 것이 이 책의 목표다.
딥러닝의 학습 원리인 경사 하강법과 파이토치 구현을 복잡한 수식 없이 그림을 통해 구체적으로 이해하도록 했으며, 어떤 개념까지 배웠는지 코스맵을 통해 한눈에 확인할 수 있다. 또한 파이토치가 자동으로 생성한 합성 함수(계산 그래프)를 시각화하는 도구를 활용해 합성 함수의 형태를 이해할 수 있도록 했다.
딥러닝 원리와 파이토치의 구현을 빠르게 이해하자!
이 책은 최근에 특히 주목받는 딥러닝 프레임워크인 '파이토치(PyTorch)'에 관한 입문 서적이다. 이미지 인식을 주 소재로 삼아 파이토치의 장점을 이해하고, 독자가 직접 파이토치 프로그램을 파이썬(Python)으로 구현할 수 있게 돕는 것이 이 책의 목표다.
딥러닝의 학습 원리인 경사 하강법과 파이토치 구현을 복잡한 수식 없이 그림을 통해 구체적으로 이해하도록 했으며, 어떤 개념까지 배웠는지 코스맵을 통해 한눈에 확인할 수 있다. 또한 파이토치가 자동으로 생성한 합성 함수(계산 그래프)를 시각화하는 도구를 활용해 합성 함수의 형태를 이해할 수 있도록 했다.
딥러닝에 필요한 파이썬 기본 문법과 넘파이(Numpy), 매트플롯립(Matplotlib)을 부록에서 설명하므로, 프로그래밍에 익숙하지 않더라도 이 책으로 딥러닝을 시작할 수 있다. 실습 환경으로 클라우드 AI 실행기반인 '구글 코랩(Google Colaboratory)'을 사용하므로 웹브라우저에서 무료로 간편하게 실습할 수 있다. 나아가 독자가 코드를 직접 실행시켜 보는 것을 매우 중요하게 생각해서, 구글 코랩의 사용법에 대해서도 자세하게 설명한다.
★ 이 책에서 다루는 내용 ★
◎ 딥러닝에 꼭 필요한 파이썬의 개념(컨테이너 타입, 합성 함수, 수치 미분, 객체 지향)
◎ 파이토치의 기본 기능(텐서, 자동 미분, 경사 계산)
◎ 머신러닝(경사 하강법, 데이터 전처리, 예측 함수, 활성화 함수)
◎ 파이토치를 활용한 선형 회귀 및 분류
◎ CNN을 활용한 이미지 인식, GPU 활용 및 데이터 전처리
◎ 최적화 함수, 과학습의 대응 방법
◎ 사전 학습 모델 활용하기(파인 튜닝과 전이 학습)
◎ 사용자 정의 데이터를 활용한 이미지 분류
정보제공 :
저자소개
아카이시 마사노리(지은이)
액센츄어 주식회사 비즈니스 컨설팅본부 AI 그룹 시니어 대표. 1985년 도쿄대학 공학부 계수공학과 졸업. 1987년 동 대학원 석사과정 수료. 같은 해 일본 IBM에 입사해 2020년 12월에 퇴직. 2021년 3월 액센츄어 입사. 현재는 AI 인재육성 관련 일을 주로 담당하고 있다. 사외강사 교토정보대학원대학교 객원교수. 저서로 《딥러닝을 위한 수학》 《돈 되는 파이썬 인공지능 프로그래밍》 등이 있다.
하승민(옮긴이)
일본 리쓰메이칸 대학교 물리학과를 졸업하고, 동 대학원에서 이학(물리학) 석사 학위를 받았습니다. 이론 물리학을 전공했으며 8년 차 AI 리서치 엔지니어입니다. 옮긴 책으로는 『머신러닝 시스템 디자인 패턴』(위키북스, 2021), 『차근차근 실습하며 배우는 파이토치 딥러닝 프로그래밍』(위키북스, 2022), 『제미나이 인공지능 프로그래밍』(길벗, 2025), 『개발자를 위한 생성형 AI 활용 가이드』(길벗, 2025)가 있습니다.
목차
▣ 00장: 미리보기 & 이미지 인식 시작하기 1. 이 책의 목적 2. 이 책을 읽는 법 3. 구글 코랩 사용법 4. 실습 따라하기 __초기설정 __학습 데이터 불러오기 __훈련용 이미지 데이터 확인 __검증용 이미지 데이터 확인 __모델 구축 __학습 __결과 확인 __공통 함수(fit 함수)의 내부 구조 5. 이 책의 구성 __기초편 __머신러닝 실전편 __이미지 인식 실전편 [1부] 기초편 ▣ 01장: 딥러닝에 꼭 필요한 파이썬의 개념 1.1 이 장의 중요 개념 1.2 컨테이너 타입 변수에 주의 1.3 ‘합성 함수’를 파이썬으로 구현하기 1.4 ‘미분’과 파이썬의 ‘수치 미분’ 구현하기 1.5 커스텀 클래스 정의하기 __객체 지향의 기초 개념 __클래스 정의하기 __인스턴스 생성하기 __인스턴스의 속성으로 접근 __draw 함수의 호출 __Circle1 클래스 정의하기 __Circle1 인스턴스 생성과 속성의 확인 __draw 함수의 호출 __Circle2 클래스 정의하기 __Circle2 인스턴스 생성과 draw 함수의 호출 __Circle3 클래스의 구현 __Circle3 인스턴스 생성과 draw 함수 호출 1.6 인스턴스를 함수로 사용하는 방법 ▣ 02장: 파이토치의 기본 기능 2.1 이 장의 중요 개념 2.2 텐서 __라이브러리 임포트 __다양한 계수의 텐서 만들기 __정숫값을 갖는 텐서 만들기 __view 함수 __그 밖의 속성 __item 함수 __max 함수 __넘파이 변수로 변환 2.3 자동 미분 기능 __(1) 경사 계산용 변수의 정의 __(2) 텐서 변수 간의 계산 __(3) 계산 그래프 시각화 __(4) 경사 계산 __(5) 경삿값 가져오기 __(6) 경삿값의 초기화 2.4 2차 함수의 경사 계산 __(1) 경사 계산용 변수 정의 __(2) 텐서 변수로 계산 __(3) 계산 그래프 시각화 __(4) 경사 계산 __(5) 경삿값 가져오기 __(6) 경삿값의 초기화 2.5 시그모이드 함수의 경사 계산 __(1) 시그모이드 함수의 정의 __(2) 텐서 변수로 y값의 계산 __그래프 출력 __최종 결과를 스칼라값으로 변환 __(3) 계산 그래프 시각화 __(4) 경사 계산, (5) 경삿값 가져오기 ▣ 03장: 처음 시작하는 머신러닝 3.1 문제 정의하기 3.2 이 장의 중요 개념 3.3 경사 하강법 이해하기 3.4 경사 하강법의 구현 방법 __예측 계산 __손실 계산 __경사 계산 __파라미터 수정 3.5 데이터 전처리 __데이터 변환 3.6 예측 계산 3.7 손실 계산 3.8 경사 계산 3.9 파라미터 수정 3.10 반복 계산 3.11 결과 평가 3.12 최적화 함수와 step 함수 이용하기 __최적화 함수 튜닝 ▣ 04장: 예측 함수 정의하기 4.1 머신러닝 알고리즘의 전체상과 예측 함수 4.2 신경망의 개념과 파이토치 프로그래밍 모델의 관계 4.3 파이토치 프로그래밍에 필요한 용어 정의 4.4 예측 함수의 내부 구조 4.5 외부에서 본 예측 함수의 거동 4.6 파이토치 머신러닝 프로그램의 전체상 4.7 활성화 함수의 목적 [02부] 머신러닝 실전편 ▣ 05장: 선형 회귀 5.1 문제의 정의 5.2 이 장의 중요 개념 5.3 선형 함수(nn.Linear) __1입력 1출력 __2입력 1출력 __2입력 3출력 5.4 커스텀 클래스를 이용한 모델 정의 5.5 MSELoss 클래스를 이용한 손실 함수 5.6 데이터 준비 5.7 모델 정의 __변수 정의 __머신러닝 모델(예측 모델)의 클래스 정의 __인스턴스 생성 __모델 내부의 변숫값 표시 __parameters 함수의 호출 __모델의 개요 표시 __손실 함수와 최적화 함수의 정의 5.8 경사 하강법 __입력값 x와 정답 yt의 텐서 변환 __① 예측 계산 __② 손실 계산 __계산 그래프 시각화 __③ 경사 계산 __④ 파라미터 수정 __경사 하강법의 전체상 __반복 계산 5.9 결과 확인 5.10 중회귀 모델로 확장 5.11 학습률의 변경 ▣ 06장: 이진 분류 6.1 문제 정의하기 6.2 이 장의 중요 개념 6.3 정확도(Accuracy) 6.4 훈련 데이터와 검증 데이터 분할 6.5 시그모이드 함수 6.6 교차 엔트로피 함수 6.7 데이터 준비 __데이터 불러오기 __데이터 추출 __훈련 데이터와 검증 데이터 분할 __산포도 출력 6.8 모델 정의 6.9 경사 하강법 __최적화 알고리즘과 손실 함수의 정의 __머신러닝 프로그램의 전체상 __입력 데이터와 정답 데이터의 텐서 변환 __초기화 처리 __메인 루프 6.10 결과 확인 ▣ 07장: 다중 분류 7.1 문제 정의하기 7.2 이 장의 중요 개념 7.3 여러 개의 분류기 7.4 가중치 행렬 7.5 소프트맥스 함수 7.6 교차 엔트로피 함수 7.7 다중 분류 모델에서 예측 함수와 손실 함수의 관계 7.8 데이터 준비 __데이터 추출 __훈련 데이터와 검증 데이터 분할 __산포도 출력 7.9 모델 정의 __입력 차원수와 출력 차원수 확인 __모델 정의 __모델 내부 파라미터 확인 __최적화 알고리즘과 손실 함수의 정의 7.10 경사 하강법 __데이터의 텐서 변수화 __손실의 계산 그래프 시각화 __예측 라벨을 얻는 방법 __반복 계산 7.11 결과 확인 __손실 및 정확도 확인 __학습 곡선 __모델 출력 확인 __가중치 행렬과 바이어스 값 7.12 입력 변수의 4차원화 ▣ 08장: MNIST를 활용한 숫자 인식 8.1 문제 정의하기 8.2 이 장의 중요 개념 8.3 신경망과 딥러닝 8.4 활성화 함수와 ReLU 함수 8.5 GPU 사용하기 __구글 코랩 상에서 설정 __파이토치 상에서 설정 __GPU 디바이스 확인 __GPU 사용 규칙 8.6 데이터 전처리 8.7 미니 배치 학습법 8.8 데이터 준비 1 (Dataset을 활용해 불러오기) __데이터 입수 8.9 데이터 준비 2 (Transforms를 활용한 데이터 전처리) __스텝 1. ToTensor 사용하기 __스텝 2. Normalize 사용하기 __스텝 3. Lambda 클래스를 사용해 1차원으로 텐서 변환하기 8.10 데이터 준비 3 (데이터로더를 활용한 미니 배치 데이터 생성) 8.11 모델 정의 8.12 경사 하강법 __예측 계산 __손실 계산 8.13 결과 확인 8.14 은닉층 추가하기 __모델 정의 __경사 계산 결과 [03부] 머신러닝 실전편 ▣ 09장: CNN을 활용한 이미지 인식 9.1 문제 정의하기 9.2 이 장의 중요 개념 9.3 CNN의 처리 개요 __CNN의 전체상 __합성곱 처리 __풀링 처리 9.4 파이토치에서 CNN을 구현하는 방법 __CNN의 전체 구성 __nn.Conv2d와 nn.MaxPool2d __합성곱 처리와 풀링 처리 시뮬레이션 __nn.Sequential __nn.Flatten 9.5 공통 함수 사용하기 __eval_loss(손실 계산) __fit(학습) __evaluate_history(학습 로그) __show_images_labels(예측 결과 표시) __torch_seed(난수 고정) 9.6 데이터 준비 __Transforms 정의 __데이터셋 정의 __데이터로더 정의 __검증 데이터를 이미지로 표시 9.7 모델 정의(전결합형) 9.8 결과(전결합형) __학습 __평가 9.9 모델 정의(CNN) __forward 함수의 구조 __nn.Sequential 클래스 사용 __가장 앞의 nn.Linear 함수의 입력 차원수 __모델의 개요 표시 9.10 결과(CNN) __모델 초기화와 학습 __평가 ▣ 10장: 튜닝 기법 10.1 이 장의 중요 개념 10.2 신경망의 다층화 10.3 최적화 함수 __SGD(Stochastic Gradient Descent) __모멘텀(Momentum) __Adam 10.4 과학습의 대응 방법 __드롭아웃(Dropout) __배치 정규화(Batch Normalization) __데이터 증강(Data Augmentation) 10.5 공통 함수의 라이브러리화 10.6 층을 깊게 쌓은 모델 구현하기 __클래스 정의 __인스턴스 생성 __학습 10.7 최적화 함수 선택 10.8 드롭아웃 10.9 배치 정규화 10.10 데이터 증강 기법 ▣ 11장: 사전 학습 모델 활용하기 11.1 이 장의 중요 개념 11.2 사전 학습 모델 11.3 파인 튜닝과 전이 학습 11.4 적응형 평균 풀링 함수(nn.AdaptiveAvgPool2d 함수) 11.5 데이터 준비 11.6 ResNet-18 불러오기 11.7 최종 레이어 함수 교체하기 11.8 학습과 결과 평가 __초기 설정 __학습 __학습 결과 평가 11.9 VGG-19-BN 활용하기 __모델 불러오기 __모델 구조 확인 __최종 레이어 함수 교체 __손실 계산 그래프 시각화 __학습 __학습 결과 평가 ▣ 12장: 사용자 정의 데이터를 활용한 이미지 분류 12.1 문제 정의하기 12.2 이 장의 중요 개념 __데이터 다운로드, 압축 해제, 트리 구조 출력 12.3 데이터 준비 __tree 커맨드 인스톨 __다운로드 __압축 해제 __Transforms 정의 __ImageFolder 사용 __데이터셋 정의 __데이터로더 정의 12.4 파인 튜닝의 경우 12.5 전이 학습의 경우 12.6 사용자 정의 데이터를 사용하는 경우 __Transforms 정의 __데이터셋 정의 __데이터로더 정의 __훈련·검증 데이터 이미지 출력 __모델 정의 __예측 결과



