[1부] 딥러닝의 기초원리
1장 서론
2장 딥러닝 데이터와 세 가지 기본신경망
2.1 데이터의 사전정리과정
2.2 딥러닝에 사용되는 데이터의 형태
2.3 은닉층 설계를 위한 세 가지 핵심 신경망
3장 손실함수와 최적화
3.1 출력층과 손실함수
3.2 역전파
3.3 최적화 알고리즘
4장 TensorFlow-Keras
4.1 TensorFlow 2의 기초 문법과 tf.keras의 설치
4.2 딥러닝 구축을 위한 3대 API
4.3 최적화를 위한 점검
5장 오차분석, 초모수조절, 그리고 맞춤형 딥러닝 설계
5.1 오차분석
5.2 자료 분할
5.3 초모수 조절
5.4 딥러닝 모형의 성능향상
5.5 맞춤형 딥러닝 설계
[2부] 딥러닝의 기본 응용과 진화과정
6장 CNN의 응용과 이전학습
6.1 사람의 성별을 구분하는 CNN
6.2 이전학습
6.3 Image Generator를 이용한 CNN과 자료증대
6.4 ImageDataGenerator를 이용한 이전학습
7장 RNN을 이용한 Word Embedding과 시계열 분석
7.1 Word2Vec과 Glove
7.2 텍스트 자료에 특화된 Word Embedding
7.3 Word Embedding 사례분석
7.4 RNN 모형의 비교
7.5 다른 형태의 RNN 모형
7.6 딥러닝을 이용한 시계열 자료분석
8장 다중 입출력, 병렬형, 비순환 딥러닝 아키텍처
8.1 다중입력과 다중출력 딥러닝
8.2 비순환형 딥러닝 아키텍처
9장 CNN 아키텍처의 진화과정
9.1 LeNet-5
9.2 AlexNet
9.3 VGGNet
9.4 ResNet
9.5 Inception
9.6 Stem-Learner-Task 아키텍처
9.7 딥러닝의 진화
[3부] 컴퓨터 비전
10장 자율자동차의 이미지분석
10.1 교통표식의 식별
10.2 객체분할
10.3 객체의 의미분할
11장 이미지 객체인식과 위치화
11.1 R-CNN
11.2 Fast R-CNN
11.3 Faster R-CNN
11.4 YOLO_v3
12장 채널 시각화, 딥드림, 그리고 스타일이전
12.1 채널 시각화
12.2 딥드림
12.3 스타일이전
[4부] 자연어처리
13장 머신번역
13.1 자료의 사전정리
13.2 sequence-to-sequence 학습
13.3 머신번역을 위한 Encoder-Decoder 아키텍처
13.4 Attention을 이용한 머신번역
14장 Transformer
14.1 Transformer의 입력층
14.2 Transformer의 은닉층
14.3 Transformer의 적용
14.4 한국어 챗봇
15장 BERT와 GPT
15.1 BERT의 구조
15.2 GPT와 텍스트 생성을 위한 sampling
15.3 서브워드 토큰화
16장 Hugging Face를 이용한 BERT
16.1 BERT의 적용
16.2 NLP 데이터셋 API와 BERT의 적용
17장 BERT 변형
17.1 ALBERT
17.2 RoBERTa
17.3 ELECTRA
17.4 DistilBERT
17.5 M-BERT, XLM, XLM-R
[5부] AutoEncoder와 GAN
18장 AutoEncoder와 Variational AutoEncoder
18.1 AutoEncoder 모형
18.2 오염제거 Autoencoder
18.3 Variational Autoencoder
18.4 조건부 VAE
19장 Generative Adversarial Networks
19.1 DCGAN
19.2 GAN 학습을 위한 손실함수
19.3 WGAN의 구현
19.4 LSGAN의 구현
20장 Cross-Domain GAN
20.1 CycleGAN
20.2 CIFAR10 데이터를 이용한 CycleGAN
20.3 MNIST 데이터와 SVHN 데이터를 이용한 CycleGAN
20.4 모네그림 데이터와 사진데이터를 이용한 CycleGAN
*참고문헌
*찾아보기