| 000 | 00000nam c2200205 c 4500 | |
| 001 | 000046214967 | |
| 005 | 20260326094254 | |
| 007 | ta | |
| 008 | 251212s2025 ulkad 001c kor | |
| 020 | ▼a 9788966264636 | |
| 035 | ▼a (KERIS)BIB000017147546 | |
| 040 | ▼a 247017 ▼c 247017 ▼d 211009 | |
| 082 | 0 4 | ▼a 006.3 ▼2 23 |
| 085 | ▼a 006.3 ▼2 DDCK | |
| 090 | ▼a 006.3 ▼b 2025z84 | |
| 100 | 1 | ▼a 민재식 |
| 245 | 1 0 | ▼a 머신 러닝 마스터 클래스 : ▼b 기본기를 바로잡는 9가지 레슨 / ▼d 민재식 지음 |
| 246 | 1 1 | ▼a Machine learning master classes |
| 260 | ▼a 서울 : ▼b 인사이트, ▼c 2025 | |
| 300 | ▼a xi, 292 p. : ▼b 삽화, 도표 ; ▼c 23 cm | |
| 490 | 1 0 | ▼a 프로그래밍 인사이트 |
| 500 | ▼a 2025년도 대한민국학술원 선정 교육부 우수학술도서 | |
| 504 | ▼a 색인(p. 290-292) 수록 | |
| 650 | 8 | ▼a 머신 러닝 |
| 830 | 0 | ▼a 프로그래밍 인사이트 |
소장정보
| No. | 소장처 | 청구기호 | 등록번호 | 도서상태 | 반납예정일 | 예약 | 서비스 |
|---|---|---|---|---|---|---|---|
| No. 1 | 소장처 세종학술정보원/과학기술실(5층)/ | 청구기호 006.3 2025z84 | 등록번호 151372119 | 도서상태 정리중 | 반납예정일 | 예약 예약가능 | 서비스 |
컨텐츠정보
책소개
머신 러닝 도서나 실무에서 익숙하게 접하는 기본 개념과 기법들. 하지만 왜 사용하는지, 어떤 경우에 사용하는지 물어본다면 제대로 설명할 수 있을까? 《머신 러닝 마스터 클래스》는 머신 러닝에서 널리 쓰여 개발자들에게 익숙하지만 정확하게 알지 못하는 개념과 기법 들을 설명한다. 모델 설계나 학습에 필요한 기초 개념을 확실하게 정리하고 모델 설계와 실제 학습, 평가 단계별로 중요한 포인트를 짚는다.
이에 더해 AI를 더 잘 이해하기 위해 알아야 할 고차원 공간의 특성, AI 신뢰도 문제까지 이야기한다. 이 책을 통해 머신 러닝에 대한 허술한 이해를 보강하고 각각 알고 있던 개념을 연결하여 다양한 상황에서도 응용이 가능한, 탄탄한 기본기를 갖추게 될 것이다.
정보제공 :
저자소개
목차
레슨 1 기계에게 상식적 판단 능력 심어주기
확률적 판단의 기본, 베이즈 정리
가장 그럴듯한 원인을 선택하는 행위, MLE
사전 정보의 등장으로 결과가 뒤집힌다, MAP
우리 일상 생활에서 활용되는 사전 정보
AI의 의사 결정을 돕는 사전 정보
맺는 말
레슨 2 확률 분포 해석하고 비교하기
엔트로피는 불확실성을 말해준다
불확실성은 곧 정보량이다
엔트로피는 정보의 가치이기도 하다
엔트로피는 결국 비용이다
확률 분포를 모르면 비용이 증가한다, 크로스 엔트로피
추가 비용을 수치화하다, KLD
엔트로피 패밀리의 무능함 1
엔트로피 패밀리의 무능함 2
가능한 대안, W 거리
너무나 원시적으로 사용되는 크로스 엔트로피
크로스 엔트로피 좀 더 잘 쓰기
맺는 말
레슨 3 날것의 숫자들을 확률 분포로
Softmax, 어울리지 않는 그 이름
왜 하필 지수 함수인가
확률 분포에 정답은 없다
맞춤형 확률 분포를 만들다
Sigmoid 함수와는 사촌 관계이다?
맺는 말
레슨 4 학습 가능 여부를 좌우하는 목표 함수
같으면서도 다른 두 목표 함수
로그 덕분에 일이 쉬워진 회귀
목표 함수에 로그를 씌우는 진짜 이유는?
학습이 나아갈 방향과 보폭, gradient
좋은 gradient, 나쁜 gradient
우리에게 이미 익숙한 log likelihood
맺는 말
레슨 5 엇나가는 학습 모델을 어떻게 제어하나
노이즈는 피할 수 없는 숙명이다
모델의 학습 과정에 적극 개입하다
이번에도 다시 한번 prior의 대활약
왜 작은 파라미터가 선호되는가
L1과 L2의 서로 다른 행보
배치 정규화의 등장, 그리고 가중치 감쇠의 위기
가중치 감쇠의 재평가
맺는 말
레슨 6 숨어 있는 변수를 찾아라, 없으면 만들어라
데이터 조작 시나리오
분포를 알면 창조는 쉽다
숨어있는 속성, 잠재 변수
섞인 성분을 분리해 내다, GMM
조인트 분포로 설명하다, VAE
분포가 아닌 함수로 설명하다, NF
단계별 과거로 현재를 설명하다, 디퓨전 모델
디퓨전이 필요한 이유
맺는 말
레슨 7 성능 수치에 현혹되지 말자
분류 모델 평가의 시작은 혼동 행렬
그들은 왜 specificity를 쓰는가
그런데 우리는 왜 precision을 쓰는가
임계치는 어디로 정해야 할까
그 모든 사정을 다 감안한 방법, AUC
클래스 불균형 상황에서의 AUC
그럼에도 AUC가 보여주지 못하는 것
검출 모델의 성능 지표, AP
정답이 없어도 채점은 가능하다
생성 이미지에 대한 반응을 점수화하다, IS
생성 이미지의 특징 분포를 점수화하다, FID
맺는 말
레슨 8 AI가 사는 그 세계, 고차원 공간 속으로
한 가지 의문에 대한 추적
고차원 공간에서 발생하는 신기한 현상들
고차원 가우시안 분포는 특이하게 생겼다?
고차원에서는 확률의 배신마저 일어난다
고차원에서는 안 해도 될 걱정들
차원의 저주인가 차원의 축복인가
맺는 말
레슨 9 자만에 빠진 AI, 그래서 미덥지 못한 AI
성능은 좋은데 믿음이 안 간다
자만은 AI 스스로에게도 도움이 안 된다
무엇이 그들을 자만하게 만들었나
자만에 빠지는 시점
자만에 빠지는 과정
겸손한 AI로 거듭나기
확신에 찬 오류, AI 할루시네이션
맺는 말
정보제공 :



