| 000 | 00000cam c2200205 c 4500 | |
| 001 | 000045476759 | |
| 005 | 20170706142702 | |
| 007 | ta | |
| 008 | 080602s2008 ulka b 001c kor | |
| 020 | ▼a 9788956674452 ▼g 93560 | |
| 035 | ▼a (KERIS)BIB000011305074 | |
| 040 | ▼a 241050 ▼c 241050 ▼d 244002 ▼d 211009 | |
| 041 | 1 | ▼a kor ▼h eng |
| 082 | 0 4 | ▼a 006.3 ▼2 20 |
| 085 | ▼a 006.3 ▼2 DDCK | |
| 090 | ▼a 006.3 ▼b 2008z5 | |
| 100 | 1 | ▼a Hagan, Martin T. |
| 245 | 1 0 | ▼a 신경회로망 설계 / ▼d Martin T. Hagan , ▼e Howard B. Demuth , ▼e Mark Beale [공저] ; ▼e 변윤식 [외] 공역 |
| 246 | 1 9 | ▼a Neural network design |
| 260 | ▼a 서울 : ▼b 인터비젼, ▼c 2008 | |
| 300 | ▼a 767 p. : ▼b 삽화 ; ▼c 25 cm. + ▼e 전자 광디스크 (CD-ROM) 1매 | |
| 500 | ▼a 공역자: 윤태성, 김동준, 왕보현, 양희경 | |
| 504 | ▼a 참고문헌과 색인수록 | |
| 700 | 1 | ▼a Demuth, Howard B., ▼e 저 |
| 700 | 1 | ▼a Beale, Mark H., ▼e 저 |
| 700 | 1 | ▼a 변윤식, ▼e 역 |
| 700 | 1 | ▼a 윤태성, ▼e 역 |
| 700 | 1 | ▼a 김동준, ▼e 역 |
| 700 | 1 | ▼a 왕보현, ▼e 역 |
| 700 | 1 | ▼a 양희경, ▼e 역 |
소장정보
| No. | 소장처 | 청구기호 | 등록번호 | 도서상태 | 반납예정일 | 예약 | 서비스 |
|---|---|---|---|---|---|---|---|
| No. 1 | 소장처 세종학술정보원/과학기술실(5층)/ | 청구기호 006.3 2008z5 | 등록번호 151262145 (11회 대출) | 도서상태 대출불가(자료실) | 반납예정일 | 예약 | 서비스 |
컨텐츠정보
저자소개
마틴 헤이건(지은이)
캔자스 대학교, 전기 공학 박사. 제어 시스템과 신호 처리 분야에서 35년간 연구와 강의를 해왔으며, 최근 25년간은 신경망을 사용한 제어와 필터링, 예측 분야의 연구에 집중해왔다. 오클라호마 주립대학교 전기 및 컴퓨터 공학과 학부의 교수이자 'Neural Network Toolbox for MATLAB'의 공동 저자이기도 하다.
변윤식(옮긴이)
연세대학교를 졸업하고 동대학원에서 공학석사와 공학박사를 취득하였으며 1987년부터 인천대학교 전자공학과 교수로 근무하고 있다. 한국통신학회 평의원, 교육과학기술부 평가위원 등을 역임하였으며 미국 스탠포드대, 고려대 전파통신공학과에서 객원교수를 지냈다. 인천대학교에서는 교무처장, 학생처장, 기획처장, 공대학장 등을 역임하였으며 현재는 대학원장으로 재직하고 있다.
목차
목차
Chapter 1 서론 = 1
목표 = 2
역사 = 2
응용분야 = 6
생물학적 영감 = 8
참고문헌 = 10
Chapter 2 뉴런 모델과 회로망 구조 = 15
목표 = 16
이론과 예제 = 16
표기법 = 16
뉴런 모델 = 17
단일 입력 뉴런 = 17
전달 함수 = 18
다중 입력 뉴런 = 20
신경망의 구조 = 23
단층의 뉴런 = 24
다층의 뉴런 = 25
순환 신경망 = 28
결과 요약 = 30
문제 설명 = 34
맺음말 = 35
연습문제 = 37
Chapter 3 실제적인 예제 = 39
목표 = 40
이론과 예제 = 40
문제의 서술 = 40
퍼셉트론 = 42
2-입력의 경우 = 42
패턴 인식 예제 = 44
Hamming 신경망 = 46
순방향 층 = 47
순환 층 = 48
Hopfield 신경망 = 50
맺음말 = 53
연습문제 = 55
Chapter 4 퍼셉트론 학습 규칙 = 57
목표 = 58
이론과 예제 = 58
학습 규칙 = 59
퍼셉트론 구조 = 60
단일 뉴런 퍼셉트론 = 62
다중 뉴런 퍼셉트론 = 65
퍼셉트론 학습 규칙 = 65
테스트 문제 = 66
학습 규칙의 구성 = 67
통합 학습 규칙 = 69
다중 뉴런 퍼셉트론의 훈련 = 70
수렴의 증명 = 73
표기법 = 73
증명 = 75
제한 = 77
결과 요약 = 78
문제 설명 = 79
맺음말 = 91
참고문헌 = 92
연습문제 = 94
Chapter 5 신호 및 가중치 벡터 공간 = 99
목표 = 100
이론과 예제 = 100
선형 벡터 공간 = 101
선형 독립 = 103
벡터 공간의 생성 = 104
내적 = 105
놈 = 106
직교 = 106
Gram-Schmidt 직교화 = 107
벡터의 전개 = 109
상반 기저 벡터 = 110
결과 요약 = 114
문제 설명 = 117
맺음말 = 126
참고문헌 = 126
연습문제 = 127
Chapter 6 신경 회로망을 위한 선형 변환 = 131
목표 = 132
이론과 예제 = 132
선형 변환 = 133
행렬 표현 = 133
기저의 변경 = 136
고유치와 고유벡터 = 142
다각화 = 145
결과 요약 = 146
문제 설명 = 148
맺음말 = 160
참고문헌 = 161
연습문제 = 162
Chapter 7 헤비안 지도 학습 = 165
목표 = 166
이론과 예제 = 166
선형 연상기 = 167
Hebb 규칙 = 168
성능 분석 = 170
의사역행렬 규칙 = 172
응용 = 175
Hebb 학습의 변형 = 177
결과 요약 = 179
문제 풀이 = 191
맺음말 = 194
참고문헌 = 195
연습문제 = 196
Chapter 8 성능 곡면과 최적점 = 199
목표 = 200
이론과 예제 = 200
테일러 급수 = 201
벡터의 경우 = 3202
방향 도함수 = 204
최소점 = 206
최적을 위한 필요조건 = 208
1차 조건 = 209
2차 조건 = 210
2차 함수 = 212
Hessian의 고유계 = 213
결과 요약 = 220
문제 설명 = 223
맺음말 = 236
참고문헌 = 237
연습문제 = 238
Chapter 9 성능 최적화 = 241
목표 = 242
이론과 예제 = 242
최급강하법 = 243
안정 학습률 = 246
직선상으로의 최소화 = 249
Newton의 방법 = 252
공액 기울리 벡터 법 = 258
결과 요약 = 264
문제 설명 = 266
맺음말 = 281
참고문헌 = 282
연습문제 = 284
Chapter 10 Widrow-Hoff 학습 = 287
목표 = 288
이론과 예제 = 288
ADALINE 신경망 = 289
단층 ADALINE = 290
평균 제곱 오차 = 291
LMS 알고리즘 = 294
수렴에 관한 해석 = 297
적응 필터링 = 302
적응 잡음 제거 = 303
반향 제거 = 310
결과 요약 = 311
문제 설명 = 313
맺음말 = 329
참고문헌 = 330
연습문제 = 331
Chapter 11 역전파 = 335
목표 = 336
이론과 예제 = 336
다층 퍼셉트론 = 337
패턴 분류 = 338
함수 근사화 = 339
역전파 알고리즘 = 342
성능 지표 = 343
연쇄 규칙 = 344
감도 역전파 = 346
요약 = 348
예제 = 349
역전파 이용 = 352
회로망 구조의 선택 = 353
수렴성 = 355
일반화 = 357
결과 요약 = 359
문제 설명 = 361
맺음말 = 376
참고문헌 = 376
연습문제 = 378
Chapter 12 역전파의 변종 = 385
목표 = 386
이론과 예제 = 386
역전파의 단점 = 387
성능 곡면의 예 = 388
수렴성의 예 = 392
역전파의 경험적 수정 = 394
모맨텀 = 394
가변 학습률 = 396
수치적 최적화 기술 = 399
공액 변화율 = 399
Levenberg-Marquardt 알고리즘 = 405
결과 요약 = 414
문제 설명 = 417
맺음말 = 432
참고문헌 = 433
연습문제 = 436
Chapter 13 연상 학습 = 439
목표 = 440
이론과 예제 = 440
간단한 연상 회로망 = 441
비교사 Hebb 규칙 = 443
감소항을 갖는 Hebb 규칙 = 447
간단한 인식 회로망 = 449
인스타 규칙 = 451
Kohonen 규칙 = 455
간단한 연상 회로망 = 456
아웃스타 규칙 = 457
결과 요약 = 461
문제 설명 = 463
맺음말 = 475
참고문헌 = 475
연습문제 = 478
Chapter 14 경쟁 회로망 = 485
목표 = 486
이론과 예제 = 486
해밍 회로망 = 487
층 1 = 488
층 2 = 489
경쟁 층 = 490
경쟁 학습 = 491
경쟁 층의 문제점 = 494
생물학에서의 경쟁 층 = 495
자기 조직화 형상 지도 = 497
형상 지도의 개선 = 500
학습 벡터 양자화 = 501
LVQ 학습 = 503
LVQ 회로망의 개선 (LVQ2) = 506
결과 요약 = 507
문제 설명 = 509
맺음말 = 522
참고문헌 = 523
연습문제 = 524
Chapter 15 그로스버그 회로망 = 531
목표 = 532
이론과 예제 = 532
생물학적 동기 : 시각 = 533
착시 = 535
시각 정규화 = 538
기본 비선형 모델 = 539
2층 경쟁회로망 = 543
충 1 = 544
층 2 = 547
전달함수의 선택 = 551
학습법 = 552
Kohonen 법칙과의 관계 = 555
결과요약 = 556
문제설명 = 560
맺음말 = 573
참고문헌 = 574
연습문제 = 576
Chapter 16 적응 공명 이론 = 581
목표 = 582
이론과 예제 = 582
적용 공명의 개요 = 583
층 1 = 584
안정 상태 분석 = 586
층 2 = 591
지향적 부시스템 = 594
학습법 : L1-L2 = 598
부분집합/상위집합 딜레마 = 598
학습법 = 600
학습법 : L2-L1 = 601
ART1 알고리즘 요약 = 602
초기화 = 603
알고리즘 = 603
다른 ART 알고리즘 = 605
결과요약 = 606
문제 설명 = 611
맺음말 = 626
참고문헌 = 627
연습문제 = 630
Chapter 17 안정성 = 635
목표 = 636
이론과 예제 = 636
회귀 회로망 = 636
안정성의 개념 = 637
정의 = 639
Lyapunov의 안정성 정리 = 640
진자의 예 = 641
LaSalle의 불변성 정리 = 647
정의 = 647
정리 = 648
예제 = 649
주석 = 654
결과 요약 = 655
문제 설명 = 657
맺음말 = 664
참고문헌 = 665
연습문제 = 667
Chapter 18 Hopfield 신경 회로망 = 671
목표 = 672
이론과 예제 = 672
Hopfield 모델 = 673
Lyapunov 함수 = 676
불변 집합 = 678
예제 = 679
Hopfield 흡인기 = 683
이득의 영향 = 684
Hopfield 설계 = 688
컨텐트 주소화가능 메모리 = 688
Hebb 규칙 = 691
Lyapunov 곡면 = 696
결과 요약 = 697
문제 설명 = 699
맺음말 = 710
참고문헌 = 711
연습문제 = 714
Chapter 19 맺음말 = 717
목표 = 718
이론과 예제 = 718
순방향 및 관련 회로망 = 719
경쟁 회로망 = 725
동적 연상 메모리 회로망 = 725
신경 회로망의 고전적인 기초 = 726
서적 및 저널 = 727
맺음말 = 729
참고문헌 = 729
A 관계서적 목록 = 739
B 표기법 = 751
C Software = 759
찾아보기 = 765
