표제지
목차
요약문 15
Summary 16
제1장 서론 17
제2장 단일퍼셉트론 19
제1절 구조 19
제2절 기능 21
제3절 학습 원리 23
제4절 단층 퍼셉트론 26
제3장 다층 퍼셉트론 28
제1절 구조 28
제2절 기능 29
1. logical-XOR 함수의 표현 30
2. 2차원 가우시안 함수의 표현 31
3. 패턴분류 결정 경계선의 표현 33
제3절 학습 원리 34
1. 예제 1 40
2. 예제 2 41
제4절 깊은 신경망 48
제4장 컨볼루션신경망 52
제1절 구조 52
1. 컨볼루션 층 55
2. 풀링 층 57
제2절 기능 59
제3절 학습 원리 60
1. FC 층의 학습 61
2. 풀링 층의 학습 62
3. 컨볼루션 층의 학습 63
제5장 순환 신경망 66
제1절 구조 66
제2절 기능 67
제3절 학습 원리 69
제4절 LSTM 신경망 73
제6장 인공지능 산업기술의 동향과 시사점 76
제1절 개요 76
제2절 해외현황 76
1. 미국 76
2. 일본 78
3. 중국 79
제3절 국내현황 80
제4절 딥러닝 공개소프트웨어 83
제5절 시사점 84
참고문헌 86
판권기 88
〈표 2-1〉 훈련샘플이 정분류(correct) 및 오분류(error) 되는 경우 24
〈표 2-2〉 단일퍼셉트론 학습 알고리즘(배치모드) 26
〈표 6-1〉 인공지능 기술을 선도하고 있는 미국내 글로벌기업 현황 77
〈표 6-2〉 일본의 인공지능 대표기업 현황 78
〈표 6-3〉 중국의 인공지능 대표기업 현황 80
〈표 6-4〉 인공지능 분야 국가별 특허출원 건수 81
〈표 6-5〉 미래부 인공지능 R&D 추진 현황(인공지능 실태조사, IITP, 2015) 82
〈표 6-6〉 국내 인공지능 기업 현황 82
〈표 6-7〉 딥러닝 공개소프트웨어 현황 84
[그림 2-1] 생물학적 뉴런의 구조 19
[그림 2-2] 인공뉴런의 구조(a)와 생물학적 뉴런과의 대응관계(b) 20
[그림 2-3] 신경망에 주로 사용되는 활성화 함수 20
[그림 2-4] 2차원 공간에서의 뉴런의 예(a)와 인공뉴런 해당되는 직선식(b) 21
[그림 2-5] 3차원 공간에서의 뉴런의 예(a)와 인공뉴런에 해당되는 선형식(b) 22
[그림 2-6] logical-OR 함수에 해당하는 단일퍼셉트론 22
[그림 2-7] 단일퍼셉트론 학습의 예: 주어진 자료집단(a), 두 집단을 양분하는 단일퍼셉트론(b), 단일퍼셉트론으로 표현하기 힘든 예(c) 23
[그림 2-8] 기울기 강하법에 의한 가중치 갱신 25
[그림 2-9] 단층 퍼셉트론의 예 26
[그림 3-1] 다층 신경망의 예 28
[그림 3-2] logical-XOR 함수 30
[그림 3-3] 단일 퍼셉트론: (a) d₁(x), (b) d₂(x), (c) logical-AND 30
[그림 3-4] logical-XOR에 해당하는 다중 퍼셉트론 신경망 31
[그림 3-5] 2차원 공간의 가우시안 함수 예 31
[그림 3-6] 2차원 공간의 가우시안 함수를 위한 MLP 구조 32
[그림 3-7] 33개 가중치의 훈련 결과(a) 및 미지의 좌표에서의 출력 값(b) 33
[그림 3-8] MLP의 패턴분류 결정경계선 표현 34
[그림 3-9] d×p×m 크기의 다층 퍼셉트론 신경망의 구조 34
[그림 3-10] 각 출력 뉴런에서의 출력 값과 참값 36
[그림 3-11] ujk와 관련된 인접 값 37
[그림 3-12] uij와 관련된 인접 값 38
[그림 3-13] delta 값들의 back-propagation 40
[그림 3-14] MLP 학습의 예: 전향 계산 40
[그림 3-15] MLP 학습의 예: 오류 역전파 41
[그림 3-16] MLP 학습 예제: 3층 신경망(a), 한 노드의 동작원리(b) 42
[그림 3-17] 노드 1, 2, 3의 계산 42
[그림 3-18] 노드 4, 5의 계산 43
[그림 3-19] 노드 6의 계산 43
[그림 3-20] 오류역전파 과정 (노드 6의 delta항 계산과 가중치 갱신) 44
[그림 3-21] 노드 4, 5의 delta 항 계산과 가중치 갱신 45
[그림 3-22] 노드 1, 2, 3의 delta 항 계산 46
[그림 3-23] 노드 1, 2, 3의 가중치 갱신 47
[그림 3-24] Deep MLP의 예 48
[그림 4-1] 컨볼루션 신경망의 예 52
[그림 4-2] CNN을 이용한 영상 분류의 예 53
[그림 4-3] CNN을 이용한 문자 패턴 인식 54
[그림 4-4] 5×5 필터를 사용한 특징 맵 생성의 예 55
[그림 4-5] 컨볼루션 연산 56
[그림 4-6] 컨볼루션 연산의 입력과 출력 56
[그림 4-7] 컨볼루션 적용의 예 57
[그림 4-8] Max pooling의 예 58
[그림 4-9] 풀링 연산의 입력과 출력 58
[그림 4-10] ImageNet challenge에서 CNN 기법들의 성능 비교 59
[그림 4-11] 딥러닝 기반의 음성인식 성능 개선 60
[그림 4-12] Forward/Backward 방식에 의한 CNN 학습 60
[그림 4-13] 단계 1: FC 층에서의 전향 계산 61
[그림 4-14] FC 층에서의 오류 역전파 62
[그림 4-15] 풀링층의 학습 과정 63
[그림 4-16] 컨볼루션 층의 학습 과정 64
[그림 4-17] 2차원 마스크 반전의 예 65
[그림 4-18] 컨볼루션 층에서의 가중치 갱신 65
[그림 5-1] 순환 신경망의 전개 66
[그림 5-2] 시간적 종속성: 짧은 종속성, 긴 종속성 67
[그림 5-3] RNN을 이용한 언어모델의 예 68
[그림 5-4] 다양한 형태의 RNN 활용 69
[그림 5-5] RNN 노드의 내부 구조 69
[그림 5-6] RNN 신경망에 해당되는 전향 신경망 70
[그림 5-7] RNN 학습을 위한 delta항 역전파 71
[그림 5-8] RNN 학습을 위한 가중치 갱신 72
[그림 5-9] RNN에서의 vanishing gradient problem 73
[그림 5-10] 전형적인 RNN의 구조 73
[그림 5-11] LSTM 모델 구조 74
[그림 6-1] 국내 인공지능 시장동향 80
[그림 6-2] 국내 인공지능 행보 대표사례 81