일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | ||
6 | 7 | 8 | 9 | 10 | 11 | 12 |
13 | 14 | 15 | 16 | 17 | 18 | 19 |
20 | 21 | 22 | 23 | 24 | 25 | 26 |
27 | 28 | 29 | 30 |
- Python
- mnist
- 비샤몬당
- project euler
- 오토인코더
- CNN
- bayesian
- 히토요시
- Autoencoder
- 오일러 프로젝트
- A Neural Algorithm of Artistic Style
- c#
- 합성곱 신경망
- 딥러닝
- backpropagation
- 전처리
- 냥코 센세
- 수달
- 베이지안
- 역전파법
- 소인수분해
- 신경망
- Gram matrix
- deep learning
- SQL
- 소수
- 역전파
- neural network
- Convolutional Neural Network
- 자전거 여행
- Today
- Total
통계, IT, AI
딥러닝: 화풍을 모방하기 (7) - 책 요약: 4. 역전파법 본문
4. 역전파법: backpropagation
4.1 기울기 계산의 어려움
- 3장에서 설명한 경사하강법을 실행하기 위해서는 식
- 그런데 이 미분을 계산하는 것은 입력에 가까운 층일 수록 힘들다. 왜냐하면
4.2. 역전파법 유도
그림 1. Backpropagation 유도
- 다층 신경망으로 일반화된 내용으로 바로 소개한다.
- 오차함수의 파라미터에 대한 미분을 체인룰을 사용하여 식
- 이때
- 다시 체인룰을 사용하여
-
- 식
- 왜 이 방법의 이름이 역전파법 Backpropagation인지
- 이제
- 이진분류 문제이고 오차함수로
- 다클래스의 분류문제이고 활성화함수로 소프트맥스 함수를 사용하고 오차함수로 교차 엔트로피를 사용하는 경우
- 이렇게 회귀, 분류 두 가지 유형에서
- 계산을 매트릭스 형태로 구해보자. 이는 GPU나 CPU를 이용한 병렬계산을 고려하면 무척 중요한 요소이다.
- 역전파법이 아니더라도
- 하지만 이 방법은 신경망의 규모가 커질수록 비효율적인 방법이다. 왜냐하면
4.3 기울기 소실 문제
- 식
- 이를 해결하기 위한 방법이 앞으로 설명할 사전훈련이며 이를 계기로 신경망 연구가 다시 부흥하게 된다.
- 지금까지 정리했던 형태와는 조금 다르다. 즉, 지금까지는 파라미터가 뒤에 나왔는데, 지금부터는 앞에 둔다. [본문으로]
'머신러닝' 카테고리의 다른 글
딥러닝: 화풍을 모방하기 (9) - 책 요약: 5. 자기부호화기 (0) | 2017.04.17 |
---|---|
딥러닝: 화풍을 모방하기 (8) - 연습: 역전파법 (0) | 2017.03.01 |
딥러닝: 화풍을 모방하기 (6) - 연습: 다클래스 분류 문제 (1) | 2017.02.02 |
딥러닝: 화풍을 모방하기 (5) - 연습: 이진 분류 문제 (0) | 2017.02.01 |
딥러닝: 화풍을 모방하기 (4) - 연습: 회귀 문제 (0) | 2017.01.30 |