[CNN] 배치 정규화의 이해
Updated:
Feature Scaling
서로 다른 Feature 값들을 동일한 척도로 변환
Scaling 기법
- Min - Max Scaling
- 0 에서 1 사이 값으로 변환
- $\frac{(X-최소값)}{(최대값 - 최소값)}$
- Z Score 정규화
- 평균이 0이고 표준 편차가 1인 데이터 세트로 변환
- $\frac {x - 평균}{표준편차}$
BN의 필요성 - Internal Covariate Shift
신경망 내부의 각 층을 통과 할 때마다 입력 데이터의 분포가 조금씩 변경되는 현상.
Batch Normalization 구성
Conv 적용 후 적용하며, 이후에 Activation을 적용한다.
Batch Normalization 효과
- 뛰어난 성능 향상 효과
- Regularization 효과
- 정규화 후에 스케일링, Shift 로 일종의 Noise 추가 효과
- 가중치 초기화(Weight Initialization) 설정을 크게 신경 쓸 필요 없음
Leave a comment