반응형
# 역전파(Backpropagation)에 대해서 쉽게 설명한다면?
Gradient Descent를 이용해 가중치 갱신을 해야하고, GD를 하기 위해선 loss function의 gradient가 필요한데, 그 loss function의 gradient를 Backpropagation으로 전달받는다.
"즉, 가중치 갱신을 위해서 필요한 loss function의 gradient를 chain rule을 이용해 앞으로 전달해주는 알고리즘이 Backpropagation!"
"나의 목표 target 값과 실제 모델이 예측한 output값이 얼마나 차이나는지 구한 후, 오차값을 다시 뒤로 전파해가며 가중치들을 갱신하는 알고리즘"
"Backpropagation이란 결과에서 발생한 오차를 역전파로 전달하여 초기 가중치 값을 업데이트 하는 알고리즘"
잘 설명된 블로그
반응형
'딥러닝 & 머신러닝 > 딥러닝 지식' 카테고리의 다른 글
에폭(epoch), 배치 사이즈(batch size), 미니 배치(mini batch), 이터레이션(iteration) (0) | 2020.11.25 |
---|---|
최적화 알고리즘(옵티마이저, Optimizer) 설명 (0) | 2020.09.06 |
Gradient Descent와 국소값(Local minimum) 문제에 대한 설명 (0) | 2020.08.31 |
배치 정규화(Batch Normalization)의 설명과 탐구 (0) | 2020.08.31 |
훈련, 검증, 테스트 (Training, Validation, Test) 데이터셋에 관한 설명과 질문 (0) | 2020.08.31 |