https://seoilgun.medium.com/cnn%EC%9D%98-stationarity%EC%99%80-locality-610166700979
gan -> low freq 정보 살리는 쪽으로 (blur 현상)
but real-world noise가 많으면 그것들이 상대적으로 high freq라서 그것들이 사라지고 texture, edge detail과 같은 상대적 low freq가 살아날 가능성있음 -> Real-world SR 프로젝트에서 gan으로 edge detail 살릴 수 있었던 이유
- Inductive biases란, 학습 알고리즘이 잘 학습할 수 있도록 미리 정의된 가정같은 것입니다.
예를 들면, CNN은 Locality라는 가정을 활용하여 convolution filter 적용하여 공간적인 문제를 풀고, RNN은 Sequentiality라는 가정을 활용해서 순차적인 입력으로 시계열적인 문제를 푸는 것과 같은 맥락입니다.
- 반면에 Transformer 계열은 positional embedding이나 Self-attention 매커니즘을 활용해 receptive field 크기의 한계가
있는 convolution이 아닌 이미지 자체의 모든 정보를 활용하지만 그 정보의 추가적인 가정까지 스스로 추론해야하기 때문에, inductive bias가 부족하여 많은 데이터가 필요하다는 것입니다.
'딥러닝 & 머신러닝 > 딥러닝 지식' 카테고리의 다른 글
Channel Attention & Spatial Attention (0) | 2023.02.18 |
---|---|
신경망(Neural Net), 퍼셉트론(Perceptron), 소프트맥스(Softmax) 레이어, 크로스 엔트로피(Cross-entropy) 함수, 신경망의 학습과정 (0) | 2023.01.29 |
딥러닝에서 -wise의 뜻 (3) | 2021.12.08 |
손실 함수 최적화에서 모멘텀(Momentum)의 필요성 (0) | 2020.12.20 |
GAP (Global Average Pooling) : 전역 평균 풀링 (1) | 2020.12.20 |