[딥러닝] Batch Normalization vs Layer Normalization (세 줄 요약) 트랜스포머 공부하면서 꼭 정리해두어야 하는 개념, normalization. 각각 한 줄로 정리합니다. layer normalization : batch내에 각각의 sample에 대해서 여러 feature들 간에 normalization batch normalization : 각각의 feature에 대해서 한 batch내의 여러 sample간에 normalization 혼동하지 마세요 !!! 딥러닝 2021.08.10