딥러닝

[딥러닝] Batch Normalization vs Layer Normalization (세 줄 요약)

ALLENE HA 2021. 8. 10. 22:54

트랜스포머 공부하면서 꼭 정리해두어야 하는 개념, normalization.

각각 한 줄로 정리합니다. 

 

  • layer normalization : batch내에 각각의 sample에 대해서 여러 feature들 간에 normalization
  • batch normalization : 각각의 feature에 대해서 한 batch내의 여러 sample간에 normalization
혼동하지 마세요 !!!