Notice
Recent Posts
Recent Comments
Link
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | |||||
3 | 4 | 5 | 6 | 7 | 8 | 9 |
10 | 11 | 12 | 13 | 14 | 15 | 16 |
17 | 18 | 19 | 20 | 21 | 22 | 23 |
24 | 25 | 26 | 27 | 28 | 29 | 30 |
Tags
- CV
- wavenet
- SGNS
- CF
- matrix factorization
- NEG
- Implicit feedback
- Noise Contrastive Estimation
- 부스트캠프 AI Tech
- RecSys
- Skip-gram
- Collaborative Filtering
- ANNOY
- 논문리뷰
- Neural Collaborative Filtering
- Item2Vec
- TTS
- ALS
- FastSpeech
- Dilated convolution
- Tacotron
- FastSpeech2
- Recommender System
- BOJ
- Ai
- 추천시스템
- word2vec
- Tacotron2
- Negative Sampling
- 백준
Archives
- Today
- Total
목록batch normalization (1)
devmoon
[논문 리뷰] Batch Normalization
딥러닝을 공부하고 모델링을 진행하다 보면 자주 등장하는 개념이 Batch Normalization이다. 번역해서 배치 정규화라고도 불리는데, 대략적인 개념을 알지만 그 세세한 작동원리와 그 구조를 자세하게 알고 싶어서 리뷰할 논문으로 선택하였다. 배치 정규화를 사용했을 때, 14배 빠른 속도로 동일한 성능을 보일 수 있다니 대단한 개념이라고 생각되었다. 배치 정규화를 가장 처음에 요약하고 시작하자면, 딥러닝 구조의 각 레이어에서 입력들의 분포가 항상 유사하거나 일정하도록 만들어주는 것이다. 입력 분포가 일정하지 않으면 무엇이 문제이고 어떤 단점들이 있는지 논문에서 잘 설명해주어서 그 중요성을 많이 깨닫게 되었다. Introduction 처음에 논문은 SGD의 장점들에 대해서 설명한다. SGD는 딥러닝 모..
AI/논문 리뷰
2022. 8. 24. 01:10