Notice
Recent Posts
Recent Comments
Link
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | |||||
3 | 4 | 5 | 6 | 7 | 8 | 9 |
10 | 11 | 12 | 13 | 14 | 15 | 16 |
17 | 18 | 19 | 20 | 21 | 22 | 23 |
24 | 25 | 26 | 27 | 28 | 29 | 30 |
Tags
- ALS
- CV
- Ai
- BOJ
- 부스트캠프 AI Tech
- SGNS
- FastSpeech2
- 논문리뷰
- Tacotron2
- CF
- Recommender System
- TTS
- Tacotron
- Skip-gram
- Neural Collaborative Filtering
- Dilated convolution
- ANNOY
- matrix factorization
- Implicit feedback
- Item2Vec
- wavenet
- 백준
- Collaborative Filtering
- NEG
- Noise Contrastive Estimation
- word2vec
- FastSpeech
- Negative Sampling
- RecSys
- 추천시스템
Archives
- Today
- Total
목록AdaDelta (1)
devmoon
[논문 리뷰] An overview of gradient descent optimization algorithms
경사하강법과 관련된 여러 기법들을 정리해서 소개하는 이번 논문은 각 경사하강법의 최적화 방법 또는 이론들이 어떻게 등장하였고, 그 원리가 무엇인지 간단하게 이해하기 좋다고 생각되었다. 실제로 읽으면서 각 최적화 알고리즘들이 어떻게 이전의 단점들을 개선시켜 나갔는지 그 흐름을 파악하기가 좋았었다. 이 논문에서 소개하는 것들은 정말 기본적인 Gradient Descent(GD)를 시작으로 SGD, Mini-batch GD 과 최적화 기법인 momentum, NAG, Adagrad, Adadelta, RMSprop, Adam 등이 있다. 이외에도 2가지 최적화 방법 AdaMax와 Nadam이 있지만 자주 등장하는 개념은 아닌 것 같아 세세하게 읽어보지는 않았다. 저자는 처음에 경사하강법이 무엇인지 짧지만 매우..
AI/논문 리뷰
2022. 8. 19. 01:13