Notice
Recent Posts
Recent Comments
Link
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | 6 | 7 |
8 | 9 | 10 | 11 | 12 | 13 | 14 |
15 | 16 | 17 | 18 | 19 | 20 | 21 |
22 | 23 | 24 | 25 | 26 | 27 | 28 |
29 | 30 | 31 |
Tags
- 추천시스템
- ALS
- Tacotron
- Dilated convolution
- 부스트캠프 AI Tech
- FastSpeech
- wavenet
- NEG
- Implicit feedback
- 백준
- TTS
- CV
- matrix factorization
- Tacotron2
- ANNOY
- word2vec
- Collaborative Filtering
- Item2Vec
- CF
- Ai
- Noise Contrastive Estimation
- Recommender System
- 논문리뷰
- FastSpeech2
- BOJ
- RecSys
- Negative Sampling
- SGNS
- Skip-gram
- Neural Collaborative Filtering
Archives
- Today
- Total
목록Noise Contrastive Estimation (1)
devmoon
[논문 리뷰] Distributed Representations of Words and Phrases and their Compositionality
ABSTRACT 최근에 발표되었던 Skip-gram 모델은 단어의 문법적, 의미적인 유사도를 잘 표현하는 벡터를 학습하는 효과적인 모델이었다. 이번 논문에서는 벡터 표현력의 품질과 학습 속도를 향상할 수 있는 몇 가지 방법에 대해 소개한다. 그 예로, 자주 등장하는 단어들을 subsampling 하여 큰 속도 향상과 기존보다 균형 잡힌 단어 표현력을 학습시킬 수 있었다고 한다. 또한 기존에 사용하던 Hierarchical softmax를 대체하는 negative sampling에 대해 소개한다. 기존 모델로 얻어낸 벡터의 한계는 구(Phrase)를 잘 해석하지 못한다는 점이었다. 예를 들어, Canada와 Air를 더하였을 때, Air Canada의 정보를 잘 구해내지 못하였다. 따라서 저자는 이런 문제..
AI/논문 리뷰
2022. 12. 18. 14:28