Notice
Recent Posts
Recent Comments
Link
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | |||||
3 | 4 | 5 | 6 | 7 | 8 | 9 |
10 | 11 | 12 | 13 | 14 | 15 | 16 |
17 | 18 | 19 | 20 | 21 | 22 | 23 |
24 | 25 | 26 | 27 | 28 | 29 | 30 |
Tags
- Negative Sampling
- FastSpeech2
- Neural Collaborative Filtering
- CF
- SGNS
- Dilated convolution
- CV
- RecSys
- 백준
- 추천시스템
- Implicit feedback
- ALS
- Collaborative Filtering
- NEG
- word2vec
- Skip-gram
- Tacotron2
- ANNOY
- 부스트캠프 AI Tech
- Item2Vec
- FastSpeech
- Ai
- BOJ
- Recommender System
- TTS
- wavenet
- 논문리뷰
- matrix factorization
- Tacotron
- Noise Contrastive Estimation
Archives
- Today
- Total
목록NEG (1)
devmoon
[논문 리뷰] Distributed Representations of Words and Phrases and their Compositionality
ABSTRACT 최근에 발표되었던 Skip-gram 모델은 단어의 문법적, 의미적인 유사도를 잘 표현하는 벡터를 학습하는 효과적인 모델이었다. 이번 논문에서는 벡터 표현력의 품질과 학습 속도를 향상할 수 있는 몇 가지 방법에 대해 소개한다. 그 예로, 자주 등장하는 단어들을 subsampling 하여 큰 속도 향상과 기존보다 균형 잡힌 단어 표현력을 학습시킬 수 있었다고 한다. 또한 기존에 사용하던 Hierarchical softmax를 대체하는 negative sampling에 대해 소개한다. 기존 모델로 얻어낸 벡터의 한계는 구(Phrase)를 잘 해석하지 못한다는 점이었다. 예를 들어, Canada와 Air를 더하였을 때, Air Canada의 정보를 잘 구해내지 못하였다. 따라서 저자는 이런 문제..
AI/논문 리뷰
2022. 12. 18. 14:28