Notice
Recent Posts
Recent Comments
Link
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | |||||
3 | 4 | 5 | 6 | 7 | 8 | 9 |
10 | 11 | 12 | 13 | 14 | 15 | 16 |
17 | 18 | 19 | 20 | 21 | 22 | 23 |
24 | 25 | 26 | 27 | 28 | 29 | 30 |
Tags
- Dilated convolution
- 논문리뷰
- Item2Vec
- Collaborative Filtering
- BOJ
- FastSpeech2
- Tacotron
- NEG
- Recommender System
- ALS
- Implicit feedback
- 백준
- matrix factorization
- Negative Sampling
- Neural Collaborative Filtering
- RecSys
- SGNS
- FastSpeech
- Tacotron2
- Ai
- Skip-gram
- word2vec
- CF
- 부스트캠프 AI Tech
- 추천시스템
- CV
- ANNOY
- Noise Contrastive Estimation
- TTS
- wavenet
Archives
- Today
- Total
목록Softmax (1)
devmoon
Softmax와 확률(Probability)
해당 게시글은 Stack overflow의 "Why use softmax as opposed to standard normalization?"을 참고하여 작성된 글임을 먼저 말씀드립니다. 여러 딥러닝 모델들에서 확률의 개념이 필요할 때, 우리는 softmax함수를 자주 사용하게 된다. Softmax를 사용하는 주된 이유는 벡터의 원소값들을 확률로 해석해 줄 수 있기 때문이라고 보통 학습한다. 하지만 생각해 보면 softmax라는 함수를 배우기 이전, 우리는 확률이라는 것을 계산할 때 그 비율로 확률을 나타냈었다. 예를 들어, 어떤 상자 안에 빨간색과 파란색 구슬들이 들어있고 상자로부터 1000번 복원추출을 했다고 해보자. 이때 결과로 빨간 구슬이 700번, 파란 구슬이 300번 나왔다고 하면 빨간 구슬이..
AI/딥러닝 기초
2023. 7. 10. 18:57