Notice
Recent Posts
Recent Comments
Link
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | ||||||
2 | 3 | 4 | 5 | 6 | 7 | 8 |
9 | 10 | 11 | 12 | 13 | 14 | 15 |
16 | 17 | 18 | 19 | 20 | 21 | 22 |
23 | 24 | 25 | 26 | 27 | 28 |
Tags
- computer_setting
- language_model
- linux
- github
- review
- pip
- json
- paper_review
- cs224n
- slideshare
- code
- error
- seq2seq
- text
- nlp
- natural_language_processing
- machinelearning
- tab
- install
- Standford
- Ai
- terminal
- gensim
- Stanford
- git
- deeplearning
- cs231n
- Vim
- computer
- Statistics
Archives
- Today
- Total
목록activation_function (1)
NLP/AI/Statistics
[cs231n] Note 5: Neural Networks-1 (Activation function)
신경망 구조를 이해하기 위해 중요한 요소인 activation function에 대하여 소개한다. Activation function (활성화 함수)은 쉽게 말해 모델 학습을 통해 출력되는 값을 활성화시키는 것을 의미하며 모델 최적화를 위해 가중치 (weight)를 업데이트한 후, 최종적으로 어떠한 값을 출력할 것인가를 결정하는 역할을 한다고 할 수 있다. 위와 같이 $w_{i}x_{i}+b$ 연산으로 출력되는 마지막 층의 output에 activation function을 거쳐 출력값을 결정한다. Perceptron에서는 가장 기초적인 activation function으로 step function과 linear function을 사용하였다. Step function의 경우, 계단 형식으로 0 혹은 1..