Deep Learning
Neuron
Activation (์ถ๋ ฅ, ํ์ฑํจ์)
. ๊ณ๋จํจ์
- ์๊ทธ๋ชจ์ด๋ : ์ด์ง๋ถ๋ฅ์ ์ถ๋ ฅ ๋ ์ด์ด์ ์ฌ์ฉ
- ReLU(Rectified Linear Unit) : ๊ฐ์ฅ ๋ง์ด ํ์ฉ๋๋ ์ถ๋ ฅํจ์ x<=0, ->0 , x>0 -> x
- Softmax : ๋ค์ค๋ถ๋ฅ์์ ํ์ฉ
Loss (์์คํจ์) : Label, Prediction(์ถ์ ๊ฐ)
- MSE, MAE, Binary_CrossEntropy, CrossEntrop Gradient Descentu)
- ๊ฒฝ์ฌํ๊ฐ๋ฒ์ ๋ค์ํ ํ์ ์๊ณ ๋ฆฌ์ฆ(Optimizer)
- sGD(Stochastic Gradient Descent, ํ๋ฅ ์ ๊ฒฝ์ฌํ๊ฐ๋ฒ)
- Adam
Backprop agation(์ค์ฐจ ์ญ์ ํ)
ํธํฅ์น, ๊ฐ์ค์น
์ค๋ฒ ํผํ overfitting (๊ณผ์ ํฉ :์ง๋์น๊ฒ ํ์ตํ์ฌ ์ค์ ๋ฐ์ดํฐ์ ๋ ธ์ถ๋์ ๋ ์ฌ๊ณ ๋ฅผ ๋ชปํจ)
์ธ๋ ํผํ underfitting (๊ณผ์์ ํฉ : ๋๋ฌด ์ ๊ฒ ํ์ตํ ๊ฒฝ์ฐ)
๋๊ธ