๋ ๋ฃจ1 (23.03.07)Python ํ๋ก๊ทธ๋๋ฐ: Tensorflow-ํ๊ท๋ถ์, ReLU(Rectified Linear Unit) Deep Learning Neuron Activation (์ถ๋ ฅ, ํ์ฑํจ์) . ๊ณ๋จํจ์ - ์๊ทธ๋ชจ์ด๋ : ์ด์ง๋ถ๋ฅ์ ์ถ๋ ฅ ๋ ์ด์ด์ ์ฌ์ฉ - ReLU(Rectified Linear Unit) : ๊ฐ์ฅ ๋ง์ด ํ์ฉ๋๋ ์ถ๋ ฅํจ์ x0 , x>0 -> x - Softmax : ๋ค์ค๋ถ๋ฅ์์ ํ์ฉ Loss (์์คํจ์) : Label, Prediction(์ถ์ ๊ฐ) - MSE, MAE, Binary_CrossEntropy, CrossEntrop Gradient Descentu) - ๊ฒฝ์ฌํ๊ฐ๋ฒ์ ๋ค์ํ ํ์ ์๊ณ ๋ฆฌ์ฆ(Optimizer) - sGD(Stochastic Gradient Descent, ํ๋ฅ ์ ๊ฒฝ์ฌํ๊ฐ๋ฒ) - Adam Backprop agation(์ค์ฐจ ์ญ์ ํ) ํธํฅ์น, ๊ฐ์ค์น ์ค๋ฒ ํผํ overfitting.. Artificial Intelligence 2023. 3. 23. ์ด์ 1 ๋ค์