
적합한 Activation function을 선택하는 법!
·
AI-Study
*주의할 점: 문제 상황에 따라 적합한 activation function을 고르는 것은 문제가 어떻게 복잡한가, 입출력 데이터의 특성은 어떠한가 등에 따라 달라지므로 다양하게 실험해보고 하이퍼 파라미터를 조정하는 것이 좋다. 1. Hidden Layer (1) ReLU(Rectified Linear Unit): - 가장 많이 쓰이고 가장 먼저 쓰임. 렐루 짱짱~>