최적화 방법6- Adam앞에서 RMSProp까지 정리했다. 이어서 Adam에 대해서 정리하려고 한다. ~ 목차 ~0. 서론- 왜 갑자기 최적화를 공부하고 있는가1. 최적화란2. 종류 2.1 경사하강법(GD) 2.2 확률적 경사하강법(SGD) 2.3 Momentum 2.4 AdaGrad 2.5 RMSProp 2.6 Adam 2. 종류 2.6 Adam- Adam은 Adaptive Moment Estimation의 약자로, ①Momentum의 장점과 ②RMSProp의 장점을 결합한 방법이다. ① Momentum의 장점: 기울기 방향성 보존(안정성) - Momentum의 기본 수식은 $v \leftarrow \alpha v - \eta \frac{\partial L}{\partial ..