6. 경사하강법(Gradient Descent)은 인공신경망 학습을 최적화하기 위한 기법이다.
가. 평균제곱오차 비용함수를 가중치에 대해 편미분한 후 학습률을 곱한 값을 기존 가중치에서 차감하여 가중치 갱신을 수행한다고 가정할 때, 가중치 최적해의 좌측 또는 우측 어디에서 시작하든 상관없이 최적해를 향해 진행하는 이유를 수식적으로 설명하시오. 나. 확률적경사하강법, 배치경사하강법, 미니배치경사하강법의 개념과 특징을 비교하여 설명하시오.
가. 평균제곱오차 비용함수를 가중치에 대해 편미분한 후 학습률을 곱한 값을 기존 가중치에서 차감하여 가중치 갱신을 수행한다고 가정할 때, 가중치 최적해의 좌측 또는 우측 어디에서 시작하든 상관없이 최적해를 향해 진행하는 이유를 수식적으로 설명하시오. 나. 확률적경사하강법, 배치경사하강법, 미니배치경사하강법의 개념과 특징을 비교하여 설명하시오.