728x90 확률적1 확률적 경사하강법(SGD): 빅데이터 학습의 수식 확률적 경사하강법(SGD, Stochastic Gradient Descent)은 대규모 데이터셋을 학습할 때 널리 사용되는 최적화 알고리즘입니다. 경사하강법(Gradient Descent)의 변형인 확률적 경사하강법은 매 반복마다 전체 데이터가 아닌, 무작위로 선택된 일부 데이터(미니배치 또는 한 개의 샘플)를 사용하여 가중치를 업데이트하는 방식입니다. 이는 대규모 데이터셋에서 효율적으로 학습을 진행할 수 있게 해 주며, 특히 빅데이터 학습에 유용합니다. 이 글에서는 확률적 경사하강법의 수식과 구체적인 작동 원리를 살펴보겠습니다.1. 경사하강법의 기본 수식경사하강법(Gradient Descent)은 전체 데이터셋을 사용하여 손실 함수의 기울기를 계산하고, 가중치를 기울기가 낮은 방향으로 조금씩 이동시키는.. 2024. 11. 3. 이전 1 다음 728x90