경사하강법, 순전파, 역전파 개념 정리
1. **경사하강법(Gradient Descent)**
- **정의**: 경사하강법은 모델의 손실 함수(loss function)를 최소화하기 위해 사용되는 최적화 알고리즘입니다.
- **작동 원리**:
- 손실 함수의 기울기(gradient)를 계산하여 기울기가 낮은 방향으로 가중치를 업데이트합니다.
- 기울기가 큰 곳은 가중치를 빠르게 변화시키고, 기울기가 작은 곳에서는 변화폭을 줄이며 최적의 가중치에 수렴합니다.
- 학습률(learning rate)에 따라 가중치 업데이트의 크기를 조정합니다.
- **종류**:
- **배치 경사하강법(Batch Gradient Descent)**: 전체 데이터셋을 사용하여 한 번에 업데이트.
- **확률적 경사하강법(Stochastic Gradient Descent, SGD)**: 하나의 데이터 포인트마다 가중치를 업데이트.
- **미니 배치 경사하강법(Mini-Batch Gradient Descent)**: 일정 크기의 배치로 나누어 가중치를 업데이트.
2. **순전파(Forward Propagation)**
- **정의**: 입력 데이터를 모델에 통과시켜 예측값을 계산하는 과정입니다.
- **작동 원리**:
- 입력층에서 출력층으로 신호가 전달됩니다.
- 각 뉴런의 가중치와 입력값을 곱한 후 활성화 함수(Activation Function)를 적용하여 다음 층으로 전달합니다.
- 최종적으로 예측값이 출력층에서 계산됩니다.
- **핵심 역할**: 모델이 주어진 입력에 대해 출력값을 예측하는 과정으로, 손실을 계산하는 데 사용됩니다.
3. **역전파(Backpropagation)**
- **정의**: 순전파에서 계산된 예측값과 실제값 사이의 오차를 기반으로 가중치를 업데이트하는 알고리즘입니다.
- **작동 원리**:
- 순전파의 결과로 계산된 손실을 기준으로 오차를 출력층에서부터 입력층으로 거슬러 올라가면서 계산합니다.
- 이 오차는 각 가중치에 대한 기울기(gradient)를 계산하는 데 사용되며, 경사하강법을 통해 가중치를 업데이트합니다.
- **핵심 역할**: 모델의 학습 과정에서 가중치를 조정하여 예측 성능을 개선합니다.
4. **딥러닝 관련 개념**
- **뉴럴 네트워크(Neural Networks)**: 여러 층(layer)을 통해 데이터를 처리하는 모델. 입력층, 은닉층(hidden layer), 출력층으로 구성됩니다.
- **활성화 함수(Activation Function)**: 뉴런의 출력값을 결정하는 함수. 비선형성을 도입하여 복잡한 패턴을 학습할 수 있게 도와줍니다. 대표적인 활성화 함수로는 ReLU, Sigmoid, Tanh 등이 있습니다.
- **손실 함수(Loss Function)**: 모델의 예측값과 실제값 간의 차이를 측정하는 함수. 대표적인 손실 함수로는 평균 제곱 오차(MSE), 교차 엔트로피(Cross-Entropy) 등이 있습니다.
- **하이퍼파라미터(Hyperparameters)**: 학습률, 배치 크기 등과 같이 모델 학습에 영향을 미치지만 학습 과정에서 자동으로 학습되지 않는 값들입니다.
'IT.DT > SKN 회고록' 카테고리의 다른 글
SKN AI bootcamp 5기 9주차 (0) | 2024.10.06 |
---|---|
SKN AI bootcamp 5기 8주차 (2) | 2024.10.06 |
SKN AI bootcamp 5기 6주차 (2) | 2024.10.04 |
SKN AI bootcamp 5기 4주차 (0) | 2024.09.19 |
SKN AI bootcamp 5기 3주차 (0) | 2024.09.19 |