Pytorch로 시작하는 딥러닝 입문(03-02 자동 미분: Autograd, Forward Pass, Backward Pass)
2024. 2. 12. 11:39ㆍ딥러닝 모델: 파이토치
♣ 자동 미분
경사하강법에서는 requires_grad=True, backward( ) 등이 등장한다. 이는 파이토치에서 제공하는 자동미분 기능을 수행하는 코드이다. 경사하강법을 수행하기 위해서는 손실함수를 가중치들에 대해서 미분한 값이 필요하다. 즉 모델을 구성하는 각 가중치 파라미터들에 대해 미분값을 구하는 것이다.
♣ Forward Pass
x를 input으로 가지고 가중치 W를 가지는 뉴럴넷이 있다고 가정하자. Forward pass는 Gradient를 구하기에 앞서서 먼저 미분할 대상을 계산하는 과정을 의미한다.
♣ Backward Pass
Forward pass에서 출력된 값을 가중치 W에 대해서 미분하는 과정을 의미한다.
♣ 자동 미분 실습하기
'딥러닝 모델: 파이토치' 카테고리의 다른 글
Pytorch로 시작하는 딥러닝 입문(03-04 nn.Module로 구현하는 선형 회귀: 단순선형회귀, optimizer) (0) | 2024.02.14 |
---|---|
Pytorch로 시작하는 딥러닝 입문(03-03 다중선형회귀:Multivariable Linear regression) (0) | 2024.02.12 |
Pytorch로 시작하는 딥러닝 입문(02-04 파이썬 클래스) (0) | 2024.02.04 |
Pytorch로 시작하는 딥러닝 입문(02-03 텐서 조작하기) (0) | 2024.02.02 |
Pytorch로 시작하는 딥러닝 입문(02-02 텐서 조작하기) (1) | 2024.01.31 |