epoch vs 배치 크기 vs 반복 횟수

2023. 10. 22. 12:32딥러닝 모델: 파이토치

♣ epoch

'훈련 데이터 전체'를 한 번 훑었음을 의미함. 

신경망 가중치가 최적화되기에 1 epoch만 훈련해서는 부족함. 

epoch이 너무 적으면 과소적합, 너무 많으면 과대적합 발생

 

♣ 배치 크기

매 훈련 이터레이션에서 한 번에 훈련할 데이터 개수. 배치 크기를 32로 설정하면 훈련 데이터 32개를 한 묶음으로 보고 가중치를 함께 갱신하겠다는 의미임

 

♣ 반복 횟수

1epoch의 훈련을 완료하는 데 필요한 훈련 이터레이션을 일겉음. 

훈련 데이터 개수를 배치 크기로 나누면 됨(소수점은 올림 처리)

 

'딥러닝 모델: 파이토치' 카테고리의 다른 글

AdamW  (0) 2023.11.12
albumentations  (0) 2023.11.03
파이토치 튜토리얼  (1) 2023.10.07
밑바닥부터 Learner 클래스 만들기  (0) 2023.09.20
DataBlock와 DataLoader 비교  (0) 2023.09.17