epoch vs 배치 크기 vs 반복 횟수
2023. 10. 22. 12:32ㆍ딥러닝 모델: 파이토치
♣ epoch
'훈련 데이터 전체'를 한 번 훑었음을 의미함.
신경망 가중치가 최적화되기에 1 epoch만 훈련해서는 부족함.
epoch이 너무 적으면 과소적합, 너무 많으면 과대적합 발생
♣ 배치 크기
매 훈련 이터레이션에서 한 번에 훈련할 데이터 개수. 배치 크기를 32로 설정하면 훈련 데이터 32개를 한 묶음으로 보고 가중치를 함께 갱신하겠다는 의미임
♣ 반복 횟수
1epoch의 훈련을 완료하는 데 필요한 훈련 이터레이션을 일겉음.
훈련 데이터 개수를 배치 크기로 나누면 됨(소수점은 올림 처리)
'딥러닝 모델: 파이토치' 카테고리의 다른 글
AdamW (0) | 2023.11.12 |
---|---|
albumentations (0) | 2023.11.03 |
파이토치 튜토리얼 (1) | 2023.10.07 |
밑바닥부터 Learner 클래스 만들기 (0) | 2023.09.20 |
DataBlock와 DataLoader 비교 (0) | 2023.09.17 |