1. batch_size(배치 사이즈)
연산 한 번에 들어가는 데이터의 크기를 말한다.
배치 사이즈가 너무 큰 경우에는 한 번에 처리해야 할 데이터의 양이 많아지므로 학습 속도가 느려지고 메모리 부족 문제가 발생할 수 있다. 반대로 너무 작은 경우에는 적은 데이터를 대상으로 가중치를 업데이트하고, 이 업데이트가 자주 발생하므로 훈련이 불안정해진다.
2. epochs(에포크)
하나의 데이터셋을 몇 번 반복 학습할지 정하는 파라미터이다.
에포크가 너무 크면 학습 셋에 대해 성능은 올라가지만 관측되지 못한 테스트셋에 대한 성능이 떨어지는 overfitting(오버피팅)이 발생한다.
<참고 자료>
[케라스] 딥러닝 모델 학습-batch size와 epoch – SevillaBK's Blog
머신 러닝 - epoch, batch size, iteration의 의미 : 네이버 블로그 (naver.com)
'미정' 카테고리의 다른 글
데이터 단위 (0) | 2023.07.27 |
---|---|
GitHub에 CMD로 파일 올리고 받기 (0) | 2023.06.16 |
CNN(합성곱 신경망) 개념 및 사용법 (0) | 2022.07.14 |
WinMerge (0) | 2022.03.18 |
Doxygen (0) | 2022.03.04 |