batch_size와 epochs
1. batch_size(배치 사이즈)
연산 한 번에 들어가는 데이터의 크기를 말한다.
배치 사이즈가 너무 큰 경우에는 한 번에 처리해야 할 데이터의 양이 많아지므로 학습 속도가 느려지고 메모리 부족 문제가 발생할 수 있다. 반대로 너무 작은 경우에는 적은 데이터를 대상으로 가중치를 업데이트하고, 이 업데이트가 자주 발생하므로 훈련이 불안정해진다.
2. epochs(에포크)
하나의 데이터셋을 몇 번 반복 학습할지 정하는 파라미터이다.
에포크가 너무 크면 학습 셋에 대해 성능은 올라가지만 관측되지 못한 테스트셋에 대한 성능이 떨어지는 overfitting(오버피팅)이 발생한다.
<참고 자료>
[케라스] 딥러닝 모델 학습-batch size와 epoch – SevillaBK's Blog
[케라스] 딥러닝 모델 학습-batch size와 epoch
케라스 모델에서 batch size와 epoch의 개념 학습
SevillaBK.github.io
머신 러닝 - epoch, batch size, iteration의 의미 : 네이버 블로그 (naver.com)
머신 러닝 - epoch, batch size, iteration의 의미
- 출처 이번 포스팅의 주제는 텐서플로우나 케라스 등을 사용해서 모델을 만들어 보았으면 다들 아실 용어...
blog.naver.com
딥러닝-6.2. 최적화(3)-학습 단위(Epoch, Batch size, Iteration)
이전 포스트에서는 경사 하강법의 한계점에 대해 학습해보았다. 이번 포스트에서는 경사 하강법의 실행 과정을 살펴보고, 기본 사용 방법인 배치 경사 하강법(Batch Gradient Descent)이 어떤 단점을
gooopy.tistory.com