본문 바로가기

미정

batch_size와 epochs

1. batch_size(배치 사이즈)

연산 한 번에 들어가는 데이터의 크기를 말한다.

배치 사이즈가 너무 큰 경우에는 한 번에 처리해야 할 데이터의 양이 많아지므로 학습 속도가 느려지고 메모리 부족 문제가 발생할 수 있다. 반대로 너무 작은 경우에는  적은 데이터를 대상으로 가중치를 업데이트하고, 이 업데이트가 자주 발생하므로 훈련이 불안정해진다.

 

2. epochs(에포크)

하나의 데이터셋을 몇 번 반복 학습할지 정하는 파라미터이다.

에포크가 너무 크면 학습 셋에 대해 성능은 올라가지만 관측되지 못한 테스트셋에 대한 성능이 떨어지는 overfitting(오버피팅)이 발생한다. 

 

 

<참고 자료>

[케라스] 딥러닝 모델 학습-batch size와 epoch – SevillaBK's Blog

 

[케라스] 딥러닝 모델 학습-batch size와 epoch

케라스 모델에서 batch size와 epoch의 개념 학습

SevillaBK.github.io

머신 러닝 - epoch, batch size, iteration의 의미 : 네이버 블로그 (naver.com)

 

머신 러닝 - epoch, batch size, iteration의 의미

- 출처 이번 포스팅의 주제는 텐서플로우나 케라스 등을 사용해서 모델을 만들어 보았으면 다들 아실 용어...

blog.naver.com

https://gooopy.tistory.com/68

 

딥러닝-6.2. 최적화(3)-학습 단위(Epoch, Batch size, Iteration)

 이전 포스트에서는 경사 하강법의 한계점에 대해 학습해보았다. 이번 포스트에서는 경사 하강법의 실행 과정을 살펴보고, 기본 사용 방법인 배치 경사 하강법(Batch Gradient Descent)이 어떤 단점을

gooopy.tistory.com

 

'미정' 카테고리의 다른 글

데이터 단위  (0) 2023.07.27
GitHub에 CMD로 파일 올리고 받기  (0) 2023.06.16
CNN(합성곱 신경망) 개념 및 사용법  (0) 2022.07.14
WinMerge  (0) 2022.03.18
Doxygen  (0) 2022.03.04