Search
castle

출처: [https://wikidocs.net/55580](https://wikidocs.net/55580)

출처: https://wikidocs.net/55580

  • 총 data(dataset)의 개수를 2,000개라고 가정
  • 이 dataset을 200개 단위로 나눔
  • 이때 다음과 같은 식이 성립
    • Total_data = iteration x Batch_size
  • Batch size와 Iteration의 크기와 상관 없이 하나의 dataset을 순환하는 것을 1 epoch라고 함

Over/Under fitting

출처: [https://www.kaggle.com/discussions/getting-started/166897](https://www.kaggle.com/discussions/getting-started/166897)

출처: https://www.kaggle.com/discussions/getting-started/166897

  1. Under fitting
    • 모델이 지나치게 단순해 명확한 답을 제시하지 못하는 상황
    • 문제점 및 해결방안
    • 학습 epoch 증가
    • 은닉층의 개수 증가 등 모델의 복잡성 증가
    • 데이터의 노이즈 감소

고양이임. 암튼 고양이임

고양이임. 암튼 고양이임

  1. Over fiiting
    • deep learning에서 까다로운 문제 중 하나
    • 모델이 학습데이터지나치게 일치된 상황
    • 이게 왜 문제인가?
    • 모델을 학습시킬 때 사용하는 학습 데이터는 실제 상황의 극히 일부분임
    • 위의 그림에서 보듯 모든 데이터가 완벽하게 분리되진 않음(노이즈)
    • 또한 데이터 자체도 완벽하지 않음(잘못된 데이터 등)
    • 즉 실제 데이터가 들어왔을 때 재대로 동작하지 않을 가능성이 메우 높음
      - 해결방안
    • 학습 데이터 부족 → 학습 데이터 수 증가
    • 모델의 복잡성 감소
    • Early stopping(validation의 결과에 따라 학습을 중간에 멈추는 것)
    • Drop out 및 Regularization 등
left
right

C

Contents