ML_DL/딥러닝 공부하기

전이학습 (Transfer Learning)

swwho 2023. 10. 17. 01:18
728x90
반응형

Transfer Learning

  • 새로운 task에 대해 학습을 진행하면, 시간과 비용이 많이 든다.
  • 비슷한 유형의 task를 수행한 모델을 통해 시간과 비용을 줄일 수 있다.
  • 기존에 학습했던 weight를 업데이트 하지 않기 위해 모든 layer를 고정(freeze)한다.
  • task별 class의 수가 다를 수 있기 때문에, fully connected layer를 새로 정의하고 이를 학습한다.

Freeze

  • 학습 과정에서(back propagation) 해당 층의 parameter를 업데이트 하지 않는것을 layer freeze라 한다.

Fine-tuning

  • fully connected layer를 학습하는 기존 transfer learning에서, 고정(freeze)하는 layer를 임의로 설정한다.
  • Pre-trained 모델은 새로운 task 이미지일지라도 low level(저수준의 특성)에서는 유용하다.
  • top layer(입력층과 가까운)의 weight는 고정하고, last layer(출력층과 가까운)는 새로 학습하여 시간과 비용을 줄인다.

Task에 따른 학습 전략