전이학습 (Transfer Learning)

2023. 10. 17. 01:18·ML_DL/딥러닝 공부하기
728x90
반응형

Transfer Learning

  • 새로운 task에 대해 학습을 진행하면, 시간과 비용이 많이 든다.
  • 비슷한 유형의 task를 수행한 모델을 통해 시간과 비용을 줄일 수 있다.
  • 기존에 학습했던 weight를 업데이트 하지 않기 위해 모든 layer를 고정(freeze)한다.
  • task별 class의 수가 다를 수 있기 때문에, fully connected layer를 새로 정의하고 이를 학습한다.

Freeze

  • 학습 과정에서(back propagation) 해당 층의 parameter를 업데이트 하지 않는것을 layer freeze라 한다.

Fine-tuning

  • fully connected layer를 학습하는 기존 transfer learning에서, 고정(freeze)하는 layer를 임의로 설정한다.
  • Pre-trained 모델은 새로운 task 이미지일지라도 low level(저수준의 특성)에서는 유용하다.
  • top layer(입력층과 가까운)의 weight는 고정하고, last layer(출력층과 가까운)는 새로 학습하여 시간과 비용을 줄인다.

Task에 따른 학습 전략

저작자표시 (새창열림)

'ML_DL > 딥러닝 공부하기' 카테고리의 다른 글

Bag of Words  (0) 2024.01.07
Vanishing Gradient Problem(기울기 소실)  (0) 2023.11.28
[자연어처리] Word Embedding  (1) 2023.10.14
이미지 불러오기  (0) 2023.08.09
[파이토치로 시작하는 딥러닝] Part-4 RNN  (0) 2023.07.02
'ML_DL/딥러닝 공부하기' 카테고리의 다른 글
  • Bag of Words
  • Vanishing Gradient Problem(기울기 소실)
  • [자연어처리] Word Embedding
  • 이미지 불러오기
swwho
swwho
일상을 데이터화하다
  • swwho
    하루한장
    swwho
  • 전체
    오늘
    어제
    • 분류 전체보기 (188)
      • ML_DL (39)
        • MUJAKJUNG (무작정 시리즈) (18)
        • 딥러닝 공부하기 (21)
      • 데이터사이언스 (1)
        • EDA (1)
        • 데이터과학을 위한 통계 (0)
      • 데이터엔지니어링 (2)
      • 논문리뷰 (2)
        • Computer Vision (2)
      • Python 활용하기 (12)
      • 코딩테스트 (127)
        • Python (109)
        • MySQL (14)
      • Git (3)
      • MySQL 활용하기 (0)
      • 일상 이야기 (1)
  • 블로그 메뉴

    • 홈
    • 태그
  • 최근 글

  • 250x250
  • hELLO· Designed By정상우.v4.10.3
swwho
전이학습 (Transfer Learning)
상단으로

티스토리툴바