[파이토치로 시작하는 딥러닝] Part-2 DNN

2023. 7. 2. 14:30·ML_DL/딥러닝 공부하기
728x90
반응형

Perceptron

  • 인공신경망 : 사람의 뉴런을 본 따 만든 모델
  • 입력값 x에 가중치 W를 곱하고 Bias를 더해 output을 만든다. (output = x*W + Bias)
  • backpropagation : 모델의 가중치와 편향을 계산하는 알고리
  • AND gate : 입력값 모두 1인 경우 1을 반환
  • OR : 입력값 중 하나가 1이면 1을 반환
  • XOR : 입력값이 다른 경우 1을 반환, 이 경우 1개의 layer로는 분류가 불가능하다 -> DNN 등장

AND, OR, XOR gate


ReLU

  • sigmoid는 layer가 깊어질수록, 극단의 0에 가까운 값이 소멸될 수 있다. = Vanishing Gradient


Dropout & Batch Normalization

  • overfitting : train data에서는 좋은 성능을 보이지만, test data에서 낮은 성능을 보이는 경우
  • dropout은 설정한 비율 만큼의 node를 삭제하여 overfitting을 방지한다.
  • model.eval()시, dropout은 False가 된다.
  • gradient vanishing / exploding를 해결하기 위해, activation function, initialization, lr를 달리한다.
  • batchnorm은 covariate shift(공변량 변화, train과 test의 분포가 다름)를 해결한다.
저작자표시 (새창열림)

'ML_DL > 딥러닝 공부하기' 카테고리의 다른 글

[파이토치로 시작하는 딥러닝] Part-4 RNN  (0) 2023.07.02
[파이토치로 시작하는 딥러닝] Part-3 CNN  (0) 2023.07.02
[파이토치로 시작하는 딥러닝] Part-1 Basic ML  (0) 2023.06.24
[Loss Function] Cross Entropy  (0) 2023.04.30
[Preprocessing] Categorical Feature Encoding  (1) 2023.04.25
'ML_DL/딥러닝 공부하기' 카테고리의 다른 글
  • [파이토치로 시작하는 딥러닝] Part-4 RNN
  • [파이토치로 시작하는 딥러닝] Part-3 CNN
  • [파이토치로 시작하는 딥러닝] Part-1 Basic ML
  • [Loss Function] Cross Entropy
swwho
swwho
일상을 데이터화하다
  • swwho
    하루한장
    swwho
  • 전체
    오늘
    어제
    • 분류 전체보기 (188)
      • ML_DL (39)
        • MUJAKJUNG (무작정 시리즈) (18)
        • 딥러닝 공부하기 (21)
      • 데이터사이언스 (1)
        • EDA (1)
        • 데이터과학을 위한 통계 (0)
      • 데이터엔지니어링 (2)
      • 논문리뷰 (2)
        • Computer Vision (2)
      • Python 활용하기 (12)
      • 코딩테스트 (127)
        • Python (109)
        • MySQL (14)
      • Git (3)
      • MySQL 활용하기 (0)
      • 일상 이야기 (1)
  • 블로그 메뉴

    • 홈
    • 태그
  • 최근 글

  • 250x250
  • hELLO· Designed By정상우.v4.10.3
swwho
[파이토치로 시작하는 딥러닝] Part-2 DNN
상단으로

티스토리툴바