Bias란?

  • 편향이라는 뜻의 Bias는 (실제값 - 예측값)의 평균이다.
  • $[\hat{f}(x)] = E[\hat{f}(x) - f(x)]$

Variance란?

  • 분산이라는 뜻의 variance는 예측값의 변화 정도이다.
  • $Var[\hat{f}(x)]=E[(\hat{f}(x)−E[\hat{f}(x)])^2]=E[\hat{f}(x)^2]−E[\hat{f}(x)]^2$

Bias와 Variance의 관계

출처 - https://nvsyashwanth.github.io/machinelearningmaster/bias-variance/

 

  • low bias & low variance : 예측값이 정답에 가깝고(편향 낮음) 그 값들이 모여있다(분산 낮음).
  • low bias & high variance : 예측값이 정답에 가깝고(편향 낮음) 그 값들이 퍼져있다(분산 높음).
  • high bias & low variance : 예측값이 정답과 멀고(편향 높음) 그 값들이 모여있다(분산 낮음).
  • high bias & high variance : 예측값이 정답과 멀고(편향 높음) 그 값들이 퍼져있다(분산 높음).

High Bias, High Variance 해결 방법

  • High Bias
    • Feature의 수를 늘린다. (큰 network 사.)
    • regularization parameter의 $\lambda$를 증가시킨다.
    • Train 시간을 늘린다.
  • High Variance
    • Training data의 수를 늘린다. (데이터 증강)
    • regularization parameter의 $\lambda$를 감소시킨다.

'ML_DL > 딥러닝 공부하기' 카테고리의 다른 글

[Loss Function] Cross Entropy  (0) 2023.04.30
[Preprocessing] Categorical Feature Encoding  (0) 2023.04.25
Model Ensemble  (0) 2023.03.24
Macro-F1 score  (0) 2023.03.21
[Pytorch] 모델 작성과 모델 학습 과정 정리  (0) 2023.02.15

+ Recent posts