수학/Statistical Learning

[ISLR] 차원축소 방법(Dimension Reduction Methods)

AI 꿈나무 2021. 6. 1. 23:09
반응형

차원축소 방법(Dimension Reduction Methods)

 차원축소 방법은 p개의 변수 X1, X2, ... ,Xp를 변환하여, 변환된 변수들로 선형제곱 모델을 적합(fit)하는 것입니다. p개의 X1~Xp에서 m개의 Z1~Zm으로 변환된 변수들은 X1~Xp의 선형 결합으로 나타냅니다.

 

 

 변환된 변수들로 다음과 같이 최소제곱 모델을 fit할 수 있습니다.

 

 

 이러한 차원축소 방법은 일반적으로 선형제곱 모델보다 뛰어납니다. 차원축소 방법은 기존의 p+1(절편 포함)개의 변수를 m+1개의 변수로 축소하기 때문입니다. 변수의 수가 줄어들었으므로 bias를 증가시키고 variance를 감소합니다. 즉, overfitting을 방지합니다. 이전에 살펴보았던 변수 선택 방법과 수축법과 비슷한 효과를 나타냅니다.

 

 차원축소 방법에서 각 변수들과 계수 추정치는 다음과 같이 나타낼 수 있습니다.

 

 

 

 따라서 차원축소 방법은 최소제곱 방법의 계소 추정치를 제한하는 역할을 합니다. 이러한 형태의 제한은 계수추정치가 편향되도록 합니다. 

 

 차원축소 방법은 다음과 같은 과정으로 진행됩니다. (1) 변환된 m개의 변수 Z1~Zm를 얻습니다. (2) m개의 변수들을 사용하여 모델을 fit합니다. 다음 포스팅에서는 차원축소 방법중 하나인 주성분 회귀(principal components regression)을 살펴보겠습니다.


참고자료 및 그림 출처

Gareth James의 An Introduction to Statistical Learning

반응형