Dimension Reduction

SVD(Single Value Dicomposition)

A[mxn]=U[mxn][rxr]V[nxr]TA_{[mxn]}=U_{[mxn]}\sum_{[rxr]}{V_{[nxr]}}^T

  • AA: input data matrix

  • MM: left singular vectors

  • \sum: singular values

    • rr(=rank of matrix): matrix의 선형 독립적인 column의 개수

  • VV: right singular vectors

n차원에서 q차원 축소시킨 B=U[mx(nq)][(rq)x(rq)]V[(nq)xr]TB=U_{[mx(n-q)]}\sum_{[(r-q)x(r-q)]}{V_{[(n-q)xr]}}^T matrix를 BB라고 하자. 이때 우리는 적정 q를 ij(AijBij)2\sqrt{\sum_{ij}(A_{ij}-B_{ij})^2}이 최소화되는 경우로 찾으면 된다. 이 값이 작을수록 원래 정보와 차원이 축소된 정보의 차이가 작다는 의미이기 때문이다.

만약 100차원을 줄인다고 할때 적정 차원을 알고싶으면, rr'차원을 임의로 설정하고 σ1+...+σrσ1+σ2+...+σ100=0.8 or 0.9\frac{\sigma_1+...+\sigma_{r'}}{\sigma_1+\sigma_2+...+\sigma_{100}}=0.8 \ or \ 0.9rr'을 찾으면 된다.

Last updated