PCA의 목적함수는 결론부터 말하자면 차원축소를 위해 제거한 고유치(λ)들의 합이다.
이를 증명해보자.
PCA부터 review 하자
더 자세한 내용은 내 블로그 다음 글 참조
https://nlp-study.tistory.com/24
1. 표준화
표준화를 먼저 해준다. 이는 정보의 왜곡을 방지하고, 계산을 단순화 시킨다.
2. 근사
차원 축소를 통해 정제된 데이터를 가지고,
원래 값을 예측해보자.
3. 전체 근사
원래 값을 예측할 때에는 버려진 고유벡터에 함유된 정보들도 필요하므로 둘 다 포함시켜준다.
4. 대입
5. 결론
'Tensorflow 2 NLP(자연어처리) > 추가적으로 필요한 개념' 카테고리의 다른 글
정보의 정량화, 정보 엔트로피에 이은 Cross Entropy (0) | 2023.01.22 |
---|---|
Automatic Differentiation이란 (0) | 2022.10.23 |
[1-6] 도커(Docker)에서 파이썬(python)코드로 작업하기 (0) | 2021.11.12 |
[1-5] 최대우도법 (0) | 2021.11.12 |
[1-4] DAN(Deep Averaging Network)란? (+Dropout) (0) | 2021.11.12 |