NLP 시작부터 전문가까지

  • 홈
  • 태그
  • 방명록
  • 관리자

자세히 1

PCA(주성분분석)의 목적함수 증명

PCA의 목적함수는 결론부터 말하자면 차원축소를 위해 제거한 고유치(λ)들의 합이다. 이를 증명해보자. ​ PCA부터 review 하자 더 자세한 내용은 내 블로그 다음 글 참조 https://nlp-study.tistory.com/24 [4-2] PCA(주성분 분석)와 SVD(특이값 분해) 차원축소를 완벽하게 이해하기 오늘은 정말 중요한 PCA와 SVD (특이값 분해)차원축소에 대해 다룰 것이다. 선형대수학을 배웠으면 천천히 따라가면서 충분히 이해 할 수 있을 것이다. 부디 이를 정확이 이해하고 싶다면 자신만 nlp-study.tistory.com 1. 표준화 표준화를 먼저 해준다. 이는 정보의 왜곡을 방지하고, 계산을 단순화 시킨다. ​ 2. 근사 차원 축소를 통해 정제된 데이터를 가지고, 원래 값을..

Tensorflow 2 NLP(자연어처리)/추가적으로 필요한 개념 2021.11.15
이전
1
다음
프로필사진

NLP 시작부터 전문가까지

  • 분류 전체보기 (55)
    • 인공지능 (AI) (0)
    • 강화학습 (0)
    • 머신러닝(기계학습) (3)
    • Tensorflow 2 NLP(자연어처리) (37)
      • 차원축소 (2)
      • 형태소 분석기 (5)
      • 단어 임베딩 (9)
      • 문장 임베딩 (5)
      • 인공지능 모델 코드 깊게 파고들기 (1)
      • 추가적으로 필요한 개념 (7)
      • 사전학습 모델 (6)
    • Tensorflow (1)
    • Computer Vision (3)
    • 한국인공지능학회 (5)
    • 논문 리뷰 (0)
    • 파이썬 알고리즘 (5)

Tag

NLP, autodif, GaN, phenaki, 자연어처리, transformer, CGAN, DALL-E, BPE, Generative, 인공지능, HuggingFace, 자동미분, layer.dot, GPT, GenerativeModel, SentencePiece, cycle consistency, entropy, WordPiece,

최근글과 인기글

  • 최근글
  • 인기글

최근댓글

공지사항

페이스북 트위터 플러그인

  • Facebook
  • Twitter

Archives

Calendar

  2025. 07  
일 월 화 수 목 금 토
1 2 3 4 5
6 7 8 9 10 11 12
13 14 15 16 17 18 19
20 21 22 23 24 25 26
27 28 29 30 31

방문자수Total

  • Today :
  • Yesterday :

Copyright © Kakao Corp. All rights reserved.

티스토리툴바

개인정보

  • 티스토리 홈
  • 포럼
  • 로그인

단축키

내 블로그

내 블로그 - 관리자 홈 전환
Q
Q
새 글 쓰기
W
W

블로그 게시글

글 수정 (권한 있는 경우)
E
E
댓글 영역으로 이동
C
C

모든 영역

이 페이지의 URL 복사
S
S
맨 위로 이동
T
T
티스토리 홈 이동
H
H
단축키 안내
Shift + /
⇧ + /

* 단축키는 한글/영문 대소문자로 이용 가능하며, 티스토리 기본 도메인에서만 동작합니다.