NLP 시작부터 전문가까지

  • 홈
  • 태그
  • 방명록
  • 관리자

자세히 1

PCA(주성분분석)의 목적함수 증명

PCA의 목적함수는 결론부터 말하자면 차원축소를 위해 제거한 고유치(λ)들의 합이다. 이를 증명해보자. ​ PCA부터 review 하자 더 자세한 내용은 내 블로그 다음 글 참조 https://nlp-study.tistory.com/24 [4-2] PCA(주성분 분석)와 SVD(특이값 분해) 차원축소를 완벽하게 이해하기 오늘은 정말 중요한 PCA와 SVD (특이값 분해)차원축소에 대해 다룰 것이다. 선형대수학을 배웠으면 천천히 따라가면서 충분히 이해 할 수 있을 것이다. 부디 이를 정확이 이해하고 싶다면 자신만 nlp-study.tistory.com 1. 표준화 표준화를 먼저 해준다. 이는 정보의 왜곡을 방지하고, 계산을 단순화 시킨다. ​ 2. 근사 차원 축소를 통해 정제된 데이터를 가지고, 원래 값을..

Tensorflow 2 NLP(자연어처리)/추가적으로 필요한 개념 2021.11.15
이전
1
다음
더보기
프로필사진

NLP 시작부터 전문가까지

  • 분류 전체보기 (55)
    • 인공지능 (AI) (0)
    • 강화학습 (0)
    • 머신러닝(기계학습) (3)
    • Tensorflow 2 NLP(자연어처리) (37)
      • 차원축소 (2)
      • 형태소 분석기 (5)
      • 단어 임베딩 (9)
      • 문장 임베딩 (5)
      • 인공지능 모델 코드 깊게 파고들기 (1)
      • 추가적으로 필요한 개념 (7)
      • 사전학습 모델 (6)
    • Tensorflow (1)
    • Computer Vision (3)
    • 한국인공지능학회 (5)
    • 논문 리뷰 (0)
    • 파이썬 알고리즘 (5)

Tag

SentencePiece, BPE, 자연어처리, autodif, GPT, transformer, DALL-E, HuggingFace, phenaki, layer.dot, 인공지능, CGAN, GenerativeModel, NLP, GaN, cycle consistency, Generative, entropy, 자동미분, WordPiece,

최근글과 인기글

  • 최근글
  • 인기글

최근댓글

공지사항

페이스북 트위터 플러그인

  • Facebook
  • Twitter

Archives

Calendar

«   2025/05   »
일 월 화 수 목 금 토
1 2 3
4 5 6 7 8 9 10
11 12 13 14 15 16 17
18 19 20 21 22 23 24
25 26 27 28 29 30 31

방문자수Total

  • Today :
  • Yesterday :

Copyright © Kakao Corp. All rights reserved.

티스토리툴바