NLP 시작부터 전문가까지

  • 홈
  • 태그
  • 방명록
  • 관리자

자동미분 1

Automatic Differentiation이란

PyTorch가 dynamic auto differentiation(autodif)를 지원한다고 하기에 이 Auto differentiation이 무엇인지 한번 알아보려고 한다. ​ 우리는 Gradient Descent를 이용해 손실함수의 최솟값을 쫓아가면서 가중치들을 업데이트한다. ​ 이때, 가중치를 업데이트 하는 방법은 아래와 같다. ​ 현재 가중치에 Loss를 현재 업데이트하려는 가중치로 편미분한값을 스케일조정(a)해서 빼주는 방식으로 업데이트 한다. ​ Gradient Descent에 대해서는 잘 설명된 글이 넘쳐나기 때문에 이 정도에서 마무리하고 ​ 이때, 저 미분값을 컴퓨터가 어떻게 계산할 것인지에 대해 다뤄보고자 한다. Finite Differencing ​ 가장 먼저, 도함수의 정의를 이용..

Tensorflow 2 NLP(자연어처리)/추가적으로 필요한 개념 2022.10.23
이전
1
다음
더보기
프로필사진

NLP 시작부터 전문가까지

  • 분류 전체보기 (55)
    • 인공지능 (AI) (0)
    • 강화학습 (0)
    • 머신러닝(기계학습) (3)
    • Tensorflow 2 NLP(자연어처리) (37)
      • 차원축소 (2)
      • 형태소 분석기 (5)
      • 단어 임베딩 (9)
      • 문장 임베딩 (5)
      • 인공지능 모델 코드 깊게 파고들기 (1)
      • 추가적으로 필요한 개념 (7)
      • 사전학습 모델 (6)
    • Tensorflow (1)
    • Computer Vision (3)
    • 한국인공지능학회 (5)
    • 논문 리뷰 (0)
    • 파이썬 알고리즘 (5)

Tag

BPE, 자동미분, Generative, phenaki, GPT, transformer, CGAN, cycle consistency, WordPiece, GenerativeModel, GaN, layer.dot, 자연어처리, HuggingFace, entropy, DALL-E, NLP, SentencePiece, autodif, 인공지능,

최근글과 인기글

  • 최근글
  • 인기글

최근댓글

공지사항

페이스북 트위터 플러그인

  • Facebook
  • Twitter

Archives

Calendar

«   2025/06   »
일 월 화 수 목 금 토
1 2 3 4 5 6 7
8 9 10 11 12 13 14
15 16 17 18 19 20 21
22 23 24 25 26 27 28
29 30

방문자수Total

  • Today :
  • Yesterday :

Copyright © Kakao Corp. All rights reserved.

티스토리툴바