NLP 시작부터 전문가까지

  • 홈
  • 태그
  • 방명록
  • 관리자

AI 1

[5-4] Attention Mechanism(어텐션 메커니즘)이란?

Attention!(주의!) 기법이란 무엇일까? 단순히 말하자면, 다음 결과를 예측하는 작업에서 '이 정보 좀 봐주세요!'라는 의미를 뜻한다. 그리고 그 정보는 인풋으로 들어온 정보들을 현재의 작업에 맞게 정제하여 얻은 추가적인 정보이다. 그리고 이 정보를 참조하여 예측 작업의 '성능' 을 높일 수 있다. ​ ​ Attention Mechanism은 여러 종류들이 있지만 그 중 한 종류인 (Dot-product Attention)을 소개하겠다. 참고로 Dot-product는 내적이다. 해당 논문 ​ 가장 먼저 전반적인 구조를 한 페이지에 시각화해 보았다. 순서대로 따라가 보자. ​ 1. Q, K, V 사전 형태에 대한 이해 Q : 현재 시점 t의 디코더셀의 은닉 상태, K : 인코더 셀의 모든 은닉상태들..

Tensorflow 2 NLP(자연어처리)/사전학습 모델 2021.11.14
이전
1
다음
더보기
프로필사진

NLP 시작부터 전문가까지

  • 분류 전체보기 (55)
    • 인공지능 (AI) (0)
    • 강화학습 (0)
    • 머신러닝(기계학습) (3)
    • Tensorflow 2 NLP(자연어처리) (37)
      • 차원축소 (2)
      • 형태소 분석기 (5)
      • 단어 임베딩 (9)
      • 문장 임베딩 (5)
      • 인공지능 모델 코드 깊게 파고들기 (1)
      • 추가적으로 필요한 개념 (7)
      • 사전학습 모델 (6)
    • Tensorflow (1)
    • Computer Vision (3)
    • 한국인공지능학회 (5)
    • 논문 리뷰 (0)
    • 파이썬 알고리즘 (5)

Tag

cycle consistency, 자연어처리, CGAN, autodif, DALL-E, entropy, Generative, phenaki, HuggingFace, GPT, BPE, layer.dot, WordPiece, 인공지능, GenerativeModel, transformer, 자동미분, GaN, NLP, SentencePiece,

최근글과 인기글

  • 최근글
  • 인기글

최근댓글

공지사항

페이스북 트위터 플러그인

  • Facebook
  • Twitter

Archives

Calendar

«   2025/05   »
일 월 화 수 목 금 토
1 2 3
4 5 6 7 8 9 10
11 12 13 14 15 16 17
18 19 20 21 22 23 24
25 26 27 28 29 30 31

방문자수Total

  • Today :
  • Yesterday :

Copyright © Kakao Corp. All rights reserved.

티스토리툴바