NLP 시작부터 전문가까지

  • 홈
  • 태그
  • 방명록
  • 관리자

xgboost 1

논문을 통해 XGBOOST 완전히 이해하기(Bagging과 Boosting)

목차 1. 소개 2. XGBOOST 흐름 3. 논문속 수식으로 이해 4. 참고자료 1 . 소개 앙상블(ensemble) 방법이란 티끌 모아 태산이라는 아이디어를 담고있다. 성능이 좋지 않은 분류기를 여러개 모아서 합치면 좋은 성능을 낸다는 것이다. ​ 자세히 말하면, 분류기 하나(A Decision Tree)는 특정 몇개의 특성에 대해서 판단할 수 있지만, 분류기 여러개(Decision Trees)를 사용해 나온 결과를 종합해서 최종 결과를 낸다면 => 모든 분류기에서 사용된 특성 판단 조건들(Decision Nodes)을 모두 어느 정도 사용을 할 수 있어서 => 차원 높은 분류가 가능해진다. ​ 이런 앙상블 방법에는 1. Bagging 2. Boosting 등이 있다. ​ 1. Bagging (boo..

머신러닝(기계학습) 2022.10.10
이전
1
다음
프로필사진

NLP 시작부터 전문가까지

  • 분류 전체보기 (55)
    • 인공지능 (AI) (0)
    • 강화학습 (0)
    • 머신러닝(기계학습) (3)
    • Tensorflow 2 NLP(자연어처리) (37)
      • 차원축소 (2)
      • 형태소 분석기 (5)
      • 단어 임베딩 (9)
      • 문장 임베딩 (5)
      • 인공지능 모델 코드 깊게 파고들기 (1)
      • 추가적으로 필요한 개념 (7)
      • 사전학습 모델 (6)
    • Tensorflow (1)
    • Computer Vision (3)
    • 한국인공지능학회 (5)
    • 논문 리뷰 (0)
    • 파이썬 알고리즘 (5)

Tag

phenaki, SentencePiece, transformer, layer.dot, entropy, 자연어처리, 자동미분, HuggingFace, NLP, GaN, CGAN, GenerativeModel, WordPiece, BPE, DALL-E, GPT, Generative, 인공지능, cycle consistency, autodif,

최근글과 인기글

  • 최근글
  • 인기글

최근댓글

공지사항

페이스북 트위터 플러그인

  • Facebook
  • Twitter

Archives

Calendar

  2025. 06  
일 월 화 수 목 금 토
1 2 3 4 5 6 7
8 9 10 11 12 13 14
15 16 17 18 19 20 21
22 23 24 25 26 27 28
29 30

방문자수Total

  • Today :
  • Yesterday :

Copyright © Kakao Corp. All rights reserved.

티스토리툴바

개인정보

  • 티스토리 홈
  • 포럼
  • 로그인

단축키

내 블로그

내 블로그 - 관리자 홈 전환
Q
Q
새 글 쓰기
W
W

블로그 게시글

글 수정 (권한 있는 경우)
E
E
댓글 영역으로 이동
C
C

모든 영역

이 페이지의 URL 복사
S
S
맨 위로 이동
T
T
티스토리 홈 이동
H
H
단축키 안내
Shift + /
⇧ + /

* 단축키는 한글/영문 대소문자로 이용 가능하며, 티스토리 기본 도메인에서만 동작합니다.