NLP 시작부터 전문가까지

  • 홈
  • 태그
  • 방명록
  • 관리자

bagging 1

논문을 통해 XGBOOST 완전히 이해하기(Bagging과 Boosting)

목차 1. 소개 2. XGBOOST 흐름 3. 논문속 수식으로 이해 4. 참고자료 1 . 소개 앙상블(ensemble) 방법이란 티끌 모아 태산이라는 아이디어를 담고있다. 성능이 좋지 않은 분류기를 여러개 모아서 합치면 좋은 성능을 낸다는 것이다. ​ 자세히 말하면, 분류기 하나(A Decision Tree)는 특정 몇개의 특성에 대해서 판단할 수 있지만, 분류기 여러개(Decision Trees)를 사용해 나온 결과를 종합해서 최종 결과를 낸다면 => 모든 분류기에서 사용된 특성 판단 조건들(Decision Nodes)을 모두 어느 정도 사용을 할 수 있어서 => 차원 높은 분류가 가능해진다. ​ 이런 앙상블 방법에는 1. Bagging 2. Boosting 등이 있다. ​ 1. Bagging (boo..

머신러닝(기계학습) 2022.10.10
이전
1
다음
더보기
프로필사진

NLP 시작부터 전문가까지

  • 분류 전체보기 (55)
    • 인공지능 (AI) (0)
    • 강화학습 (0)
    • 머신러닝(기계학습) (3)
    • Tensorflow 2 NLP(자연어처리) (37)
      • 차원축소 (2)
      • 형태소 분석기 (5)
      • 단어 임베딩 (9)
      • 문장 임베딩 (5)
      • 인공지능 모델 코드 깊게 파고들기 (1)
      • 추가적으로 필요한 개념 (7)
      • 사전학습 모델 (6)
    • Tensorflow (1)
    • Computer Vision (3)
    • 한국인공지능학회 (5)
    • 논문 리뷰 (0)
    • 파이썬 알고리즘 (5)

Tag

BPE, CGAN, WordPiece, DALL-E, 인공지능, 자동미분, layer.dot, entropy, cycle consistency, GPT, transformer, SentencePiece, 자연어처리, NLP, phenaki, GaN, HuggingFace, Generative, GenerativeModel, autodif,

최근글과 인기글

  • 최근글
  • 인기글

최근댓글

공지사항

페이스북 트위터 플러그인

  • Facebook
  • Twitter

Archives

Calendar

«   2025/07   »
일 월 화 수 목 금 토
1 2 3 4 5
6 7 8 9 10 11 12
13 14 15 16 17 18 19
20 21 22 23 24 25 26
27 28 29 30 31

방문자수Total

  • Today :
  • Yesterday :

Copyright © Kakao Corp. All rights reserved.

티스토리툴바