Ensemble
앙상블 기법은 동일한 학습 알고리즘을 사용해서 여러 모델을 학습하는 개념 (Bagging/Boosting)
서로 다른 모델을 결합하여 새로운 모델을 만들어 내는 방법 - Stacking
Bagging
- 샘플을 여러번 뽑아 각 모델을 학습시켜 결과를 집계하는 방법
- 먼저 대상 데이터로부터 복원 랜덤 샘플링을 함. 이렇게 추출한 데이터가 일종의 표본집단이 되고 여기에 동일한 모델을 학습시킴. 그리고 학습된 모델의 예측변수들을 집계하여 그 결과로 모델을 생성함. - Bootstrap Aggregating
문제점) 1. 높은 bias - Underfitting / 2. 높은 Variance - Overfitting
앙상블 기법은 이러한 오류를 최소화 하는데 도움이 됨. 특히 Bagging은 각 샘플에서 나타난 결과를 일종의 중간값으로 맞추어 주기 떄문에, Overfitting을 피할 수 있음.
대표적인 Bagging 알고리즘으로 RandomForest 모델이 있음. 원래 단일 DecisionTree 모델은 boundary가 discrete한 모양일 수 밖에 없지만, RandomForest는 여러 트리 모델을 결합하여 이를 넘어설 수 있게 되었음.
'딥러닝' 카테고리의 다른 글
0819 강화학습 [아타리게임(과일받기)] (0) | 2019.08.19 |
---|---|
0814 RNN 구조로 뒤에올 문자 예측하기 (0) | 2019.08.14 |
0814 embedding으로 단어 연관성 예측하기 (0) | 2019.08.14 |
0813 ResNet 프로젝트 (0) | 2019.08.13 |
0813 CNN으로 MNIST 분류기 구현하기 (0) | 2019.08.13 |