요약

https://ko.wikipedia.org/wiki/%EA%B2%B0%EC%A0%95_%ED%8A%B8%EB%A6%AC_%ED%95%99%EC%8A%B5%EB%B2%95

 

결정 트리 학습법 - 위키백과, 우리 모두의 백과사전

위키백과, 우리 모두의 백과사전. 결정 트리 학습법(decision tree learning)은 어떤 항목에 대한 관측값과 목표값을 연결시켜주는 예측 모델로써 결정 트리를 사용한다. 이는 통계학과 데이터 마이닝, 기계 학습에서 사용하는 예측 모델링 방법 중 하나이다. 트리 모델 중 목표 변수가 유한한 수의 값을 가지는 것을 분류 트리라 한다. 이 트리 구조에서 잎(리프 노드)은 클래스 라벨을 나타내고 가지는 클래스 라벨과 관련있는 특징들의 논리곱을 나타낸

ko.wikipedia.org

 

의사결정나무와 엔트로피

https://gomguard.tistory.com/86

 

[머신러닝] 의사결정트리 (Decision Trees)

지도학습 알고리즘 지도학습 관련 알고리즘들로는 최근접 이웃 (Nearest Neighbor) 나이브 베이즈 (Naive Bayes) 의사결정 트리 (Decision Trees) 분류 규칙 학습자 (Classification Rule Learners) 선형 회귀 (L..

gomguard.tistory.com

https://danbi-ncsoft.github.io/study/2018/12/06/entropy.html

 

의사결정 나무와 엔트로피

 

danbi-ncsoft.github.io

분류트리

https://becominghuman.ai/decision-trees-in-machine-learning-f362b296594a

 

Decision Trees in Machine Learning

Trees occupy an important place in the life of man. The trees provide us flowers, fruits, fodder for animals, wood for fire and furniture…

becominghuman.ai

https://www.youtube.com/watch?v=2Rd4AqmLjfU

 

회귀트리

https://ratsgo.github.io/machine%20learning/2017/03/26/tree/

 

의사결정나무(Decision Tree) · ratsgo's blog

이번 포스팅에선 한번에 하나씩의 설명변수를 사용하여 예측 가능한 규칙들의 집합을 생성하는 알고리즘인 의사결정나무(Decision Tree)에 대해 다뤄보도록 하겠습니다. 이번 글은 고려대 강필성 교수님 강의와 김성범 교수님 강의를 참고했음을 먼저 밝힙니다. 그럼 시작하겠습니다. 모델 소개 의사결정나무는 데이터를 분석하여 이들 사이에 존재하는 패턴을 예측 가능한 규칙들의 조합으로 나타내며, 그 모양이 ‘나무’와 같다고 해서 의사결정나무라 불립니다. 질문을

ratsgo.github.io

http://dm.snu.ac.kr/static/docs/dm2015/Chap9_%20%EC%9D%98%EC%82%AC%EA%B2%B0%EC%A0%95%EB%82%98%EB%AC%B4.pdf

불러오는 중입니다...

의사결정트리 알고리즘

http://contents2.kocw.or.kr/KOCW/document/2017/yeungnam/leejeayoung/4.pdf

불러오는 중입니다...

ID3 (Iterative Dichotomiser 3) - 범주형자료만 분류가능

https://jihoonlee.tistory.com/16?category=725291

 

Decision Tree + ID3알고리즘

Decision Tree(결정트리) 어떤 항목에 대한 관측값과 목표값을 연결시켜주는 예측 모델로써 결정 트리를 사용한다. 장점 1. 결과를 해석하고 이해하기 쉽다.간략한 설명만으로 결정 트리를 이해하는 것이 가능하다..

jihoonlee.tistory.com

C4.5 (successor of ID3) - 수치형(범주형)자료처리

C5.0 (successor of ID4)

https://jihoonlee.tistory.com/17?category=725291

 

Decision Tree + C4.5알고리즘

Decision Tree + C4.5알고리즘 c4.5 특징 1. 수치형 자료를 처리한다. 2. 불완전한 데이터를 처리한다. 3; 가지치기로 과적합을 해결한다. GainRatio < 참고1, 참고2> Information Gain의 문제점은 많은 측정값을..

jihoonlee.tistory.com

CART (Classification And Regression Tree)
CHAID (CHi-squared Automatic Interaction Detector) : 이 알고리즘은 분류 트리를 계산할 때 다단계 분할을 수행한다.
MARS (Multivariate adaptive regression splines) : 더 많은 수치 데이터를 처리하기 위해 결정 트리를 사용한다.
조건부 추론 트리 (Conditional Inference Trees) : 과적합을 피하기 위해 여러 테스트에 대해 보정 분할 기준으로 비 - 파라미터 테스트를 사용하는 통계 기반의 방법이다. 이 방법은 편견 예측 선택 결과와 가지 치기가 필요하지 않다.

 

ID3와 CART방법은 비슷한 시기인 1970년과 1980년 사이에 독립적으로 발명되었으며, 훈련 쌍에 대해 의사 결정 트리 학습을 위한 유사한 접근 방식을 사용한다. 위 알고리즘들 중에서 ID3, C4.5, C5.0 알고리즘들은 인공지능, 기계학습 분야에서 개발되어 발전되어 왔다. 이에 반해, CART 및 CHAID 알고리즘은 통계학에 분야에서 개발된 알고리즘들이다. 인공지능, 기계학습 계열의 알고리즘들은 엔트로피, 정보이득 개념을 사용하여 분리기준을 결정하고, 통계학에 기초한 CART 및 CHAID 알고리즘들은 카이스퀘어, T검정, F검정 등의 통계분석법을 사용한다.

 

http://katalog.egloos.com/3191268

 

Decision Tree(의사결정트리)

▷▶ 의사결정나무분석(Decision Tree)의사결정나무분석은 예측과 분류를 위해 보편적이고 강력한 툴이다. 신경망구조 분석과는 달리 나무구조로 규칙을 표현하기 때문에 이해하기가 쉽다. 어떤 적용에서는 얼마나 잘 분류하거나 예측하는냐만이 문제화되기도 한다. 즉, DM발송회사는 모델이 어떻게 구성되었는지 보다는 얼마나 자신의 메일에 잘 대답을 해줄 수 있는

katalog.egloos.com

 

과적합 방지알고리즘

https://www.youtube.com/watch?v=JM7TePqW5H0

 

랜덤포레스트

https://swalloow.tistory.com/92

 

의사결정트리와 랜덤포레스트

의사결정트리 (DecisionTree) 의사결정나무는 다양한 의사결정 경로와 결과를 나타내는데 트리 구조를 사용합니다. (우리에게 그나마 가장 익숙한 데이터 분석 기법입니다...) 보통 어렸을 때의 스무고개 놀이를..

swalloow.tistory.com

 

'머신러닝 > 스터디 정리' 카테고리의 다른 글

용어정리 1  (0) 2019.02.09
Activation Function  (0) 2018.08.26
PCA 구현하기  (0) 2018.08.20
numpy 간단한 선형회귀 예제  (0) 2018.08.18
numpy 연산2  (0) 2018.08.18

+ Recent posts