机器学习之-常见决策树算法(ID3、C4.5、CART)
目录
一、引言
决策树学习采用的是自顶向下的递归方法,其基本思想是以信息熵为度量构造一颗熵值下降最快的树,到叶子节点处,熵值为0。其具有可读性、分类速度快的优点,是一种有监督学习。最早提及决策树思想的是Quinlan在1986年提出的ID3算法和1993年提出的C4.5算法,以及Breiman等人在1984年提出的CART算法。本篇文章主要介绍决策树的基本概念,以及上面这3种常见决策树算法(ID3、C4.5、CART)原理及其代码实现。
二、决策树(ID3、C4.5和CART算法)
2.1、决策树是什么
下面主要讨论用与分类的决策树。决策树呈树形结构,在分类问题中,表示基于特征对实例进行分类的过程。学习时,利用训练数据,根据损失函数最小化的原则建立决策树模型;预测时,对新的数据,利用决策模型进行分类。
决策树的分类:决策树可以分为两类,主要取决于它目标变量的类型。
- 离散性决策树:离散性决策树,其目标变量是离散的,如性别:男或女等;
- 连续性决策树:连续性决策树,其目标变量是连续的,如工资、价格、年龄等;
决策树相关的重要概念:
(1)根结点(Root Node):它表示整个样本集合,并且该节点可以进一步划分成两个或多个子集。
(2)拆分(Splitting):表示将一个结点拆分成多个子集的过程。
(3)决策结点(Decision Node):当一个子结点进一步被拆分成多个子节点时,这个子节点就叫做决策结点。
(4)叶子结点(Leaf/Terminal Node):无法再拆分的结点被称为叶子结点。
(5)剪枝(Pruning):移除决策树中子结点的过程就叫做剪枝,跟拆分过程相反。
(6)分支/子树(Branch/Sub-Tree):一棵决策树的一部分就叫做分支或子树。
(7)父结点和子结点(Paren and Child Node):一个结点被拆分成多个子节点,这个结点就叫做父节点;其拆分后的子结点也叫做子结点。
2.2、决策树的构造过程
决策树的构造过程一般分为3个部分,分别是特征选择、决策树生产和决策树裁剪。
(1)特征选择:
特征选择表示从众多的特征中选择一个特征作为当前节点分裂的标准,如何选择特征有不同的量化评估方法,从而衍生出不同的决策树,如ID3(通过信息增益选择特征)、C4.5(通过信息增益比选择特征)、CART(通过Gini指数选择特征)等。
目的(准则):使用某特征对数据集划分之后,各数据子集的纯度要比划分钱的数据集D的纯度高(也就是不确定性要比划分前数据集D的不确定性低)
(2)决策树的生成
根据选择的特征评估标准,从上至下递归地生成子节点,直到数据集不可分则停止决策树停止生长。这个过程实际上就是使用满足划分准则的特征不断的将数据集划分成纯度更高,不确定行更小的子集的过程。对于当前数据集的每一次划分,都希望根据某个特征划分之后的各个子集的纯度更高,不确定性更小。
(3)决策树的裁剪
决策树容易过拟合,一般需要剪枝来缩小树结构规模、缓解过拟合。
2.3、决策树的优缺点
决策树的优点:
(1)具有可读性,如果给定一个模型,那么过呢据所产生的决策树很容易推理出相应的逻辑表达。
(2)分类速度快,能在相对短的时间内能够对大型数据源做出可行且效果良好的结果。
决策树的缺点:
(1)对未知的测试数据未必有好的分类、泛化能力,即可能发生过拟合现象,此时可采用剪枝或随机森林。
2.4、ID3算法原理与python代码实现
ID3算法的核心是在决策树各个节点上应用信息增益准则选择特征递归地构建决策树。
2.4.1信息增益
在《最大熵模型学习》一文中,我们提到过熵和条件熵的概念,下面我们在总结一遍。
(1)熵
在信息论中,熵(entropy)是随机变量不确定性的度量,也就是熵越大,则随机变量的不确定性越大。设X是一个取有限个值得离散随机变量,其概率分布为:
则随机变量X的熵定义为:
(2)条件熵
设有随机变量(X, Y),其联合概率分布为:
条件熵H(Y|X)表示在已知随机变量X的条件下,随机变量Y的不确定性。随机变量X给定的条件下随机变量Y的条件熵H(Y|X),定义为X给定条件下Y的条件概率分布的熵对X的数学期望:
当熵和条件熵中的概率由数据估计得到时(如极大似然估计),所对应的熵与条件熵分别称为经验熵和经验条件熵。
(3)信息增益
定义:信息增益表示由于得知特征A的信息后儿时的数据集D的分类不确定性减少的程度,定义为:
Gain(D,A) = H(D) - H(D|A)
即集合D的经验熵H(D)与特征A给定条件下D的经验条件熵H(H|A)之差。
理解:选择划分后信息增益大的作为划分特征,说明使用该特征后划分得到的子集纯度越高,即不确定性越小。因此我们总是选择当前使得信息增益最大的特征来划分数据集。
缺点:信息增益偏向取值较多的特征(原因:当特征的取值较多时,根据此特征划分更容易得到纯度更高的子集,因此划分后的熵更低,即不确定性更低,因此信息增益更大)
2.4.2 ID3算法
输入:训练数据集D,特征集A,阈值ε;
输出:决策树T.
Step1:若D中所有实例属于同一类,则T为单结点树,并将类
作为该节点的类标记,返回T;
Step2:若A=Ø,则T为单结点树,并将D中实例数最大的类作为该节点的类标记,返回T;
Step3:否则,2.1.1(3)计算A中个特征对D的信息增益,选择信息增益最大的特征;
Step4:如果的信息增益小于阈值ε,则T为单节点树,并将D中实例数最大的类
作为该节点的类标记,返回T
Step5:否则,对的每一种可能值
,依
将D分割为若干非空子集
,将
中实例数最大的类作为标记,构建子结点,由结点及其子树构成树T,返回T;
Step6:对第i个子节点,以为训练集,以
为特征集合,递归调用Step1~step5,得到子树
,返回
;
2.4.3 python代码实现
接下来我们通过下面这组数据作为测试样本
序号 | 不浮出水面是否可以生存 | 是否有脚蹼 | 是否属于鱼类 |
1 | 是 | 是 | 是 |
2 | 是 | 是 | 是 |
3 | 是 | 否 | 否 |
4 | 否 | 是 | 否 |
5 | 否 | 是 | 否 |
文件名:id3.py
# -*- coding: utf-8 -*- from math import log import operator import tree_plotter def create_data_set(): """ 创建样本数据 :return: """ data_set = [[1, 1, 'yes'], [1, 1, 'yes'], [1, 0, 'no'], [0, 1, 'no'], [0, 1, 'no']] labels = ['no surfacing', 'flippers'] return data_set, labels def calc_shannon_ent(data_set): """ 计算信息熵 :param data_set: 如: [[1, 1, 'yes'], [1, 1, 'yes'], [1, 0, 'no'], [0, 1, 'no'], [0, 1, 'no']] :return: """ num = len(data_set) # n rows # 为所有的分类类目创建字典 label_counts = {} for feat_vec in data_set: current_label = feat_vec[-1] # 取得最后一列数据 if current_label not in label_counts.keys(): label_counts[current_label] = 0 label_counts[current_label] += 1 # 计算香浓熵 shannon_ent = 0.0 for key in label_counts: prob = float(label_counts[key]) / num shannon_ent = shannon_ent - prob * log(prob, 2) return shannon_ent def split_data_set(data_set, axis, value): """ 返回特征值等于value的子数据集,切该数据集不包含列(特征)axis :param data_set: 待划分的数据集 :param axis: 特征索引 :param value: 分类值 :return: """ ret_data_set = [] for feat_vec in data_set: if feat_vec[axis] == value: reduce_feat_vec = feat_vec[:axis] reduce_feat_vec.extend(feat_vec[axis + 1:]) ret_data_set.append(reduce_feat_vec) return ret_data_set def choose_best_feature_to_split(data_set): """ 按照最大信息增益划分数据 :param data_set: 样本数据,如: [[1, 1, 'yes'], [1, 1, 'yes'], [1, 0, 'no'], [0, 1, 'no'], [0, 1, 'no']] :return: """ num_feature = len(data_set[0]) - 1 # 特征个数,如:不浮出水面是否可以生存 和是否有脚蹼 base_entropy = calc_shannon_ent(data_set) # 经验熵H(D) best_info_gain = 0 best_feature_idx = -1 for feature_idx in range(num_feature): feature_val_list = [number[feature_idx] for number in data_set] # 得到某个特征下所有值(某列) unique_feature_val_list = set(feature_val_list) # 获取无重复的属性特征值 new_entropy = 0 for feature_val in unique_feature_val_list: sub_data_set = split_data_set(data_set, feature_idx, feature_val) prob = len(sub_data_set) / float(len(data_set)) # 即p(t) new_entropy += prob * calc_shannon_ent(sub_data_set) #对各子集香农熵求和 info_gain = base_entropy - new_entropy # 计算信息增益,g(D,A)=H(D)-H(D|A) # 最大信息增益 if info_gain > best_info_gain: best_info_gain = info_gain best_feature_idx = feature_idx return best_feature_idx def majority_cnt(class_list): """ 统计每个类别出现的次数,并按大到小排序,返回出现次数最大的类别标签 :param class_list: 类数组 :return: """ class_count = {} for vote in class_list: if vote not in class_count.keys(): class_count[vote] = 0 class_count[vote] += 1 sorted_class_count = sorted(class_count.items(), key=operator.itemgetter(1), reversed=True) print sorted_class_count[0][0] return sorted_class_count[0][0] def create_tree(data_set, labels): """ 构建决策树 :param data_set: 数据集合,如: [[1, 1, 'yes'], [1, 1, 'yes'], [1, 0, 'no'], [0, 1, 'no'], [0, 1, 'no']] :param labels: 标签数组,如:['no surfacing', 'flippers'] :return: """ class_list = [sample[-1] for sample in data_set] # ['yes', 'yes', 'no', 'no', 'no'] # 类别相同,停止划分 if class_list.count(class_list[-1]) == len(class_list): return class_list[-1] # 长度为1,返回出现次数最多的类别 if len(class_list[0]) == 1: return majority_cnt((class_list)) # 按照信息增益最高选取分类特征属性 best_feature_idx = choose_best_feature_to_split(data_set) # 返回分类的特征的数组索引 best_feat_label = labels[best_feature_idx] # 该特征的label my_tree = {best_feat_label: {}} # 构建树的字典 del (labels[best_feature_idx]) # 从labels的list中删除该label,相当于待划分的子标签集 feature_values = [example[best_feature_idx] for example in data_set] unique_feature_values = set(feature_values) for feature_value in unique_feature_values: sub_labels = labels[:] # 子集合 # 构建数据的子集合,并进行递归 sub_data_set = split_data_set(data_set, best_feature_idx, feature_value) # 待划分的子数据集 my_tree[best_feat_label][feature_value] = create_tree(sub_data_set, sub_labels) return my_tree def classify(input_tree, feat_labels, test_vec): """ 决策树分类 :param input_tree: 决策树 :param feat_labels: 特征标签 :param test_vec: 测试的数据 :return: """ first_str = list(input_tree.keys())[0] # 获取树的第一特征属性 second_dict = input_tree[first_str] # 树的分子,子集合Dict feat_index = feat_labels.index(first_str) # 获取决策树第一层在feat_labels中的位置 for key in second_dict.keys(): if test_vec[feat_index] == key: if type(second_dict[key]).__name__ == 'dict': class_label = classify(second_dict[key], feat_labels, test_vec) else: class_label = second_dict[key] return class_label data_set, labels = create_data_set() decision_tree = create_tree(data_set, labels) print "决策树:", decision_tree data_set, labels = create_data_set() print "(1)不浮出水面可以生存,无脚蹼:", classify(decision_tree, labels, [1, 0]) print "(2)不浮出水面可以生存,有脚蹼:", classify(decision_tree, labels, [1, 1]) print "(3)不浮出水面可以不能生存,无脚蹼:", classify(decision_tree, labels, [0, 0]) tree_plotter.create_plot(decision_tree)
画图程序,tree_plotter.py:
import matplotlib.pyplot as plt decision_node = dict(boxstyle="sawtooth", fc="0.8") leaf_node = dict(boxstyle="round4", fc="0.8") arrow_args = dict(arrowstyle="<-") def plot_node(node_txt, center_pt, parent_pt, node_type): create_plot.ax1.annotate(node_txt, xy=parent_pt, xycoords='axes fraction', \ xytext=center_pt, textcoords='axes fraction', \ va="center", ha="center", bbox=node_type, arrowprops=arrow_args) def get_num_leafs(my_tree): num_leafs = 0 first_str = list(my_tree.keys())[0] second_dict = my_tree[first_str] for key in second_dict.keys(): if type(second_dict[key]).__name__ == 'dict': num_leafs += get_num_leafs(second_dict[key]) else: num_leafs += 1 return num_leafs def get_tree_depth(my_tree): max_depth = 0 first_str = list(my_tree.keys())[0] second_dict = my_tree[first_str] for key in second_dict.keys(): if type(second_dict[key]).__name__ == 'dict': thisDepth = get_tree_depth(second_dict[key]) + 1 else: thisDepth = 1 if thisDepth > max_depth: max_depth = thisDepth return max_depth def plot_mid_text(cntr_pt, parent_pt, txt_string): x_mid = (parent_pt[0] - cntr_pt[0]) / 2.0 + cntr_pt[0] y_mid = (parent_pt[1] - cntr_pt[1]) / 2.0 + cntr_pt[1] create_plot.ax1.text(x_mid, y_mid, txt_string) def plot_tree(my_tree, parent_pt, node_txt): num_leafs = get_num_leafs(my_tree) depth = get_tree_depth(my_tree) first_str = list(my_tree.keys())[0] cntr_pt = (plot_tree.x_off + (1.0 + float(num_leafs)) / 2.0 / plot_tree.total_w, plot_tree.y_off) plot_mid_text(cntr_pt, parent_pt, node_txt) plot_node(first_str, cntr_pt, parent_pt, decision_node) second_dict = my_tree[first_str] plot_tree.y_off = plot_tree.y_off - 1.0 / plot_tree.total_d for key in second_dict.keys(): if type(second_dict[key]).__name__ == 'dict': plot_tree(second_dict[key], cntr_pt, str(key)) else: plot_tree.x_off = plot_tree.x_off + 1.0 / plot_tree.total_w plot_node(second_dict[key], (plot_tree.x_off, plot_tree.y_off), cntr_pt, leaf_node) plot_mid_text((plot_tree.x_off, plot_tree.y_off), cntr_pt, str(key)) plot_tree.y_off = plot_tree.y_off + 1.0 / plot_tree.total_d def create_plot(in_tree): fig = plt.figure(1, facecolor='white') fig.clf() axprops = dict(xticks=[], yticks=[]) create_plot.ax1 = plt.subplot(111, frameon=False, **axprops) plot_tree.total_w = float(get_num_leafs(in_tree)) plot_tree.total_d = float(get_tree_depth(in_tree)) plot_tree.x_off = -0.5 / plot_tree.total_w plot_tree.y_off = 1.0 plot_tree(in_tree, (0.5, 1.0), '') plt.show()
输出结果如下:
决策树: {'no surfacing': {0: 'no', 1: {'flippers': {0: 'no', 1: 'yes'}}}} (1)不浮出水面可以生存,无脚蹼: no (2)不浮出水面可以生存,有脚蹼: yes (3)不浮出水面可以不能生存,无脚蹼: no |
最终我们得到决策树如下:
2.5、C4.5算法原理与python代码实现
C4.5算法与ID3算法很相似,C4.5算法是对ID3算法做了改进,在生成决策树过程中采用信息增益比来选择特征。
2.5.1 信息增益比
我们知道信息增益会偏向取值较多的特征,使用信息增益比可以对这一问题进行校正。
定义:特征A对训练数据集D的信息增益比GainRatio(D,A)定义为其信息增益Gain(D,A)与训练数据集D的经验熵H(D)之比:
2.5.2 C4.5算法
C4.5算法过程跟ID3算法一样,只是选择特征的方法由信息增益改成信息增益比。
2.5.3 python代码实现
我们还是采用2.1.3中的实例,C4.5算法跟ID3算法,不同的地方只是特征选择方法,即:
choose_best_feature_to_split方法。
def choose_best_feature_to_split(data_set): """ 按照最大信息增益比划分数据 :param data_set: 样本数据,如: [[1, 1, 'yes'], [1, 1, 'yes'], [1, 0, 'no'], [0, 1, 'no'], [0, 1, 'no']] :return: """ num_feature = len(data_set[0]) - 1 # 特征个数,如:不浮出水面是否可以生存 和是否有脚蹼 base_entropy = calc_shannon_ent(data_set) # 经验熵H(D) best_info_gain_ratio = 0.0 best_feature_idx = -1 for feature_idx in range(num_feature): feature_val_list = [number[feature_idx] for number in data_set] # 得到某个特征下所有值(某列) unique_feature_val_list = set(feature_val_list) # 获取无重复的属性特征值 new_entropy = 0 split_info = 0.0 for value in unique_feature_val_list: sub_data_set = split_data_set(data_set, feature_idx, value) prob = len(sub_data_set) / float(len(data_set)) # 即p(t) new_entropy += prob * calc_shannon_ent(sub_data_set) # 对各子集香农熵求和 split_info += -prob * log(prob, 2) info_gain = base_entropy - new_entropy # 计算信息增益,g(D,A)=H(D)-H(D|A) if split_info == 0: # fix the overflow bug continue info_gain_ratio = info_gain / split_info # 最大信息增益比 if info_gain_ratio > best_info_gain_ratio: best_info_gain_ratio = info_gain_ratio best_feature_idx = feature_idx return best_feature_idx
效果跟ID3算法一样,这里就不重复。
2.6、CART算法原理与python代码实现
2.6.1 Gini指数
分类问题中,假设有K个类,样本点属于第k类的概率为,则概率分布的基尼指数定义为:
备注:表示选中的样本属于k类别的概率,则这个样本被分错的概率为
。
对于给定的样本集合D,其基尼指数为:
备注:这里是D中属于第k类的样本自己,K是类的个数。
如果样本集合D根据特征A是否取某一可能值a被分割成D1和D2两部分,即:
则在特征A的条件下,集合D的基尼指数定义为:
基尼指数Gini(D)表示集合D的不确定性,基尼指数Gini(D,A)表示经A=a分割后集合D的不确定性。基尼指数值越大,样本集合的不确定性也就越大,这一点跟熵相似。
下面举一个例子来说明上面的公式:
如下,是一个包含30个学生的样本,其包含三种特征,分别是:性别(男/女)、班级(IX/X)和高度(5到6ft)。其中30个学生里面有15个学生喜欢在闲暇时间玩板球。那么要如何选择第一个要划分的特征呢,我们通过上面的公式来进行计算。
如下,可以Gini(D,Gender)最小,所以选择性别作为最优特征。
2.6.2 CART算法
输入:训练数据集D,停止计算的条件
输出:CART决策树
根据训练数据集,从根结点开始,递归地对每个结点进行以下操作,构建二叉树:
Step1:设结点的训练数据集为D,计算现有特征对该数据集的基尼指数。此时,对每一个特征A,对其可能取的每个值a,根据样本点A=a的测试为“是”或“否”将D分割为D1和D2两部分,利用上式Gini(D,A)来计算A=a时的基尼指数。
Step2:在所有可能的特征A以及他们所有可能的切分点a中,选择基尼指数最小的特征及其对应可能的切分点作为最有特征与最优切分点。依最优特征与最有切分点,从现结点生成两个子节点,将训练数据集依特征分配到两个子节点中去。
Step3:对两个子结点递归地调用Step1、Step2,直至满足条件。
Step4:生成CART决策树
算法停止计算的条件是节点中的样本个数小于预定阈值,或样本集的基尼指数小于预定阈值,或者没有更多特征。
2.6.3 python代码实现
cart.py:
# -*- coding: utf-8 -*- import numpy as np class Tree(object): def __init__(self, value=None, true_branch=None, false_branch=None, results=None, col=-1, summary=None, data=None): self.value = value self.true_branch = true_branch self.false_branch = false_branch self.results = results self.col = col self.summary = summary self.data = data def __str__(self): print(self.col, self.value) print(self.results) print(self.summary) return "" def split_datas(rows, value, column): """ 根据条件分离数据集 :param rows: :param value: :param column: :return: (list1, list2) """ list1 = [] list2 = [] if isinstance(value, int) or isinstance(value, float): for row in rows: if row[column] >= value: list1.append(row) else: list2.append(row) else: for row in rows: if row[column] == value: list1.append(row) else: list2.append(row) return list1, list2 def calculate_diff_count(data_set): """ 分类统计data_set中每个类别的数量 :param datas:如:[[5.1, 3.5, 1.4, 0.2, 'setosa'], [4.9, 3, 1.4, 0.2, 'setosa'],....] :return: 如:{'setosa': 50, 'versicolor': 50, 'virginica': 50} """ results = {} for data in data_set: # 数据的最后一列data[-1]是类别 if data[-1] not in results: results.setdefault(data[-1], 1) else: results[data[-1]] += 1 return results def gini(data_set): """ 计算gini的值,即Gini(p) :param data_set: 如:[[5.1, 3.5, 1.4, 0.2, 'setosa'], [4.9, 3, 1.4, 0.2, 'setosa'],....] :return: """ length = len(data_set) category_2_cnt = calculate_diff_count(data_set) sum = 0.0 for category in category_2_cnt: sum += pow(float(category_2_cnt[category]) / length, 2) return 1 - sum def build_decision_tree(data_set, evaluation_function=gini): """ 递归建立决策树,当gain=0时,停止回归 :param data_set: 如:[[5.1, 3.5, 1.4, 0.2, 'setosa'], [4.9, 3, 1.4, 0.2, 'setosa'],....] :param evaluation_function: :return: """ current_gain = evaluation_function(data_set) column_length = len(data_set[0]) rows_length = len(data_set) best_gain = 0.0 best_value = None best_set = None # choose the best gain for feature_idx in range(column_length - 1): feature_value_set = set(row[feature_idx] for row in data_set) for feature_value in feature_value_set: sub_data_set1, sub_data_set2 = split_datas(data_set, feature_value, feature_idx) p = float(len(sub_data_set1)) / rows_length # Gini(D,A)表示在特征A的条件下集合D的基尼指数,gini_d_a越小,样本集合不确定性越小 # 我们的目的是找到另gini_d_a最小的特征,及gain最大的特征 gini_d_a = p * evaluation_function(sub_data_set1) + (1 - p) * evaluation_function(sub_data_set2) gain = current_gain - gini_d_a if gain > best_gain: best_gain = gain best_value = (feature_idx, feature_value) best_set = (sub_data_set1, sub_data_set2) dc_y = {'impurity': '%.3f' % current_gain, 'sample': '%d' % rows_length} # stop or not stop if best_gain > 0: true_branch = build_decision_tree(best_set[0], evaluation_function) false_branch = build_decision_tree(best_set[1], evaluation_function) return Tree(col=best_value[0], value=best_value[1], true_branch=true_branch, false_branch=false_branch, summary=dc_y) else: return Tree(results=calculate_diff_count(data_set), summary=dc_y, data=data_set) def prune(tree, mini_gain, evaluation_function=gini): """ 裁剪 :param tree: :param mini_gain: :param evaluation_function: :return: """ if tree.true_branch.results == None: prune(tree.true_branch, mini_gain, evaluation_function) if tree.false_branch.results == None: prune(tree.false_branch, mini_gain, evaluation_function) if tree.true_branch.results != None and tree.false_branch.results != None: len1 = len(tree.true_branch.data) len2 = len(tree.false_branch.data) len3 = len(tree.true_branch.data + tree.false_branch.data) p = float(len1) / (len1 + len2) gain = evaluation_function(tree.true_branch.data + tree.false_branch.data) \ - p * evaluation_function(tree.true_branch.data)\ - (1 - p) * evaluation_function(tree.false_branch.data) if gain < mini_gain: # 当节点的gain小于给定的 mini Gain时则合并这两个节点 tree.data = tree.true_branch.data + tree.false_branch.data tree.results = calculate_diff_count(tree.data) tree.true_branch = None tree.false_branch = None def classify(data, tree): """ 分类 :param data: :param tree: :return: """ if tree.results != None: return tree.results else: branch = None v = data[tree.col] if isinstance(v, int) or isinstance(v, float): if v >= tree.value: branch = tree.true_branch else: branch = tree.false_branch else: if v == tree.value: branch = tree.true_branch else: branch = tree.false_branch return classify(data, branch) def load_csv(): def convert_types(s): s = s.strip() try: return float(s) if '.' in s else int(s) except ValueError: return s data = np.loadtxt("datas.csv", dtype="str", delimiter=",") data = data[1:, :] data_set = ([[convert_types(item) for item in row] for row in data]) return data_set if __name__ == '__main__': data_set = load_csv() print data_set decistion_tree = build_decision_tree(data_set, evaluation_function=gini) print decistion_tree.results # prune(decistion_tree, 0.4) print classify([5.1,3.5,1.4,0.2], decistion_tree) # setosa print classify([6.8,2.8,4.8,1.4], decistion_tree) # versicolor print classify([6.8,3.2,5.9,2.3], decistion_tree) # virginica
输出结果:
{'setosa': 50} {'versicolor': 47} {'virginica': 43} |
如果想进一步学习机器学习的其他算法,可以参考我写的其他文章:
参考:
[1] 机器学习之决策树(ID3)算法与Python实现 https://blog.csdn.net/moxigandashu/article/details/71305273
[2] 决策树--信息增益,信息增益比,Geni指数的理解 https://www.cnblogs.com/muzixi/p/6566803.html
[3] https://github.com/RRdmlearning/Decision-Tree
[4] https://www.analyticsvidhya.com/blog/2016/04/complete-tutorial-tree-based-modeling-scratch-in-python/
c4.5的信息增益比计算公式,分母不是H(D),应该是基于特征A的dataset的信息熵。
兄弟,你的id3.py
# 长度为1,返回出现次数最多的类别
if len(class_list[0]) == 1:
return majority_cnt((class_list))
这里条件判断实在是没看懂
是不是要写 if len(class_list) > 1: 呢?
这个是个bug,应该是if len(data_set[0]) == 1
CART部分的这个输出结果,只有几样花卉的种类数量,没有体现出来决策树的回归效果吧,这棵决策树的节点应该得输出来看看吧
为什么要把prune(decistion_tree, 0.4)这句话注释掉呢
您好,CADT算法的data.csv能提供一下吗?谢谢!
CADT?
您好,不知在哪可以找到CART算法的那个.csv文件?因为运行的时候要用到那个文件但现在找不到,,,
2.4.3中的列表就是数据来的
不是吧,你这个CART部分应该用的是那150组IRIS数据集吧
您好,看了您博客中关于机器学习方面的总结,总结得很清晰明了,因为近期想系统学习一下这方面的内容,想请教一下您这面是怎样系统学习的?您的学习路径是这么规划的,有没有值得重点学习的相关网络课程或书籍?望回复,谢谢!
我是按照李航的《统计学习方法》和斯坦福的机器学习视频来一起学习的,再配合《机器学习实战》这本书。 刚开始学,不建议看周志华的《机器学习》,太厚,太理论了。
非常感谢,刚在图书馆借了《机器学习实战》,一起努力共勉。
加油!
请问CART的数据集有吗?
数据集都在代码里