当前位置: 首页 > news >正文

黔南独山网站建设湖南网站营销seo多少费用

黔南独山网站建设,湖南网站营销seo多少费用,深圳网站建设 百业,网站你们都知道决策树: 是一种有监督学习方法,从一系列有特征和标签的数据中总结出决策规则,并采用树状图的结构来呈现规则,用来解决分类和回归问题。 节点:根节点:没有进边,有出边。包含最初的,针…

决策树:

是一种有监督学习方法,从一系列有特征和标签的数据中总结出决策规则,并采用树状图的结构来呈现规则,用来解决分类和回归问题。
节点:根节点:没有进边,有出边。包含最初的,针对特征的提问中间节点:既有进边也有出边,进边只有一条,出边可以有很多条。都是针对特征的提问。叶子节点:有进边,没有出边,每个叶子节点都是一个类别标签子节点与父节点:在两个相连的节点中,更接近根节点的是父节点,应一个是子节点。

决策树解决的问题:

1、如何从数据中找出最佳节点或者最佳分支?
2、如何让决策树停止生长,防止过拟合?决策树是基于训练集数据构建出来的,如果树长的越大分支越细致,则对训练数据的描述越清楚,但是不一定会很好的用于测试数据中

构建决策树:

根据数据构建很多决策树,再通过贪心算法实现局部最优来达到全局最优结果的算法。
不纯度:某一类标签占有的比例比较大,则说明改标签纯,否则就是不纯,样本呢越纯分配错误的几率越低
用信息熵计算不纯度。
如何用信息熵计算不纯度?先了解下什么叫做信息熵当我们需要判断64组小组比赛的冠军时,我们可以单个单个的猜,最多需要64次才能猜中,但是我们把数据分开,分为1-32和33-64,决断出哪一份会赢,然后再进行拆分,重复六次,最终确定赢得小组,这种代价被称为6比特,信息量得值会随着更多有用信息得出现而降低计算公式:即H(A)=\sum_ip(i)log\frac{1}{p(i)}。信息熵越大,猜对的概率越小,不确定越大,猜对的代价越大信息熵越小,猜对的概率越大,不确定越小,猜对的代价越小
如何衡量决策树里节点(特征)重要性?如何理解特征的重要性?重要性:如果一个节点减少分类的不确定性越明显,则该节点就越重要。使用信息增益衡量特征的重要性
信息增益:在根据某个他则会那个划分数据集之前滞后信息熵发生的变化或者差异叫做信息增益,知道如何计算信息增哟,获得计算增益最高的特征就是最好的选择信息增益作为决策树的划分依据
决策树需要用到的api是:from sklearn.tree import DecisionTreeClassifier 用来分类from sklearn.tree import DecisionTreeRegressor 用来回归
需要用到的对象以及参数:tree = DecisionTreeClassifier(criterion='entropy',random_state=2023)建立对象需要对里面的参数进行设置criterion,设置为'entropy'表示信息熵,默认是基尼系数,random_state自行设置,如果设置完,后面的准确率就不会发生变化,在特征维度比较多时,建议使用

使用决策树

import sklearn.datasets as dataset
from sklearn.model_selection import train_test_split
from sklearn.tree import DecisionTreeClassifier
from sklearn.tree import DecisionTreeRegressor
data = dataset.load_wine()
print(data.keys())
tree = DecisionTreeClassifier(criterion='entropy')
feature = data['data']
target = data['target']
print(feature.shape, target.shape)
x_train, x_test, y_train, y_test = train_test_split(feature, target,train_size=0.8, random_state=2023)
tree.fit(x_train,y_train)
score = tree.score(x_test,y_test)
print(score)	

结果:

dict_keys(['data', 'target', 'frame', 'target_names', 'DESCR', 'feature_names'])
(178, 13) (178,)
0.7777777777777778

再次运行:

dict_keys(['data', 'target', 'frame', 'target_names', 'DESCR', 'feature_names'])
(178, 13) (178,)
0.8888888888888888Process finished with exit code 0

我们会发现两次的运行结果不一样。

每次测评分数不一致的原因:

决策树在构建树时,是靠及优化节点来追求一颗最优化的树,每次分支时,用的时一部分特征,选出不纯度相关指标最优作为分支用的节点,每次生成的树都不一样。
http://www.wangmingla.cn/news/75065.html

相关文章:

  • 网站建设企业模板下载百度推广联盟
  • 免费网站建设教程视频中国搜索引擎排名
  • 网站建设按什么合同交印花税发外链比较好的平台
  • 开发一个网站要多久重庆广告公司
  • 代理做网站搜索引擎营销成功的案例
  • 点击网站排名怎样做网站
  • 怎么制作网站栏目页主页美国最新新闻头条
  • wordpress没有搜索小工具上海seo优化公司 kinglink
  • 如何建设网站pdf下载百度竞价怎么做效果好
  • 拍摄宣传片的流程简要seo的中文意思
  • 保定行业网站网站seo招聘
  • 佛山网站架设女教师遭网课入侵直播录屏曝光se
  • 毕业设计代做网站 知乎推广引流平台
  • 网站开发公司广告文案网站推广工具
  • 西安市精神文明建设网站公司网络推广的作用
  • 网站开发建设用的软件四川网站推广公司
  • 阿里妈妈通过审核 又拒绝 网站建设不完整在线培训系统
  • 南充 网站建设抖音seo招商
  • 自助建站系统网站建设开发成都seo学徒
  • wordpress伪静态cdn钦州seo
  • wordpress如何修改主题cssseo外包公司费用
  • 外贸建站magento创建网站花钱吗
  • 企业网站建设运营的灵魂是什么seo搜索引擎入门教程
  • 京山网站设计最近一周新闻热点回顾
  • 网站制作 知乎semir是什么品牌
  • 淘宝店铺可以做网站优化么外贸推广是做什么的
  • 解析域名网站百度极速版app下载
  • 百事通网做网站重庆seo网站推广优化
  • 网站开发主管岗位职责说明书做公司网页
  • 微信网站建设哪家好seo推广优化服务