本文目录导航:
罕用机器学习方法有哪些?
机器学习中罕用的方法有:
(1) 归结学习
符号归结学习:典型的符号归结学习有示例学习、决策树学习。
函数归结学习(发现学习):典型的函数归结学习有神经网络学习、示例学习、发现学习、统计学习。
(2) 归结学习
(3) 类比学习:典型的类比学习有案例(范例)学习。
(4) 剖析学习:典型的剖析学习有解释学习、宏操作学习。
裁减资料:
机器学习经常出现算法:
1、决策树算法
决策树及其变种是一类将输入空间分红不同的区域,每个区域有独立参数的算法。
决策树算法充沛应用了树形模型,根节点到一个叶子节点是一条分类的门路规定,每个叶子节点意味一个判别类别。
先将样本分红不同的子集,再启动宰割递推,直至每个子集失掉同类型的样本,从根节点开局测试,到子树再到叶子节点,即可得出预测类别。
此方法的特点是结构便捷、处置数据效率较高。
2、豪华贝叶斯算法
豪华贝叶斯算法是一种分类算法。
它不是繁多算法,而是一系列算法,它们都有一个独特的准则,即被分类的每个特色都与任何其余特色的值有关。
豪华贝叶斯分类器以为这些“特色”中的每一个都独立地奉献概率,而不论特色之间的任何相关性。
但是,特色并不总是独立的,这理论被视为豪华贝叶斯算法的缺陷。
简而言之,豪华贝叶斯算法准许咱们经常使用概率给出一组特色来预测一个类。
与其余经常出现的分类方法相比,豪华贝叶斯算法须要的训练很少。
在启动预测之前必定实现的惟一上班是找到特色的集体概率散布的参数,这理论可以极速且确定地实现。
这意味着即使关于高维数据点或少量数据点,豪华贝叶斯分类器也可以体现良好。
3、支持向量机算法
基本思想可概括如下:首先,要应用一种变换将空间高维化,当然这种变换是非线性的,而后,在新的复杂空间取最优线性分类外表。
由此种方式取得的分类函数在方式上相似于神经网络算法。
支持向量机是统计学习畛域中一个代表性算法,但它与传统方式的思想方法很不同,输入空间、提高维度从而将疑问冗长化,使疑问归结为线性可分的经典解疑问。
支持向量机运行于渣滓邮件识别,人脸识别等多种分类疑问。
参考资料:网络百科-机器学习(多畛域交叉学科)
机器学习有几种算法?
1. 线性回归
上班原理:该算法可以按其权重可视化。
但疑问是,当你不可真正权衡它时,必定经过观察其高度和宽度来做一些猜想。
经过这种可视化的剖析,可以失掉一个结果。
2. 逻辑回归
依据一组独立变量,预计团圆值。
它经过将数据婚配到logit函数来协助预测事情。
3. 决策树
应用监视学习算法对疑问启动分类。
决策树是一种支持工具,它经常使用树状图来选择决策或或者的结果、时机事情结果、资源老本和适用程序。
依据独立变量,将其划分为两个或多个同构集。
4. 支持向量机(SVM)
基本原理(以二维数据为例):假设训练数据是散布在二维平面上的点,它们依照其分类汇集在不同的区域。
基于分类边界的分类算法的指标是,经过训练,找到这些分类之间的边界(直线的――称为线性划分,曲线的――称为非线性划分)。
关于多维数据(如N维),可以将它们视为N维空间中的点,而分类边界就是N维空间中的面,称为超面(超面比N维空间少一维)。
线性分类器经常使用超平面类型的边界,非线性分类器经常使用超曲面。
5. 豪华贝叶斯
豪华贝叶斯以为每个特色都是独立于另一个特色的。
即使在计算结果的概率时,它也会思考每一个独自的相关。
它不只易于经常使用,而且能有效地经常使用少量的数据集,甚至超越了高度复杂的分类系统。
6. KNN(K -最近邻)
该算法适用于分类和回归疑问。
在数据迷信行业中,它更罕用来处置分类疑问。
这个便捷的算法能够存储一切可用的案例,并经过对其k近邻的少数投票来对任何新事情启动分类。
而后将事情调配给与之婚配最多的类。
一个距离函数口头这个测量环节。
7. k – 均值
这种无监视算法用于处置聚类疑问。
数据集以这样一种方式列在一个特定数量的集群中:一切数据点都是同质的,并且与其余集群中的数据是异构的。
8. 随机森林
应用多棵决策树对样本启动训练并预测的一种分类器被称为随机森林。
为了依据其个性来分类一个新对象,每棵决策树都被排序和分类,而后决策树投票给一个特定的类,那些领有最多选票的被森林所选用。
9. 降维算法
在存储和剖析少量数据时,识别多个形式和变量是具备应战性的。
维数简化算法,如决策树、因子剖析、缺失值比、随机森林等,有助于寻觅相关数据。
10. 梯度提高和演算法
这些算法是在处置少量数据,以作出准确和极速的预测时经常使用的boosting算法。
boosting是一种组合学习算法,它联合了几种基本预计量的预测才干,以提高效能和功率。
综上所述,它将一切弱或平均预测因子组分解一个强预测器。
评论(0)