c语言sscanf函数的用法是什么
248
2022-10-07
JK算法训练营学习的路线第三期
最下方评论区获取学习路线
机器学习分为监督学习、非监督学习,强化学习三种类型,而每种类型又对应着一些算法。
一、监督学习一支持向量机SVM是一类,按监督学习方式对数据进行二元分类的广义线性分类器。
其角色边界是对学习样本求解的最大编剧超平面。
例如在纸上有两类线性可分的点支持向量机会寻找一条直线,将这两类点区分开来,并且与这些点的距离都尽可能远。
优点泛化,错误率低,结果已解释缺点,对大规模训练样本难以实施解决多分类问题存在困难,对参数调节和和函数的选择敏感应用场景,文本分类、人像识别、医学诊断等。
2、决策树decision tree是一个预测模型,代表的是对象属性与对相机之间的一种映射关系。
优点易于理解和解释,可以可视化分析,容易提取出规则,能够处理不相关的特征。
缺点,对缺失数据处理比较困难,应用场景在决策过程应用较多。
3、朴素贝叶斯分类难以反映成classification。
对于给出的带分类项求解,此项出现的条件下,各个类别出现的概率哪个最大?
就认为四代分类属于哪个类别,类别。
4公式为P2B等于PBAP2PB其中P2B表示后延概率PBA是自然值,PA是类别的先验概率。
PB代表预测器的先验概率优点在数据较少的情况下仍然有效,可以处理多类别问题。
缺点,对输入数据的准备方式较为敏感,应用场景、文本分类、人脸识别、欺诈检测。
四可以经营算法K页面是一种基于实例的学习,采用测量不同特征值之间的距离方法进行分类。
其基本思路是给定一个训练样本集,然后输入没有标签的新数据,将新数据的每个特征与样本集中数据对应地特征进行比较。
找到最临近的K个通常是不大于20的整数实例,就K个实例的多数属于某个类,就把该输入实例分类到这个类中。
优点简单,易于理解,易于实现,无需估计参数。
此外,与朴素贝叶斯之类的算法比图数据输入假定准确度高,对异常数据值不敏感。
缺点,对于训练数据依赖程度比较大,并且缺少训练阶段无法应对多样本应用场景字符识别、文本分类、图像识别等领域。
2、非监督学习。
第一主成分分析PCI是一种统计方法,其主要思想是将艾维特征映射到K尾上。
这K尾是全新的重要特征,已被称为主成分,是在原有的特征的基础上重新构造出来的。
KV特征优点,降低数据的复杂性,识别最重要的多个特征。
缺点组成分各个特征维度的含义具有一定的模糊性,不如原始样本特征的解释性强,有可能损失有用的信息,应用场景、语音、图像通信的分析处理。
2,其一直分解SVD可以将一个比较复杂的矩阵用更小更简单的几个词矩阵的相乘来表示这些小矩阵描述的是矩阵的重要的特性优点,简化数据,去除噪声点,提高算法的结果。
缺点,数据的转换可能难以理解应用场景推荐系统、图片压缩等3K均值聚类k means是一种迭代求解的聚类分析算法采用距离作为相似性指标,其工作流程是随机确定K个对象作为初始的聚类中心。
然后计算每个对象与各个种子聚类中心之间的距离,把每个对象分配给距离它最近的聚类中心。
优点,算法简单,容易实现,缺点可能收敛到局部最小值。
在大规模数据集上收敛较慢,应用场景、图像处理、数据分析以及市场研究等。
3、强化学习q learning是一个基于值的强化学习算法,它根据动作值函数评估应该选择哪个动作。
这个函数决定了处于某一个特定状态以及在该状态下采取特定动作的奖励期望值。
优点可以接受更广的数据范围。
缺点,缺乏通用性应用场景游戏开发。
版权声明:本文内容由网络用户投稿,版权归原作者所有,本站不拥有其著作权,亦不承担相应法律责任。如果您发现本站中有涉嫌抄袭或描述失实的内容,请联系我们jiasou666@gmail.com 处理,核实后本网站将在24小时内删除侵权内容。
发表评论
暂时没有评论,来抢沙发吧~