看看头条

按照这2种方法归类,更容易理解这些常用的机器学习算法

在大数据、机器学习等技术中有很多算法。很多初学者面对这些算法时非常困惑,因为很多算法时一类算法,有的算法又是从其他算法中延伸出来的,以至于造成一种非常混乱的感觉。

今天就从从学方式和算法类似性两个方面给大家归类一下常用的算法,让大家能够更加清晰的区分每个算法之间的不同和联系。

(注:文末相关阅读非常适合初学者了解基础知识)

按照这2种方法归类,更容易理解这些常用的机器学习算法

按照学习方式分类

对于一个问题的建模,根据数据类型的特点会有不同的建模方式。在机器学习领域人们按照学习方法分类有利于根据输入数据来选择合适的算法。

监督式学习:

  • 监督式学习的常见应用场景如分类问题和回归问题。

  • 常见算法有逻辑回归和反向传递神经网络

非监督式学习:

  • 常见的应用场景包括关联规则的学习以及聚类等。

  • 常见算法包括Apriori算法以及k-Means算法。

半监督式学习:

  • 应用场景包括分类和回归,算法包括一些对常用监督式学习算法的延伸。

  • 常见算法如图论推理算法或者拉普拉斯支持向量机等。

强化学习:

  • 常见的应用场景包括动态系统以及机器人控制等。

  • 常见算法包括Q-Learning以及时间差学习。

按照这2种方法归类,更容易理解这些常用的机器学习算法

按照算法类似性分类

根据算法的功能和形式的类似性,我们可以把算法分类,比如说基于树的算法,基于神经网络的算法等等。

但因为机器学习范围太广,有些算法很难明确归类。这里按照最易理解的方式对她们进行划分。

回归算法

  • 常见的回归算法包括:最小二乘法,逻辑回归,逐步式回归,多元自适应回归样条以及本地散点平滑估计

基于实例的算法

  • 常见的算法包括 k-Nearest Neighbor(KNN), 学习矢量量化,以及自组织映射算法。

正则化方法

  • 正则化方法是其他算法(通常是回归算法)的延伸。

  • 常见的算法包括:Ridge Regression, Least Absolute Shrinkage and Selection Operator(LASSO),以及弹性网络。

决策树学习

  • 常见的算法包括:分类及回归树, C4.5, Chi-squared Automatic Interaction Detection(CHAID), Decision Stump, 随机森林, 多元自适应回归样条以及梯度推进机

贝叶斯方法

  • 常见算法包括:朴素贝叶斯算法,平均单依赖估计,以及Bayesian Belief Network(BBN)。

基于核的算法

  • 常见的基于核的算法包括:支持向量机, 径向基函数, 以及线性判别分析等。

聚类算法

  • 常见的聚类算法包括 k-Means算法以及期望最大化算法。

关联规则学习

  • 常见算法包括 Apriori算法和Eclat算法等。

人工神经网络

  • 这是一类模式匹配算法,其中有几百种不同的算法。

  • 重要的人工神经网络算法包括:感知器神经网络, 反向传递, Hopfield网络,自组织映射。学习矢量量化

深度学习

  • 深度学习算法是对人工神经网络的发展。

  • 常见的深度学习算法包括:受限波尔兹曼机, Deep Belief Networks(DBN),卷积网络, 堆栈式自动编码器。

降低维度算法

  • 常见的算法包括:主成份分析,偏最小二乘回归, Sammon映射,多维尺度, 投影追踪等。

集成算法

  • 常见的算法包括:Boosting, Bootstrapped Aggregation(Bagging), AdaBoost,堆叠泛化,梯度推进机,随机森林。

按照这2种方法归类,更容易理解这些常用的机器学习算法

以上是通过学习方式和算法类似性对常用的机器学习算法进行的饿一个分类,大家可以根据每个分类来对比着学习和理解这些算法。

这将非常有利于对庞杂的算法的快速和精准的理解。

认清Hadoop和Spark的这几点区别,学习时才能事半功倍

相关阅读:认清Hadoop和Spark的这几点区别,学习时才能事半功倍

最后给想学习大数据的同学推荐一个基础文章,这篇文章将帮你清晰的区分Hadoop和Spark本质区别。

|\n|\r

赞 (0)
分享到:更多 ()