机器学习的分类


机器学习主要可以分为以下几类:

  1. 监督学习(Supervised Learning)

    • 定义:监督学习是指利用标记(label)好的训练数据来学习一个模型,模型的目标是尽可能准确地预测新数据的标签。训练数据集中的每个样本都包含输入特征和对应的目标标签。
    • 分类(Classification)
      • 二分类(Binary Classification):将数据分为两个类别。例如,在垃圾邮件检测中,邮件被分为“垃圾邮件”和“非垃圾邮件”两类;在疾病诊断中,患者被判断为“患病”或“未患病”。典型的算法包括逻辑回归(Logistic Regression)、支持向量机(Support Vector Machine)等。
      • 多分类(Multi - Classification):把数据划分到多个不同的类别中。例如,在手写数字识别中,要将手写数字图像分为0 - 9这10个类别;在自然语言处理的文本分类任务中,新闻文章可能被分为体育、娱乐、科技等多个类别。决策树(Decision Tree)、朴素贝叶斯(Naive Bayes)和深度神经网络(如多层感知机、卷积神经网络用于图像分类等)都可以用于多分类任务。
    • 回归(Regression)
      • 用于预测连续的数值型变量。例如,预测房价,根据房屋的面积、房龄、周边配套设施等因素来预测价格;预测股票价格走势,根据公司的财务数据、市场行情等因素预测未来的股价。常见的回归算法有线性回归(Linear Regression)、多项式回归(Polynomial Regression)和岭回归(Ridge Regression)等。
  2. 无监督学习(Unsupervised Learning)

    • 定义:无监督学习是在没有预先定义标签的数据集上进行学习的方法。其目的是发现数据中的结构、模式或规律。
    • 聚类(Clustering)
      • 将数据集中相似的数据点划分为不同的组(簇)。例如,在客户细分中,根据客户的消费行为、年龄、收入等因素将客户分为不同的群体,每个群体具有相似的消费特征,企业可以针对不同群体制定营销策略;在图像分割中,将图像中的像素根据颜色、纹理等特征聚类成不同的区域,每个区域可能代表一个物体或物体的一部分。K - 均值聚类(K - Means Clustering)、层次聚类(Hierarchical Clustering)是常用的聚类算法。
    • 降维(Dimensionality Reduction)
      • 处理高维数据时,为了减少数据存储和计算成本,同时保留数据的主要特征,将高维数据转换为低维表示。主成分分析(Principal Component Analysis,PCA)是最常见的降维方法之一,它通过线性变换将原始数据投影到新的低维空间,并且使得投影后的方差最大,即保留了数据中最主要的信息。t - 分布式随机邻域嵌入(t - SNE)也是一种有效的降维算法,它在保留数据局部结构方面表现出色,常用于数据可视化,将高维数据映射到二维或三维空间,便于直观地观察数据的分布和结构。
  3. 半监督学习(Semi - supervised Learning)

    • 定义:介于监督学习和无监督学习之间,同时利用少量标记数据和大量未标记数据来构建模型。在实际应用中,获取大量标记数据往往成本较高,而未标记数据相对容易获取,半监督学习可以充分利用这两种数据的优势。
    • 方法:有多种半监督学习方法,如自训练(Self - Training),先使用标记数据训练一个初始模型,然后用这个模型对未标记数据进行预测,将预测置信度高的数据及其预测标签加入到标记数据集中,不断扩充标记数据集并重新训练模型;还有基于图的半监督学习,将数据看作图中的节点,利用数据点之间的相似性(边的权重)来传播标签信息。
  4. 强化学习(Reinforcement Learning)

    • 定义:强化学习是一种智能体(agent)在环境(environment)中通过不断试错来学习最优行为策略的机器学习方法。智能体根据环境状态(state)采取行动(action),环境会反馈给智能体一个奖励(reward)信号,智能体的目标是最大化长期累积奖励。
    • 马尔可夫决策过程(Markov Decision Process,MDP):是强化学习的基本框架。它包含一组状态、一组动作、状态转移概率(在某个状态下采取某个动作后转移到其他状态的概率)和奖励函数。智能体在这个过程中学习最优策略,即对于每个状态应该采取什么动作才能获得最大奖励。
    • 算法:常见的强化学习算法包括Q - 学习(Q - Learning)、深度Q - 网络(Deep Q - Network,DQN)及其扩展(如Double DQN、Dueling DQN)等。这些算法在游戏(如Atari游戏)、机器人控制、自动驾驶等领域有广泛应用。例如,在机器人导航任务中,机器人通过不断尝试不同的移动方向(行动),根据是否接近目标位置(奖励)来学习最优的导航策略。