分类目录归档:机器学习

Momentum-动量


Momentum(动量)是机器学习和深度学习中广泛使用的一种优化技术,用于改进梯度下降算法的性能。它通过引入“速度”项来平滑优化过程,解决梯度下降中常见的收敛慢、振荡和陷入局部最优等问题。以下是关于Momentum的详细介绍,包括其原理、优势和应用场景。


1. Momentum 是什么?

Momentum 是梯度下降算法的一种扩展,通过累积历史梯度(速度)来更新模型参数。这种方法可以帮助算法在优化过程中保持方向性和速度,特别是在梯度噪声较大或振荡明显的区域。

  • 数学公式: Momentum 的更新规则如下: [ v_t = \beta v_{t-1} + (1 - \bet...

Read more

前向算法


前向算法(Forward Algorithm)是用于隐马尔可夫模型(HMM)的一种动态规划算法,主要用于计算观测序列的概率。以下是其关键点:

1. 定义

前向算法通过计算前向概率 (\alpha_t(i)),即在时间 (t) 处于状态 (i) 并观测到序列 (o_1, o_2, \dots, o_t) 的概率。

2. 步骤

  1. 初始化: [ \alpha_1(i) = \pi_i b_i(o_1) ] 其中,(\pi_i) 是初始状态概率,(b_i(o_1)) 是状态 (i) 生成观测 (o_1) 的概率。

  2. 递推: [ \alpha_{t+1}(j...

Read more

偏置


在机器学习(ML)中,偏置(Bias) 是一个核心概念,通常指模型预测值与真实值之间的系统性误差。它是模型误差的重要组成部分,与方差(Variance)共同决定了模型的性能。理解偏置对于构建高效、准确的机器学习模型至关重要。


1. 偏置的定义

偏置反映了模型对数据的简化假设与真实关系之间的差距。高偏置意味着模型过于简单,无法捕捉数据的复杂模式,导致欠拟合(Underfitting)

  • 数学表示: 偏置是模型预测值的期望与真实值之间的差异: [ \text{Bias} = E[\hat{f}(x)] - f(x) ] 其中:
  • ( \hat{f}(x) ) 是模型的预...

Read more

解锁机器学习的关键:特征工程全解析


解锁机器学习的关键:特征工程全解析

在机器学习的广阔天地中,特征工程宛如一位幕后英雄,默默发挥着至关重要的作用。正如那句经典名言所说:“数据和特征决定了机器学习的上限,而模型和算法只是逼近这个上限而已”。它是将原始数据雕琢成模型能够高效学习与理解的关键工序,下面就让我们深入探究特征工程的各个环节。

一、数据预处理:基石之稳

数据预处理是特征工程的根基,其重要性不言而喻。它就像建造高楼前的土地平整工作,确保后续步骤能在坚实的基础上展开。

(一)缺失值处理

在实际数据集中,缺失值常常出现。常见的处理方法各有千秋。删除缺失值操作简单,但可能会损失大量数据信息,适用于缺失数据量极少且对整体数据分...

Read more

特征工程-V2


特征工程是机器学习中的一个关键步骤,涉及将原始数据转换为更适合模型学习的表示形式。特征工程的目标是提高模型的性能,减少模型的复杂性,并提高模型的可解释性。特征工程包括以下几个主要步骤:

1. 数据预处理

  • 缺失值处理:处理缺失数据,常见的方法有删除缺失值、填充缺失值(如用均值、中位数、众数或插值法填充)。
  • 异常值处理:检测和处理异常值,可能通过删除、修正或 Winsorization 等方法。
  • 数据清洗:去除噪声数据,纠正数据错误。

2. 特征选择

  • 过滤法:基于统计指标选择特征,如方差选择、相关系数选择、卡方检验等。
  • 包装法:通过递归特征消除(RFE)、基于模型的特征选择(如Lass...

Read more

神经网络-V2


神经网络(Neural Network)是一种模仿生物神经系统结构和功能的计算模型,广泛应用于机器学习和人工智能领域。它由大量相互连接的节点(称为“神经元”)组成,能够通过学习数据中的模式来完成分类、回归、预测等任务。

基本结构

  1. 输入层(Input Layer)
  2. 接收外部输入数据,每个节点代表一个特征。

  3. 隐藏层(Hidden Layer)

  4. 位于输入层和输出层之间,可以有一层或多层。
  5. 每层包含多个神经元,负责提取和转换输入数据的特征。

  6. 输出层(Output Layer)

  7. 输出最终的预测结果,节点数取决于任务类型(如分类任务中的类别数)。

  8. 权重(Weights)...

Read more

近端策略优化


近端策略优化(Proximal Policy Optimization,PPO)是一种流行的强化学习算法,它在实现简单性、样本效率和性能之间取得了良好的平衡。PPO 是一种在线策略(on-policy)算法,意味着它通过当前策略与环境的交互来学习。PPO 是对信任域策略优化(Trust Region Policy Optimization, TRPO)的改进,广泛应用于研究和实际场景中。

以下是 PPO 的核心思想及其关键组成部分:


PPO 的核心概念

  1. 策略优化
  2. PPO 优化的是一个随机策略 (\pi_\theta(a|s)),它根据当前状态 (s) 输出动作 (a) 的概率分布。...

Read more

监督学习-概述


监督学习是一种机器学习方法,通过使用带标签的数据来训练模型,使其能够学习输入与标签之间的关系,并对新的数据进行预测。以下是对其详细的理解和总结:

  1. 基本概念

  2. 训练数据:包含输入特征和对应的正确输出(标签)。

  3. 标签来源:通常由人工标注,例如在图像分类任务中,每张图片需标注类别(猫、狗、鸟等)。

  4. 模型训练过程

  5. 通过调整模型参数,使预测结果接近实际标签。

  6. 使用损失函数衡量预测值与真实值的差距,并用优化算法(如梯度下降)调整参数,以最小化损失。

  7. 常见算法

  8. 线性回归:适用于回归问题,预测连续值。

  9. 逻辑回归:用于二分类问题,尽管名称中有“回归”但实际上是分类算法...

Read more

逻辑回归-V2


逻辑回归(Logistic Regression)是一种用于二分类问题的统计方法,其目标是预测给定输入属于某一类别的概率。逻辑回归的损失函数(也称为成本函数)被称为对数损失(Log Loss)或交叉熵损失(Cross-Entropy Loss)。它通过惩罚错误的预测来衡量分类模型的性能。


逻辑回归的假设函数

逻辑回归的假设函数使用 Sigmoid 函数 表示:

[ h_\theta(x) = \frac{1}{1 + e^{-\theta^T x}} ]

其中: - ( h_\theta(x) ) 是模型预测的 ( y = 1 ) 的概率。 - ( \theta ) 是模型参数(权重)...

Read more

AI原理系列-监督学习概述-V1


监督学习的基本概念

监督学习(Supervised Learning)是机器学习中最常见的一种学习方式。它的核心思想是通过已知的输入和输出数据(即“标签”)来训练模型,使得模型能够从输入数据中预测出正确的输出。监督学习的目标是找到一个函数,能够将输入映射到输出。

1. 基本流程

监督学习的基本流程包括以下几个步骤:

  1. 数据收集:收集带有标签的数据集,数据集中的每个样本都包含输入特征和对应的输出标签。
  2. 数据预处理:对数据进行清洗、归一化、特征选择等操作,以便更好地训练模型。
  3. 模型选择:根据问题的性质选择合适的模型,如线性回归、决策树、支持向量机、神经网络等。
  4. 模型训练:使用训练数据集来训练...

Read more