分类目录归档:基础设施

偏置


在机器学习(ML)中,偏置(Bias) 是一个核心概念,通常指模型预测值与真实值之间的系统性误差。它是模型误差的重要组成部分,与方差(Variance)共同决定了模型的性能。理解偏置对于构建高效、准确的机器学习模型至关重要。


1. 偏置的定义

偏置反映了模型对数据的简化假设与真实关系之间的差距。高偏置意味着模型过于简单,无法捕捉数据的复杂模式,导致欠拟合(Underfitting)

  • 数学表示: 偏置是模型预测值的期望与真实值之间的差异: [ \text{Bias} = E[\hat{f}(x)] - f(x) ] 其中:
  • ( \hat{f}(x) ) 是模型的预...

Read more

解锁机器学习的关键:特征工程全解析


解锁机器学习的关键:特征工程全解析

在机器学习的广阔天地中,特征工程宛如一位幕后英雄,默默发挥着至关重要的作用。正如那句经典名言所说:“数据和特征决定了机器学习的上限,而模型和算法只是逼近这个上限而已”。它是将原始数据雕琢成模型能够高效学习与理解的关键工序,下面就让我们深入探究特征工程的各个环节。

一、数据预处理:基石之稳

数据预处理是特征工程的根基,其重要性不言而喻。它就像建造高楼前的土地平整工作,确保后续步骤能在坚实的基础上展开。

(一)缺失值处理

在实际数据集中,缺失值常常出现。常见的处理方法各有千秋。删除缺失值操作简单,但可能会损失大量数据信息,适用于缺失数据量极少且对整体数据分...

Read more

特征工程-V2


特征工程是机器学习中的一个关键步骤,涉及将原始数据转换为更适合模型学习的表示形式。特征工程的目标是提高模型的性能,减少模型的复杂性,并提高模型的可解释性。特征工程包括以下几个主要步骤:

1. 数据预处理

  • 缺失值处理:处理缺失数据,常见的方法有删除缺失值、填充缺失值(如用均值、中位数、众数或插值法填充)。
  • 异常值处理:检测和处理异常值,可能通过删除、修正或 Winsorization 等方法。
  • 数据清洗:去除噪声数据,纠正数据错误。

2. 特征选择

  • 过滤法:基于统计指标选择特征,如方差选择、相关系数选择、卡方检验等。
  • 包装法:通过递归特征消除(RFE)、基于模型的特征选择(如Lass...

Read more

神经网络-概述


神经网络是一种模拟生物神经系统的计算模型,广泛应用于机器学习和人工智能领域。它由多个相互连接的节点(称为神经元)组成,这些节点通过权重和激活函数处理输入数据,最终输出结果。以下是神经网络的几个关键概念:

1. 基本结构

  • 输入层:接收外部输入数据。
  • 隐藏层:位于输入层和输出层之间,负责特征提取和转换。可以有多个隐藏层。
  • 输出层:生成最终的预测或分类结果。

2. 神经元

  • 每个神经元接收来自前一层神经元的输入,计算加权和,并通过激活函数生成输出。
  • 常见的激活函数包括Sigmoid、ReLU(Rectified Linear Unit)和Tanh。

3. 前向传播

  • 数据从输入层经过隐藏...

Read more

神经网络-V2


神经网络(Neural Network)是一种模仿生物神经系统结构和功能的计算模型,广泛应用于机器学习和人工智能领域。它由大量相互连接的节点(称为“神经元”)组成,能够通过学习数据中的模式来完成分类、回归、预测等任务。

基本结构

  1. 输入层(Input Layer)
  2. 接收外部输入数据,每个节点代表一个特征。

  3. 隐藏层(Hidden Layer)

  4. 位于输入层和输出层之间,可以有一层或多层。
  5. 每层包含多个神经元,负责提取和转换输入数据的特征。

  6. 输出层(Output Layer)

  7. 输出最终的预测结果,节点数取决于任务类型(如分类任务中的类别数)。

  8. 权重(Weights)...

Read more

前馈神经网络


前馈神经网络(Feedforward Neural Network)是一种人工神经网络,其中节点之间的连接不形成循环。这与循环神经网络(RNN)不同,RNN中的数据可以循环流动。前馈网络是最简单的神经网络形式,广泛应用于模式识别、分类和回归等任务中。

主要特点:

  1. 单向数据流:信息只能单向流动——从输入层经过隐藏层(如果有)到输出层。网络中没有循环或回路。
  2. 层级结构
  3. 输入层:接收初始数据。
  4. 隐藏层:中间层,对输入数据进行变换。网络可以有零个或多个隐藏层。
  5. 输出层:生成最终输出。
  6. 激活函数:每个神经元通常会对输入应用激活函数,然后再传递给下一层。常见的激活函数包括Sigmoid、Tanh...

Read more

强化学习-V2


强化学习:智能决策的“引擎”,解锁无限可能

开启强化学习的智慧之门

在日常生活中,我们无时无刻不在做决策。想象一下,你清晨醒来,手机闹钟根据你前一晚的睡眠质量和今日日程,贴心地调整响铃时间;上班路上,导航软件实时规划避开拥堵的最优路线;甚至家中的智能扫地机器人,也能巧妙地穿梭于各个房间,高效完成清洁任务。这些看似平常的场景背后,其实都隐藏着一项强大的技术 —— 强化学习。

强化学习,英文名为 Reinforcement Learning,简称 RL,它宛如一位幕后的智能军师,默默引导着各类智能体在复杂多变的环境中做出最佳抉择。与传统的机器学习方法不同,强化学习并非依赖大量预先标注的数据进...

Read more

开启强化学习的智慧之门-V1


开启强化学习的智慧之门

在日常生活中,我们无时无刻不在做决策。想象一下,你清晨醒来,手机闹钟根据你前一晚的睡眠质量和今日日程,贴心地调整响铃时间;上班路上,导航软件实时规划避开拥堵的最优路线;甚至家中的智能扫地机器人,也能巧妙地穿梭于各个房间,高效完成清洁任务。这些看似平常的场景背后,其实都隐藏着一项强大的技术 —— 强化学习。 强化学习,英文名为 Reinforcement Learning,简称 RL,它宛如一位幕后的智能军师,默默引导着各类智能体在复杂多变的环境中做出最佳抉择。与传统的机器学习方法不同,强化学习并非依赖大量预先标注的数据进行学习,而是通过智能体自主地与环境互动,在不...

Read more

强化学习概述-视频


强化学习(Reinforcement Learning,RL)是一种机器学习的方法,它通过让智能体(agent)在与环境的交互中学习如何进行决策,以最大化某种累积奖励(reward)。强化学习的核心思想是试错学习,即智能体通过不断尝试不同的动作(action),并根据环境给予的反馈(奖励或惩罚)来调整其行为策略,从而逐步学会在不同状态下选择最优的动作。

强化学习的基本概念

  1. 智能体(Agent):在环境中执行动作并学习的实体。
  2. 环境(Environment):智能体所处的外部世界,它定义了智能体可以感知的状态和可以执行的动作。
  3. 状态(State):环境当前的情况,智能体通过状态来决定下一...

Read more

强化学习:智能决策的“幕后军师”-V3


一、强化学习初印象

(一)核心概念 “大起底” 为了更深入地理解强化学习,我们先来剖析一下它的几个核心概念。 智能体(Agent),它就像是强化学习世界里的主角,是在环境中执行动作并学习的实体。在自动驾驶场景中,汽车就是智能体;在机器人控制领域,机器人便是智能体;而在超级玛丽游戏里,玛丽就是那个灵动的智能体。智能体的使命,便是依据环境所呈现的状态,明智地抉择下一步行动,从而达成某个特定目标。 环境(Environment),即智能体所处的外部世界,它涵盖了智能体能够感知的状态以及可以执行的动作。环境既可以是现实世界中的物理场景,如城市道路、工厂车间;也可以是虚拟构建的数字空间,像电脑游戏...

Read more