分类目录归档:深度学习

残差连接-CNN


残差连接(Residual Connection),又称跳跃连接(Skip Connection),是深度学习中的一种关键结构,由ResNet(Residual Network)首次提出,旨在解决深层网络训练中的梯度消失/爆炸和网络退化问题。以下是关于残差连接的全面解析:


1. 残差连接的背景与意义

  • 核心问题:传统深层网络随着层数增加,训练难度增大,表现为:
  • 梯度消失/爆炸:反向传播时梯度逐层衰减或激增。
  • 网络退化(Degradation):更深网络的训练误差反而高于浅层网络,并非由过拟合引起。
  • 解决方案:残差学习通过引入跨层直连路径,使网络更容易学习恒等映射(Identity Ma...

Read more

感受野-CNN


感受野(Receptive Field) 是深度学习中卷积神经网络(CNN)的核心概念,指输入图像中对网络某一层中特定神经元激活产生影响的区域大小。简单来说,它表示神经元“看到”的输入范围。以下是关于感受野的详细解析:


1. 感受野的重要性

  • 上下文理解:较大的感受野能捕捉更广泛的上下文信息(如物体整体结构),适合分类、分割等任务。
  • 细节捕捉:较小的感受野关注局部特征(如边缘、纹理),适用于细粒度识别。
  • 网络设计:通过调整感受野,可以平衡模型的全局与局部感知能力。

2. 感受野的计算

感受野的计算与网络层的堆叠方式密切相关,常用公式为: [ RF_{l} = RF_{l-1} + ...

Read more

残差网络(ResNet)详解


残差网络(ResNet)详解

残差网络(Residual Network,ResNet)是一种深度神经网络架构,由何恺明等人于2015年提出,旨在解决深度网络训练中的退化问题(即随着网络加深,训练误差反而增大)。以下是其核心内容:


核心思想

  1. 退化问题的根源
  2. 传统深度网络(如VGG)在层数增加时,训练误差不降反升。这并非过拟合,而是由于梯度消失/爆炸导致优化困难。
  3. 更深的网络理论上应能拟合更简单的函数(如恒等映射),但实际训练中难以学习到这种映射。

  4. 残差学习(Residual Learning)

  5. 核心公式
    [ H(x) = F(x) + x ]
    其...

Read more

结构化剪枝


结构化剪枝也是模型剪枝技术中的一种,和非结构化剪枝相对应,以下是关于它的具体介绍:

定义

结构化剪枝是一种在神经网络模型压缩中,以特定结构为单位对模型进行剪枝的方法。它不是像非结构化剪枝那样针对单个参数进行操作,而是对模型中的具有一定结构的组件,如卷积核、通道、神经元等进行整体删除或调整,从而在减少模型复杂度的同时,尽量保持模型的性能。

实现方式

  • 卷积核剪枝:在卷积神经网络中,卷积核是提取特征的关键组件。卷积核剪枝就是根据一定的标准,直接删除整个卷积核。例如,可以计算每个卷积核的重要性得分,这个得分可以基于卷积核的参数幅度、对特征提取的贡献等因素来确定。然后,将得分低于某个阈值的卷积核...

Read more

非结构化剪枝


非结构化剪枝是模型压缩和优化领域中的一种重要技术,以下是关于它的详细介绍:

定义

非结构化剪枝是一种对神经网络模型进行剪枝的方法,它不依赖于特定的结构或模式,而是直接对模型中的参数进行操作。通过去除神经网络中对模型性能影响较小的连接或参数,以达到减少模型存储需求、降低计算量和提高推理速度等目的,同时尽量保持模型的准确性。

实现方式

  • 基于幅度的剪枝:这是一种最常见的非结构化剪枝方法。其核心思想是根据参数的绝对值大小来决定是否剪枝。通常会设定一个阈值,将绝对值小于该阈值的参数直接设置为零。例如,在一个卷积神经网络中,对于卷积层的权重参数,会遍历每个参数,若其绝对值小于给定阈值,如0.01,...

Read more

神经架构搜索


神经架构搜索(Neural Architecture Search,NAS)是一种用于自动化搜索神经网络架构的技术,以下从其背景、方法、应用场景等方面进行详细介绍:

背景

随着深度学习在图像识别、语音识别、自然语言处理等诸多领域取得巨大成功,神经网络的架构设计变得越来越重要。传统的神经网络架构设计主要依赖于人工经验,需要大量的专业知识和时间成本。NAS旨在通过自动化的方式搜索出最优的神经网络架构,减少人工设计的工作量,提高模型的性能和效率。

方法

  • 搜索空间:定义了所有可能的神经网络架构的集合,包括网络的层数、每层的神经元数量、连接方式、激活函数等。例如,在图像识别中,搜索空间可能包含不...

Read more

Inception Network(GoogLeNet)


Inception Network(GoogLeNet)详解

Inception Network 是由 Google 团队在 2014 年提出的经典深度神经网络架构,其核心创新在于 Inception 模块,通过多尺度并行卷积和高效参数设计,显著提升了图像分类任务的性能。以下是其关键内容:


1. 核心思想与结构

  • Inception 模块
    每个模块并行执行以下操作,并拼接输出通道:
  • 1×1 卷积(降维)
  • 3×3 卷积(提取局部特征)
  • 5×5 卷积(捕获更大区域)
  • 3×3 最大池化(保留空间信息)
    作用:多尺度特征融合,减少参数量的同时增强表达能力。

  • 1×1 卷...

Read more

残差网络-


以下是关于 残差网络(Residual Network,ResNet) 的全面解析:


1. ResNet的背景与核心思想

ResNet 由微软研究院的何恺明团队于2015年提出,是深度学习领域里程碑式的模型。其核心目标是解决深度神经网络(如VGG)的梯度消失和网络退化问题
- 梯度消失:随着网络加深,反向传播时梯度逐渐衰减,浅层参数难以更新。
- 网络退化:增加网络层数后,训练误差反而上升(并非过拟合导致)。

ResNet的解决方案
通过引入 残差块(Residual Block),允许网络直接学习输入与输出之间的残差(差值),而非直接拟合目标映射。
数学表达:
[ \text...

Read more

残差块


以下是关于 残差块(Residual Block) 的详细解析:


1. 残差块的核心思想

残差块(Residual Block) 是ResNet(Residual Neural Network)的核心组件,由何恺明团队于2015年提出,旨在解决深度神经网络中的梯度消失网络退化问题(即网络加深后性能反而下降)。其核心思想是:
通过引入跳跃连接(Shortcut Connection),让网络直接学习输入与输出之间的残差(差值),而非直接学习目标映射
数学表达:
[ \text{输出} = F(x) + x ]
其中,( F(x) ) 为残差函数,( x ) 为输入。


2. 残差块的...

Read more

VGG网络


以下是关于 VGG网络 的详细解析:


1. VGG的核心思想

VGG(Visual Geometry Group) 是由牛津大学视觉几何组于2014年提出的经典卷积神经网络模型,其核心贡献在于:
通过堆叠多层小尺寸卷积核(3×3),证明了网络深度对模型性能的关键作用
- 关键结论:更深的网络(16-19层)相比浅层网络(如AlexNet的8层)能显著提升分类精度。 - 设计原则:使用连续的3×3卷积替代大尺寸卷积核(如5×5、7×7),在保持相同感受野的同时减少参数量。


2. VGG的网络架构

VGG的常见变体包括 VGG-16VGG-19(数字代表含权重的层数):

VGG-...

Read more