分类目录归档:机器学习

穷举搜索


穷举搜索(Exhaustive Search),又称暴力搜索(Brute-Force Search),是一种在问题求解中对所有可能的情况进行逐一列举和检查的基本搜索算法,以下是对其更详细的介绍:

算法原理

  • 基于问题的解空间,对其中的每一个可能解进行系统的、全面的遍历和评估,不依赖任何启发式信息或特定的搜索策略来缩小搜索范围。
  • 对于一个给定的问题,穷举搜索会生成所有可能的候选解,然后逐一验证这些解是否满足问题的约束条件或目标函数,直到找到一个可行解或确定问题无解为止。

实现步骤

  1. 定义解空间:明确问题的所有可能解的集合,确定解的表示形式和范围。
  2. 生成候选解:按照一定的顺序或规则,依次生...

Read more

单层神经网络


单层神经网络是一种最简单的神经网络结构,以下是其详细介绍:

基本结构

  • 神经元:单层神经网络由多个神经元组成,每个神经元接收输入数据,并通过激活函数对输入进行处理,产生输出。
  • 输入层与输出层:它只有一个输入层和一个输出层,输入层的神经元数量与输入数据的特征数量相同,输出层的神经元数量则根据具体的任务需求而定。

工作原理

  • 前向传播:在工作时,输入数据首先被传递到输入层的各个神经元,这些神经元将输入数据乘以相应的权重,并加上一个偏置项,然后将结果传递给激活函数进行处理,激活函数的输出就是该神经元的输出。最后,输出层的神经元将接收到的所有输入进行加权求和,并加上偏置项,再通过激活函数得到最...

Read more

通用对抗攻击


Universal Adversarial Attack即通用对抗攻击,是一种针对机器学习模型的攻击方式,以下是相关介绍:

攻击原理

通过精心构造通用的对抗扰动或触发器,使模型对输入数据产生错误分类或预测,其利用了模型在训练和决策过程中的漏洞和局限性,即使对不同的输入数据或不同结构的模型,也能导致错误结果.

攻击方法

  • 生成通用对抗扰动:通过优化算法找到一个对大多数输入数据都有效的固定扰动,将此扰动添加到正常输入数据中,就能误导模型做出错误分类,如在图像领域,可找到适用于多种图像的通用扰动,使模型将原本正确分类的图像误判.
  • 设计通用对抗触发器:构造特定的输入模式或触发器,当输入数据包含此...

Read more

单像素攻击


One Pixel Attack即单像素攻击,是一种针对深度学习模型的对抗性攻击方法,以下是相关介绍:

攻击原理

通过改变输入图像的单个像素来误导深度学习模型做出错误分类。它利用差分进化算法等优化算法,在不知道模型内部参数的情况下,识别出要修改的最优像素,从而使模型产生误判.

具体操作步骤

  1. 初始化:随机生成一组候选解,每个候选解表示对图像中单个像素的潜在修改.
  2. 突变与交叉:对候选解执行变异和交叉操作以创建新的候选解,产生种群的多样性,更有效地探索解决方案.
  3. 选择:根据其对神经网络分类结果的影响来评估试验候选,如果试验候选比原始候选更能导致模型错误分类,则取代原始候选.
  4. 迭代:重复突变、...

Read more

黑箱攻击


黑箱攻击是指攻击者在无法获取机器学习模型内部结构、参数及训练数据等详细信息的情况下,仅通过模型的输入和输出,来生成对抗样本以误导模型做出错误预测的攻击方式.以下是其相关介绍:

主要类型

  • 基于迁移的攻击:利用在一个模型上生成的对抗样本对其他模型进行攻击,需找到模型间的共性和迁移性,攻击成功率不确定,访问次数少,约10次左右.
  • 基于访问的攻击:通过大量查询模型获取输入输出信息来生成对抗样本,可细分为基于分数的攻击和基于决策的攻击。基于分数的攻击需获得连续预测分数,不适用于多数现实场景;基于决策的攻击则完全依赖模型最终决策,更贴合实际,如演化攻击就是一种高效的基于决策的黑箱攻击方法.

常用...

Read more

FGSM


FGSM是快速梯度符号法(Fast Gradient Sign Method)。

一、原理

在机器学习领域,特别是对抗攻击场景下,FGSM是一种用于生成对抗样本的方法。对于一个神经网络模型,给定输入样本和对应的真实标签,FGSM通过计算损失函数关于输入的梯度,然后根据梯度的符号来生成对抗扰动。

假设神经网络模型为 $f(x)$,输入样本为 $x$,真实标签为 $y$,损失函数为 $L(f(x),y)$。FGSM计算损失函数关于输入 $x$ 的梯度 $\nabla_xL$,然后生成对抗扰动 $\epsilon\cdot sign(\nabla_xL)$,其中 $\epsilon$ 是一个很...

Read more

无目标分类


Untargeted Classification(无目标分类)

一、定义

无目标分类是机器学习分类任务中的一种模式,与有目标分类相对应。在无目标分类中,分类器的目标仅仅是将输入数据划分到已有的类别当中,但并不特定指向某一个具体的期望类别,只要能正确区分出不同类别即可。也就是说,重点在于识别出输入样本所属的类别,而不要求将其归类到某个预先设定好的特定目标类别里。

二、示例及应用场景

(一)图像识别领域

  1. 动物识别示例 在一个简单的动物图像识别系统中,训练数据包含了猫、狗、兔子等多种动物的图片,并且分别进行了类别标注。当使用这个系统进行无目标分类时,对于输入的一张动物图像,分类器只需判断它...

Read more

受害模型


Victim Model(受害模型)

一、定义

在对抗攻击、恶意软件分析、隐私侵犯等安全相关场景以及模型评估等领域,“Victim Model”指的是受到攻击、干扰、误导或者作为被研究对象以评估其脆弱性的机器学习模型、统计模型或系统模型。这个模型通常是攻击者的目标,攻击者通过各种手段(如对抗攻击、模型窃取等)试图使它产生错误的输出、泄露敏感信息或者破坏其正常的功能。

二、在不同场景中的含义和应用

(一)对抗攻击场景

  1. 攻击目标
  2. 在对抗攻击(如生成对抗网络中的对抗样本攻击、对抗性机器学习攻击)中,Victim Model是攻击者试图欺骗的对象。攻击者利用模型的输入空间,通过添加精心设计的微...

Read more

对抗性输入


Adversarial Input(对抗性输入)

一、定义

Adversarial Input是指在机器学习和人工智能领域中,经过精心设计或修改的输入数据,其目的是使机器学习模型(如神经网络、分类器等)产生错误的输出或行为。这些输入数据通常是在原始正常数据的基础上添加了微小的、难以察觉的扰动,从而欺骗模型做出不准确的预测或决策。

二、产生原理

(一)基于梯度的扰动生成

  1. 快速梯度符号法(FGSM)原理
  2. 对于一个给定的机器学习模型(f(x)),其输入为(x),输出为预测结果(如分类结果)。假设模型的损失函数为(L(f(x),y))(其中(y)是真实标签)。FGSM通过计算损失函数对输入(x...

Read more

模仿攻击


我猜你想说的可能是“imitation attack”(模仿攻击)。

一、定义

模仿攻击是一种网络安全或信息对抗领域的攻击方式。攻击者试图模仿合法用户、系统或设备的行为、特征或信号,以此来绕过安全检测机制或者获取未经授权的访问权限。

二、攻击原理

(一)身份模仿

  1. 用户名和密码窃取与使用
  2. 攻击者通过网络钓鱼、恶意软件感染或利用系统漏洞等方式,获取合法用户的用户名和密码。然后,使用这些凭据登录到目标系统,模仿合法用户的访问行为。例如,在企业网络环境中,攻击者通过发送伪装成公司内部邮件的钓鱼邮件,诱导员工输入用户名和密码。一旦获取这些信息,攻击者就可以登录企业的内部系统,如财务系统、客户关系...

Read more