Human–Computer Interaction (HCI) for AI Systems Design
分类目录归档:基础设施
问题求解
在人工智能(AI)里,问题求解是核心部分。
从概念来讲,是让计算机系统找到解决给定问题的方案。比如在路径规划问题中,要为机器人找到从A点到B点的最佳路径。
方法上,有状态空间搜索。把问题表示为一系列的状态和状态之间的转换。就像走迷宫,每个岔路口是一个状态,选择不同的通道前进就是状态转换。例如深度优先搜索和广度优先搜索,前者是沿着一条路径一直探索到底,后者是先把同一层的所有可能状态都探索完再进入下一层。
还有启发式搜索,它会利用一些经验性的规则来更快地找到解。比如在棋类游戏中,根据棋子的位置和局面评估下一步走法的优先级。
另外,在知识表示和推理方面,基于规则的系统会根据预定义的规则来求解问...
后门攻击
“Backdoor Attacks”意思是“后门攻击”。
定义
后门攻击是一种网络安全威胁。攻击者在目标系统(如软件、硬件或网络)中秘密植入一个被称为“后门”的机制,这个后门允许攻击者绕过正常的安全认证和访问控制机制,非法获取系统的访问权限。
常见形式
- 软件后门:软件开发者(可能是恶意的)在程序代码中插入一段特殊的代码。例如,一个看似正常的办公软件,可能被植入后门,攻击者可以通过发送特定的指令或者利用特定的网络端口,远程控制安装该软件的计算机,进行数据窃取、篡改等操作。
- 硬件后门:在硬件设备(如服务器、网络设备)的设计或生产过程中,被恶意植入可被利用的漏洞。例如,某些芯片可能被设计成能...
AI课程大纲-竞品分析
穷举搜索
穷举搜索(Exhaustive Search),又称暴力搜索(Brute-Force Search),是一种在问题求解中对所有可能的情况进行逐一列举和检查的基本搜索算法,以下是对其更详细的介绍:
算法原理
- 基于问题的解空间,对其中的每一个可能解进行系统的、全面的遍历和评估,不依赖任何启发式信息或特定的搜索策略来缩小搜索范围。
- 对于一个给定的问题,穷举搜索会生成所有可能的候选解,然后逐一验证这些解是否满足问题的约束条件或目标函数,直到找到一个可行解或确定问题无解为止。
实现步骤
- 定义解空间:明确问题的所有可能解的集合,确定解的表示形式和范围。
- 生成候选解:按照一定的顺序或规则,依次生...
AI关键字一览表
以下是一份较为全面的AI关键字一览表:
基础概念
- 人工智能(Artificial Intelligence,AI):通过计算机程序或机器模拟人类智能的过程,包括视觉感知、语音识别、决策制定和语言翻译等能力。
- 机器学习(Machine Learning,ML):AI的一个分支,侧重于开发算法,让计算机系统从数据中学习并改进其性能。
- 深度学习(Deep Learning,DL):机器学习的一个子集,使用多层神经网络来模拟人类大脑处理信息的方式。
- 神经网络(Neural Network):受人脑结构启发的计算模型,由大量互联的节点(或“神经元”)组成。
- 通用人工智能(Artificial G...
OpenAI O3-推理模型
OpenAI O3是OpenAI于2024年12月20日发布的下一代推理模型 。以下是关于它的详细介绍:
研发背景
- 模型迭代需求:作为o1推理模型的下一代,旨在进一步提升模型在推理等方面的能力,解决现有模型存在的一些问题,如scaling law收益递减、预训练数据短缺等。
- 避免商标冲突:为避免与英国电信运营商o2发生版权或商标冲突,OpenAI选择跳过o2并直接将新模型命名为o3 。
性能特点
- 推理能力卓越:在科学、编码、数学等多个领域展现出强大的推理能力。在软件工程考试(swe-bench verified)中成绩达到71.7%,在全球著名编码竞赛平台codeforces上得分...
单层神经网络
单层神经网络是一种最简单的神经网络结构,以下是其详细介绍:
基本结构
- 神经元:单层神经网络由多个神经元组成,每个神经元接收输入数据,并通过激活函数对输入进行处理,产生输出。
- 输入层与输出层:它只有一个输入层和一个输出层,输入层的神经元数量与输入数据的特征数量相同,输出层的神经元数量则根据具体的任务需求而定。
工作原理
- 前向传播:在工作时,输入数据首先被传递到输入层的各个神经元,这些神经元将输入数据乘以相应的权重,并加上一个偏置项,然后将结果传递给激活函数进行处理,激活函数的输出就是该神经元的输出。最后,输出层的神经元将接收到的所有输入进行加权求和,并加上偏置项,再通过激活函数得到最...
通用对抗攻击
Universal Adversarial Attack即通用对抗攻击,是一种针对机器学习模型的攻击方式,以下是相关介绍:
攻击原理
通过精心构造通用的对抗扰动或触发器,使模型对输入数据产生错误分类或预测,其利用了模型在训练和决策过程中的漏洞和局限性,即使对不同的输入数据或不同结构的模型,也能导致错误结果.
攻击方法
- 生成通用对抗扰动:通过优化算法找到一个对大多数输入数据都有效的固定扰动,将此扰动添加到正常输入数据中,就能误导模型做出错误分类,如在图像领域,可找到适用于多种图像的通用扰动,使模型将原本正确分类的图像误判.
- 设计通用对抗触发器:构造特定的输入模式或触发器,当输入数据包含此...
单像素攻击
One Pixel Attack即单像素攻击,是一种针对深度学习模型的对抗性攻击方法,以下是相关介绍:
攻击原理
通过改变输入图像的单个像素来误导深度学习模型做出错误分类。它利用差分进化算法等优化算法,在不知道模型内部参数的情况下,识别出要修改的最优像素,从而使模型产生误判.
具体操作步骤
- 初始化:随机生成一组候选解,每个候选解表示对图像中单个像素的潜在修改.
- 突变与交叉:对候选解执行变异和交叉操作以创建新的候选解,产生种群的多样性,更有效地探索解决方案.
- 选择:根据其对神经网络分类结果的影响来评估试验候选,如果试验候选比原始候选更能导致模型错误分类,则取代原始候选.
- 迭代:重复突变、...