以下是一份较为全面的AI关键字一览表:
基础概念
- 人工智能(Artificial Intelligence,AI):通过计算机程序或机器模拟人类智能的过程,包括视觉感知、语音识别、决策制定和语言翻译等能力。
- 机器学习(Machine Learning,ML):AI的一个分支,侧重于开发算法,让计算机系统从数据中学习并改进其性能。
- 深度学习(Deep Learning,DL):机器学习的一个子集,使用多层神经网络来模拟人类大脑处理信息的方式。
- 神经网络(Neural Network):受人脑结构启发的计算模型,由大量互联的节点(或“神经元”)组成。
- 通用人工智能(Artificial General Intelligence,AGI):具有广泛认知能力的AI,能够在多个领域内执行任何智能任务,与人类智能相当。
- 狭义人工智能(Artificial Narrow Intelligence,ANI):设计用于执行特定任务的AI系统,如语音识别或图像识别,但不具有广泛的认知能力。
数据处理与特征工程
- 数据增强(Data Augmentation):通过技术手段改变训练数据,增加数据的多样性和量,用于提高模型的泛化能力。
- 特征工程(Feature Engineering):从原始数据中选择、修改或创建新特征,以提高模型性能的过程。
- 特征选择(Feature Selection):从数据集中选择对模型预测最有用的特征。
- 数据不平衡(Data Imbalance):在数据集中,某些类的样本数量远多于其他类的样本。
- 异常检测(Anomaly Detection):在数据中识别异常或不寻常的模式。
模型架构与训练
- 卷积神经网络(Convolutional Neural Network,CNN):专门用于处理具有类似网格结构的数据的神经网络,常用于图像和视频识别、图像分类等领域。
- 循环神经网络(Recurrent Neural Network,RNN):适用于序列数据的神经网络,能处理不同长度的输入序列。
- 长短期记忆网络(Long Short-Term Memory,LSTM):一种特殊类型的RNN,擅长学习长期依赖信息。
- 生成对抗网络(Generative Adversarial Network,GAN):通过生成器和鉴别器的对抗过程提高生成质量的模型。
- 变分自编码器(Variational Autoencoder,VAE):通过编码和解码过程学习数据的有效表示的模型。
- Transformer:基于注意力机制,能够并行处理序列数据的模型架构。
- BERT(Bidirectional Encoder Representations from Transformers):使用Transformer预训练的方法改善语言模型。
- GPT(Generative Pre-trained Transformer):一个自回归模型,通过预训练和微调来生成文本。
训练优化与评估
- 反向传播(Backpropagation):在神经网络中用来更新模型权重的算法。
- 梯度下降(Gradient Descent):优化神经网络权重的算法,通过计算损失函数的梯度并更新权重。
- 批量标准化(Batch Normalization):在训练过程中对每个小批量数据进行标准化,以改善网络的训练速度和性能。
- 激活函数(Activation Functions):在神经网络中添加非线性的函数,如ReLU、Sigmoid和Tanh。
- 超参数调优(Hyperparameter Tuning):优化过程中调整模型的参数,如学习率、层数、隐藏单元数等。
- 交叉熵损失(Cross-entropy Loss):用于分类任务中的损失函数,测量预测与真实标签的概率分布之间的差异。
应用与行业趋势
- 自然语言处理(Natural Language Processing,NLP):用于理解和生成人类语言的AI技术。
- 计算机视觉(Computer Vision):用于从图像和视频中获取信息的AI技术。
- 语音识别(Speech Recognition):将语音转换为文本的技术。
- 合成数据生成(Synthetic Data Generation):使用算法生成非真实数据,用于训练模型。
- AI伦理(AI Ethics):研究和确定AI技术的道德规范和实践。