分类目录归档:人工智能

时间差分学习-RL


时间差分学习(Temporal Difference Learning, TD Learning)是强化学习(Reinforcement Learning, RL)中的核心方法之一,它巧妙结合了动态规划(Dynamic Programming, DP)和蒙特卡洛(Monte Carlo, MC)方法的优点,能够在无需完全知晓环境模型的情况下,通过采样交互数据在线更新值函数。以下从核心概念、算法原理、优势对比及应用场景等方面展开概述:

一、TD学习的核心思想

  1. 自举(Bootstrapping)与采样的结合
  2. 自举:利用当前已有的值函数估计来更新其他状态的值(类似DP,基于后续状态的估计...

Read more

TimesFM-时间序列预测-03001


以下是关于谷歌时间序列预测基础模型 TimesFM 的详细介绍,基于搜索结果的综合分析:


1. 模型概述

TimesFM 是谷歌研发的专为时间序列预测设计的 仅解码器(decoder-only)基础模型,参数规模为 2亿(200M),在包含 1000亿个真实世界时间点 的多样化数据集上预训练而成。其核心目标是通过大规模预训练实现 零样本(zero-shot)预测,即在无需微调的情况下直接应用于新任务,性能媲美甚至超越传统监督学习方法。


2. 核心架构与创新

架构设计

  • 分块(Patch)处理:将时间序列分割为连续的非重叠块(如32个时间点为一个输入块),每个块通过残差块转换为向量,并...

Read more

Airflow-Provider-自研课程-0101004


在Apache Airflow中,Provider是用于扩展Airflow功能的插件包。它们包含与特定服务或系统交互所需的操作符(Operators)、钩子(Hooks)、传感器(Sensors)等组件。通过安装和使用这些Provider包,您可以方便地在工作流中集成各种外部服务,如数据库、云平台、消息队列等。

例如,如果您需要在Airflow中连接并操作MySQL数据库,您可以安装与MySQL相关的Provider包。该包提供了连接MySQL所需的钩子和操作符,使您能够在工作流中执行数据库操作。

需要注意的是,不同的数据库或服务需要安装对应的Provider包,以确保Airflow...

Read more

查看 Airflow 中 DAG 运行的详细日志-自研课程-0101002


要查看 Apache Airflow 中 DAG 运行的详细日志,您可以通过以下几种方式进行:

  1. 通过 Airflow Web 界面查看任务日志:

  2. 打开 Airflow Web 界面(默认地址为 http://localhost:8080)。

  3. 在“DAGs”视图中,找到并点击您感兴趣的 DAG。
  4. 在 DAG 的“树状图”或“图形”视图中,点击特定任务实例。
  5. 在弹出的窗口中,切换到“日志”标签页,即可查看该任务的详细运行日志。

  6. 直接访问日志文件:

Airflow 将任务日志保存在本地文件系统中,默认路径为 AIRFLOW_HOME/logs。您可以直接访问这些日...

Read more

Airflow 中编写第一个 DAG-自研课程-0101001


要在 Apache Airflow 中编写第一个 DAG(有向无环图),您可以按照以下步骤进行:

  1. 创建 DAG 文件:在 Airflow 的 dags 目录下创建一个 Python 文件,例如 hello_world_dag.py。如果 dags 目录尚不存在,请先创建该目录。

  2. 导入必要的模块:在 DAG 文件中,导入 DAG 类和所需的操作符(Operator),例如 PythonOperatorBashOperator,以及日期时间模块。

python from airflow import DAG from airflow.operators.p...

Read more

残差连接-CNN


残差连接(Residual Connection),又称跳跃连接(Skip Connection),是深度学习中的一种关键结构,由ResNet(Residual Network)首次提出,旨在解决深层网络训练中的梯度消失/爆炸和网络退化问题。以下是关于残差连接的全面解析:


1. 残差连接的背景与意义

  • 核心问题:传统深层网络随着层数增加,训练难度增大,表现为:
  • 梯度消失/爆炸:反向传播时梯度逐层衰减或激增。
  • 网络退化(Degradation):更深网络的训练误差反而高于浅层网络,并非由过拟合引起。
  • 解决方案:残差学习通过引入跨层直连路径,使网络更容易学习恒等映射(Identity Ma...

Read more

感受野-CNN


感受野(Receptive Field) 是深度学习中卷积神经网络(CNN)的核心概念,指输入图像中对网络某一层中特定神经元激活产生影响的区域大小。简单来说,它表示神经元“看到”的输入范围。以下是关于感受野的详细解析:


1. 感受野的重要性

  • 上下文理解:较大的感受野能捕捉更广泛的上下文信息(如物体整体结构),适合分类、分割等任务。
  • 细节捕捉:较小的感受野关注局部特征(如边缘、纹理),适用于细粒度识别。
  • 网络设计:通过调整感受野,可以平衡模型的全局与局部感知能力。

2. 感受野的计算

感受野的计算与网络层的堆叠方式密切相关,常用公式为: [ RF_{l} = RF_{l-1} + ...

Read more

玻尔兹曼机概述


探秘玻尔兹曼机:解锁人工智能的“能量密码”

从统计物理到 AI:玻尔兹曼机的诞生

在科学的广袤版图中,不同学科之间常常存在着奇妙的联系,就像隐藏在宇宙深处的暗线,将看似分离的知识领域悄然连接。统计物理学与人工智能领域的交融,便是这样一段引人入胜的故事,而玻尔兹曼机,正是这段故事中一颗璀璨的明珠。

统计物理学,作为物理学的一个重要分支,主要研究大量微观粒子组成的宏观系统的性质和行为。在这个领域中,玻尔兹曼分布占据着举足轻重的地位。它描述了处于热平衡状态下,粒子在不同能量状态下的概率分布情况,其核心思想在于,系统更倾向于处于能量较低的状态,且温度对粒子的分布有着关键影响。简单来说,就如同在一...

Read more