分类目录归档:人工智能

DeepAR-时间序列预测模型-03003-V01


DeepAR:面向未来的智能时间序列预测引擎

在当今数据驱动的世界中,时间序列预测扮演着关键角色:零售商需要精准预测商品需求以优化库存,能源公司必须预判电力负荷来平衡电网,金融机构则依靠股价预测规避风险。然而,面对复杂多变、具有季节性和不确定性的真实数据,传统方法常显得力不从心。亚马逊科学家团队开发的DeepAR模型,正是为解决这些挑战而生,它融合了深度学习的力量与概率思维,显著提升了预测的准确性与实用性。

一、 DeepAR是什么?超越点预测的智能框架

DeepAR 本质上是一种基于深度学习的概率时间序列预测模型。其核心突破在于摒弃了传统模型仅输出单一“点预测值”的局限(如“明天销量预...

Read more

self-llm-开源大模型食用指南


这个仓库名为 self-llm,是一个围绕开源大模型、针对国内初学者、基于 Linux 平台的大模型教程项目。以下是对该仓库的详细介绍:

项目概述

本项目旨在为更多普通学生、研究者提供开源大模型的全流程指导,简化开源大模型的部署、使用和应用流程,让开源、自由的大模型更好地融入普通学习者的生活。其主要内容涵盖环境配置、本地部署、高效微调等技能的教学。

项目主要内容

  1. 开源 LLM 环境配置指南:基于 Linux 平台,针对不同模型要求提供详细的环境配置步骤。
  2. 主流开源 LLM 部署使用教程:包括国内外主流的开源 LLM,如 LLaMA、ChatGLM、InternLM 等。
  3. 开源 LLM ...

Read more

HowToCreateHomunculus-从零开始学习构建智能对话系统


这个仓库名为 HowToCreateHomunculus,主要聚焦于基于深度学习的对话系统的实现与探索,包含了从简单对话系统到结合数据库和知识图谱的对话系统等多个不同复杂度的项目,为构建对话系统提供了丰富的实践案例和理论指导。以下是对该仓库的详细介绍:

项目概述

项目源于对构建与人类无异的对话系统的向往,受《钢之炼金术师》中瓶中小人角色启发而开展。旨在探索基于深度学习的对话系统的构建方法,并记录学习过程,目前网上缺乏统一鲜明的路线,此项目可作为学习参考。

前置知识

  • 具备编程基础,推荐同时掌握 tensorflowpytorch
  • 本项目基于 NLPBeginner 开发,可先大致...

Read more

N-BEATS-时间序列预测模型-03002


N-BEATS:面向时间序列预测的纯深度学习模型

在时间序列预测领域,N-BEATS(Neural Basis Expansion Analysis for Time Series)模型于2019年由Element AI的研究团队提出,以其独特的纯深度学习架构优异的预测性能良好的可解释性,迅速成为该领域的明星模型。它摒弃了传统模型中的复杂特征工程或特定领域知识依赖,仅使用全连接层(MLP)构建,展现了深度神经网络在时间序列预测中的强大潜力。

核心设计理念与创新

  1. 完全深度学习架构:

    • N-BEATS 彻底摆脱了传统时间序列模型(如 ARIMA、指数平滑)或混合模型(如结合 LSTM...

Read more

策略梯度上升-RL


Policy Gradient Ascent(策略梯度上升)是强化学习中直接优化策略参数的一类方法,核心思想是通过梯度上升调整策略网络的参数,使得智能体在环境中获得的期望累积回报最大化。它属于策略梯度(Policy Gradient)算法家族,适用于连续或高维动作空间场景(如机器人控制)。

核心思想:直接优化策略

与价值函数方法(如Q-learning,通过估计“状态-动作价值”间接优化策略)不同,策略梯度方法直接对策略参数$\theta$(如神经网络权重)进行优化。策略$\pi_\theta(a|s)$表示在状态$s$下选择动作$a$的概率(随机策略)或确定动作(确定性策略)。目标是最...

Read more

策略网络-RL


在强化学习(Reinforcement Learning, RL)中,策略网络(Policy Network)是直接输出智能体(Agent)动作策略的神经网络模型,是策略梯度(Policy Gradient)类算法(如REINFORCE、PPO、TRPO等)的核心组件。其核心作用是将环境状态映射到动作的概率分布(或确定性动作),指导智能体在不同状态下做出决策。

策略网络的核心特点

  1. 输入:通常是环境的状态(State),可以是图像(如像素矩阵)、数值向量(如机器人关节角度)等。
  2. 输出
  3. 对于离散动作空间:输出各动作的概率分布(通过Softmax激活函数),例如动作空间为3时,输出...

Read more

时间差分学习-RL


时间差分学习(Temporal Difference Learning, TD Learning)是强化学习(Reinforcement Learning, RL)中的核心方法之一,它巧妙结合了动态规划(Dynamic Programming, DP)和蒙特卡洛(Monte Carlo, MC)方法的优点,能够在无需完全知晓环境模型的情况下,通过采样交互数据在线更新值函数。以下从核心概念、算法原理、优势对比及应用场景等方面展开概述:

一、TD学习的核心思想

  1. 自举(Bootstrapping)与采样的结合
  2. 自举:利用当前已有的值函数估计来更新其他状态的值(类似DP,基于后续状态的估计...

Read more

TimesFM-时间序列预测-03001


以下是关于谷歌时间序列预测基础模型 TimesFM 的详细介绍,基于搜索结果的综合分析:


1. 模型概述

TimesFM 是谷歌研发的专为时间序列预测设计的 仅解码器(decoder-only)基础模型,参数规模为 2亿(200M),在包含 1000亿个真实世界时间点 的多样化数据集上预训练而成。其核心目标是通过大规模预训练实现 零样本(zero-shot)预测,即在无需微调的情况下直接应用于新任务,性能媲美甚至超越传统监督学习方法。


2. 核心架构与创新

架构设计

  • 分块(Patch)处理:将时间序列分割为连续的非重叠块(如32个时间点为一个输入块),每个块通过残差块转换为向量,并...

Read more

Airflow-Provider-自研课程-0101004


在Apache Airflow中,Provider是用于扩展Airflow功能的插件包。它们包含与特定服务或系统交互所需的操作符(Operators)、钩子(Hooks)、传感器(Sensors)等组件。通过安装和使用这些Provider包,您可以方便地在工作流中集成各种外部服务,如数据库、云平台、消息队列等。

例如,如果您需要在Airflow中连接并操作MySQL数据库,您可以安装与MySQL相关的Provider包。该包提供了连接MySQL所需的钩子和操作符,使您能够在工作流中执行数据库操作。

需要注意的是,不同的数据库或服务需要安装对应的Provider包,以确保Airflow...

Read more