分类目录归档:论文

AliGraph: A Comprehensive Graph Neural Network Platform-论文


这篇文档主要介绍了阿里巴巴开发的一个叫 AliGraph 的图神经网络平台,核心是解决现实中复杂图表数据的处理难题,让图神经网络(GNN)能更高效、实用地应用在商业场景中。

用通俗的话拆解核心内容:

1. 先搞懂背景:为啥需要AliGraph?

现实里的很多数据都能看成“图”——比如电商平台的“用户-商品”(用户买了商品、收藏了商品就是“边”,用户和商品是“点”)、社交网络的“好友关系”。这些图有四个特点,让传统方法搞不定: - 规模大:可能有几十亿个“点”(比如淘宝的用户和商品)、几千亿条“边”(比如购买关系); - 类型杂:“点”有不同类型(比如用户、商品),“边”也有不同类型(比如...

Read more

Agentic AI Frameworks: Architectures, Protocols, and Design Challenges-论文


这篇文档核心是给“智能体AI”(Agentic AI)做了一次全面的“大盘点”——简单说就是研究那些能自己定目标、会沟通协作、还能处理复杂任务的AI系统(比如帮你写代码、做数据分析、规划旅行的智能工具),分析它们的核心框架、沟通方式、优缺点,还有未来该怎么改进。

用大白话拆成几个关键部分:

1. 先搞懂:什么是“智能体AI”?和以前的AI有啥不一样?

以前的AI更像“按指令做事的工具”——比如你让它算个数、识别张图片,它就做单一任务,规则都是提前定死的; 现在的“智能体AI”是“有自主能力的小团队成员”: - 自己能定目标、拆任务(比如“帮我总结近期AI新闻”,它会自己找资料、整理); ...

Read more

Agentic AI: A Comprehensive Survey of Architectures, Applications, and Future Directions-论文


这篇文档核心是给“智能体AI”(Agentic AI)做了一次全面梳理,用通俗的话讲清楚了它的过去、现在和未来,还解决了一个关键困惑:别用老思路理解新AI。

先搞懂两个核心概念

  • AI智能体:像一个“全能打工人”,能自己规划、干活、搞定单个复杂任务(比如独立写一份APP项目计划书)。
  • 智能体AI:像一个“协作团队”,由多个不同分工的AI智能体组成,各司其职配合完成更复杂的事(比如写计划书时,有项目经理拆分任务、研究员找数据、写手撰稿、质检审核)。

关键:AI的两大“流派”(双范式框架)

文档最核心的贡献,是把智能体AI分成了两个完全不同的“流派”,避免大家混淆: 1. 符号/经典派(老...

Read more

A Practical Guide for Designing, Developing, and Deploying Production-Grade Agentic AI Workflows-论文


这篇文档其实是一份“实用指南”,核心是教大家怎么设计、开发和落地能真正投入生产使用的“智能体工作流”(简单说就是让多个AI智能体协作完成复杂任务的系统)。用大白话总结下来,主要讲了这几件事:

1. 先搞懂:什么是“智能体工作流”?

以前我们用AI(比如ChatGPT),是“人问一句、AI答一句”;但“智能体”不一样——它能自己规划步骤、调用工具(比如搜网页、查数据库)、和其他AI配合,不用人盯着就能完成多步骤任务。

比如多个智能体分工合作:一个负责搜新闻,一个负责筛选相关内容,一个负责写播客脚本,一个负责把脚本做成音频视频,最后自动发布到GitHub。这种“各司其职、自动配合”的系统,就...

Read more

From Local to Global: A GraphRAG Approach to Query-Focused Summarization-论文


该文档提出了一种名为GraphRAG的基于图的检索增强生成方法,核心是解决传统RAG在全局问题上的短板,实现对大规模文本语料的全局意义建构。

核心背景与问题

  • 传统RAG(向量RAG)擅长处理局部查询,但无法应对“数据集的主要主题是什么”这类需要全局理解的问题,这类问题本质是查询聚焦摘要(QFS)任务。
  • 现有QFS方法难以适配RAG系统的大规模文本索引需求,因此需要融合两者优势。

GraphRAG核心设计与流程

  1. 索引构建阶段
    • 文本切块:将源文档拆分为文本块,平衡提取成本与信息召回率。
    • 实体与关系提取:利用LLM提取文本块中的实体、实体关系及事实声明,并生成描述。
    • 知识图谱构建:将提取...

Read more

The Ultimate Guide to Fine-Tuning LLMs from Basics to Breakthroughs: An Exhaustive Review of Technologies, Research, Best Practices, Applied Research Challenges and Opportunities- 论文


这篇文档是一份全面的大语言模型(LLM)微调指南,用通俗的话来说,核心就是教大家“怎么把现成的大模型(比如GPT、LLaMA)改成自己需要的样子”,从基础原理到实际操作都讲透了。

一、先搞懂核心概念:什么是LLM微调?

现成的大模型(比如GPT-3、LLaMA)已经学了海量通用知识,但面对具体场景(比如医疗问诊、金融分析)可能不够用。微调就像是“针对性补课”——用小范围的专属数据(比如医疗病历、金融报告),让大模型在不忘记原有知识的前提下,精准适配特定任务或领域,不用从零训练,省钱又高效。

二、微调的完整流程:七步走就能搞定

文档里给了一个清晰的“七阶段流程”,一步步教你做: 1. 准备...

Read more

Cognitive Architectures for Language Agents-论文


这篇论文核心是提出CoALA(语言智能体认知架构) 框架,为基于大语言模型(LLM)的语言智能体提供统一的设计与分类标准,同时结合认知科学和符号人工智能的历史经验,为通用语言智能体的发展指明方向。

研究背景与动机

  • 语言智能体是一类以LLM为核心、能与世界交互的AI系统,已在机器人控制、网页操作等领域取得实证成功,但缺乏统一框架整合现有研究,不同系统的术语、设计思路零散,难以对比和迭代。
  • 传统认知架构(如Soar)和产生式系统的理念可迁移到LLM领域:LLM本质是概率性的字符串改写系统,与产生式系统存在天然相似性,而认知架构的控制逻辑能弥补LLM在记忆管理、决策规划上的不足。

核心理论...

Read more

Universal Trading for Order Execution with Oracle Policy Distillation-论文


1. 一段话总结

本文聚焦算法交易中的订单执行这一基础问题(核心目标是完成特定工具的清算或获取订单),指出近年该领域已从基于模型的市场假设分析视角转向无模型的强化学习视角,但由于策略可利用的市场信息存在噪声且不完美,构建样本高效的强化学习方法面临挑战;为此提出一种新颖的通用交易策略优化框架,其核心是借助先知教师(拥有完美信息)的策略蒸馏方法引导通用策略学习,以逼近最优交易策略,在AAAI 2021上被接收的该方法,经大量实验验证,相比多种强基线有显著改进,且交易行为合理。


2. 思维导图(mindmap)

## 核心背景
- 问题定位:算法交易中的订单执行(清算/获取特定工具订单)
-...

Read more

TIMEMIXER: DECOMPOSABLE MULTISCALE MIXING FOR TIME SERIES FORECASTING-论文


论文《TIMEMIXER: DECOMPOSABLE MULTISCALE MIXING FOR TIME SERIES FORECASTING》总结

本文发表于ICLR 2024会议,由蚂蚁集团与清华大学团队合作完成。针对时间序列预测中复杂时序变化的挑战,提出基于多尺度混合的全新视角,设计出全MLP架构的TimeMixer模型。该模型通过Past-Decomposable-Mixing(PDM)块Future-Multipredictor-Mixing(FMM)块,分别在历史信息提取阶段对多尺度序列的季节和趋势成分进行分解混合,在未来预测阶段融合多预测器的互补能力;在18个真实世界基...

Read more