DeepSeek-大语言模型-


您提供的链接指向的是DeepSeek的官方网站。DeepSeek是一个大型语言模型,其V2.5版本在多个大型模型排行榜上取得了令人印象深刻的成绩。以下是一些关键信息:

DeepSeek-V2.5 能力

  • 排行榜表现
  • 在AlignBench中排名前三,超越了GPT-4,接近GPT-4-Turbo。
  • 在MT-Bench中排名顶级,与LLaMA3-70B竞争,超越了Mixtral 8x22B。
  • 专业领域:擅长数学、代码和推理。
  • 开源模型支持:支持128K上下文长度。

性能对比表

模型 开源 中文通用 英文通用 知识 算术 数学 推理 编码
DeepSeek-V2.5 8....

Read more

如何训练一个模型?-V2


模型训练:开启智能世界的钥匙

在当今这个科技飞速发展的时代,模型已然成为众多领域的核心驱动力,宛如一颗璀璨的明珠,散发着耀眼的光芒。从智能手机中的语音助手,能精准理解我们的指令并迅速给出回应,到电商平台凭借个性化推荐模型,为我们贴心推送心仪的商品;从医疗影像借助智能诊断模型,助力医生更精准地识别疾病,再到自动驾驶汽车依靠复杂的感知与决策模型,自如穿梭于城市的大街小巷。模型的身影无处不在,它以惊人的智慧和高效的执行力,深度融入并重塑着我们的生活、工作与学习模式,让一切变得更加便捷、智能。 而这一切令人惊叹的智能应用背后,模型训练则是那座坚实且不可或缺的基石。训练有素的模型宛如一位知识渊博、...

Read more

必剪-视频创作工具-工具链


这篇文章介绍了“必剪”这款应用,强调其如何通过各种功能让视频创作变得更加有趣和高效。以下是文章的主要内容:

  1. 必剪简介

  2. 应用名称:必剪

  3. 核心功能:让视频创作更有趣

  4. 功能亮点

  5. 简单易用的界面:用户可以快速上手,进行视频编辑。

  6. 丰富的模板库:提供多种预设模板,方便用户快速制作专业视频。
  7. 高效的剪辑工具:内置多种剪辑功能,支持快速剪辑、添加特效、调整音频等。
  8. 实时预览功能:用户可以在编辑过程中实时查看效果,确保最终输出符合预期。
  9. 一键分享功能:支持将编辑好的视频一键分享到各大社交平台。

  10. 用户体验

  11. 直观的操作界面:设计简洁明了,减少学习成本。

  12. 多样化的素材资源:提...

Read more

降维打击


  1. 定义
  2. “降维打击”最初来源于刘慈欣的科幻小说《三体》。在小说中,歌者文明向太阳系掷出了二向箔,将太阳系从三维空间降为二维空间,这是一种毁灭性的攻击方式,几乎使整个太阳系的生命和物质体系崩溃。
  3. 在商业和其他领域,“降维打击”这个概念被引申为一种竞争策略。它是指当一个具有高维度竞争优势的企业或个体进入低维度的竞争市场时,利用自身在技术、模式、资源等方面的高级别优势,对低维度的竞争对手造成巨大的冲击,甚至使对方难以招架。

  4. 商业中的例子

  5. 电商对传统零售的冲击
    • 传统零售主要依赖实体店面来展示和销售商品,其经营维度主要集中在店铺位置、店面装修、库存管理等方面。而电商平台则是在更高的维度进行...

Read more

优先经验回放


  1. 定义与背景
  2. Prioritized Replay(优先经验回放)是一种用于强化学习中经验回放(Experience Replay)的改进技术。在传统的经验回放中,从经验回放缓冲区(buffer)中抽取样本是随机的。然而,在实际学习过程中,不同的经验对于智能体学习的重要性是不同的。
  3. Prioritized Replay的目的是根据经验的重要性来有优先级地抽取样本,使得更重要的经验能够被更频繁地用于训练,从而提高学习效率。

  4. 优先级的确定

  5. 一种常见的方法是根据经验的时间差分误差(Temporal - Difference Error,TD - error)来确定优先级。TD - er...

Read more

Double DQN-深度Q网络


  1. 定义与背景
  2. Double DQN(深度Q网络)是对传统Q - Learning算法的一种改进。在传统的DQN中,由于Q值的估计和更新都基于同一个网络,可能会导致Q值被过度高估,从而产生次优的策略。Double DQN通过解耦动作选择和动作评估的过程,有效地缓解了这个问题。
  3. 算法原理
  4. 在传统DQN中,Q值的更新公式为:
    • $y_j = r_j+\gamma\max_{a'}Q_{\theta}(s_{j + 1},a';\theta)$,其中$Q_{\theta}(s,a;\theta)$是由参数为$\theta$的神经网络来估计的Q值函数,$r_j$是即时奖励,$\gamma$是折扣因子...

Read more

Dueling DQN


  1. 定义与核心思想
  2. Dueling DQN是DQN的另一种改进架构。它的核心思想是将Q - 值函数拆分为状态价值函数(Value function)和优势函数(Advantage function)。状态价值函数$V(s)$表示在状态$s$下的价值,而优势函数$A(s,a)$表示在状态$s$下采取动作$a$相对于其他动作的优势。
  3. 其Q - 值函数可以表示为:$Q(s,a)=V(s)+A(s,a)-\frac{1}{|A|}\sum_{a'}A(s,a')$,其中$|A|$是动作空间的大小。这样的分解使得网络能够更独立地学习状态的价值和动作相对于其他动作的优势。
  4. 网络架构
  5. Dueling D...

Read more

Q - Learning


一、定义

Q - Learning是一种基于价值(value - based)的强化学习算法。它的主要目标是学习一个动作 - 价值函数(action - value function),通常用$Q(s,a)$表示。这个函数用于估计在状态$s$下采取动作$a$后可能获得的累积奖励。

在强化学习的环境中,智能体(agent)与环境(environment)进行交互。智能体在环境的每个状态下选择一个动作,环境根据智能体的动作反馈一个奖励信号(reward),并且使智能体转移到下一个状态。Q - Learning算法就是通过不断地这种交互来学习最优的策略(policy),即让智能体知道在每个状态...

Read more

设计思维流程


这张图片展示了一个设计思维流程,分为三个主要阶段:理解(Understand)、探索(Explore)和实现(Materialize)。

理解(Understand)阶段

  • 同理心(Empathize):这是设计思维流程的起点,通过这个步骤,设计团队尝试站在用户的角度去感受和理解他们的需求和痛点。图标是一个人形图案,表示关注用户。
  • 定义(Define):在同理心的基础上,设计团队对问题进行明确定义。图标是一个放大镜,表示深入探究和分析问题。

探索(Explore)阶段

  • 构思(Ideate):在问题定义清楚后,团队开始进行头脑风暴,提出各种可能的解决方案。图标是一个灯泡,表示创意和想法...

Read more

智能投顾-关键字


  • 金融产品
  • 股票
  • 货币
  • 大宗商品
  • 投资方案
  • 用户属性刻画
  • 理财需求
  • 标准化
  • 市场分析
  • 配置理论
  • 再平衡方法
  • 牌照方面
  • 市场覆盖方面
  • 体量方面
  • 收益率
  • 风险值
  • 约束条件
  • 恒定混合策略
  • 固定比例投资组合保险策略 CPPI
  • 投资顾问
  • 业务模式
  • 数据接口
  • 智能分析
  • 交易驱动
  • 交易接口
  • 投资组合
  • 电子记账
  • Robo-Advisor
  • 人性的弱点
  • 低门槛
  • 低费率
  • 透明化
  • 便捷化
  • 资产配置
  • 策略模式
  • 风险控制
  • 数据驱动
  • 决策依据
  • 边界意识
  • 二八定律
  • 反人性
  • 博弈
  • 选股
  • 择时
  • 建仓
  • 策略
  • 财报助手
  • 投资研报
  • 狭隘化竞争
  • 个股收益
  • 打新股
  • 个股评级评分
  • 组合策略 *

Read more