OpenCSG-开源的大模型资产管理平台



OpenCSG(开放传神)是一个致力于打造Hybrid Huggingface+开源社区的平台,旨在通过大语言模型赋能开发者,其核心平台CSGHub是开源的大模型资产管理平台,支持模型、数据集等资产的全生命周期管理。平台汇聚了11万+模型,包括自研的csg-wukong-1B(1B参数、3G内存可部署)、多模态模型Qwen2.5-Omni-7B(支持文本、图像、音频、视频多模态实时交互)、推理模型QwQ-32B(325亿参数、13万token上下文)以及DeepSeek-R1/R1-Zero(强化学习推理)、DeepSeek-V3(6710亿参数混合专家模型)等。此外,平台提供StarShip开发工具(支持大模型全周期开发)、云计算资源(30+供应商、8000P+算力)及一键推理、微调等服务,并与中国移动、南方科技大学等企业和机构合作,构建开源生态。


## **社区定位**
- 打造Hybrid Huggingface+开源社区
- 使命:通过大语言模型赋能开发者
## **核心功能**
- CSGHub:开源大模型资产管理平台,管理模型、数据集、代码等资产
- 模型中心:存储、管理、发现、共享11万+模型
- 开发工具:StarShip支持大模型全周期开发
- 云计算资源:30+供应商、8000P+算力,提供一键推理、微调等服务
## **主要模型**
- csg-wukong-1B:自研预训练通用语言模型,1B参数,3G内存可部署
- Qwen2.5-Omni-7B:多模态模型,支持文本、图像、音频、视频,流式生成
- DeepSeek-R1/R1-Zero:强化学习推理模型,性能与OpenAI-o1相当
- DeepSeek-V3:6710亿参数混合专家模型,优于其他开源模型
- QwQ-32B:推理模型,325亿参数,13万token上下文
## **开发工具**
- StarShip:支持大模型全周期开发
- CSGHub SDK:Python客户端,与CSGHub服务器交互
- llm-inference:模型部署平台,提供UI、RESTful API等
- StarCloud:大模型作业调度平台,基于Slurm引擎
## **云计算资源**
- 30+供应商
- 8000P+算力
- 服务:一键推理、微调、应用原型托管
## **合作伙伴**
- 企业:中国移动、UNOVARTIS、SK hynix等
- 高校/机构:南方科技大学、中国信通院等

一、平台概述

OpenCSG(开放传神)是一个聚焦于大语言模型的Hybrid Huggingface+开源社区,核心目标是通过开源生态赋能开发者,降低大模型使用门槛。平台拥有CSGHub开源大模型资产管理平台,支持模型、数据集、代码等资产的全生命周期管理,并提供开发工具、云计算资源及生态合作服务。

二、核心功能

  1. CSGHub模型中心
    托管110964个模型,支持模型存储、管理、发现与共享,用户可自建模型仓库,实现模型文件的上传、下载和管理。
  2. 开发工具链
  3. StarShip:支持大模型全周期开发,涵盖训练、微调、部署、测试等环节。
  4. CSGHub SDK:Python客户端,用于与CSGHub服务器交互,实现自动化任务和数据管理。
  5. llm-inference:模型部署平台,提供UI界面、RESTful API、自动扩缩容、算力管理及监控功能。
  6. StarCloud:基于Slurm引擎的大模型作业调度平台,支持GPU资源管理。
  7. 云计算资源
  8. 覆盖30+算力供应商,提供8000P+算力资源,支持多种计算类型(如1+N混合架构)。
  9. 服务包括:一键推理服务(简化部署)、一键微调(支持特定数据集训练)、应用原型托管(快速构建应用原型)。

三、主要模型列表

模型名称 参数规模 核心特点 应用场景
csg-wukong-1B 10亿 自研通用语言模型,无需量化即可在PC/手机/IoT设备部署(仅需3G内存)。 轻量化端侧应用
Qwen2.5-Omni-7B 70亿 多模态模型,支持文本/图像/音频/视频实时交互,采用Thinker-Talker架构和TMRoPE位置嵌入,生成自然语音。 实时语音视频聊天、多模态指令跟随
DeepSeek-R1 - 强化学习推理模型,包含R1-Zero(无需监督微调),数学/代码推理性能与OpenAI-o1相当。 复杂推理任务(如数学、代码求解)
DeepSeek-V3 6710亿 混合专家模型(MoE),每个token激活370亿参数,采用MLA和DeepSeekMoE架构,性能优于开源模型。 高吞吐推理、大规模预训练任务
QwQ-32B 325亿 推理专用模型,支持131072 tokens长上下文,采用RoPE、SwiGLU等技术,优化长序列处理。 复杂问题推理、长文档分析

四、生态合作与资源

  • 合作伙伴:涵盖企业(如中国移动、UNOVARTIS、SK hynix)、高校(南方科技大学)、机构(中国信通院)等,共同构建大模型解决方案生态。
  • 开源项目:包括CSG-VL多模态模型家族(集成EVA-CLIP、SigLIP视觉编码器与Wukong-1B等语言 backbone)、llm-inference部署框架等。

关键问题1:OpenCSG的核心定位和核心平台是什么?

答案:OpenCSG的核心定位是打造Hybrid Huggingface+开源社区,通过大语言模型赋能开发者。其核心平台是CSGHub,这是一个开源的大模型资产管理平台,支持模型、数据集、代码等资产的全生命周期管理,目前已托管超11万模型。

关键问题2:Qwen2.5-Omni-7B模型有哪些独特功能?

答案:Qwen2.5-Omni-7B是端到端多模态模型,独特功能包括:
1. 支持文本、图像、音频、视频多模态实时交互,采用流式输入输出,分块处理即时响应;
2. 基于Thinker-Talker架构TMRoPE(时间对齐多模态RoPE)位置嵌入,同步视频与音频时间戳;
3. 可生成自然稳健语音,端到端语音指令跟随性能优异,在MMLU等基准测试中接近文本输入效果。

关键问题3:OpenCSG提供的云计算资源有哪些核心优势?

答案:OpenCSG的云计算资源优势包括:
1. 算力规模:聚合30+供应商,提供8000P+算力资源,支持混合架构(1+N类型);
2. 服务便捷性:提供一键推理(简化部署流程)、一键微调(支持特定数据集训练)、应用原型托管(快速构建应用);
3. 成本优化:提供定制化租赁方案,算力成本较传统方案降低40%以上。