LM Studio-本地设备运行LLM


LM Studio是一款可在本地设备上运行大语言模型(LLMs)的工具,其官网提供了丰富的产品信息,具体如下: 1. 核心功能

- **模型操作**:支持发现、下载和运行本地LLMs,可运行的架构包括Llama、Mistral、Phi等。能从Hugging Face🤗 仓库下载任何兼容的模型文件 ,并通过应用内聊天界面或OpenAI兼容的本地服务器使用模型。
- **多场景应用**:可在笔记本电脑上完全离线运行LLMs;支持与本地文档进行聊天(0.3版本新增功能)。
  1. 使用示例:以C++文件系统实现为例,展示了如何与模型交互。系统提示设定为模拟优秀的C++工程师,先制定解决问题的计划,待用户确认后再执行。计划内容包括创建基本目录结构、实现文件操作以及处理错误和异常等步骤。
  2. 技术规格:最低硬件要求为M1/M2/M3/M4 Mac,或支持AVX2的Windows/Linux PC。该工具的实现得益于llama.cpp项目。
  3. 常见问题解答

    • 数据隐私:LM Studio不会收集数据或监控用户行为,用户数据仅保留在本地设备,保障了隐私。
    • 商业使用:个人使用免费,商业使用需填写LM Studio @ Work申请表格进行申请。
    • 招聘信息:团队正在扩张,可通过官网的职业页面查看开放职位。
    • 技术文档:可通过https://lmstudio.ai/docs访问技术文档获取更多信息。

官网

docs