

尽管Cursor默认提供的模型如Claude、GPT-4o、Gemini等已覆盖大多数应用场景,但在以下特定情境中,自定义模型显得尤为重要:
成本控制:Cursor Pro有每月500次的Premium请求限制,相较之下,DeepSeek R1/V3等模型价格更低。
数据合规:企业环境中代码需避免发送至Anthropic/OpenAI服务器,以实现私有部署或选择国内厂商。
特定能力:DeepSeek在某些代码任务上的表现与Claude相当,价格却便宜10倍以上。
本地推理:对于敏感代码库,完全离线的需求可以通过Ollama结合本地模型实现。
DeepSeek V3 / R1的价格约为Claude 3.5 Sonnet的1/10,且在代码任务上的表现同样出色,因此成为性价比最高的替代方案。
前往platform.deepseek.com注册并获取API Key。
打开Cursor设置(Cmd/Ctrl + ,)→ Models → Add Model。
填写以下信息:
Provider | OpenAI Compatible |
Model Name | deepseek-chat(V3)或 deepseek-reasoner(R1) |
API Base URL | https://api.deepseek.com |
API Key | 你的 DeepSeek API Key |
点击Save,然后在模型选择下拉中选择刚添加的模型。
| 任务类型 | 推荐模型 | 原因 |
|---|---|---|
| 日常代码生成 | deepseek-chat(V3) | 速度快、价格低、质量够用 |
| 复杂架构设计 | deepseek-reasoner(R1) | 慢思考模型,逻辑更严密 |
| 快速补全/重命名 | Cursor Tab(默认) | 本地补全,不消耗API额度 |
对于需要数据在国内处理的企业,以下是兼容OpenAI格式API的模型提供商:
// 通义千问(阿里云) Provider: OpenAI Compatible Model: qwen-max / qwen-coder-plus API Base URL: https://dashscope.aliyuncs.com/compatible-mode/v1 API Key: 你的阿里云DashScope Key
// 文心一言(百度) Provider: OpenAI Compatible Model: ernie-4.0-8k API Base URL: https://aip.baidubce.com/rpc/2.0/ai_custom/v1/wenxinworkshop/chat/...
注意:文心需要额外的access token处理,配置相对复杂,可以考虑用百度云的API网关做一层转发。
// Kimi(Moonshot) Provider: OpenAI Compatible Model: moonshot-v1-32k API Base URL: https://api.moonshot.cn/v1 API Key: 你的Moonshot Key
完全离线运行,适合极度敏感的代码库。
// macOS brew install ollama ollama serve // 拉取适合编码的模型 ollama pull qwen2.5-coder:32b // 推荐:代码能力强 ollama pull deepseek-coder-v2 // 备选 ollama pull codellama:34b // Meta的代码模型
Provider: OpenAI Compatible Model: qwen2.5-coder:32b API Base URL: http://localhost:11434/v1 API Key: ollama(随意填写,Ollama不验证key)
| 模型大小 | 最低VRAM | 推荐VRAM | 速度 |
|---|---|---|---|
| 7B | 6GB | 8GB | 快 |
| 13B | 10GB | 16GB | 中 |
| 32B | 24GB | 48GB | 慢 |
| 70B | 需要多卡 | 80GB+ | 很慢 |
MacBook Pro M2 Max(96GB统一内存)可以流畅运行32B模型。
扫码关注不迷路!!!
郑州升龙商业广场B座25层
service@iqiqiqi.cn
联系电话:187-0363-0315
联系电话:199-3777-5101