-
-
Notifications
You must be signed in to change notification settings - Fork 91
配置LLM
这是最重要的一步! XCodeReviewer支持10+个AI平台,你可以自由选择
| 平台 | 适合人群 | 优点 | 缺点 |
|---|---|---|---|
| Google Gemini ⭐ | 新手、个人开发者 | 免费额度大、中文支持好、配置简单 | 国内访问可能需要代理 |
| OpenAI GPT | 追求质量 | 性能最强、结果最准 | 需要付费、价格较贵 |
| 通义千问 🇨🇳 | 国内用户 | 国内访问快、免费试用 | 性能略逊OpenAI |
| DeepSeek | 性价比党 | 便宜、代码理解不错 | 免费额度有限 |
| Ollama | 隐私至上 | 完全本地、免费无限 | 需要本地GPU、速度慢 |
我们推荐的最佳组合:
- 优先用Gemini - 免费额度够用一阵子
- 备用通义千问 - 万一Gemini用完了
- 重要项目用OpenAI - 质量最高
有两种配置方式,推荐方式一(更简单)
优点: 直观、实时生效、不用重启
-
打开系统管理页面
- 访问:
http://localhost:8888/admin(Docker) - 或:
http://localhost:5173/admin(本地开发)
- 访问:
-
进入"系统配置"标签页
-
填写配置:
┌─────────────────────────────────────┐
│ LLM 提供商:[下拉选择平台] │
│ API Key: [粘贴你的密钥] │
│ 模型名称: [可选,留空用默认] │
│ API 基础URL:[可选,用于中转站] │
│ ─────────────────────────────── │
│ 超时时间: 150000 ms │
│ 最大Token: 4096 │
│ 温度参数: 0.2 │
└─────────────────────────────────────┘
- 点击"保存所有更改"
- 刷新页面 ✨
配置会保存在浏览器本地,非常安全!
适合: 需要打包部署、团队共享配置
编辑 .env 文件:
# 基础配置(必填)
VITE_LLM_PROVIDER=gemini # AI平台
VITE_LLM_API_KEY=你的API_KEY # 密钥
# 可选配置
VITE_LLM_MODEL=gemini-1.5-flash # 模型名(不填用默认)
VITE_LLM_TIMEOUT=150000 # 超时时间(毫秒)
VITE_LLM_TEMPERATURE=0.2 # 温度(0.0-2.0,越低越稳定)注意: 修改后需要重启服务才生效!
获取API Key: https://makersuite.google.com/app/apikey
配置:
VITE_LLM_PROVIDER=gemini
VITE_GEMINI_API_KEY=你的KEY
VITE_GEMINI_MODEL=gemini-1.5-flash # 或 gemini-1.5-pro(更强但慢)小技巧:
-
gemini-1.5-flash:速度快,免费额度大(推荐) -
gemini-1.5-pro:质量更高,但消耗额度快
获取API Key: https://platform.openai.com/api-keys
配置:
VITE_LLM_PROVIDER=openai
VITE_OPENAI_API_KEY=sk-...你的KEY
VITE_OPENAI_MODEL=gpt-4o-mini # 性价比最高模型选择:
-
gpt-4o-mini:便宜快速,推荐 -
gpt-4o:最强性能,贵 -
gpt-3.5-turbo:最便宜
获取API Key: https://console.anthropic.com/
配置:
VITE_LLM_PROVIDER=claude
VITE_CLAUDE_API_KEY=sk-ant-...你的KEY
VITE_CLAUDE_MODEL=claude-3-5-sonnet-20241022特点: 代码理解能力特别强,适合复杂项目审计
获取API Key: https://dashscope.console.aliyun.com/
配置:
VITE_LLM_PROVIDER=qwen
VITE_QWEN_API_KEY=sk-...你的KEY
VITE_QWEN_MODEL=qwen-turbo # 或 qwen-plus、qwen-max优势: 国内访问快,中文支持好
获取API Key: https://platform.deepseek.com/
配置:
VITE_LLM_PROVIDER=deepseek
VITE_DEEPSEEK_API_KEY=sk-...你的KEY
VITE_DEEPSEEK_MODEL=deepseek-chat优势: 便宜!代码能力还不错
获取API Key: https://open.bigmodel.cn/
配置:
VITE_LLM_PROVIDER=zhipu
VITE_ZHIPU_API_KEY=...你的KEY
VITE_ZHIPU_MODEL=glm-4-flash获取API Key: https://platform.moonshot.cn/
配置:
VITE_LLM_PROVIDER=moonshot
VITE_MOONSHOT_API_KEY=sk-...你的KEY
VITE_MOONSHOT_MODEL=moonshot-v1-8k特点: 长文本处理能力强
获取API Key: https://console.bce.baidu.com/qianfan/
特殊!需要两个Key:
VITE_LLM_PROVIDER=baidu
# 注意格式:API_KEY:SECRET_KEY(用冒号分隔)
VITE_BAIDU_API_KEY=你的API_KEY:你的SECRET_KEY
VITE_BAIDU_MODEL=ERNIE-3.5-8K获取API Key: https://www.minimaxi.com/
配置:
VITE_LLM_PROVIDER=minimax
VITE_MINIMAX_API_KEY=...你的KEY
VITE_MINIMAX_MODEL=abab6.5-chat获取API Key: https://console.volcengine.com/ark
配置:
VITE_LLM_PROVIDER=doubao
VITE_DOUBAO_API_KEY=...你的KEY
VITE_DOUBAO_MODEL=doubao-pro-32k适合: 对数据隐私有极高要求的场景
第1步:安装Ollama
# macOS/Linux
curl -fsSL https://ollama.com/install.sh | sh
# Windows:访问 https://ollama.com/download 下载安装第2步:拉取模型
# 推荐模型(按需选择)
ollama pull llama3 # 综合能力强(推荐)
ollama pull codellama # 代码专用
ollama pull qwen2.5 # 中文好
ollama pull deepseek-coder # 代码审计专用第3步:配置XCodeReviewer
VITE_LLM_PROVIDER=ollama
VITE_LLM_MODEL=llama3
VITE_LLM_BASE_URL=http://localhost:11434/v1优缺点:
- ✅ 完全本地,数据不外传
- ✅ 完全免费,无限使用
- ❌ 需要较好的电脑配置(推荐16GB内存+GPU)
- ❌ 速度比云端API慢
什么是中转站? 第三方提供的API代理服务,通常更稳定、更便宜。
配置方法:
浏览器界面配置:
LLM提供商: OpenAI(或其他)
API Key: 中转站提供的密钥(不是官方密钥!)
API基础URL: https://你的中转站.com/v1
或环境变量:
VITE_LLM_PROVIDER=openai
VITE_LLM_API_KEY=中转站的KEY
VITE_LLM_BASE_URL=https://你的中转站.com/v1注意:
- URL通常以
/v1结尾 - 使用中转站的密钥,不是官方密钥
- 确认中转站支持你选的模型
在 .env 里同时配置多个:
# 当前使用的平台
VITE_LLM_PROVIDER=gemini
# 预配置所有平台的Key
VITE_GEMINI_API_KEY=你的Gemini_KEY
VITE_OPENAI_API_KEY=你的OpenAI_KEY
VITE_QWEN_API_KEY=你的通义千问_KEY
VITE_DEEPSEEK_API_KEY=你的DeepSeek_KEY切换时只需改一行:
VITE_LLM_PROVIDER=openai # 改成要用的平台# 增加超时时间(毫秒)
VITE_LLM_TIMEOUT=300000 # 5分钟# 降低并发数
VITE_LLM_CONCURRENCY=1
# 增加请求间隔(毫秒)
VITE_LLM_GAP_MS=1000 # 1秒# 降低温度(0.0-2.0,越低越稳定)
VITE_LLM_TEMPERATURE=0.1# 增加最大token数
VITE_LLM_MAX_TOKENS=8192- ✅ 检查Key是否正确复制(有没有多余空格)
- ✅ 确认Key对应的平台是否正确
- ✅ 百度文心:是否用冒号分隔了两个Key?
- 🌐 使用中转站或代理
- ⚡ 增加超时时间
- 🇨🇳 切换到国内平台(通义千问、DeepSeek等)
建议测试流程:
- 用同一段代码,分别在不同平台分析
- 对比结果的详细程度、准确性
- 考虑价格、速度、稳定性
- 选最适合你的
优先级:
-
VITE_LLM_API_KEY(通用Key,优先级最高) -
VITE_{平台}_API_KEY(平台专用Key) - 浏览器配置 > 环境变量配置
| 平台 | 速度 | 准确性 | 价格 | 中文 | 推荐度 |
|---|---|---|---|---|---|
| Gemini | ⭐⭐⭐⭐ | ⭐⭐⭐⭐ | ⭐⭐⭐⭐⭐ | ⭐⭐⭐⭐ | ⭐⭐⭐⭐⭐ |
| OpenAI | ⭐⭐⭐⭐ | ⭐⭐⭐⭐⭐ | ⭐⭐ | ⭐⭐⭐ | ⭐⭐⭐⭐ |
| Claude | ⭐⭐⭐ | ⭐⭐⭐⭐⭐ | ⭐⭐ | ⭐⭐⭐ | ⭐⭐⭐⭐ |
| 通义千问 | ⭐⭐⭐⭐⭐ | ⭐⭐⭐ | ⭐⭐⭐⭐ | ⭐⭐⭐⭐⭐ | ⭐⭐⭐⭐ |
| DeepSeek | ⭐⭐⭐⭐ | ⭐⭐⭐ | ⭐⭐⭐⭐⭐ | ⭐⭐⭐⭐ | ⭐⭐⭐⭐ |
| Ollama | ⭐⭐ | ⭐⭐⭐ | ⭐⭐⭐⭐⭐ | ⭐⭐⭐ | ⭐⭐⭐ |
💡 小贴士:平台没有绝对的好坏,根据你的需求选择最合适的!