Skip to content

配置LLM

lintsinghua edited this page Oct 26, 2025 · 1 revision

⚙️ 配置AI模型(LLM)

这是最重要的一步! XCodeReviewer支持10+个AI平台,你可以自由选择

🌟 推荐方案(新手必看)

方案对比

平台 适合人群 优点 缺点
Google Gemini 新手、个人开发者 免费额度大、中文支持好、配置简单 国内访问可能需要代理
OpenAI GPT 追求质量 性能最强、结果最准 需要付费、价格较贵
通义千问 🇨🇳 国内用户 国内访问快、免费试用 性能略逊OpenAI
DeepSeek 性价比党 便宜、代码理解不错 免费额度有限
Ollama 隐私至上 完全本地、免费无限 需要本地GPU、速度慢

我们推荐的最佳组合:

  1. 优先用Gemini - 免费额度够用一阵子
  2. 备用通义千问 - 万一Gemini用完了
  3. 重要项目用OpenAI - 质量最高

📝 配置方式

有两种配置方式,推荐方式一(更简单)

方式一:浏览器界面配置(推荐)⭐

优点: 直观、实时生效、不用重启

步骤:

  1. 打开系统管理页面

    • 访问:http://localhost:8888/admin(Docker)
    • 或:http://localhost:5173/admin(本地开发)
  2. 进入"系统配置"标签页

  3. 填写配置:

┌─────────────────────────────────────┐
│  LLM 提供商:[下拉选择平台]         │
│  API Key:   [粘贴你的密钥]         │
│  模型名称:  [可选,留空用默认]     │
│  API 基础URL:[可选,用于中转站]    │
│  ───────────────────────────────    │
│  超时时间:  150000 ms              │
│  最大Token: 4096                   │
│  温度参数:  0.2                    │
└─────────────────────────────────────┘
  1. 点击"保存所有更改"
  2. 刷新页面

配置会保存在浏览器本地,非常安全!

方式二:环境变量配置

适合: 需要打包部署、团队共享配置

编辑 .env 文件:

# 基础配置(必填)
VITE_LLM_PROVIDER=gemini        # AI平台
VITE_LLM_API_KEY=你的API_KEY    # 密钥

# 可选配置
VITE_LLM_MODEL=gemini-1.5-flash # 模型名(不填用默认)
VITE_LLM_TIMEOUT=150000         # 超时时间(毫秒)
VITE_LLM_TEMPERATURE=0.2        # 温度(0.0-2.0,越低越稳定)

注意: 修改后需要重启服务才生效!

🔑 各平台配置详解

1. Google Gemini(最推荐)⭐

获取API Key: https://makersuite.google.com/app/apikey

配置:

VITE_LLM_PROVIDER=gemini
VITE_GEMINI_API_KEY=你的KEY
VITE_GEMINI_MODEL=gemini-1.5-flash  # 或 gemini-1.5-pro(更强但慢)

小技巧:

  • gemini-1.5-flash:速度快,免费额度大(推荐
  • gemini-1.5-pro:质量更高,但消耗额度快

2. OpenAI GPT

获取API Key: https://platform.openai.com/api-keys

配置:

VITE_LLM_PROVIDER=openai
VITE_OPENAI_API_KEY=sk-...你的KEY
VITE_OPENAI_MODEL=gpt-4o-mini  # 性价比最高

模型选择:

  • gpt-4o-mini:便宜快速,推荐
  • gpt-4o:最强性能,贵
  • gpt-3.5-turbo:最便宜

3. Anthropic Claude

获取API Key: https://console.anthropic.com/

配置:

VITE_LLM_PROVIDER=claude
VITE_CLAUDE_API_KEY=sk-ant-...你的KEY
VITE_CLAUDE_MODEL=claude-3-5-sonnet-20241022

特点: 代码理解能力特别强,适合复杂项目审计

4. 通义千问(阿里云)🇨🇳

获取API Key: https://dashscope.console.aliyun.com/

配置:

VITE_LLM_PROVIDER=qwen
VITE_QWEN_API_KEY=sk-...你的KEY
VITE_QWEN_MODEL=qwen-turbo  # 或 qwen-plus、qwen-max

优势: 国内访问快,中文支持好

5. DeepSeek

获取API Key: https://platform.deepseek.com/

配置:

VITE_LLM_PROVIDER=deepseek
VITE_DEEPSEEK_API_KEY=sk-...你的KEY
VITE_DEEPSEEK_MODEL=deepseek-chat

优势: 便宜!代码能力还不错

6. 智谱AI(GLM)🇨🇳

获取API Key: https://open.bigmodel.cn/

配置:

VITE_LLM_PROVIDER=zhipu
VITE_ZHIPU_API_KEY=...你的KEY
VITE_ZHIPU_MODEL=glm-4-flash

7. 月之暗面Kimi

获取API Key: https://platform.moonshot.cn/

配置:

VITE_LLM_PROVIDER=moonshot
VITE_MOONSHOT_API_KEY=sk-...你的KEY
VITE_MOONSHOT_MODEL=moonshot-v1-8k

特点: 长文本处理能力强

8. 百度文心一言

获取API Key: https://console.bce.baidu.com/qianfan/

特殊!需要两个Key:

VITE_LLM_PROVIDER=baidu
# 注意格式:API_KEY:SECRET_KEY(用冒号分隔)
VITE_BAIDU_API_KEY=你的API_KEY:你的SECRET_KEY
VITE_BAIDU_MODEL=ERNIE-3.5-8K

9. MiniMax

获取API Key: https://www.minimaxi.com/

配置:

VITE_LLM_PROVIDER=minimax
VITE_MINIMAX_API_KEY=...你的KEY
VITE_MINIMAX_MODEL=abab6.5-chat

10. 字节豆包

获取API Key: https://console.volcengine.com/ark

配置:

VITE_LLM_PROVIDER=doubao
VITE_DOUBAO_API_KEY=...你的KEY
VITE_DOUBAO_MODEL=doubao-pro-32k

11. Ollama本地模型(隐私首选)

适合: 对数据隐私有极高要求的场景

第1步:安装Ollama

# macOS/Linux
curl -fsSL https://ollama.com/install.sh | sh

# Windows:访问 https://ollama.com/download 下载安装

第2步:拉取模型

# 推荐模型(按需选择)
ollama pull llama3        # 综合能力强(推荐)
ollama pull codellama     # 代码专用
ollama pull qwen2.5       # 中文好
ollama pull deepseek-coder # 代码审计专用

第3步:配置XCodeReviewer

VITE_LLM_PROVIDER=ollama
VITE_LLM_MODEL=llama3
VITE_LLM_BASE_URL=http://localhost:11434/v1

优缺点:

  • ✅ 完全本地,数据不外传
  • ✅ 完全免费,无限使用
  • ❌ 需要较好的电脑配置(推荐16GB内存+GPU)
  • ❌ 速度比云端API慢

🌐 使用API中转站

什么是中转站? 第三方提供的API代理服务,通常更稳定、更便宜。

配置方法:

浏览器界面配置:

LLM提供商: OpenAI(或其他)
API Key:   中转站提供的密钥(不是官方密钥!)
API基础URL: https://你的中转站.com/v1

或环境变量:

VITE_LLM_PROVIDER=openai
VITE_LLM_API_KEY=中转站的KEY
VITE_LLM_BASE_URL=https://你的中转站.com/v1

注意:

  • URL通常以 /v1 结尾
  • 使用中转站的密钥,不是官方密钥
  • 确认中转站支持你选的模型

🔄 快速切换平台

预配置多个平台

.env 里同时配置多个:

# 当前使用的平台
VITE_LLM_PROVIDER=gemini

# 预配置所有平台的Key
VITE_GEMINI_API_KEY=你的Gemini_KEY
VITE_OPENAI_API_KEY=你的OpenAI_KEY
VITE_QWEN_API_KEY=你的通义千问_KEY
VITE_DEEPSEEK_API_KEY=你的DeepSeek_KEY

切换时只需改一行:

VITE_LLM_PROVIDER=openai  # 改成要用的平台

⚡ 性能调优

遇到超时?

# 增加超时时间(毫秒)
VITE_LLM_TIMEOUT=300000  # 5分钟

请求太快被限流?

# 降低并发数
VITE_LLM_CONCURRENCY=1

# 增加请求间隔(毫秒)
VITE_LLM_GAP_MS=1000  # 1秒

想要更准确的结果?

# 降低温度(0.0-2.0,越低越稳定)
VITE_LLM_TEMPERATURE=0.1

分析大文件?

# 增加最大token数
VITE_LLM_MAX_TOKENS=8192

❓ 常见问题

1. 提示"API Key无效"?

  • ✅ 检查Key是否正确复制(有没有多余空格)
  • ✅ 确认Key对应的平台是否正确
  • ✅ 百度文心:是否用冒号分隔了两个Key?

2. 请求总是超时?

  • 🌐 使用中转站或代理
  • ⚡ 增加超时时间
  • 🇨🇳 切换到国内平台(通义千问、DeepSeek等)

3. 如何知道哪个平台好?

建议测试流程:

  1. 用同一段代码,分别在不同平台分析
  2. 对比结果的详细程度、准确性
  3. 考虑价格、速度、稳定性
  4. 选最适合你的

4. 配置了多个Key,怎么知道用的哪个?

优先级:

  1. VITE_LLM_API_KEY(通用Key,优先级最高)
  2. VITE_{平台}_API_KEY(平台专用Key)
  3. 浏览器配置 > 环境变量配置

📊 平台性能对比(主观评价)

平台 速度 准确性 价格 中文 推荐度
Gemini ⭐⭐⭐⭐ ⭐⭐⭐⭐ ⭐⭐⭐⭐⭐ ⭐⭐⭐⭐ ⭐⭐⭐⭐⭐
OpenAI ⭐⭐⭐⭐ ⭐⭐⭐⭐⭐ ⭐⭐ ⭐⭐⭐ ⭐⭐⭐⭐
Claude ⭐⭐⭐ ⭐⭐⭐⭐⭐ ⭐⭐ ⭐⭐⭐ ⭐⭐⭐⭐
通义千问 ⭐⭐⭐⭐⭐ ⭐⭐⭐ ⭐⭐⭐⭐ ⭐⭐⭐⭐⭐ ⭐⭐⭐⭐
DeepSeek ⭐⭐⭐⭐ ⭐⭐⭐ ⭐⭐⭐⭐⭐ ⭐⭐⭐⭐ ⭐⭐⭐⭐
Ollama ⭐⭐ ⭐⭐⭐ ⭐⭐⭐⭐⭐ ⭐⭐⭐ ⭐⭐⭐

💡 小贴士:平台没有绝对的好坏,根据你的需求选择最合适的!

📖 下一步:学习如何使用

Clone this wiki locally