Skip to content

Latest commit

 

History

History
105 lines (73 loc) · 3.7 KB

File metadata and controls

105 lines (73 loc) · 3.7 KB

支持的模型

CodeDog 支持多种 AI 模型,可以根据需要选择不同的模型进行代码评估和分析。

可用模型

模型名称 描述 上下文窗口 相对成本 适用场景
gpt-3.5 OpenAI 的 GPT-3.5 Turbo 16K tokens 一般代码评估,适合大多数场景
gpt-4 OpenAI 的 GPT-4 8K tokens 复杂代码分析,需要更高质量的评估
gpt-4o OpenAI 的 GPT-4o 128K tokens 中高 大型文件评估,需要处理大量上下文
claude Anthropic 的 Claude 模型 200K tokens 中高 大型代码库评估,需要处理超大上下文
gemini Google 的 Gemini 模型 1M tokens 大型代码库评估,代码理解能力强
openrouter OpenRouter 统一 API 取决于模型 取决于模型 灵活选择多种模型,一个 API 访问所有模型
deepseek DeepSeek 的模型 64K tokens 中文代码评估,本地化场景
deepseek-r1 DeepSeek 的 R1 模型 64K tokens 推理能力更强的中文评估

OpenRouter 支持的模型

通过 OpenRouter,您可以访问多种模型,包括:

模型 ID 描述 上下文窗口 相对成本
anthropic/claude-3-opus Claude 3 Opus 200K tokens
anthropic/claude-3-sonnet Claude 3 Sonnet 200K tokens 中高
google/gemini-1.5-pro Gemini 1.5 Pro 1M tokens
openai/gpt-4o GPT-4o 128K tokens 中高
meta/llama-3-70b-instruct Llama 3 70B 8K tokens

完整的模型列表请参考 OpenRouter 文档

如何使用

您可以通过命令行参数 --model 指定要使用的模型:

python run_codedog_eval.py "开发者名称" --model gpt-4o

或者在环境变量中设置默认模型:

# .env 文件
CODE_REVIEW_MODEL=gpt-4o

使用完整的模型名称

您也可以直接使用 OpenAI 的完整模型名称:

python run_codedog_eval.py "开发者名称" --model gpt-4-turbo
python run_codedog_eval.py "开发者名称" --model gpt-3.5-turbo-16k
python run_codedog_eval.py "开发者名称" --model gpt-4o-mini

系统会自动识别这些模型名称并使用适当的配置。

自定义模型版本

您可以在 .env 文件中设置特定的模型版本:

# 指定 GPT-3.5 的具体版本
GPT35_MODEL="gpt-3.5-turbo-16k"

# 指定 GPT-4 的具体版本
GPT4_MODEL="gpt-4-turbo"

# 指定 GPT-4o 的具体版本
GPT4O_MODEL="gpt-4o-mini"

GPT-4o 模型

GPT-4o 是 OpenAI 的最新模型,具有以下优势:

  1. 大型上下文窗口:支持高达 128K tokens 的上下文窗口,可以处理非常大的文件
  2. 更好的代码理解:对代码的理解和分析能力更强
  3. 更快的响应速度:比 GPT-4 更快,提高评估效率

使用建议

  • 对于大型文件或复杂代码库,推荐使用 GPT-4o
  • 由于成本较高,对于简单的代码评估,可以继续使用 GPT-3.5
  • 如果遇到上下文长度限制问题,切换到 GPT-4o 可以解决大多数情况

配置示例

# 使用 GPT-4o 评估代码
python run_codedog_eval.py "开发者名称" --model gpt-4o --tokens-per-minute 6000 --max-concurrent 2

# 使用简写形式
python run_codedog_eval.py "开发者名称" --model 4o

模型比较

  • GPT-3.5:适合日常代码评估,成本低,速度快
  • GPT-4:适合需要深入分析的复杂代码,质量更高
  • GPT-4o:适合大型文件和需要大量上下文的评估
  • DeepSeek:适合中文环境和本地化需求

选择合适的模型可以在成本和质量之间取得平衡。