模型配置
支持的模型(12 家国内模型 · ✅ 7 个生产就绪 · ⚠️ 5 个 Beta/待完善)
| 模型 |
API Key 环境变量 |
特点 |
| DeepSeek |
DEEPSEEK_API_KEY |
⭐ 免费额度,性价比最高,推荐 |
| MiMo |
MIMOAPIKEY |
小米 MiMo,mimo-v2-flash 免费,1M 上下文 |
| 智谱 GLM |
GLM_API_KEY |
GLM-4-Flash 官方免费,函数调用支持 |
| Kimi |
KIMI_API_KEY |
月之暗面,128K 超长上下文 |
| 豆包 |
DOUBAO_API_KEY |
字节跳动,响应速度快 |
| 天工 |
TIANGONG_API_KEY |
昆仑万维,中文理解强 |
| 百川 |
BAICHUAN_API_KEY |
百川智能,中文能力出色 |
| 通义千问 |
TONGYI_API_KEY |
阿里云(Beta:高并发偶发超时) |
| MiniMax |
MINIMAX_API_KEY |
中文理解强(Beta:无函数调用) |
| 讯飞星火 |
SPARK_API_KEY + SPARK_SECRET_KEY + SPARK_APP_ID |
科大讯飞(待完善:认证复杂) |
| 文心一言 |
WENXIN_API_KEY + WENXIN_SECRET_KEY |
百度云(待完善:需双 Key) |
| 混元 |
HUNYUAN_API_KEY + HUNYUAN_SECRET_KEY |
腾讯云(待完善:需双 Key) |
模型层级
| 层级 |
模型 |
用途 |
| LOW |
DeepSeek-V3 / GLM-4-Flash / Qwen-Turbo |
快速任务、探索 |
| MEDIUM |
DeepSeek-R1 / Qwen-Max |
平衡性能和成本 |
| HIGH |
DeepSeek-R1-Reasoner / Qwen-Plus |
复杂推理、高质量输出 |
默认模型配置
修改 pyproject.toml 或设置环境变量:
export OMC_DEFAULT_MODEL=deepseek-chat
export OMC_MODEL_TIER=medium
自定义 API 地址
export DEEPSEEK_API_BASE=https://your-proxy.com/v1
验证模型配置
from src.llm import get_model_info
info = get_model_info("deepseek-chat")
print(info) # {'model': 'deepseek-chat', 'provider': 'deepseek', ...}