OpenClaw 终极入门指南:配合QwenCode 编程助手的安装、连接Discord与高阶玩法
国产Code的万金油用于加速OpenClaw
本文详解如何安装和使用Qwen Cod(阿里云通义千问团队推出的一款开源、免费的命令行 AI 编程助手), 辅助openclaw打造零摩擦、完全掌控数据的本地openclaw安装;然后连接discord配置多Agent
1. Qwen Code
Qwen Code是2025年8月阿里云通义千问团队推出的AI编程智能体,基于Gemini Code进行二次开发,采用终端命令行交互形态。该工具专为发挥模型在代理式编程任务中的表现而设计,支持自然语言需求理解、代码编写及工具调用
本文介绍如何在 Qwen Code(CLI 及 IDE 插件)中配置与使用阿里云百炼 Coding Plan
1.1 安装
macOS/Linux 安装最方便,WIndows比较繁琐,建议使用WSL2
bash -c "$(curl -fsSL https://qwen-code-assets.oss-cn-hangzhou.aliyuncs.com/installation/install-qwen.sh)"- 以管理员身份打开CMD
在任务栏搜索框里输入CMD,选择以管理员身份运行
- 在CMD中运行以下命令安装 Qwen Cod
curl -fsSL -o %TEMP%\install-qwen.bat https://qwen-code-assets.oss-cn-hangzhou.aliyuncs.com/installation/install-qwen.bat && %TEMP%\install-qwen.bat1.2 配置和使用
- 在Qwen Code中配置百炼的Coding Plan
- 安装完成后会自动切换到配置页面,如果没有跳转,可以使用
qwen切换到配置页面
- 看到以上界面后,按键盘的上下方向键(↑或↓)切换到阿里云百炼 Coding Plan,按回车键确认选择
- 继续使用上下方向键切换到阿里云百炼(aliyun.com),并按回车键确认选择,Qwen Code将自动设置Coding Plan的Base URL
- 找到Code Plan的接面,输入API即可
2. OpenClaw安装
openclaw的安装按照上一篇文章即可,也可以连接飞书
这里使用的是百炼大模型,所以只要安装到可以启动openclaw即可
最方便的方式
# npm可控 可升级
npm install -g openclaw@latest
openclaw onboard --install-daemon安装好之后按照下面的进行设置
| 配置项 | 配置内容/选择 | 说明 |
|---|---|---|
| 风险提示确认 | Yes |
确认理解潜在风险并继续。 |
| Onboarding mode | QuickStart |
选择快速启动模式,跳过繁琐设置。 |
| Model/auth provider | Skip for now |
暂时跳过模型/认证提供商配置,后续可在设置中完成。 |
| Filter models by provider | All providers |
显示所有可用的模型提供商。 |
| Default model | (默认) | 保持系统默认推荐的模型。 |
| Select channel (QuickStart) | Skip for now |
暂时跳过通知渠道配置。 |
| Configure skills now? | No |
暂时不配置技能插件,后续按需添加。 |
| Enable hooks? | Skip for now |
操作提示:在终端界面中,按 空格键 选中该项,然后按 回车键 进入下一步。 |
| How do you want to hatch your bot? | Hatch in TUI |
选择在当前终端用户界面 (TUI) 中启动机器人。 |
网页搜索API也选择跳过即可
3. openclaw配置百炼大模型
3.1 使用Qwen Code配置
在安装好千问后,打开Qwen CLI,然后把下面的话输入到CLI终端
重要
注意把API Key 转换成自己的Code Plan API Key
第一步: 使用code进行配置,当然也可以使用claude code,opencode进行操作
请在 OpenClaw 中接入 Coding Plan,步骤如下:
1. 打开配置文件:~/.openclaw/openclaw.json
2. 找到或创建以下字段,合并配置(保留原有配置不变,若字段不存在则新增)
{
"models": {
"mode": "merge",
"providers": {
"bailian": {
"baseUrl": "https://coding.dashscope.aliyuncs.com/v1",
"apiKey": "YOUR_API_KEY",
"api": "openai-completions",
"models": [
{
"id": "qwen3.5-plus",
"name": "qwen3.5-plus",
"reasoning": false,
"input": ["text", "image"],
"cost": { "input": 0, "output": 0, "cacheRead": 0, "cacheWrite": 0 },
"contextWindow": 1000000,
"maxTokens": 65536,
"compat": {
"thinkingFormat": "qwen"
}
},
{
"id": "qwen3-max-2026-01-23",
"name": "qwen3-max-2026-01-23",
"reasoning": false,
"input": ["text"],
"cost": { "input": 0, "output": 0, "cacheRead": 0, "cacheWrite": 0 },
"contextWindow": 262144,
"maxTokens": 65536,
"compat": {
"thinkingFormat": "qwen"
}
},
{
"id": "qwen3-coder-next",
"name": "qwen3-coder-next",
"reasoning": false,
"input": ["text"],
"cost": { "input": 0, "output": 0, "cacheRead": 0, "cacheWrite": 0 },
"contextWindow": 262144,
"maxTokens": 65536
},
{
"id": "qwen3-coder-plus",
"name": "qwen3-coder-plus",
"reasoning": false,
"input": ["text"],
"cost": { "input": 0, "output": 0, "cacheRead": 0, "cacheWrite": 0 },
"contextWindow": 1000000,
"maxTokens": 65536
},
{
"id": "MiniMax-M2.5",
"name": "MiniMax-M2.5",
"reasoning": false,
"input": ["text"],
"cost": { "input": 0, "output": 0, "cacheRead": 0, "cacheWrite": 0 },
"contextWindow": 196608,
"maxTokens": 32768
},
{
"id": "glm-5",
"name": "glm-5",
"reasoning": false,
"input": ["text"],
"cost": { "input": 0, "output": 0, "cacheRead": 0, "cacheWrite": 0 },
"contextWindow": 202752,
"maxTokens": 16384,
"compat": {
"thinkingFormat": "qwen"
}
},
{
"id": "glm-4.7",
"name": "glm-4.7",
"reasoning": false,
"input": ["text"],
"cost": { "input": 0, "output": 0, "cacheRead": 0, "cacheWrite": 0 },
"contextWindow": 202752,
"maxTokens": 16384,
"compat": {
"thinkingFormat": "qwen"
}
},
{
"id": "kimi-k2.5",
"name": "kimi-k2.5",
"reasoning": false,
"input": ["text", "image"],
"cost": { "input": 0, "output": 0, "cacheRead": 0, "cacheWrite": 0 },
"contextWindow": 262144,
"maxTokens": 32768,
"compat": {
"thinkingFormat": "qwen"
}
}
]
}
}
},
"agents": {
"defaults": {
"model": {
"primary": "bailian/qwen3.5-plus"
},
"models": {
"bailian/qwen3.5-plus": {},
"bailian/qwen3-max-2026-01-23": {},
"bailian/qwen3-coder-next": {},
"bailian/qwen3-coder-plus": {},
"bailian/MiniMax-M2.5": {},
"bailian/glm-5": {},
"bailian/glm-4.7": {},
"bailian/kimi-k2.5": {}
}
}
},
"gateway": {
"mode": "local"
}
}
3. 保存配置文件
4. 运行 openclaw gateway restart,重启Openclaw的网关,使配置生效。第二步:启动openclaw dashboard进行查验
在终端输入openclaw dashboard,然后给到链接,点击进入本地网页进行聊天,也可以选择切换不同的模型,非常适合多agent
3.2 手动配置
也可以手动将模型的选择配置添加到文件中
- 在终端执行下面的命令打开配置
# nano或vim都可以
nano ~/.openclaw/openclaw.json- 首次配置:复制以下内容到配置文件。将YOUR_API_KEY替换为Coding Plan 专属 API Key
- 已有配置:若需保留已有配置,请勿直接全量替换
重要
需要注意配置过程中,models文件放置的位置,尤其是递进关系,本身只要安装了就会有配置文件内容产生