OpenClaw 终极入门指南:配合QwenCode 编程助手的安装、连接Discord与高阶玩法

国产Code的万金油用于加速OpenClaw

本文详解如何安装和使用Qwen Cod(阿里云通义千问团队推出的一款开源、免费的命令行 AI 编程助手), 辅助openclaw打造零摩擦、完全掌控数据的本地openclaw安装;然后连接discord配置多Agent

1. Qwen Code

Qwen Code是2025年8月阿里云通义千问团队推出的AI编程智能体,基于Gemini Code进行二次开发,采用终端命令行交互形态。该工具专为发挥模型在代理式编程任务中的表现而设计,支持自然语言需求理解、代码编写及工具调用

本文介绍如何在 Qwen Code(CLI 及 IDE 插件)中配置与使用阿里云百炼 Coding Plan

1.1 安装

macOS/Linux 安装最方便,WIndows比较繁琐,建议使用WSL2

bash -c "$(curl -fsSL https://qwen-code-assets.oss-cn-hangzhou.aliyuncs.com/installation/install-qwen.sh)"
  1. 以管理员身份打开CMD

在任务栏搜索框里输入CMD,选择以管理员身份运行

  1. 在CMD中运行以下命令安装 Qwen Cod
curl -fsSL -o %TEMP%\install-qwen.bat https://qwen-code-assets.oss-cn-hangzhou.aliyuncs.com/installation/install-qwen.bat && %TEMP%\install-qwen.bat

1.2 配置和使用

  1. 在Qwen Code中配置百炼的Coding Plan
  1. 安装完成后会自动切换到配置页面,如果没有跳转,可以使用qwen切换到配置页面

qwen01

  1. 看到以上界面后,按键盘的上下方向键(↑或↓)切换到阿里云百炼 Coding Plan,按回车键确认选择
  2. 继续使用上下方向键切换到阿里云百炼(aliyun.com),并按回车键确认选择,Qwen Code将自动设置Coding Plan的Base URL
  3. 找到Code Plan的接面,输入API即可

2. OpenClaw安装

openclaw的安装按照上一篇文章即可,也可以连接飞书

这里使用的是百炼大模型,所以只要安装到可以启动openclaw即可

最方便的方式

# npm可控 可升级
npm install -g openclaw@latest
openclaw onboard --install-daemon

安装好之后按照下面的进行设置

配置项 配置内容/选择 说明
风险提示确认 Yes 确认理解潜在风险并继续。
Onboarding mode QuickStart 选择快速启动模式,跳过繁琐设置。
Model/auth provider Skip for now 暂时跳过模型/认证提供商配置,后续可在设置中完成。
Filter models by provider All providers 显示所有可用的模型提供商。
Default model (默认) 保持系统默认推荐的模型。
Select channel (QuickStart) Skip for now 暂时跳过通知渠道配置。
Configure skills now? No 暂时不配置技能插件,后续按需添加。
Enable hooks? Skip for now 操作提示:在终端界面中,按 空格键 选中该项,然后按 回车键 进入下一步。
How do you want to hatch your bot? Hatch in TUI 选择在当前终端用户界面 (TUI) 中启动机器人。

网页搜索API也选择跳过即可

3. openclaw配置百炼大模型

3.1 使用Qwen Code配置

在安装好千问后,打开Qwen CLI,然后把下面的话输入到CLI终端

qwen02

重要

注意把API Key 转换成自己的Code Plan API Key

第一步: 使用code进行配置,当然也可以使用claude code,opencode进行操作

请在 OpenClaw 中接入 Coding Plan,步骤如下:

1. 打开配置文件:~/.openclaw/openclaw.json
2. 找到或创建以下字段,合并配置(保留原有配置不变,若字段不存在则新增)

{
  "models": {
    "mode": "merge",
    "providers": {
      "bailian": {
        "baseUrl": "https://coding.dashscope.aliyuncs.com/v1",
        "apiKey": "YOUR_API_KEY",
        "api": "openai-completions",
        "models": [
          {
            "id": "qwen3.5-plus",
            "name": "qwen3.5-plus",
            "reasoning": false,
            "input": ["text", "image"],
            "cost": { "input": 0, "output": 0, "cacheRead": 0, "cacheWrite": 0 },
            "contextWindow": 1000000,
            "maxTokens": 65536,
            "compat": {
              "thinkingFormat": "qwen"
            }
          },
          {
            "id": "qwen3-max-2026-01-23",
            "name": "qwen3-max-2026-01-23",
            "reasoning": false,
            "input": ["text"],
            "cost": { "input": 0, "output": 0, "cacheRead": 0, "cacheWrite": 0 },
            "contextWindow": 262144,
            "maxTokens": 65536,
            "compat": {
              "thinkingFormat": "qwen"
            }
          },
          {
            "id": "qwen3-coder-next",
            "name": "qwen3-coder-next",
            "reasoning": false,
            "input": ["text"],
            "cost": { "input": 0, "output": 0, "cacheRead": 0, "cacheWrite": 0 },
            "contextWindow": 262144,
            "maxTokens": 65536
          },
          {
            "id": "qwen3-coder-plus",
            "name": "qwen3-coder-plus",
            "reasoning": false,
            "input": ["text"],
            "cost": { "input": 0, "output": 0, "cacheRead": 0, "cacheWrite": 0 },
            "contextWindow": 1000000,
            "maxTokens": 65536
          },
          {
            "id": "MiniMax-M2.5",
            "name": "MiniMax-M2.5",
            "reasoning": false,
            "input": ["text"],
            "cost": { "input": 0, "output": 0, "cacheRead": 0, "cacheWrite": 0 },
            "contextWindow": 196608,
            "maxTokens": 32768
          },
          {
            "id": "glm-5",
            "name": "glm-5",
            "reasoning": false,
            "input": ["text"],
            "cost": { "input": 0, "output": 0, "cacheRead": 0, "cacheWrite": 0 },
            "contextWindow": 202752,
            "maxTokens": 16384,
            "compat": {
              "thinkingFormat": "qwen"
            }
          },
          {
            "id": "glm-4.7",
            "name": "glm-4.7",
            "reasoning": false,
            "input": ["text"],
            "cost": { "input": 0, "output": 0, "cacheRead": 0, "cacheWrite": 0 },
            "contextWindow": 202752,
            "maxTokens": 16384,
            "compat": {
              "thinkingFormat": "qwen"
            }
          },
          {
            "id": "kimi-k2.5",
            "name": "kimi-k2.5",
            "reasoning": false,
            "input": ["text", "image"],
            "cost": { "input": 0, "output": 0, "cacheRead": 0, "cacheWrite": 0 },
            "contextWindow": 262144,
            "maxTokens": 32768,
            "compat": {
              "thinkingFormat": "qwen"
            }
          }
        ]
      }
    }
  },
  "agents": {
    "defaults": {
      "model": {
        "primary": "bailian/qwen3.5-plus"
      },
      "models": {
        "bailian/qwen3.5-plus": {},
        "bailian/qwen3-max-2026-01-23": {},
        "bailian/qwen3-coder-next": {},
        "bailian/qwen3-coder-plus": {},
        "bailian/MiniMax-M2.5": {},
        "bailian/glm-5": {},
        "bailian/glm-4.7": {},
        "bailian/kimi-k2.5": {}
      }
    }
  },
  "gateway": {
    "mode": "local"
  }
}  

3. 保存配置文件
4. 运行 openclaw gateway restart,重启Openclaw的网关,使配置生效。

第二步:启动openclaw dashboard进行查验

在终端输入openclaw dashboard,然后给到链接,点击进入本地网页进行聊天,也可以选择切换不同的模型,非常适合多agent

qianwe03

3.2 手动配置

也可以手动将模型的选择配置添加到文件中

  1. 在终端执行下面的命令打开配置

# nano或vim都可以
nano ~/.openclaw/openclaw.json
  1. 首次配置:复制以下内容到配置文件。将YOUR_API_KEY替换为Coding Plan 专属 API Key
  2. 已有配置:若需保留已有配置,请勿直接全量替换
重要

需要注意配置过程中,models文件放置的位置,尤其是递进关系,本身只要安装了就会有配置文件内容产生