基于docker的OpenClaw 的安装部署方法
时间:2026-2-25 13:45 作者:Anglei 分类: 大数据AI
OpenClaw是一种能够持续运行的AI智能体,可调用多种大型语言模型,并可作为网关使用户通过聊天软件与之交互,它结合了Claude的对话能力与执行操作的功能。OpenClaw具备记忆功能,可在不同会话间记录用户的工作习惯与项目细节。它可根据用户提供的API文档或操作逻辑更新其功能。用户可要求其添加新功能,程序能够完成相应的开发过程,能够开发新“Skills”,自主写代码、安装并开始工作。
一、编译 Docker 镜像
首先把 OpenClaw 的代码 Clone 到本地:https://github.com/openclaw/openclaw
git clone https://github.com/openclaw/openclaw.git
进入项目根目录,执行以下命令:
./docker-setup.sh
二、配置 OpenClaw
刚开始会告知你风险,通过左右箭头按键移动绿点,选择 "Yes"。紧接着选择配置模式,选择 QuickStart。

由于 OpenClaw 只是一个本地 Agent,背后需要大模型驱动,因此需要配置模型供应商。我之前购买过 GLM 的套餐(参考 一个月预算20-30元,有什么AI编码工具推荐吗?),因此就选择了 GLM 4.7。填入 API Key 后即可完成配置。

接下来就是配置可以远程下发命令的聊天软件,我这里选择跳过,后面可以手动添加。

再之后就是安装需要的 Skills,可以通过空格键选中具体 skill。我建议可以先选 "Skip for now",后面再通过 UI 界面安装。

之后还有一系列配置,默认可以先跳过(很多用不到)。配置完成后,镜像编译完成,会自动创建一个 Docker 容器。同时你会看到如下结果:

注意:这里的 Token 不要管,并不是真实需要配置的 Token。
此时回到 Docker 桌面版,你也能看到这个容器的状态。可以通过右侧的按钮停止和运行此容器。

三、访问 OpenClaw 并配置 Token
容器运行后,通过浏览器访问以下地址,就可以看到 OpenClaw 的控制台:
http://127.0.0.1:18789/
注意首次访问会看到报错,这次是因为用于鉴权的 Token 还未配置:

此时我们访问本机的 ~/.openclaw 目录(~ 表示用户根目录),找到 openclaw.json 这个配置文件,我们要找的 Token 就在这个文件里。

我们先把配置文件中的 gateway.auth.token 的值复制下,然后粘贴到以下位置:

然后,很重要的一点,配置截图中用红框标注的部分,在 openclaw.json 文件中默认是没有的,需要补充上,否则还是会报错
"gateway": {
"port": 18789,
"mode": "local",
"bind": "loopback",
"controlUi": { // 一定要添加
"enabled": true,
"allowInsecureAuth": true
},
"auth": {
"mode": "token",
"token": "xxx"
},
"trustedProxies": ["192.168.65.0/24", "172.17.0.0/16"], // 我测试下来可选
"tailscale": {
"mode": "off",
"resetOnExit": false
}
}
}
配置完成后,点击下图中的 Connect。连接成功后,右侧就能看到 Connected 的状态。

四、后续配置
前面我们跳过了一些配置,比如安装 Skills,配置聊天软件,这些其实都可以通过 UI 界面来配置。

如果你想通过飞书或者 QQ 触发 OpenClaw 执行任务,可以看看以下文章:
1.https://cloud.tencent.com/developer/article/2627350
2.https://cloud.tencent.com/developer/article/2624003
3.https://cloud.tencent.com/act/pro/lighthouse-moltbot
4.https://github.com/openclaw/openclaw
本文完结,相关标签: openclaw
推荐阅读:
![]() 路过(0) |
![]() 雷人(0) |
![]() 握手(0) |
![]() 鲜花(0) |
![]() 鸡蛋(0) |









