什么是 OpenClaw?
OpenClaw 是 2026 年初爆火的开源个人 AI 助手项目,GitHub 星标已超过 10 万颗。
与传统 AI 聊天机器人(如 ChatGPT)的根本区别在于:OpenClaw 不仅能回答问题,还能实际操作你的电脑完成任务。
举个例子
当你告诉 ChatGPT「帮我整理一下桌面文件」,它只能给你建议。但 OpenClaw 会真的去帮你重命名、分类、移动这些文件!这就是「聊天机器人」和「AI Agent」的本质区别。
核心特性
- 真正的执行能力:不只是聊天,还能操作电脑、读写文件、执行命令、控制浏览器
- 24/7 全天候待命:在你睡觉时也能主动完成任务(如监控邮件、定时提醒)
- 完全开源免费:代码开源,数据完全掌握在自己手中
- 多平台支持:WhatsApp、Telegram、Discord、飞书、钉钉等 10+ 平台
- 长期记忆:跨平台共享上下文,越用越懂你
名字的由来
OpenClaw 的名字经历了三次变更:
- Clawdbot → 最初项目名,灵感来自 Claude + claw(龙虾爪)
- Moltbot → 2026年1月因商标顾虑更名为过渡名
- OpenClaw → 当前官方名称,强调开源属性
它们都是同一个项目,不用担心下错了!
OpenClaw 能做什么?
1. 系统操作
- 执行 Shell 命令
- 读写和管理本地文件
- 运行脚本和程序
2. 自动化办公
- 自动处理邮件
- 管理日历和日程
- 整理文档和数据
3. 网络操作
- 控制浏览器访问网页
- 自动填表、抓取数据
- 监控网页变化
4. 开发辅助
- 自动编写代码
- 运行测试和调试
- Git 操作和代码审查
5. 主动提醒
- 监控收件箱,主动提醒重要邮件
- 定期检查日程,提前准备会议材料
- 监控特定网页变化并通知
前置要求
硬件要求
- 内存:2GB RAM 即可运行
- 系统:macOS、Windows、Linux 均支持
软件要求
- Node.js 22 或更高版本
- AI 模型 API Key(Claude、OpenAI、智谱 GLM、通义千问等都支持)
安装步骤
方法一:一键安装(推荐)
macOS / Linux:
curl -fsSL https://openclaw.ai/install.sh | bashWindows PowerShell:
iwr -useb https://openclaw.ai/install.ps1 | iex这个脚本会自动安装 Node.js 并完成基本配置。
方法二:手动安装
npm install -g openclaw初始化配置
1. 运行配置向导
openclaw onboard2. 风险告知
OpenClaw 能力很强,但也有风险。选择 Yes 继续。
3. 选择 QuickStart 模式
推荐新手选择快速启动模式。
4. 配置 AI 模型
选择你的 AI 供应商(国内外都支持):
- 海外:Anthropic Claude、OpenAI GPT、Google Gemini
- 国内:智谱 GLM、通义千问、MiniMax 等
输入对应的 API Key 即可。
5. 配置聊天平台
选择你要连接的平台,可以先跳过,后面再配置。
6. 完成配置
一路 Yes 完成剩余配置。
启动服务
启动 Gateway
openclaw gateway访问控制面板
打开浏览器访问 http://127.0.0.1:18789
常用命令速查
# 查看运行状态
openclaw status
# 健康检查
openclaw doctor
# 启动服务
openclaw gateway start
# 停止服务
openclaw gateway stop
# 重启服务
openclaw gateway restart
# 查看日志
openclaw logs --follow
# 更新版本
openclaw update聊天内斜杠命令
/status- 查看健康状态和上下文/model- 切换模型/compact- 释放窗口空间/new- 开始新会话/stop- 中止当前运行/tts on|off- 切换语音
下一步
- 连接聊天平台:飞书 或 Discord
- 浏览 技能库 扩展功能
- 阅读 技能安装指南
常见问题
Q: 需要什么技术基础?
基本会用命令行就行。安装过程已经很简单了,跟着文档一步步来即可。
Q: 安全吗?数据会泄露吗?
OpenClaw 是本地优先的,所有数据都在你自己的设备上。你完全掌控自己的隐私和数据安全。
Q: API 费用大概多少?
- 轻度使用(每天几条消息):$5-10/月
- 日常使用(每天自动化任务):$15-30/月
- 重度使用(持续监控):$30-50/月
Q: 可以用免费模型吗?
可以连接 Ollama 运行本地模型,但能力会比云端大模型弱一些。