小白都可以看懂的小龙虾安装教程

最近的OpenClaw,即”小龙虾”已经火到了天际,各种安装、卸载、使用的新闻可以说铺天盖地,Mac Mini也一举跃升为”理财产品”,前段时间我也尝了个鲜,有了一些体验,虽然还是摸索中,但对这种生态有了初步的认识。

首先,我们得整出一个能用的”小龙虾”。它可以部署到本地,也可以部署到云端服务器,两种部署方式的核心功能完全一致,只是运行环境和操作细节不同,如下是两种部署形式的一些对比,可以结合自己的需求选择合适的方案。

1. 运行环境与依赖

  • 本机部署:依赖你自己的电脑(Windows / Linux / macOS)。需要手动安装依赖、配置环境,并保持电脑开机且网络通畅。
  • 云端部署:运行在云服务器(如阿里云ECS/轻量应用服务器)上。由云平台提供稳定的计算资源,无需占用本地设备。

2. 可用性与稳定性

  • 本机:电脑关机、休眠或断电后,OpenClaw 服务即停止;本地网络波动也可能影响访问。
  • 云端:云服务器通常 7×24 小时运行,自带公网固定 IP,服务稳定可靠,适合长期运行的自动化任务。

3. 访问方式

  • 本机:默认只能在局域网内通过 http://127.0.0.1:18789 或内网 IP 访问。如需外网访问,需自行配置内网穿透(如 frp、ngrok),操作复杂且可能不安全。
  • 云端:部署完成后直接获得公网 IP,配置好防火墙端口即可从任何地方通过 http://服务器IP:18789 访问,使用更方便。

4. 成本

  • 本机:硬件成本已有,仅需支付电费,适合低成本试用或开发测试。
  • 云端:需按云服务器配置付费,但省去了自己维护硬件的麻烦。

5. 性能与扩展性

  • 本机:性能受限于本地硬件(CPU、内存),运行大型模型或多任务时可能吃力;升级硬件成本高。
  • 云端:可根据需要随时升降配置(如增加内存、带宽),弹性好,且云厂商通常提供更高的网络带宽。

6. 数据与隐私

  • 本机:所有数据(包括对话记录、上传文件)完全存储在本地,隐私性最强。
  • 云端:数据存储于云服务器,理论上云厂商有访问权限(但一般会加密)。如果你对数据敏感,需自行评估风险。

7. 管理与维护

  • 本机:需要自己手动更新 OpenClaw 版本、安装技能(Skills)、排查故障。
  • 云端:云厂商提供的一键镜像通常会预装好基础环境,后续技能安装可通过 SSH 执行 docker exec 命令完成,相对规范;但服务器系统维护仍需用户负责。

如何选择?

  • 选本机:想免费试用、开发调试、对数据隐私要求极高、有公网访问需求且愿意折腾内网穿透。
  • 选云端:追求稳定 7×24 小时服务、需要随时随地访问、希望快速上手免维护、部署给团队使用。

但经过这段热度,很多安全问题,暴露了出来,如果部署到本机,由于超高权限可能做任何事情,风险性很高,因此它更适合运行在一个与个人主力电脑相互隔离的环境中,可以是一台旧电脑(MacOS系统目前支持的程度最好),也可以是一台云服务器(通常推荐Linux系统),目前OpenClaw对Linux操作系统同样支持程度较好,并且云端环境也与本地电脑强隔离,不会对保存在本地电脑的数据造成不良影响。

我选择的是部署到腾讯云服务器,有两种形式可供选择,

方式一:新购一台轻量应用服务器

基于轻量应用服务器Lighthouse产品购买页的下单步骤,逐步操作即可,

  • 应用创建方式:应用模板 > AI智能体 > OpenClaw(龙虾)
  • 地域:国内、海外地域均支持。注意:请根据使用场景和模型来选择服务器地域。例如接入QQ、企业微信通常选择国内地域,接入Discord、WhatsApp则通常选择海外地域。同时也要考虑后续需要调用国内模型还是海外模型,如调用国内模型一般推荐国内地域的服务器。
  • 套餐:
    • 套餐类型:入门型(高性价比首选)、锐驰型、通用型。
    • 套餐配置:推荐2核4G内存或更高配置的套餐,最低配置支持2核2G内存(适合简单体验)。
    • 服务器名称、登录方式等按需配置即可。

基于OpenClaw应用模版完成服务器创建后,此时OpenClaw也已经同步在服务器中完成安装部署。在轻量云控制台界面中,点击服务器实例卡片中的“…”按钮,选择管理实例,即可进入实例管理页面,进行后续的OpenClaw模型配置和通道配置操作,

方式二:重装一台现有的轻量应用服务器

如果您的腾讯云账号内已经有存量的轻量应用服务器Lighthouse实例,并且希望在该服务器中安装OpenClaw,且该服务器中的旧数据无需保留,则可以使用”重装系统”的方式进行安装。

首先进入腾讯云轻量云产品控制台,找到自己账号下需要重装的存量Lighthouse实例,在实例页面内点击”…”或”更多”按钮,找到并点击重装系统,

在重装系统的页面,选择”使用应用模板 > AI智能体 > OpenClaw(Clawdbot)”,登录凭证直接选择重装后设置

点击页面内的确定按钮,等待重装完成后,继续进行后续步骤即可。

其实还可以通过控制台上的”腾讯云AI助手”协助安装,我尝试了下,

如果有多台,它会提醒让你选择安装的机器,

但是我的服务器版本太旧了,无法满足Node.js 22的运行安装要求,给出了解决方案,进行降级安装,完成环境配置,

如果有问题可以跟它提,

选择降级方案,

但是安装错误,提醒还是兼容性的问题,说明以上方案可能不太严谨,

给我的解释是说它不支持,刚才说的不算了?

为OpenClaw配置模型和通道

服务器装完,就可以给OpenClaw配置模型和通道,然后才能使用。

模型可以理解为OpenClaw的”大脑”,需要单独购买模型服务并接入OpenClaw。通道指的是和OpenClaw进行交互的聊天应用,如QQ、企业微信、飞书、钉钉等,方便同OpenClaw进行对话。

进入OpenClaws配置面板

首先进入轻量云产品控制台,选中对应的已部署OpenClaw的轻量应用服务器,点击之后进入”管理实例”页面,

点击进入”应用管理”页签,可以看到如下所示的界面,

接下来即可在控制台界面上进行OpenClaw的模型(Models)配置通道(Channels)配置(包括QQ、企微、钉钉、飞书等)。

(1)配置模型 (Models)

腾讯轻量云控制台提供的OpenClaw配置面板目前支持腾讯混元、腾讯云DeepSeek、DeepSeek(深度求索)、月之暗面Kimi、智谱GLM、MiniMax、豆包、通义千问、文心一言等常用国内大模型API Key一键配置,也支持配置其他的自定义模型(如OpenAI GPT、Gemini、Claude等)。

示例一:腾讯云模型Coding Plan套餐(推荐)

在轻量云控制台OpenClaw配置面板中,您可以添加腾讯云模型Coding Plan套餐,可以按照包月方式计费,提供单位时间段内的模型调用次数额度,无非按照模型Tokens用量计费。目前腾讯云模型Coding Plan已集成腾讯混元、智谱GLM、Kimi-K2.5、MiniMax M2.5等多种不同的模型,同时支持系统自动选择合适的模型。

在OpenClaw配置面板中选择腾讯云Coding Plan并选择具体使用的模型,默认为”自动”,会通过算法自动匹配最优模型,

在模型配置的卡片中单击一键添加并应用,如果你此时尚未购买Coding Plan套餐包,则可以首先在弹窗中单击前往购买,但是一定要注意各种收费策略,

稍等片刻后即可完成腾讯云Coding Plan的配置,

示例二:腾讯云DeepSeek

开通腾讯云DeepSeek模型服务后,在免费额度用尽后会转为按量后付费并扣除腾讯云账户下的余额。因此为了避免产生预期外的费用,建议仅使用腾讯云DeepSeek模型服务体验OpenClaw能否正常调用模型。

目前轻量云产品控制台的OpenClaw配置面板中,针对腾讯云DeepSeek提供了一键添加并应用的方式,无需手动配置API Key即可启用。

在OpenClaw配置面板中选择腾讯云DeepSeek并选择模型版本(如DeepSeek V3 0324),单击下方的一键添加并应用按钮,

在接下来的弹窗中,需要确认一键添加并应用腾讯云DeepSeek模型的注意事项。确认一键添加并应用腾讯云DeepSeek模型时,将开通腾讯云DeepSeek模型服务及后付费,并使用APIKey(如没有则自动创建),当资源包耗尽时,将以”后付费方式”按小时从腾讯云账户余额中扣费,欠费时无法使用。

扣费顺序:体验资源包>付费资源包>后付费(账户可用余额)。

确认无误后在弹窗内单击确定按钮,稍等片刻后,即可完成腾讯云DeepSeek模型的配置。

示例三:MiniMax Coding Plan套餐

首先要购买MiniMax Coding Plan套餐。

https://platform.minimaxi.com/subscribe/coding-plan

购买套餐成功后,进入MiniMax Coding Plan的API Key管理页,注意Coding Plan的API Key和普通的API Key相互独立),点击页面内的重置并复制按钮,复制API Key,

复制API Key之后,回到轻量应用服务器应用管理页面,选择MiniMax(国内-Coding Plan),并选择模型版本(如MiniMax M2.1),将复制好的API Key粘贴进面板的”API Key”输入框,点击添加并应用按钮保存模型API Key配置,

同样稍等片刻,出现”模型添加应用成功”的提示,此时模型配置的页签中将会新增一条模型配置,并处于“应用中”状态,即代表模型的API Key配置成功。此时,具备OpenClaw可用功能的服务器就配置完成了。(2)配置通道目前云上OpenClaw可以接入QQ、企业微信、飞书、钉钉、Telegram、Discord、WhatsApp、Slack等众多国内和国外的社交APP,我选择接入飞书,如下是大致的操作步骤。接入方式一(快捷配置)在通道(Channels)的下拉列表中选择”飞书”,

选择”快捷配置”后,点击”前往授权”按钮,

使用飞书App扫描弹出的配置二维码,

扫码后,在飞书App内选择”继续授权登录”,完成登录后,返回腾讯轻量云Lighthouse应用管理页面,点击弹窗中的”我已完成扫码”,

随后飞书机器人将自动进行配置,等待弹出”飞书机器人授权配置成功”后,则代表快捷配置已完成,

进入飞书应用的搜索栏,输入机器人名称,找到自动创建的机器人,点击该机器人,即可进行对话,

接入方式二(手动配置)

创建飞书企业自建应用

首先,需要使用飞书账号登录飞书开放平台,登录成功后,点击创建企业自建应用

填写应用名称(如”OpenClaw助手”)、应用描述,选择应用图标,点击创建按钮,进入应用管理页面,

添加机器人

在前一步所创建应用的管理页面,左侧导航栏中找到并点击添加应用能力,在弹出的列表中选择机器人,点击添加,

提示:添加机器人之后,可以暂不发布,待其他配置完成后一并发布。

查询AppID和AppSecret

在左侧导航栏找到”凭据与基础信息”,点击进入。在页面中找到”App ID”和”App Secret”两个参数,分别点击右侧”复制”按钮,将其保存到个人记事本或备忘录中(注意数据安全,勿泄露),后续步骤中需要使用,

进入腾讯云控制台,选中对应的已部署OpenClaw的Lighthouse服务器实例,点击服务器卡片进入“管理实例”页面,

进入腾讯轻量云Lighthouse应用管理页的配置面板,

通道配置(配置飞书机器人App ID和App Secret)

进入”应用管理”页签,在”通道配置”输入框,选择”飞书”,输入前面步骤中查询到的飞书机器人的App ID和App Secret,并点击应用并确定执行操作,等待几十秒后页面提示”保存成功”即完成配置,确保你的飞书通道显示”使用中”。

提示:OpenClaw支持同一台服务器配置多个通道,例如支持同时接入QQ机器人和飞书机器人。因此,如果当前正在配置的服务器之前已经接入了其他通道,也可以继续添加通道。

飞书机器人相关配置

事件配置

在飞书应用管理页,左侧导航栏找到”事件与回调”,点击进入页面。在”事件配置”页签中选择”长连接接收事件”,点击保存,

此时如果事件配置保存成功,可直接前往后续的“添加事件”步骤。

(可选)如果检查前面步骤中的机器人App ID和App Secret均已经正确配置,但点击保存后仍然报错”应用未建立长连接”,可以参考以下步骤来建立长连接:在轻量应用服务器应用管理页面,找到OpenClaw状态显示,点击”重启”按钮,重启网关服务,再返回飞书开放平台,点击保存事件配置,完成建立长连接,

添加事件

点击”事件配置”页面中的”添加事件”,在弹出的列表中,搜索并添加”接收消息”,点击”确认添加”,按照指引确认开通权限,

完成添加后,可以在当前页面的列表中查看到已添加的事件,

回调配置

在”事件与回调-回调配置”页面中,订阅方式选择”使用长连接接收回调”,点击保存,无需填写其他地址,配置自动生效,

权限配置

在飞书应用管理页,左侧导航栏找到”权限管理”,点击进入页面。点击页面中的”批量导入权限”按钮,弹出权限导入窗口,

复制以下代码,替换前面弹窗中原有的JSON内容,点击下一步,确认新增权限,继续申请开通,确认后等待权限导入完成,

{  "scopes": {    "tenant": [
      "im:message",      "im:message.p2p_msg:readonly",      "im:message.group_at_msg:readonly",      "im:message:send_as_bot",      "im:resource",
      "contact:user.base:readonly",      "im:message.group_msg",      "im:message:readonly",      "im:message:update",      "im:message:recall",      "im:message.reactions:read",
      "docx:document:readonly",      "drive:drive:readonly",      "wiki:wiki:readonly",      "bitable:app:readonly",      "task:task:read",      "contact:contact.base:readonly",      "docx:document",      "docx:document.block:convert",      "drive:drive",      "wiki:wiki",      "bitable:app",      "task:task:write"    ],    "user": []  }}

权限导入完成后,可以在权限列表中查看已成功导入的权限。

创建版本并发布

在飞书应用管理页,左侧导航栏找到”版本管理与发布”,点击进入页面。点击右上角的创建版本,

填写应用版本号(此处以1.0.0为例,您可以自行定义版本号)和更新说明,点击保存并确认发布,

和飞书机器人进行交互

完成前面的步骤之后,就可以和飞书机器人进行单独聊天,或者将飞书机器人添加进群聊。以电脑版飞书软件为例(手机端飞书的操作类似),登录飞书后,点击搜索框,

在搜索框中输入前面步骤中创建并发布的飞书机器人的应用名称,输入回车进行搜索,

单击搜索到的机器人,进入私聊页面,即可开始与已经接入OpenClaw的飞书机器人进行对话。首次对话会如果提示如下图所示的配对(Paring)请求,可以复制机器人回复的最后一行命令行,

接下来返回轻量应用服务器控制台,选中前面步骤中完成OpenClaw配置的服务器,点击登录,使用OrcaTerm终端免密登录服务器。在终端中粘贴上一步中复制的命令行,点击回车执行命令。

命令完成执行后会提示配对成功,

接下来继续尝试与该机器人进行对话,如果机器人以AI的方式进行回复,如下这种的即说明配对成功,

支持的消息类型

基于前述步骤将OpenClaw接入飞书后,飞书机器人除了能够进行接收、回复基础的文本信息外,还支持更多消息类型,详情如下表所示,

飞书机器人支持的消息类型和功能是否支持
接收文本信息✅ 已支持
接收图片✅ 已支持
接收文件✅ 已支持
接收音频、视频✅ 已支持
回复文本信息✅ 已支持
回复图片✅ 已支持
回复文件✅ 已支持
回复音频✅ 已支持
回复内容支持Markdown格式✅ 已支持
主动发送消息(如定时发送提醒)✅ 已支持
操作飞书文档、Wiki知识库、飞书云盘✅ 已支持

上述表格仅代表飞书机器人支持接收、回复的消息类型,实际能否完成处理图片、文件等任务,还取决于OpenClaw接入的模型是否能具备相应的处理能力。

此时,你可以给它起名,让它熟悉你的日常询问习惯,和这个专属”小龙虾”培养感情了,但同时需要注意信息安全,可以装个检测skill安全的skill(例如skill-vetter),它会评估安全风险后再安装。

声明:来自bisal的个人杂货铺,仅代表创作者观点。链接:https://eyangzhen.com/6894.html

bisal的个人杂货铺的头像bisal的个人杂货铺

相关推荐

添加微信
添加微信
Ai学习群
返回顶部