过去,大家习惯通过公有云 API 获取 AI 能力;但随着 OpenClaw 爆火,个人和企业都需要本地 7×24 小时待命的 “数字员工”。奈何云端方案的隐私风险和高额 Token 成本,让工业级智能体很难大规模落地,自建本地大模型服务已成刚需。
近日,众智 FlagOS 联合腾讯云 HAI,将 Qwen3‑4B‑hygon‑flagos 模型镜像正式上线至 HAI 社区,开发者可直接拉取使用。基于该镜像,用户能够在加速卡上快速运行 FlagOS + OpenClaw,以小模型驱动智能体执行任务,轻松完成从公有云到本地 AI 服务的无缝切换,同时深度参与到国产 AI 芯片标准化生态的建设中。
众智 FlagOS 是由智源研究院打造的开源 AI 系统软件栈,致力于构建统一、开放、安全的全栈平台,面向多元计算架构构建统一开源技术栈,实现一次开发、多芯复用、全域部署,推动国产 AI 芯片生态实现标准化适配与规模化落地。该平台支持多款异构 AI 芯片,可帮助用户快速部署模型与智能体。
安装及测试过程
基于 FlagOS 系统软件栈的跨芯能力,众智 FlagOS 社区把 Qwen3-4B 适配至多款GPU硬件。以下内容重点介绍如何部署与配置 FlagOS 版 Qwen3-4B的过程,仅用于复现实验结果,不影响对 Agent 能力的判断。
1.安装Qwen3-4B-hygon-flagos
a.首先,从 HAI 社区平台找到 Qwen3-4B-hygon-FlagOS,根据README.md拉取模型并启动服务。
以 ModelScope为例,下载模型权重
b.点击【部署当前镜像】获取镜像拉取命令,从 HAI 社区拉取镜像
c.通过下面的代码,启动容器。
这段代码可直接复制使用,也可以根据需要修改容器名,即在第4行--name=flagos对 name 进行修改。
d.进入容器(如果上一步修改了容器名,这里要将flagos对 name 进行修改。
e.启动服务
2.安装配置OpenClaw
配置过程:
a.需要注意的是,配置本地模型时,厂商一定是加速推理工具如vllm。
执行之后出现如下信息提示:
启用并设置为默认模型
可以看到当前默认模型已经切换为 Qwen3-4B-hygon-flagos。
b.执行下面代码,可以看到模型已经切换完成。
可以看到模型已经切换完成。
3.配置 channel 为QQ
a.启动openclaw网关, 命令如下:
b.启动成功后,您可以在QQ软件中尝试和已经打通OpenClaw的QQ机器人进行单独聊天,或者在群里与QQ机器人进行对话。如果QQ机器人能够以AI的方式对话,则说明您已经成功完成OpenClaw应用接入QQ机器人。
接下来您就可以开始进一步探索OpenClaw接入QQ机器人之后的更多使用场景。
趋势展望
这次在 OpenClaw 连接QQ的场景中对 Qwen3-4B-hygon-flagos 进行了测试,发现Agent 的能力边界正在发生转移。




0 条评论
请「登录」后评论