
Clawdbot(现名为 OpenClaw),当今火到什么程度呢?
不到一周,GitHub 直冲12 万Star,"配件" Mac mini 卖断货,阿里、腾讯火速接入,通顺飞书的教程,满天飞。

就连 Anthropic 都急得让它更名,两次。
之是以这样火,不为别的。
就因为 Clawdbot 让 AI 不再是一个平凡的 chatbot,而是一个7 × 24 小时不摸鱼的 AI 职工——
你寝息,它分析;你开会,它盯盘;你忙其它,它连续干活。
而且只好手机上一条音问,它就能随时反映,干好了还会主动 call 你。
诚然了,Clawdbot 也并非完好。
不少网友发现,一到真用起来的时候,钱包立马遭不住了。

图源:YouTube 博主 Bijan Bowen
毕竟,它可能吭哧吭哧地转了一整天,只科罚了一个小问题,就照旧偷偷卷走你几百好意思金的 Token 费,主打一个不白干。

好在,这事儿也不是莫得办法。
最近,GitHub 上新开源了一个国产框架,叫玄武 CLI。
它不错让你无须买 Mac mini,也无须再为 API 费钱,平直在土产货跑 Clawdbot,而且规复生适配了价钱更实惠的国产芯片。
(下为 Clawdbot 应用视频,视频均经 2 倍加快)
这下,龙虾(Clawdbot)是真实"香"了。
玄武 CLI:国产开源版 Ollama
轻便来说,咱不错把玄武 CLI 领路成一个国产开源版的 Ollama。
一方面,它把土产货部署模子这件事,作念成了"应用商店式"的体验:
选模子、拉下来、平直用,无须纠结神情、旅途和一堆破碎建树。
另一方面,它把那些正本最容易劝退生人的活儿:
配环境、装驱动、对架构、调参数、盯显存、查文档、写业绩接口,也都提前兜住了。
在使用上,玄武 CLI 的大呼体系与 Ollama 高度一致:xw pull / run / list / stop,会用 Ollama 的基本就能无缝上手。
比如,只需要一转拉取(pull)大呼:
xw pull qwen3-32b
玄武会自动完成模子下载、切分和加载。初度启动后,模子即可快速反映,32B 及以内模子基本都能在 30 秒内完成启动。
接着再输入:
xw run qwen3-32b
就不错平直和模子对话了,不需要非凡搭 WebUI,也无须我方写业绩。
除此以外,像 xw list / ps 这些大呼,也把土产货模子握住顺遂科罚了:装了什么、跑着什么一眼就能看清,调试和运维都很坦然。
{jz:field.toptypename/}
有了这些,模子就不单是能在土产货跑起来,还不错:
平直动作土产货 AI 引擎,接入 Clawdbot 形成 7 × 24 小时在线推行器;
连到使命流(如 Dify)、自动化剧本或里面系统,替代云表 API 作念代码、分析、批处理。

模子、算力和数据都在土产货,不仅省俭本钱,也幸免了 Agent 权限可能带来的信息显露风险,平坦荡玩 Clawdbot。
开源易上手,无缝兼容种种框架
玄武 CLI 自己的装置和部署也畸形轻便,况且系数开源。
GitHub/GitCode 一键装置,解压即用,支捏 Docker 容器化部署,信得过作念到0 本钱初学。

GitHub:https://github.com/TsingmaoAI/xw-cli
GitCode:https://gitcode.com/tsingmao/xw-cli
在装置层面,玄武 CLI 无须配复杂环境:无需手动处理依赖,下载解压就能驱动。
玄武 CLI 仅依赖基础驱动即可终了硬件的识别与探伤,通过预编译推理引擎极简启动,最快 1 分钟就能启动业绩。
同期,玄武 CLI 原生支捏多卡、多实例并行,每个模子实例彼此休止,即便某个实例出问题,也不会拖垮其他业绩。这让它具有更好的分解性和可彭胀性。
在应用接入层,玄武进一步把"替换本钱"降到最低。
它原生兼容 OpenAI API 门径,像 LangChain、LlamaIndex 这类常见框架,甚而 IDE 插件场景,频繁只需要改一转 API 地址,比赛下注app就能把正本的云表调用,切换本钱地模子。
此外,在启动和驱动时,玄武会按需加载模子,并勾通量化精度动态分派显存和显卡资源,幸免永劫刻恭候,同期充分运用土产货硬件。
正因为这些特质,玄武 CLI 终点符合动作 Clawdbot 这类 Agent 的"土产货发动机",而且不仅限于 Agent,种种开源大模子也都不错一转大呼接入。
国产芯片原生适配
若是说前边讲的,是让土产货跑模子轻便易上手,那信得过让玄武拉开差距的,是它对国产芯片的原生适配。
像 Ollama 这种土产货模子有诡计,体验熟练,但底层基本照旧围着英伟达那套体系走,硬件本钱当然高。
而玄武 CLI 则采取了更亲和、性价比更高的国产算力,让土产货跑模子变得可行且经济。
昔时国产芯片跑模子,常遭受建树复杂、性能波动、生态碎屑化的问题,能跑但没东谈主敢用。
不同厂商使用不同驱动、算力接口和通讯库,文档不完整、问题难复现,一朝遭受 bug,很难通过搜索或社区快速科罚。
与此同期,不同的应用也靠近异构芯片适配不毛:即便模子能跑,不同形貌、不同框架在不同芯片上部署,也可能系数不同,加多了开荒本钱和不笃定性。
面对这一困局,玄武 CLI 并莫得采取"写一套更注见识教程",而是平直在框架层"吞掉"了复杂度。
它将系数硬件相反封装在最底层,朝上构建了一个调治的算力资源池。
无论下面插的是什么卡,玄武都能自动识别芯片类型,勾通模子范围与显存情状,自动匹配最合适的推理引擎,并在多卡、多实例场景下终了智能调治。
这种"黑盒化"处理,透澈科罚了模子启动卡死、业绩不分解的问题。
而复古这一能力的底座,恰是玄武 CLI 分层设想的系统架构:

最表层,是开荒者熟悉的大呼行和尺度 API,中间层平稳模子调治、资源握住和生命周期放手。
而要道能力辘集在推理引擎这一层。
在这一层,玄武收受的是多引擎并行架构:既有侧重深度优化的自研引擎MLGuider,也支捏华为原生的MindIE,同期兼容慑服社区尺度的vLLM,并配套了进度休止(IPC)和自动路由策略。
这种多引擎并行架构,保证了无论用什么卡、跑什么模子,都能找到最优解。
透澈抹平了不同国产芯片之间的底层技能相反,让路发者无需瞻仰硬件细节,就能终了跨芯片的模子部署。
再勾通离线可用、不依赖云表的特质,玄武 CLI 本色上是在国产算力环境中,补王人了一块始终缺失的基础模式,让模子部署变得平缓可控。
清昴智能是谁?
终末,让咱们先容一下玄武 CLI 背后的清昴智能。
清昴智能教授于 2022 年,中枢聚焦芯片适配,以及模子—框架—算子的合伙优化。
首创东谈主兼 CEO关超宇是清华特奖最年青的取得者。
教授三年以来,清昴智能已取得华为哈勃策略投资及多家国内一线基金的亿元级支捏。
在技能上,清昴走的是端到端的系统级优化道路:以自研异构推理引擎 MLGuider 为开端,向下协同硬件设想,朝上复古玄武智算平台与 Agentic AI 平台,终了从硬件协同到算子、框架、模子再到智能体的全栈优化。
在落地上,清昴曾推出多种国产一体机有诡计,达成分解 16+TPS 的高性能隐约发扬。
现时 MLGuider 已完成 15+ 主流芯片适配,在餍足预期推理收尾下,可有多种国产有诡计进行最优采取。
比如支捏 Qwen 80B 有诡计,通过玄武 CLI 可支捏华为华为 300I Duo,300I A2 等多种性价比有诡计。

此次新开源的玄武 CLI,也延续了清昴对开源共建的始终判断:让路发者和企业无须花大价钱,也能信得过用上国产算力和好用的土产货 AI 用具。
面向异日多智能体、多模态合作的趋势,清昴提前布局 Agentic AI 平台,为"每个公司领有 N 个数字职工"的期间,打好最底层、也最要道的地基。
而 Clawdbot,只是其中一个轻量级尝试——
你今天就能把它拉起来,让我方的电脑形成一个"数字职工",提前感受异日智能体期间的雏形。
体验通顺:
GitHub:https://github.com/TsingmaoAI/xw-cli
GitCode:https://gitcode.com/tsingmao/xw-cli
一键三连「点赞」「转发」「留意心」
包涵在褒贬区留住你的思法!
— 完 —
� � 点亮星标 � �
科技前沿进展逐日见
