29_阿里刚刚发布的 Qwen 3.5,到底能玩出什么花样?今天我用 Ollama 给你现场演示。


一、Qwen3.5来了,智能体大爆发

最近很火的龙虾(openclaw)带动了一批新的智能体出现。紧接着 Qwen3.5 发布,把它们也纳入进来,两者结合,让更多人能以更低的成本尝试。于是大家开始讨论:2026 年,AGI真的要来了?从 Qwen3.5 的表现来看,通用智能的雏形已经开始显现。

大家好,这里是灵智宝盒。这个频道平时会分享一些实用又有趣的软件和工具,如果你对这类内容感兴趣,可以关注一下。今天要聊的是阿里最新开源的 千问3.5,它到底厉害在哪儿呢?

二、为什么它这么厉害?

  • 性能强大,硬件要求低
    Qwen3.5 只有 9B 参数,但性能已经接近 GPT-OS 120B。显存占用也很低,只要 6G,普通几百块的显卡就能跑起来。 这意味着智能不再是少数人的专属,而是人人都能用。小模型却能展现大能力,也许这才是真正通往 AGI 的路。

  • 能看文字,也能看视频
    它是多模态模型,支持视觉。以前要让 AI 看视频至少需要 30G 显存,现在门槛大大降低。
    能看懂文字,也能理解视频画面,这是通用智能的重要标志之一。

  • 部署超级简单
    支持 Ollama,一行命令就能安装和部署,人人都能上手。
    当智能体能在本地运行,不再依赖云端,这也是 AGI 落地的重要一步。

  • 能调用工具,适配智能体框架
    它能完美适配 OpenClaw 等最新智能体框架,尤其在本地化场景下优势明显。再也不用担心 token 消耗带来的焦虑。
    工具调用能力,让 AI 不只是“聊天”,而是真正能完成任务,这也是 AGI 的核心特征。

三、动手演示:三步搞定

  1. 安装 Ollama

  2. 一行命令安装 Qwen3.5
    模型下载地址

  3. 一行命令让 Qwen3.5 看懂视频

    脚本/代码地址

四、总结与下一步

今天我们一起认识了 Qwen3.5 的特点:高性能、低门槛、多模态、支持工具调用。我们还学会了用 Ollama 部署它,并做了简单的演示。

Qwen3.5 不仅能看懂文字,还能理解视频画面。随着 OpenClaw 的爆火,本地化智能体的应用场景会越来越多。毕竟用本地模型,不用担心 token 消耗带来的“钱包刺痛”。

而更重要的是,这些能力组合在一起,正是通用智能的雏形。2026,或许真的就是 AGI 的前夜。
下一期,我们会深入探讨 Qwen3.5 在 OpenClaw 中的具体应用,相信会带来更多惊喜。这样的模型,必将为更多人打开更多可能。你也赶紧试试吧——只需一行命令,就能跑起来。

如果你喜欢我的内容,记得点个关注,敲响小铃铛,这样你就能第一时间收到我的最新分享。我们一起研究,一起见证 AGI 的到来!