极客前沿

极客资讯 正文

OpenClaw引爆AI本地化浪潮,苹果高内存Mac一机难求

2026-02-16 00:31 | Tom's Hardware ...

当AI智能体“搬进”你家电脑

想象一下,你刚下单了一台顶配的Mac Studio,满心期待用它来跑最新的大语言模型,结果苹果告诉你:抱歉,得等一个半月。这不是玩笑,而是最近许多科技极客的真实遭遇。

据Tom's Hardware报道,苹果多款Mac产品的交付时间突然拉长,尤其是高统一内存配置的机型。基础款MacBook Air、iMac等还能当日送达,但一旦选择升级内存,等待时间就可能增加三周。最夸张的是搭载512GB统一内存的M3 Ultra Mac Studio——现在下单,可能要等五到六周才能到手。

News Image

幕后推手:一个叫OpenClaw的“网红”AI

这一切,似乎都与一个名为OpenClaw的开源AI智能体有关。Creator Buddy创始人Alex Finn在社交平台上直言,这款“世界上第一个真正的AI智能体”正在驱动前所未有的需求。

为什么是Mac?这得从AI本地化运行的痛点说起。AI投资人Ben Pouladian指出,如果你要用一个700亿参数的FP16模型来运行个人智能体,仅权重就需要约140GB内存。这已经超出了单张RTX 5090显卡(32GB显存)的承载能力,即使用五张显卡凑到160GB,也会被PCIe瓶颈卡住脖子。

News Image

而苹果的统一内存架构恰好解决了这个问题。虽然Mac使用的LPDDR速度不如HBM,但CPU、GPU、NPU共享同一块内存的设计,避免了PCIe瓶颈,也无需数据中心级显卡才有的NVLink技术。简单说,它让大模型在个人设备上“跑得开”。

从数据中心到桌面:AI硬件的“平民化革命”

过去,运行大型AI模型是数据中心和科技巨头的专利。现在,随着开源AI智能体的成熟,越来越多的开发者、研究者和科技爱好者开始尝试在本地部署自己的AI助手。这不仅仅是“玩一玩”,而是代表着AI技术从云端向边缘设备的重大迁移。

News Image

Eternal AI公司早在两年前就开始用成群的Mac Studio搭建集群,用于长期运行的智能体任务和本地私有大语言模型。他们在社交平台上调侃:“世界终于赶上我们2024年就在做的事了。欢迎回家,OpenClaw!”

这种需求不仅限于顶配的Mac Studio。升级内存的Mac mini和MacBook Pro现在也需要等待两到三周。虽然苹果CEO蒂姆·库克将部分原因归咎于内存供应紧张,但消费端突如其来的AI热潮无疑给供应链带来了额外压力。

News Image

极客的狂欢与供应链的挑战

对于科技爱好者来说,这或许是一场“甜蜜的烦恼”。一方面,他们终于有了在个人设备上运行强大AI智能体的可能;另一方面,却要面对漫长的等待周期。社交平台上,有人吐槽:“一个月前买两台Mac Studio只要等14天,现在要54天——这世界过去一个月的变化比过去100年加起来还大!”

从行业角度看,这一现象揭示了几个趋势:

News Image
  • AI消费化加速:AI不再只是企业工具,正快速进入个人计算领域。
  • 硬件设计的重要性凸显:苹果的统一内存架构意外成为AI本地化的“杀手锏”,这可能促使其他厂商重新思考硬件设计。
  • 开源生态的威力:一个开源项目就能撬动整个硬件市场,彰显了开源AI社区的活力。

当然,也有人持谨慎态度。毕竟,AI本地化仍面临能耗、散热、成本等多重挑战。但对于那些迫不及待想“驯服”AI智能体的极客来说,多等几周或许只是这场革命中的一个小插曲。毕竟,当你的个人AI助手能在本地流畅运行时,等待或许就值了。

下次当你看到“交付时间:6周”时,不妨想想——这可能不是供应链问题,而是一群AI极客正把未来“装进”自己的电脑里。