一台号称“全球最小超算”的设备引发了科技圈的广泛关注。这款名为NVIDIA DGX Spark的个人AI超级计算机,搭载了GB10 Grace Blackwell超级芯片,拥有128GB统一内存和2000亿参数的处理能力,售价约3万元人民币。其目标用户群体包括科研人员、数据科学家和学生,旨在为他们提供桌面级的高性能AI计算支持。
从CES展会亮相到如今正式推向市场,DGX Spark的定位逐渐清晰。根据网络评测数据,这款设备在轻量级模型中表现优异,甚至能够稳定运行1200亿参数的大型模型,整体性能介于RTX 5070和RTX 5070 Ti之间。不过,其273 GB/s的内存带宽成为明显短板——算力足够强大,但数据传输速度受限,导致实际体验中“思考快但表达慢”,类似“脑子转得快却说话结巴”的情况。
针对这一瓶颈,极客团队EXO Lab提出了创新解决方案:将DGX Spark与Mac Studio M3 Ultra(带宽达819 GB/s)协同工作,通过“预填充-解码分离”(PD分离)技术,将推理速度整体提升2.8倍。具体操作中,DGX Spark负责算力密集的预填充阶段,而Mac Studio则承担带宽依赖的解码任务。两者通过流水线式分层计算,实现计算与数据传输的重叠优化。不过,这种组合方案的成本也水涨船高,两台DGX Spark加一台Mac Studio的总价接近10万元人民币。
抛开极限性能测试,DGX Spark的日常应用场景更具吸引力。官方提供了超过20种开箱即用的玩法,涵盖视频生成、智能体搭建、知识图谱构建等领域。例如,用户可通过ComfyUI框架运行阿里Wan 2.2 14B文本到视频模型,实现本地化视频生成,无需依赖云端服务。LM Studio等桌面工具也已支持该设备,用户可轻松部署大型语言模型。
在多智能体交互方面,Level1Techs展示了并行运行四个模型(包括1200亿参数的GPT-OSS和67亿参数的DeepSeek-Coder)的案例。得益于128GB大内存,设备可同时处理文本生成、代码编写、图像嵌入等任务。NVIDIA官网还提供了详细操作指南,例如将非结构化文本转换为知识图谱,或对视频进行搜索与摘要总结。
与Mac Mini M4 Pro的对比测试显示,DGX Spark在预填充阶段优势明显,但在解码阶段表现平平。例如,在DeepSeek R1开源模型中,Mac Mini的平均TPS(每秒生成词元数)为17.8,而DGX Spark仅为33.1。这种差异源于内存带宽的限制——DGX Spark采用的LPDDR5X内存带宽仅273 GB/s,远低于高端显卡GDDR7的1800 GB/s。
尽管存在短板,DGX Spark的生态丰富性和硬件设计仍获好评。多数用户反馈设备运行安静,拆解后可见内部布局工整。对于预算有限但需要本地化AI部署的用户,这款设备提供了新的选择;而对于追求极致性能的团队,其模块化设计也支持与更高带宽设备协同工作,拓展应用边界。

