# 为了省 $25,不值得… Canonical URL: https://www.traeai.com/articles/d91f706e-dc20-4b89-898f-e19bf14488c4 Original source: https://x.com/dotey/status/2050462792956698938 Source name: 宝玉(@dotey) Content type: tweet Language: 中文 Score: 7.8 Reading time: 2 分钟 Published: 2026-05-02T06:30:00+00:00 Tags: LLM, 边缘计算, MacOS, 本地推理, M4芯片 ## Summary 一名中国开发者在无网络的跨大西洋航班上,用M4 MacBook Pro本地运行Llama 70B完成客户项目,拒绝支付25美元机上WiFi费,印证了本地大模型推理的工程可行性。 ## Key Takeaways - M4芯片+64GB内存已支持Llama 70B级模型在MacBook上全量本地推理 - 离线场景下本地大模型可替代云端API完成真实客户工作流 - 25美元机上WiFi成本 vs 本地算力投入,正推动边缘AI决策权回归终端 ## Outline - 事件背景 — 宝玉转发一条推文,讲述中国开发者在飞机上离线运行Llama 70B完成客户项目的经历。 - 硬件与环境 — 设备为MacBook Pro M4(64GB内存),全程无网络,跨大西洋航班持续11小时。 - 技术可行性验证 — Llama 70B在macOS本地量化+推理成功,未依赖OpenAI/Anthropic等云端API。 - 经济性与工程权衡 — 主动放弃25美元机上WiFi,体现本地算力成本已低于轻量云服务边际支出。 ## Highlights - > 他坐在跨大西洋航班的靠窗位置,设备是 MacBook Pro M4,64GB 内存。机上 WiFi 要价 25 美元,他拒绝了。 — 原文引用段 - > 在飞机上用 MacBook 本地跑 Llama 70B,整整 11 小时没有网络,处理了完整的客户项目。 — 原文引用段 - > 没有云端 API,没有连接 Anthropic 或 OpenAI — 原文引用段 ## Citation Guidance When citing this item, prefer the canonical traeai article URL for the AI-readable summary and include the original source URL when discussing the underlying source material.