为了省 $25,不值得…

- M4芯片+64GB内存已支持Llama 70B级模型在MacBook上全量本地推理
- 离线场景下本地大模型可替代云端API完成真实客户工作流
- 25美元机上WiFi成本 vs 本地算力投入,正推动边缘AI决策权回归终端
结构提纲
按章节快速跳转。
- §事件背景
宝玉转发一条推文,讲述中国开发者在飞机上离线运行Llama 70B完成客户项目的经历。
设备为MacBook Pro M4(64GB内存),全程无网络,跨大西洋航班持续11小时。
Llama 70B在macOS本地量化+推理成功,未依赖OpenAI/Anthropic等云端API。
主动放弃25美元机上WiFi,体现本地算力成本已低于轻量云服务边际支出。
思维导图
用一张图看清主题之间的关系。
查看大纲文本(无障碍 / 无 JS 友好)
- 本地大模型离线实践
- 硬件基础
- M4芯片
- 64GB统一内存
- 模型能力
- Llama 70B量化推理
- 完整客户项目交付
- 场景价值
- 航空离线环境
- 成本规避:$25 WiFi
金句 / Highlights
值得收藏与分享的关键句。
他坐在跨大西洋航班的靠窗位置,设备是 MacBook Pro M4,64GB 内存。机上 WiFi 要价 25 美元,他拒绝了。
在飞机上用 MacBook 本地跑 Llama 70B,整整 11 小时没有网络,处理了完整的客户项目。
没有云端 API,没有连接 Anthropic 或 OpenAI
宝玉 on X: "为了省 $25,不值得…" / X
Don’t miss what’s happening
People on X are the first to know.
Post
See new posts
Conversation

Show translation
为了省 $25,不值得…
Quote

huangserva
@servasyy_ai
·
May 1
这个也太屌了! 这个中国开发者在飞机上用 MacBook 本地跑 Llama 70B,整整 11 小时没有网络,处理了完整的客户项目。 他坐在跨大西洋航班的靠窗位置,设备是 MacBook Pro M4,64GB 内存。机上 WiFi 要价 25 美元,他拒绝了。 没有云端 API,没有连接 Anthropic 或 OpenAI x.com/browomo/status…
·
26
2
64
8
Read 26 replies
New to X?
Sign up now to get your own personalized timeline!
Sign up with Apple
By signing up, you agree to the Terms of Service and Privacy Policy, including Cookie Use.
Relevant people
-  宝玉 @dotey Follow Click to Follow dotey Prompt Engineer, dedicated to learning and disseminating knowledge about AI, software engineering, and engineering management.
-  huangserva @servasyy_ai Follow Click to Follow servasyy_ai 古早程序员 | AI出海 | 自由职业 机车游侠&机速购&骑享租创始人 15年前 freelance 起步 → 连续创业者 → 亏过1个亿,逆风翻盘中 分享创业,AI,读书,生活,健身
Trending now
What’s happening
Only on X · Trending
#DMDLAND3DAY1
Trending with DMD LAND SHOW NOW, ZEENUNEW FINAL LAND D1
Trending in United States
Sutherland
Combat Sports · Trending
gerald meerschaert
Trending in United States
Saint Athanasius
|
|
|
|
|
More
© 2026 X Corp.
问问这篇内容
回答仅基于本篇材料Skill 包
领域模板,一键产出结构化笔记投融资雷达包
把一条融资 / 创投新闻整理成投资人视角的雷达卡:交易要点、判断、竞争格局、风险、尽调清单。
- · 交易要点(公司 / 轮次 / 金额 / 投资人 / 估值,材料未明示则写 “未披露”)
- · 投资 thesis(这家公司为什么值得关注)
- · 竞争格局与替代方案