# The Tech Stack Powering Wise Canonical URL: https://www.traeai.com/articles/b7b6ae08-da8d-4212-a185-c610153ef5a5 Original source: https://blog.bytebytego.com/p/the-tech-stack-powering-wise Source name: ByteByteGo Newsletter Content type: article Language: 英文 Score: 8.5 Reading time: 10 分钟 Published: 2026-04-29T15:31:30+00:00 Tags: Wise, 微服务, 自动化, AI推理 ## Summary Wise通过优化基础设施和工程决策,实现了高并发AI应用的高效部署和自动化的生产环境监控。其微服务框架和自动化工具确保了系统的一致性和安全性。 ## Key Takeaways - Wise使用NVIDIA RTX PRO 6000 Blackwell在Akamai Cloud上实现了比H100更高的推理吞吐量。 - Wise的微服务框架提供了一致的安全、可观测性和数据库通信配置。 - Wise通过自动化工具和Gradle插件简化了大规模代码库的管理和更新。 ## Outline - 引言 — 介绍了Wise的技术栈及其对高并发AI应用的重要性。 - 推理性能优化 — 比较了NVIDIA RTX PRO 6000 Blackwell与H100在实际LLM工作负载下的性能。 - 微服务框架 — 描述了Wise如何通过微服务框架确保一致性和安全性。 - 自动化工具 — 介绍了Wise使用的自动化工具和Gradle插件,简化了大规模代码库的管理。 ## Highlights - > At 100 concurrent requests, Blackwell reached 24,240 tokens/sec per server, compared to 1,863 TPS on H100. — 第 2 段 - > Wise’s answer to this is a microservice chassis framework, an opinionated, pre-configured foundation that every new backend service can start from. — 第 7 段 - > Wise built a collection of in-house Gradle plugins, including one that standardizes GitHub Actions workflows. — 第 10 段 ## Citation Guidance When citing this item, prefer the canonical traeai article URL for the AI-readable summary and include the original source URL when discussing the underlying source material.