---
title: "컴퓨팅의 새로운 변화: 코어 및 에이전틱 워크로드의 확장"
source_name: "Google Cloud Blog"
original_url: "https://cloud.google.com/blog/ko/products/compute/whats-new-in-compute-at-next26/"
canonical_url: "https://www.traeai.com/articles/4b0569eb-82fe-455b-b40e-4d708e1aaf26"
content_type: "article"
language: "한국어"
score: 9
tags: ["Google Cloud","AI","컴퓨팅","인프라"]
published_at: "2026-04-28T01:00:00+00:00"
created_at: "2026-04-28T09:27:25.354708+00:00"
---

# 컴퓨팅의 새로운 변화: 코어 및 에이전틱 워크로드의 확장

Canonical URL: https://www.traeai.com/articles/4b0569eb-82fe-455b-b40e-4d708e1aaf26
Original source: https://cloud.google.com/blog/ko/products/compute/whats-new-in-compute-at-next26/

## Summary

Google Cloud Next '26에서 발표된 유동적 컴퓨팅과 새로운 인프라 기능이 AI 및 범용 워크로드를 최적화하는 방법을 다룹니다.

## Key Takeaways

- 유동적 컴퓨팅(Fluid Compute)은 AI와 범용 워크로드 간 리소스 균형을 실시간으로 조정합니다.
- Google Axion N4A는 비용 민감 워크로드에서 최대 2배 더 나은 가성비를 제공합니다.
- GKE Agent Sandbox는 에이전트 실행 환경을 안전하고 확장 가능하게 지원하며 TCO를 최적화합니다.

## Content

Title: 컴퓨팅의 새로운 변화: 코어 및 에이전틱 워크로드의 확장

URL Source: http://cloud.google.com/blog/ko/products/compute/whats-new-in-compute-at-next26/

Published Time: 2026-04-28

Markdown Content:
Google Cloud Next '26에서 우리는 더 높은 성능과 더 낮은 비용으로 핵심 범용 업무 및 AI 워크로드를 에이전틱 세상에 맞게 구현할 수 있는 다양한 컴퓨팅 기능을 발표합니다.

**이것이 중요한 이유:** IT 리더와 개발자들은 에이전틱 AI와 일상적인 고객 경험을 이끄는 웹 서버, 데이터베이스, 엔터프라이즈 애플리케이션 등 범용 사용 사례 사이에서 컴퓨팅 투자와 리소스의 균형을 맞춰야 하는 과제에 직면해 있습니다.

한쪽에서는 에이전트들이 컴퓨팅 인프라에 예측 불가능한 수요를 발생시키며, 종종 기하급수적으로 확장되기도 합니다. 단 한 번의 사용자 상호작용이 수백 개의 동시적이고 높은 처리량과 낮은 지연 시간을 요구하는 작업들을 즉각적으로 촉발할 수 있습니다. 반면, 범용 워크로드는 에이전틱 세상을 구동하는 데 필요한 데이터를 생성하고 보유합니다. 이들을 실행하기 위해 정적이고 파편화된 인프라에 의존하는 것은 성능 병목 현상과 비용 폭증의 위험을 초래하며, 결국 조직이 급격한 수요 증가에 대응할 수 없게 만듭니다.

단순한 휴가 검색이 재고 확인, 동적 가격 책정 모델, AI 기반 맞춤형 일정 생성이라는 방대한 에이전트 오케스트레이션을 즉각적으로 일으키는 글로벌 여행 애플리케이션을 생각해 보십시오. 현대적인 아키텍처가 없다면, 이러한 갑작스러운 수요 급증은 핵심 예약 데이터베이스를 마비시키고 비즈니스를 중단시킬 수 있습니다.

우리는 범용 및 에이전틱 워크플로에 맞춰 적응하는 Google Cloud 인프라인 유동적 컴퓨팅(Fluid Compute)을 통해 이 문제를 해결합니다. 유동적 컴퓨팅은 성능, 용량, 규모를 실시간으로 유연하게 조정함으로써 두 워크로드 모두 성공적으로 작동하도록 지원합니다. 이러한 동적 유연성은 Google Kubernetes Engine(GKE)의 자동화된 오케스트레이션과 새로운 Agent Sandbox를 기반으로 하며, 기계적인 속도로 안전하고 격리된 실행 환경을 즉시 프로비저닝합니다.

Next ‘26에서 발표된 새로운 컴퓨팅 기능들을 더 자세히 살펴보겠습니다.

### AI와 범용 워크로드의 통합 실행

에이전틱 플래닝과 강화 학습은 자율적인 태스크의 예측 불가능한 폭증을 처리하기 위해 매우 유동적인 컴퓨팅에 의존합니다. 에이전트가 생성한 코드를 격리하기 위해 정적인 인프라에 의존하면 심각한 프로비저닝 지연이 발생하고 클라우드 예산이 크게 늘어날 수 있습니다. 적응형 클라우드 토대를 채택하면 이러한 병목 현상을 제거할 수 있습니다. GKE Agent Sandbox를 활용하면 팀이 수천 개의 실행 환경을 안전하게 시작할 수 있습니다. 이러한 확장 가능한 샌드박스를 효율적인 Google Axion 프로세서와 결합하면 인공지능 혁신을 가속화하는 동시에 총소유비용(TCO)을 최적화할 수 있습니다.

Google Cloud 컴퓨팅 출시 및 발표의 새로운 소식은 다음과 같습니다.

*   **Google Axion N4A 정식 출시(GA):** Google의 커스텀 Arm 기반 Axion CPU의 민첩성을 활용해 보세요. Java 애플리케이션, 스케일아웃 웹 서버, 스타트업 및 엔터프라이즈의 SaaS 등 비용에 민감한 워크로드에서 동급 최신 x86 기반 VM보다 최대 [2배 더 나은 가성비](https://cloud.google.com/blog/products/compute/axion-based-n4a-vms-now-in-preview)를 달성할 수 있습니다. 자세한 내용은 [[여기](https://docs.cloud.google.com/compute/docs/general-purpose-machines#n4a_series)]에서 확인하세요.

*   **GKE Agent Sandbox(Axion N4A 기반 가성비 모델) 정식 출시(GA):** 하이퍼스케일러 중 업계 유일의 네이티브 샌드박스 서비스인 GKE Agent Sandbox는 성능 저하 없이 에이전트가 신뢰할 수 없는 코드와 도구 호출을 안전하게 실행할 수 있도록 설계된 확장 가능한 저지연 인프라를 제공합니다. Google Axion을 사용하면 비용이나 선택권의 타협 없이 선도적인 인프라에서 에이전트를 구축할 수 있습니다. Google Axion N4A 인스턴스에서 구동되는 GKE Agent Sandbox는 타사 대비 **최대 30% 더 나은 가성비**를 제공합니다. [[여기](https://docs.cloud.google.com/kubernetes-engine/docs/concepts/machine-learning/agent-sandbox)]에서 GKE Agent Sandbox를 사용해 보세요.

*   **첫 번째 Axion 베어메탈 인스턴스, Google Axion C4A.metal 프리뷰:** C4A.metal 인스턴스는 중첩 가상화의 성능 오버헤드나 복잡성 없이 Android 개발, 자동차 시뮬레이션, CI/CD 파이프라인, 보안 워크로드 및 커스텀 하이퍼바이저를 구동합니다. C4A.metal은 이번 여름 정식 출시 예정입니다. 자세한 내용은 [[여기](https://cloud.google.com/blog/products/compute/new-axion-c4a-metal-offers-bare-metal-performance-on-arm?e=48754805%E2%80%9D%20with%20%E2%80%9Chttps://docs.cloud.google.com/compute/docs/instances/bare-metal-instances#c4a-metal)]를 참조하세요.

*   **모든 쉐이프에서 Intel Xeon 6(Granite Rapids) 지원을 확대한 C4 인스턴스:** 네이티브 FP16을 지원하는 Intel AMX를 사용해 LLM 인퍼런스 및 벡터 검색과 같은 AI 워크로드에서 고성능을 구현하세요. 처리량은 높이고 지연 시간은 줄여 타사 대비 **13% 더 나은 가성비**를 제공합니다. C4 VM은 모든 쉐이프에서 Intel Xeon 6 프로세서를 사용할 수 있습니다. 자세한 내용은 [[여기](https://docs.cloud.google.com/compute/docs/general-purpose-machines#c4_series)]에서 확인하세요.

*   **유연한 약정 사용 할인(Flexible CUDs) 지원 확대 정식 출시(GA):** 총소유비용(TCO)을 최적화하면서 리전 및 VM 제품군 간에 지출을 유연하게 전환하세요. 이제 메모리 최적화(M1-M4), HPC 최적화(H3, H4D) VM 제품군은 물론 Cloud Run까지 더 넓은 범위의 VM 및 서비스를 지원합니다. 자세한 내용은 [[여기](https://docs.cloud.google.com/compute/docs/instances/committed-use-discounts-overview)]를 참조하세요.

### **고객 사례:**

*   **Unity:** Unity Vector를 통해 실시간 AI의 경제성을 재정의하고 있습니다. 온디맨드 기능 프로세서 워크로드를 Google Axion N4A 인스턴스로 마이그레이션하여 지연 시간의 증가 없이 비용 효율성을 20% 향상시켰습니다.

*   **Deutsche Börse:** 독일의 선도적인 시장 인프라 제공업체인 Deutsche Börse는 수십 개의 핵심 금융 애플리케이션을 최신 C4 및 C4D 인스턴스로 현대화했습니다. 이를 통해 매일 수백만 건의 금융 거래를 처리하는 데 필요한 일관된 성능을 확보했으며, [시장 출시 속도를 58% 앞당기고 TCO를 33% 절감](https://cloud.google.com/customers/deutsche-boerse?e=48754805)했습니다.

*   **WP Engine:** 1밀리초가 중요한 수백만 개의 디지털 경험을 제공합니다. C4D 및 N4D 인스턴스에서 GKE 클러스터를 실행하여 모바일 최적화 REST API의 지연 시간을 최대 60% 줄였으며, 데이터 집약적인 애플리케이션 요청 처리 속도를 최대 51% 높였습니다.

*   **eDreams ODIGEO:** 대규모 AI 기반 여행 플랫폼을 운영하는 이 회사는 Java 기반 이커머스 모듈을 Axion VM으로 마이그레이션했습니다. 이를 통해 수주가 걸리던 수동 코드 최적화 작업을 즉시 제거했으며, 코드 변경 없이 P95 지연 시간을 75%나 대폭 개선했습니다.

*   **Chainguard:** 소프트웨어 빌드 시스템의 완전한 격리를 위해 Axion C4A 베어메탈 인스턴스를 도입했습니다. 이를 통해 빌드 성능을 유지하면서도 아키텍처적 일관성을 갖춘 보안 개발 파이프라인을 구축하고 강력한 하이퍼바이저 보안 경계를 설정할 수 있었습니다.

### **I/O 및 지연 시간에 민감한 워크로드의 통합 실행**

AI와 핵심 워크로드 모두 데이터를 저장, 읽기, 이동하는 과정을 하나의 고성능 작업으로 처리하는 능력에 의존합니다. 전통적으로 이러한 단계는 vCPU 수에 묶인 네트워크 및 스토리지 제한으로 인해 속도가 느려졌으며, 이는 AI 모델이 작동하는 데 필요한 데이터를 충분히 공급받지 못하는 상황을 초래하곤 했습니다.

이제 가속화된 하이퍼디스크(Hyperdisk) 성능을 통한 신속한 데이터 액세스와 고성능 네트워킹을 활용하여 이러한 제약을 제거할 수 있습니다. 데이터 파이프라인이 컴퓨팅과 독립적으로 확장되도록 함으로써, AI 학습 및 I/O 민감 워크로드는 수요가 최고조에 달하는 시점에도 안정성을 유지하는 데 필요한 전용 대역폭을 확보할 수 있습니다.

*   **C4N 프리뷰:** 동시 모바일 앱 요청이나 실시간 재고 업데이트와 같은 대규모 네트워크 애플리케이션은 트래픽 피크 시 병목 현상이 발생할 위험이 있습니다. 복잡한 패킷 처리를 오프로드하는 Titanium 어댑터가 탑재된 C4N을 통해 처리량을 극대화하세요. C4N은 초당 9,500만 개의 패킷을 처리하며, 이는 다른 주요 하이퍼스케일러 대비 40% 우수한 성능입니다. 대규모 데이터 세트의 신속한 전송을 위해 설계된 C4N은 약 400Gbps의 VM 간 대역폭을 제공하며, 이는 vCPU당 대역폭이 4배 개선된 수치입니다. 또한 C4 VM 대비 인터넷 게이트웨이를 통한 이그레스(Egress) 네트워크 대역폭이 8배 증가했습니다. 하이퍼디스크 익스트림(Hyperdisk Extreme)과 결합된 C4N은 현대적인 데이터베이스와 기업용 AI 애플리케이션이 필요로 하는 저지연, 고속 데이터 액세스를 지원하며, 25GiB/s의 블록 스토리지 처리량과 약 100만 IOPS를 제공합니다. [[여기](https://forms.gle/tx1XV2yDrbMrcWgo8)]에서 C4N 프리뷰 액세스를 신청하세요.

*   **M4N 프리뷰:** 메모리 집약적인 데이터베이스를 운영할 때, 메모리 속도를 맞추기 위해 컴퓨팅 코어(vCPU)를 과도하게 프로비저닝하여 소프트웨어 라이선스 비용이 상승하는 경우가 많습니다. 새로운 M4N 시리즈는 바로 이 문제를 해결하기 위해 도입되었습니다. M4N에서 하이퍼디스크 익스트림을 사용해 Oracle 워크로드를 실행하면 TCO를 20% 이상 절감할 수 있습니다. vCPU당 26.57GiB의 RAM을 제공하여 훨씬 적은 코어로도 Oracle을 효율적으로 실행할 수 있기 때문입니다. M4N과 하이퍼디스크 익스트림의 조합은 주요 하이퍼스케일러의 고메모리 인스턴스 중 코어당 가장 높은 IOPS와 처리량을 제공합니다. [[여기](https://docs.google.com/forms/d/e/1FAIpQLSeTBNw_Z5SkaeVlDMgbeFPnHS_wGsrTomEDO2cI6RIQlx93qA/viewform?usp=sharing&ouid=101252396062406318722)]에서 프리뷰를 신청하세요.

*   **Z4D 발표:** 새로운 **Z4D 인스턴스**로 I/O 집약적 워크로드를 최적화하고 네트워크 기반 스토리지 병목 현상을 제거하세요. 노드에 직접 연결된 최대 **84TiB의 고성능 로컬 SSD**를 확보함으로써 SQL, NoSQL 및 벡터 데이터베이스를 위한 방대한 데이터 세트를 처리할 수 있습니다. Z4D는 C4N 및 M4N과 동일하게 최대 400Gbps의 VM 간 대역폭을 제공합니다. Z4D 가상 머신 및 베어메탈 인스턴스는 곧 프리뷰로 제공될 예정입니다.

### **고객 사례:**

*   **Ericsson:** 5G 코어 워크로드는 본질적으로 네트워크 집약적이며, 일반적인 퍼블릭 클라우드 인스턴스가 대규모로 유지하기 힘든 고처리량 패킷 처리와 결정론적 지연 시간을 요구합니다. Ericsson은 C4N을 활용하여 'Ericsson On-Demand'를 구동하는 최적의 네트워크 성능을 확보했습니다. 네트워크 최적화 컴퓨팅에 집중한 C4N의 아키텍처 덕분에 자사의 5G Core-as-a-Service는 최근 1Tbps 달성이라는 전례 없는 처리량 수준에 도달하는 동시에 고객이 기대하는 통신사급 신뢰성을 유지할 수 있었습니다.

*   **Teradata:** Teradata의 'Autonomous Knowledge Cloud'는 세계 최대 규모의 기업들이 엔터프라이즈 인텔리전스를 활성화하고 데이터를 비즈니스 성과로 전환할 수 있도록 지원합니다. 고객들은 성능과 효율성이 가치를 결정하는 미션 크리티컬한 고I/O 분석을 대규모로 실행하기 위해 Teradata에 의존합니다. C4N 인스턴스는 이러한 까다로운 워크로드에 매우 적합하며, 강력한 가성비를 제공하고 최적화된 배포를 지원합니다. Teradata는 C4N을 통해 고객이 통찰력을 가속화하고 확신을 가지고 확장하며 데이터 및 AI 투자로부터 더 큰 임팩트를 창출하도록 돕고 있습니다.

### **까다로운 스토리지 요구사항 해결**

웹 서버, 애플리케이션, 데이터베이스와 같은 기초 워크로드는 에이전틱 세상을 구동하는 데 필요한 데이터를 보유하고 있습니다. 이 중요한 정보를 경직된 하드웨어에 가두는 것은 기업 현대화를 완전히 중단시킬 수 있는 병목 현상을 야기합니다. 예를 들어, 글로벌 소매 브랜드가 연말 프로모션을 진행할 때 레거시 하드웨어가 에이전트들의 갑작스러운 쿼리 홍수를 처리하지 못해 재고 데이터베이스가 타임아웃되고 고객 요청을 누락하는 상황을 상상해 보십시오.

조직은 데이터 전달의 차단을 방지하기 위해 vCPU당 높은 IOPS와 처리량이 뒷받침되는 최고 성능의 데이터베이스 호스트가 필요합니다. 이러한 애플리케이션을 최신 클라우드 인프라로 마이그레이션하면 총소유비용(TCO)과 운영 처리량이 크게 향상됩니다. 전략적 클라우드 마이그레이션을 통해 고객은 현대화를 가로막는 아키텍처적 장벽을 제거하고 AI를 위한 데이터를 개방할 수 있습니다. 처리량 및 용량에 민감한 워크로드를 위한 유동적 컴퓨팅(Fluid Compute)의 새로운 소식은 다음과 같습니다.

*   **Hyperdisk Balanced 성능 개선:****Hyperdisk Balanced**는 애플리케이션 및 관계형 데이터베이스를 포함한 범용 워크로드를 위해 빠르고 효율적인 블록 스토리지를 제공합니다. 이제 볼륨당 **최대 2.4 GiB/s의 처리량과 160K IOPS**를 지원하며, 이는 타 하이퍼스케일러의 범용 블록 스토리지 제품보다 높은 성능인 동시에 평균 지연 시간은 더 낮습니다. 특히 **Hyperdisk Balanced High Availability(고가용성)** 기능을 통해 전체 디스크 성능을 활성 VM으로 동적 라우팅함으로써, SQL Server나 PostgreSQL과 같은 고가용성 DB의 성능을 **4배 향상**시키고 스토리지 과다 프로비저닝의 필요성을 없앴습니다. 또한 가동 중단 없는 암호화 키 교체와 즉각적인 스냅샷을 위한 컨시스턴시 그룹(Consistency Groups)을 활용해 보안성을 한층 강화할 수 있습니다. 이러한 기능들을 통해 범용 워크로드의 TCO(총소유비용)를 낮추고 성능과 탄력성을 높일 수 있습니다. 자세한 내용은 [[여기](https://docs.cloud.google.com/compute/docs/disks/hyperdisks)]에서 확인하세요.

*   **Hyperdisk ML 성능 개선 및 Hyperdisk Exapools 정식 출시(GA):** 통합 처리량이 **2 TiB/s**(기존 1.2 TiB/s에서 상향)로 늘어난 **Hyperdisk ML**은 AI 스토리지 병목 현상을 제거합니다. 타사 대비 디스크당 200배 이상 높은 처리량을 제공하여 귀중한 가속기 클러스터가 유휴 상태로 방치되지 않도록 지원하며, 이를 통해 차세대 인텔리전트 에이전트를 구동하면서 AI 컴퓨팅 ROI를 극대화할 수 있습니다. 또한 대규모 학습 요구사항에 맞춰 AI 클러스터당 업계 최고의 통합 블록 스토리지 성능과 용량을 제공하는 **Hyperdisk Exapools**도 정식 출시되었습니다. Hyperdisk ML 및 Exapools에 대한 자세한 내용은 [[여기](https://docs.cloud.google.com/compute/docs/disks/hd-types/hyperdisk-ml)]와 [[여기](https://docs.cloud.google.com/compute/docs/disks/hyperdisk-exapools)]를 참조하세요.

*   **Z4M 발표:** 최대 **168 TiB의 로컬 SSD**, **400 Gbps의 네트워크 대역폭**, **RDMA** 지원 및 베어메탈 형태를 제공하여 분산 병렬 파일 시스템과 대규모 AI/ML 워크로드를 지원합니다. **Z4M**은 클러스터 디렉터(Cluster Director)와 통합되며, 데이터에 대한 초고속 저지연 액세스를 위해 가속기와 병치(colocation)될 수 있는 옵션이 제공됩니다. Z4M VM 및 베어메탈 인스턴스는 2026년 3분기에 프리뷰로 제공될 예정입니다.

### **고객 사례:**

*   **Shopify:** 블랙 프라이데이 주말 세일 기간 동안 Shopify는 성능이나 신뢰성을 타협하지 않고 8,100만 명의 구매자를 대상으로 [146억 달러 이상의 거래를 처리하고 1억 3,600만 개의 패키지를 추적](https://cloud.google.com/customers/shopify-compute?e=4875480&hl=en)했습니다. 이는 Compute Engine의 Z-시리즈 기반 스토리지를 토대로 구축된 Shop App 덕분에 가능했습니다.

*   **HubX:** 모델 로딩 속도가 사용자 경험을 결정짓는 대규모 AI 기반 모바일 애플리케이션 포트폴리오를 운영하는 HubX는 심각한 I/O 병목 현상을 해결하기 위해 GKE에 [Hyperdisk ML을 도입](https://cloud.google.com/customers/hubx?e=48754805&hl=en)했습니다. 이 특화된 스토리지 레이어를 통해 수백 명의 동시 판독기를 지원하고, 피크 타임의 포드(pod) 초기화 시간을 30배 단축했습니다. 이를 통해 유휴 가속기 비용을 획기적으로 줄이고 복잡한 인퍼런스 워크로드를 안정적으로 확장할 수 있었습니다.

### **에이전틱 시대를 위한 유동적 인프라**

이제 기초 워크로드와 AI 에이전트가 더 이상 용량이나 성능을 두고 경쟁할 필요가 없습니다. Google Cloud의 유동적 컴퓨팅(Fluid Compute)을 통해 병목 현상을 방지하고, 기존 업무와 AI 워크로드가 서로 협력하며 번창할 수 있는 적응형 클라우드 인프라를 경험해 보세요.

**지금 시작하시겠습니까?**

*   [Google Cloud 콘솔](https://console.cloud.google.com/)로 이동하여 다음 프로젝트를 위한 VM을 즉시 생성해 보세요.

*   마이그레이션을 계획 중이라면 [Migration Center](https://cloud.google.com/migration-center)의 AI 기반 도구 세트를 확인하여 비용 추산, 비즈니스 사례 작성 및 현대화 옵션 평가를 시작해 보시기 바랍니다.

게시 위치
*   [컴퓨팅](https://cloud.google.com/blog/ko/products/compute)
*   [Next](https://cloud.google.com/blog/ko/topics/next)
