비엣비즈코리아
출처: Adobe Stock, 2025. 10.

인공지능·네이티브 클라우드, 아·태 기업용 생성형 AI 인프라 주도

그래픽처리장치(GPU) 최적화와 규제 준수형 플랫폼을 기반으로 한 인공지능·네이티브 클라우드가 기업용 생성형 AI 인프라를 주도할 것이라는 전망이 나왔다.

시장 조사업체 IDC는 최근 보고서에서 2025년 말까지 전 세계 인공지능 추론 인프라 투자가 학습 인프라를 앞지를 것으로 예측했다. 이는 엔터프라이즈급 생성형 AI 구현을 가능케 하는 인공지능·네이티브 클라우드 제공 업체의 전략적 중요성이 커지고 있음을 의미한다.

아시아 태평양 지역에서 생성형 AI 도입은 빠른 속도로 확산되고 있다. 기업의 25%는 이미 인공지능과 데이터 워크로드를 소버린 클라우드(sovereign cloud)로 이전했거나 이전을 계획하고 있다.

또한 2025년까지 65%의 조직이 50개 이상의 생성형 AI 활용 사례를 운영 환경에 배치할 것으로 예상된다. 같은 기간 26%의 기업은 100개 이상의 활용 사례를 운영 화경에 배치할 것으로 전망된다. 이러한 도입 패턴은 기업들이 성능과 규제 요건을 모두 충족하는 ‘GPU 우선(GPU-first)’, 저지연, 규제 준수형 인공지능·네이티브 클라우드 플랫폼을 우선시하도록 만들고 있다고 IDC는 진단했다.

IDC 아·태 리서치 책임자 디피카 기리(Deepika Giri)는 “생성형 AI와 AI 에이전트의 부상은 한때 선형적이던 스택을 역동적인 생태계로 변모시키며, 인프라 수요를 재편하고 기술 생태계 전반의 역할을 재정의하고 있다”며 “인공지능·네이티브 클라우드 제공 업체는 생성형 AI를 운영하려는 기업의 필수 파트너로 부상하고 있다”고 말했다.

이와 함께 인공지능·네이티브 클라우드 제공 업체들이 활발한 움직임을 보이고 있다고 IDC는 전했다. 대표적으로 ▲GMI 클라우드(GMI Cloud) ▲코어웨이브(CoreWeave) ▲네비우스(Nebius) ▲람다랩스(Lambda Labs) 등을 들었다.

GMI 클라우드는 아·태 지역 엔비디아(NVIDIA) 레퍼런스 플랫폼 파트너로, 최신 GPU 아키텍처 접근성을 제공하며, 초저지연·탄력적 확장성을 갖춘 독자적 인공지능 추론 엔진을 통해 실시간 추론부터 소버린 클라우드 규제 준수까지 지원한다.

코어웨이브는 대규모 모델 워크로드를 위한 ‘서비스형 GPU(GPU-as-a-Service)를 통해 확장성을 제공한다. 네비우스는 고급 GPU 클러스터 기반의 도메인 특화 배치에 중점을 둔다. 람다랩스는 에너지 효율성을 최적화한 GPU 집약적 서비스를 제공한다.

생성형 AI 도입이 가속화되면서, 기업은 성능과 회복력을 동시에 제공할 수 있는 인프라 파트너를 필요로 한다고 IDC는 조언했다. 이들 제공 업체들은 순수한 컴퓨팅 파워와 엔터프라이즈급 배치 간의 간극을 메우며, 아·태 기업이 안전하고 대규모로 혁신할 수 있도록 지원한다고 전했다.

한편 IDC는 2025년 말까지 전 세계 추론 인프라 투자가 학습 인프라를 앞지를 것으로 내다보며, 인공지능·네이티브 클라우드 제공 업체가 엔터프라이즈 인공지능의 다음 단계를 형성하는 데 중요하다고 진단했다.

비엣비즈

댓글 작성