아마존, ‘트레이니엄3’로 AI칩 전력 혁신…“엔비디아 대비 운영비 절반”

최성호 기자 / 기사승인 : 2025-12-03 08:27:48
  • -
  • +
  • 인쇄
전력효율 40% 개선·성능 4배↑…차세대 ‘트레이니엄4’도 개발 돌입, NV링크 지원으로 고객 락인 전략 강화
▲아마존 로고/사진=연합뉴스

 

[토요경제 = 최성호 기자]  아마존웹서비스(AWS)가 전력 대비 성능비(전성비)를 대폭 끌어올린 AI 특화칩 ‘트레이니엄3’를 공개하며 엔비디아 중심의 AI칩 시장 재편에 속도를 내고 있다. AWS는 이 칩을 활용할 경우 엔비디아 GPU 대비 AI 훈련·추론 비용을 최대 50%까지 줄일 수 있다고 강조하며 직접적인 경쟁 구도를 형성했다.


아마존이 AI 인프라의 핵심 병목으로 지적돼온 전력 소모 문제를 정면으로 겨냥한 차세대 AI칩 전략을 꺼내 들었다. 

 

AWS는 2일(현지시간) 미국 라스베이거스에서 열린 ‘리인벤트(Re:Invent) 2025’에서 신형 AI칩 ‘트레이니엄3’를 공식 발표했다. 

 

이번 제품은 전작 트레이니엄2 대비 연산 성능을 4배 이상 끌어올렸음에도 에너지 소비를 약 40% 줄인 것이 핵심이다. 

 

대규모 모델 학습과 추론 과정에서 발생하는 전력 부담을 획기적으로 낮추면서 ‘전성비’ 향상에 초점을 맞춘 결과로 평가된다. 

 

AWS는 자사 칩을 사용할 경우 엔비디아 GPU 기반 환경 대비 최대 50%의 훈련·운영비 절감이 가능하다고 밝히며 비용 효율성을 전면에 내세웠다. 

 

맷 가먼 AWS CEO는 “트레이니엄3는 현시점에서 업계 최고 수준의 비용 경쟁력을 보유했다”고 강조했다. 

 

AI칩 시장은 현재 엔비디아가 80~90% 점유율로 사실상 독점적 지위를 구축하고 있으나, 최근 구글이 TPU ‘아이언우드’를 공개하며 전력 효율과 가격 경쟁을 앞세운 데 이어 아마존까지 직접적 대항마를 제시하면서 경쟁 구도가 빠르게 재편되는 분위기다. 

 

특히 구글은 아이언우드를 메타에 대규모 공급하려는 움직임을 보이며 엔비디아와 정면 승부에 나섰고, 엔비디아는 SNS 등을 통해 “우리 기술은 업계보다 한 세대 앞서 있다”고 강조하며 방어 메시지를 발신하는 등 긴장감이 높아지고 있다. 

 

AWS는 이날 트레이니엄3보다 3배 이상 높은 성능을 갖춘 차세대 ‘트레이니엄4’ 개발에도 착수했다고 공개해 기술 로드맵 속도를 높이고 있다. 주목되는 점은 후속 모델에서 엔비디아의 칩 간 고대역폭 연결 기술 ‘NV링크’를 지원하겠다고 밝힌 부분이다. 

 

이는 AWS가 엔비디아를 견제하면서도 클라우드 고객들의 GPU 혼합 사용 수요를 반영해 시스템 전환 부담을 최소화하려는 전략으로 풀이된다. 

 

즉 엔비디아 중심 생태계를 직접 흔들기보다 호환성을 확보해 고객의 연착륙을 유도함으로써 장기적으로 자체 칩 채택을 확대하려는 포석이다. 

 

한편 AWS는 AI 모델 ‘노바’의 차세대 버전 ‘노바2’와 기업별 맞춤형 AI 모델 개발을 지원하는 ‘노바 포지(Nova Forge)’도 함께 발표하며 AI 인프라·모델·칩을 아우르는 종합 생태계 확장 전략을 본격화했다.

[저작권자ⓒ 토요경제. 무단전재-재배포 금지]

뉴스댓글 >