검색결과 총 22건
-
-
GPU 독주 끝나나…AI 에이전트 시대, CPU 중심 인프라 부상
[경제일보] 생성형 인공지능(AI) 확산으로 GPU 중심으로 형성됐던 AI 인프라 시장이 'AI 에이전트' 시대에 접어들며 CPU 중심으로 재편될 조짐을 보이고 있다. 단순 답변 생성에서 실제 작업을 수행하는 형태로 AI 활용 방식이 변화하면서 데이터센터 구조 자체가 달라지고 있다는 분석이다. 30일 유진투자증권의 보고서 '메모리 와치'에 따르면 초기 생성형 AI는 사용자의 질문에 대한 답변을 생성하는 단순 응답형 구조였지만 단순한 추론을 넘어 실제 행동을 수행하는 구조로 진화하면서 CPU가 담당하는 작업 비중이 크게 늘어나는 것으로 나타났다. 기존 AI는 연산 병목이 대부분 GPU 중심의 행렬 연산과 메모리 대역폭 처리 구간에 집중되며 AI 인프라 경쟁 역시 GPU 확보가 핵심 요소로 작용했다. 다만 최근 등장한 AI 에이전트는 구조가 크게 다르다. AI 에이전트는 사용자의 요청을 해석한 뒤 데이터베이스 접근, 외부 툴 호출, 결과 재분석 등 다층적인 작업을 수행하는 방식으로 동작한다. CPU는 AI 연산 자체를 수행하지는 않지만 요청 해석과 작업 스케줄링, 데이터베이스 접근, 외부 툴 실행, 세션 관리 등 AI 에이전트 워크로드 전반을 제어하는 역할을 담당한다. 이에 AI 인프라의 성능 역시 GPU 단독이 아닌 CPU와 GPU의 조합에 의해 결정되는 구조로 변화하고 있는 것으로 분석된다. 이 같은 변화는 주요 AI 기업들의 전략에서도 나타나고 있다. 최근 엔비디아는 CPU 중심 인프라 확대에 나섰다. 메타는 올해 2월 엔비디아의 '그레이스 CPU'와 '베라 CPU'를 대량 구매하는 공급 계약을 체결했으며 엔비디아는 GTC 2026에서 CPU 개별 판매를 공식화했다. GPU 기업인 엔비디아가 CPU 단독 판매에 나선 것은 이례적인 행보로 평가된다. 이어 엔비디아는 AI 에이전트 환경에 최적화된 '베라 CPU 랙'과 함께 40개 랙으로 구성된 '베라 루빈 포드'도 공개했다. Arm 역시 AI 에이전트 시장 확대에 대응해 데이터센터용 'AGI CPU'를 공개했다. Arm이 직접 칩 판매에 나선 것은 지난 1990년 창립 이후 최초이다. AGI CPU는 메타와 공동 개발됐으며 TSMC 3나노 공정으로 제조된다. Arm은 AI 에이전트 시장 확대로 데이터센터 CPU 시장 규모가 오는 2030년까지 1000억 달러(약 150조원)에 달할 것으로 전망했다. 또한 향후 5년 내 AGI CPU 매출이 Arm의 지난해 연간 매출 46억7000만 달러(약 7조원)를 크게 웃도는 연간 150억 달러(약 23조원)에 이를 것으로 예상했다. 업계에서는 AI 인프라 병목이 GPU에서 메모리, 네트워크를 거쳐 CPU로 이동하고 있는 것으로 예상하고 있다. 초기 AI 사이클에서는 GPU 확보가 핵심이었지만, 추론 시장 확대 이후 KV 캐시 증가로 메모리 수요가 급증했고, 이후 고성능 네트워크 확장 수요가 커지는 것이다. 최근 AI 에이전트 확산으로 비GPU 연산 비중이 빠르게 증가하면서 CPU가 새로운 병목 요인으로 부상할 것으로 전망된다. 이에 GPU와 메모리, 네트워크에 이어 데이터센터 CPU 관련 밸류체인에 대한 투자 관심도 확대될 것으로 분석된다. 르네 하스 Arm 대표는 'AGI CPU'를 공개하며 "AI는 빠르게 진화하고 있으며 앞으로 훨씬 더 빠른 속도로 성장할 것이고, AI 시스템이 복잡해질수록 CPU의 역할은 더욱 중요해질 것"이라며 "AI는 사용자부터 애플리케이션, 인프라까지 전체 기술 스택을 재정의하고 있으며 세계는 기존 데이터센터에서 AI 중심 데이터센터로 빠르게 전환되고 있다"고 말했다.
2026-03-30 17:13:07
-
Arm, 직접 칩 생산 선언…르네 하스 Arm 대표 "세상을 바꿀 기회"
[경제일보] Arm이 인공지능(AI) 데이터센터 시장을 겨냥한 자체 중앙처리장치(CPU)를 공개하며 반도체 사업 전략의 대대적인 전환에 나섰다. 설계 자산(IP) 중심 사업 모델에서 벗어나 양산형 실리콘 제품을 직접 공급하는 방식으로 확장하면서 AI 인프라 시장에서 영향력을 확대하려는 움직임으로 풀이된다. 24일(현지시간) Arm은 AI 데이터센터용 CPU인 'Arm AGI CPU'를 발표하고 창사 이래 처음으로 자체 설계한 양산형 실리콘 제품을 제공한다고 밝혔다. 이번 제품은 AI 에이전트 기반 워크로드 확대에 대응하기 위해 개발된 것으로 차세대 AI 인프라 구축을 위한 핵심 컴퓨팅 플랫폼으로 제시됐다. 이를 통해 Arm은 기존 IP 라이선스뿐 아니라 컴퓨팅 서브시스템(CSS), 그리고 완성형 실리콘 제품까지 제공하며 고객 선택지를 확대한다는 구상이다. 그동안 Arm은 반도체 설계 자산을 제공하고 로열티를 받는 사업 모델을 유지해 왔다. 애플, 엔비디아, 퀄컴 등 글로벌 빅테크 기업들이 Arm 설계를 기반으로 자체 칩을 개발하는 방식이었다. 다만 AI 확산으로 데이터센터 인프라 경쟁이 격화되면서 Arm이 직접 실리콘 제품을 공급하는 방향으로 전략을 전환한 것으로 분석된다. 르네 하스 Arm 대표는 "AI 가속기가 CPU를 대체하는 것이 아니라 오히려 CPU는 더 필수적인 파트너가 됐다"며 "AI 데이터센터 시장은 현재 약 30억 달러 규모지만 향후 1000억 달러 시장으로 확대될 것으로 본다"고 설명했다. 특히 AI 기술이 학습 중심에서 추론 및 실행 중심의 '에이전틱 AI'로 발전하면서 CPU 역할이 다시 중요해지고 있다. AI 에이전트는 모델 학습뿐 아니라 추론, 계획, 실행까지 지속적으로 수행하며 시스템 간 데이터를 조율해야 하기 때문에 대규모 CPU 자원이 필요하다. 이에 따라 데이터센터 내 CPU 수요 역시 크게 증가할 것으로 예상된다. Arm은 에이전틱 AI 환경에서 데이터센터의 CPU 요구량이 기존 대비 4배 이상 증가할 것으로 전망했다. 또한 AI 모델 간 상호작용과 실시간 의사결정이 늘어나면서 가속기를 조율하고 데이터 이동을 관리하는 CPU 역할이 핵심 인프라로 부상하고 있는 것으로 분석했다. 르네 하스 대표는 "AI는 빠르게 진화하고 있으며 앞으로 훨씬 더 빠른 속도로 성장할 것이고, AI 시스템이 복잡해질수록 CPU의 역할은 더욱 중요해질 것"이라며 "AI는 사용자부터 애플리케이션, 인프라까지 전체 기술 스택을 재정의하고 있으며 세계는 기존 데이터센터에서 AI 중심 데이터센터로 빠르게 전환되고 있다"고 강조했다. Arm AGI CPU는 이러한 AI 인프라 변화에 맞춰 설계됐다. 해당 CPU는 최대 136개의 Arm Neoverse V3 코어를 탑재하고 코어당 6GB/s 메모리 대역폭과 100ns 미만 지연 시간을 지원한다. Arm은 이번 신제품이 300W 전력 범위에서 동작하며 지속적인 고부하 환경에서도 안정적인 성능을 제공한다고 설명했다. 확장성 측면에서도 대규모 데이터센터 환경을 고려해 설계됐다. 공랭식 서버 기준 랙당 최대 8160개 코어를 지원하며 수랭식 환경에서는 4만5000개 이상의 코어 구성이 가능하고 이를 통해 기존 x86 CPU 대비 랙당 2배 이상의 성능을 제공할 수 있는 것으로 알려졌다. 또한 Arm은 AI 데이터센터 구축 비용 절감 효과도 강조했다. 1GW 규모 AI 데이터센터 기준 최대 100억 달러 수준의 설비 투자 비용 절감이 가능하다는 분석도 제시했다. 이는 전력 효율성과 고밀도 설계를 통한 인프라 비용 절감 효과를 반영한 것이다. 초기 파트너로는 메타가 참여했다. 메타는 Arm AGI CPU 공동 개발 파트너로 참여했으며 자체 AI 가속기인 MTIA와 결합해 AI 인프라 효율을 높일 계획이다. Arm은 향후 여러 세대에 걸쳐 메타와 협력을 이어갈 방침이다. 또한 OpenAI, 클라우드플레어, SAP, SK텔레콤 등 주요 기업들도 초기 파트너로 참여했다. 해당 기업들은 가속기 관리, API 처리, AI 애플리케이션 호스팅 등 다양한 AI 워크로드에 Arm AGI CPU를 활용할 예정으로 알려졌다. 정석근 SK텔레콤 최고기술책임자는 "SK텔레콤은 Arm AGI CPU와 리벨리온 AI 가속기 칩을 포함한 대규모 풀스택 AI 추론 데이터센터 인프라로 사업을 확장하고 있다"며 "자사의 소버린 AI 'A.X' 파운데이션 모델과 추론 최적화 AI 서버를 결합함으로써 이를 글로벌 시장에 제공하기 위한 준비를 완료함과 동시에 AI 데이터센터(AIDC) 경쟁력을 한층 강화하고 있다"고 평가했다. 하드웨어 제조 생태계도 빠르게 확대되고 있다. 레노버, 슈퍼마이크로, 콴타 컴퓨터, 애즈락랙 등이 시스템 구축 파트너로 참여하고 있으며 상용 시스템은 올해 하반기부터 본격 확대될 예정이다. AWS, 구글, 마이크로소프트, 엔비디아, 삼성전자, SK하이닉스, TSMC 등 50개 이상의 기업이 Arm 컴퓨팅 플랫폼 확장을 지원하는 것으로 알려졌다. 그동안 데이터센터 CPU 시장은 인텔과 AMD가 주도해 왔다. Arm 기반 아키텍처가 전력 효율성을 앞세워 클라우드 시장에서 점유율을 확대하고 있는 상황에서 Arm이 직접 CPU 공급에 나서면서 기존 경쟁 구도가 변화할 가능성이 높을 것으로 분석된다. 최근 엔비디아 역시 자체 CPU '베라'를 공개하며 CPU 시장 진입을 선언하는 등 AI 인프라 경쟁이 확대되고 있다. AI 인프라 시장이 빠르게 성장하면서 칩 설계 기업들이 직접 하드웨어 시장으로 진출하는 흐름이 본격화될 전망이다. Arm은 이번 Arm AGI CPU를 시작으로 데이터센터용 실리콘 제품군을 확대할 계획이다. 향후 제품들은 성능, 확장성, 전력 효율성을 중심으로 발전하며 AI 네이티브 데이터센터 아키텍처 구축을 목표로 구성될 예정이다. AI 인프라 경쟁이 본격화되는 가운데 Arm이 설계 기업에서 플랫폼 사업자로 변신을 시도하면서 글로벌 반도체 생태계에도 변화가 가속화될 전망이다.
2026-03-25 10:55:20
-
-
-
-
-
-
-
-
-
-
-
-
인텔·삼성·SK, AI 반도체 경쟁 본격화
[이코노믹데일리] CES 2026에서 글로벌 반도체 기업들의 경쟁 구도가 단일 칩 성능을 넘어 AI 시스템 각 부문에서 치열해지고 있다. 인텔은 첨단 공정을 앞세운 플랫폼 전략을, 삼성전자와 SK하이닉스는 메모리 중심의 통합 설루션을, 엔비디아와 AMD는 슈퍼칩 기반 랙 단위 시스템으로 주도권 확보에 나섰다. 7일 업계에 따르면 인텔은 CES 2026에서 자사 최첨단 공정인 인텔 18A 기반 최초의 AI PC 플랫폼인 ‘인텔 코어 울트라 시리즈 3’를 공개했다. 미국에서 설계·제조된 18A 공정을 기반으로 한 첫 상용 플랫폼으로, 노트북을 비롯해 로보틱스·스마트시티·자동화·헬스케어 등 엣지 환경까지 아우르는 것이 특징이다. 인텔에 따르면 코어 울트라 시리즈 3는 글로벌 주요 파트너사의 200개 이상 PC 설계에 탑재될 예정으로 인텔이 선보인 AI PC 플랫폼 가운데 가장 폭넓다. 최상위 제품은 최대 16개 CPU 코어와 12개 Xe 코어, 50 TOPS의 NPU 성능을 제공하며 멀티스레드 성능과 그래픽 성능, 배터리 효율을 대폭 끌어올렸다. 인텔은 이를 통해 AI 연산을 단일 칩이나 개별 부품이 아닌 공정 경쟁력을 기반으로 한 플랫폼 단위 경쟁으로 끌어올린다는 전략이다. 메모리 반도체는 AI 시스템 내 역할 확장을 전면에 내세웠다. 삼성전자와 SK하이닉스는 이번 CES에서 나란히 HBM4와 차세대 저전력 메모리, 서버용 모듈을 공개했다. SK하이닉스는 고객용 전시관을 열고 HBM4 16단 48GB 제품을 최초 공개했다. 이는 업계 최고 속도인 11.7Gbps를 구현한 HBM4 12단 36GB의 후속 제품으로 현재 개발이 진행 중이다. 이와 함께 올해 HBM 시장을 주도할 것으로 평가되는 HBM3E 12단 36GB 제품과 해당 제품이 탑재된 글로벌 고객사의 최신 AI 서버용 GPU 모듈도 함께 전시했다. AI 서버 특화 저전력 메모리 모듈인 SOCAMM2, 온디바이스 AI에 최적화된 LPDDR6, AI 데이터센터용 초고용량 eSSD에 적용되는 321단 2Tb QLC 낸드도 공개하며 메모리 포트폴리오 전반을 선보였다. 특히 SK하이닉스는 ‘AI 시스템 데모존’을 통해 고객 맞춤형 cHBM, PIM 기반 가속기 AiMX, CXL 기반 연산 메모리 등 메모리가 연산과 시스템 구조로 확장되는 방향성을 시각적으로 제시했다. 삼성전자 역시 프라이빗 부스를 통해 HBM4와 SOCAMM2, LPDDR6 등을 공개했다. 업계에서는 삼성과 SK가 단순 메모리 공급을 넘어 AI 시스템 성능과 효율을 좌우하는 핵심 축으로 경쟁하고 있다는 평가가 나온다. AI 연산 주도권을 쥔 엔비디아와 AMD는 랙 단위 슈퍼칩 경쟁을 본격화했다. 엔비디아는 CPU ‘베라’와 GPU ‘루빈’을 결합한 차세대 슈퍼칩 ‘베라 루빈 NVL72’를 공개하며 기존 대비 추론 성능은 5배, 비용은 10분의 1 수준으로 낮췄다고 밝혔다. AMD 역시 차세대 GPU ‘인스팅트 MI455’와 데이터센터용 CPU ‘베니스’를 결합한 AI 랙 ‘헬리오스’를 공개하며 정면 승부에 나섰다. 두 회사 모두 AI 서버를 넘어 로봇과 자율주행, 피지컬 AI까지 적용 영역을 확대하고 있다. 김주선 SK하이닉스 AI Infra 사장(CMO)은 "AI가 촉발한 혁신이 더욱 가속화되고 있는 만큼, 고객들의 기술적 요구 또한 빠르게 진화하고 있다"며 "당사는 차별화된 메모리 설루션으로 고객의 요구에 부응하는 동시에 AI 생태계 발전을 위해 고객과의 긴밀한 협업을 바탕으로 새로운 가치를 창출하겠다"고 말했다.
2026-01-07 18:03:27