검색결과 총 18건
-
GPU 독주 끝나나…AI 에이전트 시대, CPU 중심 인프라 부상
[경제일보] 생성형 인공지능(AI) 확산으로 GPU 중심으로 형성됐던 AI 인프라 시장이 'AI 에이전트' 시대에 접어들며 CPU 중심으로 재편될 조짐을 보이고 있다. 단순 답변 생성에서 실제 작업을 수행하는 형태로 AI 활용 방식이 변화하면서 데이터센터 구조 자체가 달라지고 있다는 분석이다. 30일 유진투자증권의 보고서 '메모리 와치'에 따르면 초기 생성형 AI는 사용자의 질문에 대한 답변을 생성하는 단순 응답형 구조였지만 단순한 추론을 넘어 실제 행동을 수행하는 구조로 진화하면서 CPU가 담당하는 작업 비중이 크게 늘어나는 것으로 나타났다. 기존 AI는 연산 병목이 대부분 GPU 중심의 행렬 연산과 메모리 대역폭 처리 구간에 집중되며 AI 인프라 경쟁 역시 GPU 확보가 핵심 요소로 작용했다. 다만 최근 등장한 AI 에이전트는 구조가 크게 다르다. AI 에이전트는 사용자의 요청을 해석한 뒤 데이터베이스 접근, 외부 툴 호출, 결과 재분석 등 다층적인 작업을 수행하는 방식으로 동작한다. CPU는 AI 연산 자체를 수행하지는 않지만 요청 해석과 작업 스케줄링, 데이터베이스 접근, 외부 툴 실행, 세션 관리 등 AI 에이전트 워크로드 전반을 제어하는 역할을 담당한다. 이에 AI 인프라의 성능 역시 GPU 단독이 아닌 CPU와 GPU의 조합에 의해 결정되는 구조로 변화하고 있는 것으로 분석된다. 이 같은 변화는 주요 AI 기업들의 전략에서도 나타나고 있다. 최근 엔비디아는 CPU 중심 인프라 확대에 나섰다. 메타는 올해 2월 엔비디아의 '그레이스 CPU'와 '베라 CPU'를 대량 구매하는 공급 계약을 체결했으며 엔비디아는 GTC 2026에서 CPU 개별 판매를 공식화했다. GPU 기업인 엔비디아가 CPU 단독 판매에 나선 것은 이례적인 행보로 평가된다. 이어 엔비디아는 AI 에이전트 환경에 최적화된 '베라 CPU 랙'과 함께 40개 랙으로 구성된 '베라 루빈 포드'도 공개했다. Arm 역시 AI 에이전트 시장 확대에 대응해 데이터센터용 'AGI CPU'를 공개했다. Arm이 직접 칩 판매에 나선 것은 지난 1990년 창립 이후 최초이다. AGI CPU는 메타와 공동 개발됐으며 TSMC 3나노 공정으로 제조된다. Arm은 AI 에이전트 시장 확대로 데이터센터 CPU 시장 규모가 오는 2030년까지 1000억 달러(약 150조원)에 달할 것으로 전망했다. 또한 향후 5년 내 AGI CPU 매출이 Arm의 지난해 연간 매출 46억7000만 달러(약 7조원)를 크게 웃도는 연간 150억 달러(약 23조원)에 이를 것으로 예상했다. 업계에서는 AI 인프라 병목이 GPU에서 메모리, 네트워크를 거쳐 CPU로 이동하고 있는 것으로 예상하고 있다. 초기 AI 사이클에서는 GPU 확보가 핵심이었지만, 추론 시장 확대 이후 KV 캐시 증가로 메모리 수요가 급증했고, 이후 고성능 네트워크 확장 수요가 커지는 것이다. 최근 AI 에이전트 확산으로 비GPU 연산 비중이 빠르게 증가하면서 CPU가 새로운 병목 요인으로 부상할 것으로 전망된다. 이에 GPU와 메모리, 네트워크에 이어 데이터센터 CPU 관련 밸류체인에 대한 투자 관심도 확대될 것으로 분석된다. 르네 하스 Arm 대표는 'AGI CPU'를 공개하며 "AI는 빠르게 진화하고 있으며 앞으로 훨씬 더 빠른 속도로 성장할 것이고, AI 시스템이 복잡해질수록 CPU의 역할은 더욱 중요해질 것"이라며 "AI는 사용자부터 애플리케이션, 인프라까지 전체 기술 스택을 재정의하고 있으며 세계는 기존 데이터센터에서 AI 중심 데이터센터로 빠르게 전환되고 있다"고 말했다.
2026-03-30 17:13:07
-
-
-
-
-
-
-
-
-
-
-
-
-
인텔·삼성·SK, AI 반도체 경쟁 본격화
[이코노믹데일리] CES 2026에서 글로벌 반도체 기업들의 경쟁 구도가 단일 칩 성능을 넘어 AI 시스템 각 부문에서 치열해지고 있다. 인텔은 첨단 공정을 앞세운 플랫폼 전략을, 삼성전자와 SK하이닉스는 메모리 중심의 통합 설루션을, 엔비디아와 AMD는 슈퍼칩 기반 랙 단위 시스템으로 주도권 확보에 나섰다. 7일 업계에 따르면 인텔은 CES 2026에서 자사 최첨단 공정인 인텔 18A 기반 최초의 AI PC 플랫폼인 ‘인텔 코어 울트라 시리즈 3’를 공개했다. 미국에서 설계·제조된 18A 공정을 기반으로 한 첫 상용 플랫폼으로, 노트북을 비롯해 로보틱스·스마트시티·자동화·헬스케어 등 엣지 환경까지 아우르는 것이 특징이다. 인텔에 따르면 코어 울트라 시리즈 3는 글로벌 주요 파트너사의 200개 이상 PC 설계에 탑재될 예정으로 인텔이 선보인 AI PC 플랫폼 가운데 가장 폭넓다. 최상위 제품은 최대 16개 CPU 코어와 12개 Xe 코어, 50 TOPS의 NPU 성능을 제공하며 멀티스레드 성능과 그래픽 성능, 배터리 효율을 대폭 끌어올렸다. 인텔은 이를 통해 AI 연산을 단일 칩이나 개별 부품이 아닌 공정 경쟁력을 기반으로 한 플랫폼 단위 경쟁으로 끌어올린다는 전략이다. 메모리 반도체는 AI 시스템 내 역할 확장을 전면에 내세웠다. 삼성전자와 SK하이닉스는 이번 CES에서 나란히 HBM4와 차세대 저전력 메모리, 서버용 모듈을 공개했다. SK하이닉스는 고객용 전시관을 열고 HBM4 16단 48GB 제품을 최초 공개했다. 이는 업계 최고 속도인 11.7Gbps를 구현한 HBM4 12단 36GB의 후속 제품으로 현재 개발이 진행 중이다. 이와 함께 올해 HBM 시장을 주도할 것으로 평가되는 HBM3E 12단 36GB 제품과 해당 제품이 탑재된 글로벌 고객사의 최신 AI 서버용 GPU 모듈도 함께 전시했다. AI 서버 특화 저전력 메모리 모듈인 SOCAMM2, 온디바이스 AI에 최적화된 LPDDR6, AI 데이터센터용 초고용량 eSSD에 적용되는 321단 2Tb QLC 낸드도 공개하며 메모리 포트폴리오 전반을 선보였다. 특히 SK하이닉스는 ‘AI 시스템 데모존’을 통해 고객 맞춤형 cHBM, PIM 기반 가속기 AiMX, CXL 기반 연산 메모리 등 메모리가 연산과 시스템 구조로 확장되는 방향성을 시각적으로 제시했다. 삼성전자 역시 프라이빗 부스를 통해 HBM4와 SOCAMM2, LPDDR6 등을 공개했다. 업계에서는 삼성과 SK가 단순 메모리 공급을 넘어 AI 시스템 성능과 효율을 좌우하는 핵심 축으로 경쟁하고 있다는 평가가 나온다. AI 연산 주도권을 쥔 엔비디아와 AMD는 랙 단위 슈퍼칩 경쟁을 본격화했다. 엔비디아는 CPU ‘베라’와 GPU ‘루빈’을 결합한 차세대 슈퍼칩 ‘베라 루빈 NVL72’를 공개하며 기존 대비 추론 성능은 5배, 비용은 10분의 1 수준으로 낮췄다고 밝혔다. AMD 역시 차세대 GPU ‘인스팅트 MI455’와 데이터센터용 CPU ‘베니스’를 결합한 AI 랙 ‘헬리오스’를 공개하며 정면 승부에 나섰다. 두 회사 모두 AI 서버를 넘어 로봇과 자율주행, 피지컬 AI까지 적용 영역을 확대하고 있다. 김주선 SK하이닉스 AI Infra 사장(CMO)은 "AI가 촉발한 혁신이 더욱 가속화되고 있는 만큼, 고객들의 기술적 요구 또한 빠르게 진화하고 있다"며 "당사는 차별화된 메모리 설루션으로 고객의 요구에 부응하는 동시에 AI 생태계 발전을 위해 고객과의 긴밀한 협업을 바탕으로 새로운 가치를 창출하겠다"고 말했다.
2026-01-07 18:03:27
-