검색결과 총 152건
-
데이터는 원유다…AI 산업, '무상 원료' 끝나면 밸류체인 뒤집힌다
※ '강철부대'는 반도체·배터리·디스플레이 등 첨단 산업 경쟁과 기술 전쟁을 유쾌하게 풀어내는 코너입니다. 보이지 않는 칩부터 글로벌 공급망까지, 산업의 최전선을 '강철부대원'처럼 직접 뛰어다니며 생생하게 전해드립니다. 새로운 에너지를 충전하는 주말, 강철부대와 함께 대한민국 산업의 힘을 느껴보세요! <편집자주> [경제일보] 글로벌 생성형 인공지능(AI) 기업 OpenAI가 '로봇세' 도입 등 세제 개편을 제안하며 AI 산업의 부 재분배 필요성을 제기한 가운데 시장의 시선은 오히려 AI 산업의 '원가 구조'로 향하고 있다. 그동안 사실상 무상에 가까웠던 데이터 활용 방식이 한계에 부딪히면서 AI 산업이 기술 경쟁을 넘어 자원 산업으로 성격을 바꿔가고 있다는 분석이 나온다. 업계에 따르면 오픈AI는 최근 '지능 시대의 산업 정책' 제안서를 통해 △자동화된 노동에 대한 과세 △고소득 자본 과세 강화 △공공기금 조성 등을 골자로 한 정책 방향을 제시했다. AI 확산으로 노동 소득은 줄고 자본 소득은 증가하는 구조가 고착화될 수 있다는 판단에서다. 표면적으로는 초지능 시대에 대비한 정책 제안이지만 산업 현장에서는 이보다 더 근본적인 질문이 제기된다. AI를 움직이는 핵심 원료인 데이터가 누구의 것이며, 기업이 이를 어떤 경로로 확보하고 있는지 그리고 그 활용에 대해 정당한 대가가 실제로 지급되고 있는지에 대한 문제다. 특히 뉴스·출판물·이미지·개인정보 등 다양한 형태의 데이터가 학습 과정에 광범위하게 활용되는 가운데 데이터 생산 주체와 활용 주체 간 권리·보상 체계가 명확히 정립되지 않았다는 점이 산업 전반의 구조적 쟁점으로 부상하고 있다. 현재 AI 산업은 반도체·전력기기·정유 등 전통 제조업과 달리 명확한 원가 체계를 갖추지 않은 채 성장해왔다. 철강 산업이 철광석 가격에, 정유 산업이 원유 가격에 수익성이 좌우되는 것과 달리 AI 기업들은 뉴스, 출판물, 이미지, 개인 데이터 등 핵심 자원을 사실상 무상에 가깝게 활용해왔다. 이 같은 무상 원료 구조는 AI 산업의 고수익성을 떠받친 핵심 기반이었다. 막대한 비용이 드는 그래픽처리장치(GPU)와 고대역폭메모리(HBM) 등 연산 인프라에는 비용을 지불하면서도 정작 모델 성능을 좌우하는 데이터에는 가격이 매겨지지 않는 '밸류체인 비대칭'이 고착화된 셈이다. 하지만 이 구조는 점차 균열을 보이고 있다. 글로벌 언론사와 출판사들이 AI 기업을 상대로 저작권 침해 소송을 제기하고 각국에서 개인정보 보호 규제가 강화되면서 데이터 활용에 대한 정당한 대가를 요구하는 움직임이 확산되고 있다. 데이터가 더 이상 공짜가 아닌 가격이 붙는 자원으로 전환될 가능성이 커지고 있는 것이다. 이 경우 AI 산업의 수익 구조는 근본적으로 달라질 수밖에 없다. 지금까지는 데이터 비용이 거의 반영되지 않았던 만큼 사용료가 제도화되면 기업별 비용 부담과 수익성 격차가 빠르게 드러날 가능성이 크다. 데이터 확보 능력과 비용 관리 역량이 곧 경쟁력으로 직결되는 구조로 전환되는 셈이다. 최근 논의되는 '로봇세' 역시 이러한 흐름과 맞닿아 있지만 업계에서는 방향이 다소 어긋나 있다는 지적도 나온다. 자동화로 인한 이익을 사후적으로 과세해 분배하겠다는 취지이지만 시장에서는 사후 과세 이전에 데이터 제공 주체에 대한 사전 보상 체계가 우선이라는 인식이 확산되고 있기 때문이다. AI 기업들이 공공기금 조성이나 수익 공유를 제안하고 있지만 이는 미래 분배 구조에 초점이 맞춰져 있을 뿐 현재 발생하고 있는 저작권 침해, 개인정보 활용, 노동 대체 과정에서의 보상 문제에 대한 직접적인 비용 부담 논의는 제한적이라는 평가다. 결국 AI 산업은 현 시점 '기술 경쟁'에서 '자원 경쟁'으로 넘어가는 분기점에 서 있다. 반도체가 연산 능력을, 데이터가 성능과 수익성을 좌우하는 구조에서 데이터는 더 이상 부수적 요소가 아닌 핵심 원료로 자리 잡고 있다. 업계에서는 데이터 사용료 체계가 본격 도입될 경우 AI 기업의 사업 모델과 시장 내 경쟁 구도 전반이 다시 짜일 것으로 보고 있다. 데이터 확보 전략, 비용 설계, 그리고 이를 둘러싼 규칙을 누가 먼저 정립하느냐가 향후 산업 주도권을 가르는 핵심 변수가 될 것이라는 전망이다. 강철부대의 시선이 머무는 곳, AI 산업의 경쟁 기준은 이미 바뀌고 있다. 연산 능력과 알고리즘 성능이 시장을 좌우하던 시대를 지나 데이터 확보 방식과 비용 구조 설계가 기업의 성패를 가르는 '원가 경쟁' 단계로 전환되는 흐름이다. 더 이상 중요한 것은 연산 속도만이 아니다. 데이터의 출처를 정당하게 확보하고 그 대가를 설계할 수 있는 능력, 그리고 이를 지속 가능한 비용 구조로 통제할 수 있는 역량이 핵심 변수로 떠오르고 있다. 기술이 아니라 데이터를 둘러싼 질서를 설계할 수 있는 기업만이 다음 판에서 살아남는다.
2026-04-12 08:00:00
-
-
LG유플러스, AWS 기반 AI 운영 플랫폼 구축…GPU 효율화·운영 자동화
[경제일보] 국내 이동통신사들이 인공지능(AI) 서비스 경쟁력 확보를 위해 인프라 고도화에 속도를 내고 있다. 생성형 AI 서비스 확대와 함께 모델 운영 비용과 인프라 부담이 커지면서 AI 개발부터 서비스 운영까지 전 과정을 통합하려는 움직임이 본격화되는 모습이다. 10일 LG유플러스는 최근 AWS가 주최한 '2026 모던 에이전틱 애플리케이션 데이' 행사에서 AI 모델을 실제 서비스로 안정적으로 운영하기 위한 플랫폼 구축 사례를 공개했다고 밝혔다. 이번 행사는 생성형 AI와 에이전트 기술을 활용한 인프라 운영 자동화를 주제로 진행됐다. LG유플러스는 기존 온프레미스 중심의 AI 개발 환경을 클라우드와 연계한 하이브리드 구조로 전환하고 AI 개발부터 서비스 운영까지 전 과정을 효율적으로 연결한 플랫폼 구축을 진행했다고 설명했다. 이를 통해 AI 서비스 품질과 운영 안정성을 동시에 높일 수 있는 기반을 마련한 것으로 나타났다. 이번 플랫폼은 AI 모델 개발과 서비스 운영 단계 간 단절을 줄이는 데 초점을 맞췄다. 기존에는 AI 모델 학습, 평가, 배포, 운영이 각각 분리돼 진행되면서 서비스 전환 과정에서 반복적인 작업과 시간이 소요된 것으로 알려졌다. 이에 LG유플러스는 하나의 흐름으로 통합해 AI 모델을 보다 빠르게 서비스에 적용할 수 있도록 구조를 설계했다. LG유플러스는 AI를 한 번 개발하고 끝나는 방식이 아닌, 언제든 서비스에 적용할 수 있는 '모델 준비 상태'를 유지하는 구조를 목표로 플랫폼을 구축했다고 설명했다. 데이터 수집부터 학습, 평가, 배포, 운영까지 전 과정을 하나의 파이프라인으로 연결해 개발자와 운영자가 일관된 환경에서 AI를 활용할 수 있도록 구성했다. 이를 위해 AWS의 관리형 쿠버네티스(컨테이너화된 애플리케이션의 배포, 확장, 관리를 자동으로 처리해주는 플랫폼) 서비스인 '아마존 EKS' 기반의 하이브리드 인프라 아키텍처를 도입했다. 자체 온프레미스 GPU 인프라를 아마존 EKS 클러스터의 하이브리드 노드로 통합하고 클러스터 전체 제어 기능인 쿠버네티스 컨트롤 플레인은 AWS 완전관리형 서비스로 운영하는 구조다. 인프라 운영 부담을 줄이고 서비스 안정성과 품질 개선에 집중할 수 있는 환경을 구축한 것이다. GPU 자원 활용 방식도 개선했다. 기존에는 GPU를 장비 단위로 고정 할당하는 방식이 일반적이었지만 LG유플러스는 필요에 따라 자원을 유연하게 배분하는 구조를 적용했다. GPU 미사용 시간을 줄여 AI 모델 학습과 서비스 운영에 필요한 자원을 보다 효율적으로 활용할 수 있도록 설계했다. 최근 생성형 AI 서비스가 확대되면서 AI 모델 운영과 인프라 관리 중요성도 커지고 있다. 특히 AI 모델이 실제 서비스에 적용되는 과정에서 운영 안정성과 비용 효율성이 주요 경쟁 요소로 떠오르면서 AI 운영 플랫폼 구축이 통신사 경쟁력 확보의 핵심 요소로 부상하고 있다. 통신사들은 기존 통신 서비스 중심 사업 구조에서 벗어나 AI 기반 서비스 확대를 추진하고 있다. 이에 AI 모델 개발뿐 아니라 서비스 운영과 인프라 관리까지 포함한 통합 플랫폼 구축이 중요한 과제로 떠오르고 있다. LG유플러스는 이번 플랫폼 구축을 통해 AI 서비스를 보다 빠르게 제공하고, 운영 안정성과 품질 개선을 동시에 추진한다는 계획이다. 특히 데이터 수집부터 모델 개발, 배포, 운영, GPU 자원 관리까지 아우르는 AI 기반 개발 환경을 통해 AI 서비스 경쟁력을 강화한다는 전략이다. 권기덕 LG유플러스 AX엔지니어링Lab장은 "LG유플러스는 AX 서비스 가속화를 위해 데이터 수집부터 모델 개발·배포·운영, GPU 운영까지 아우르는 AI-DLC(AI 주도 개발 라이프사이클) 기반의 엔지니어링 플랫폼 역량을 강화하고 있다"며 "앞으로도 AWS와의 기술 협력을 통해 AI 서비스 품질과 운영 안정성을 지속적으로 높여 나가겠다"고 말했다.
2026-04-10 09:34:12
-
-
AI 반도체 슈퍼사이클 본격화…삼성전자, 분기 영업익 57조 돌파
[경제일보] 삼성전자가 인공지능(AI) 반도체 수요 급증을 발판으로 분기 기준 역대 최대 실적을 기록했다. 메모리 초호황이 본격화되면서 반도체 사업이 실적을 견인하는 구조가 뚜렷해지고 있다. 삼성전자는 올해 1분기 연결 기준 매출 133조원, 영업이익 57조2천억원을 기록하며 사상 최대 실적을 달성했다. 분기 매출과 영업이익이 각각 100조원, 50조원을 넘어선 것은 이번이 처음이다. 이번 실적은 단순한 호실적을 넘어 반도체 산업 구조 변화가 본격화됐음을 보여주는 신호로 해석된다. AI 확산으로 데이터센터 투자가 급증하면서 메모리 수요가 폭발적으로 증가하고 있기 때문이다. 특히 고대역폭 메모리(HBM)를 중심으로 한 AI용 메모리 수요가 급증하면서 가격 상승이 실적 개선으로 직결되는 구조가 형성됐다. 업계에서는 1분기 D램과 낸드 가격이 전 분기 대비 큰 폭으로 상승한 것으로 보고 있다. 과거 반도체 산업에서 경쟁의 중심이 파운드리나 로직 칩에 있었다면, 최근에는 메모리가 성능과 공급의 핵심 변수로 부상하고 있다는 분석이다. AI 연산 과정에서 데이터 처리와 이동이 중요해지면서 메모리 성능이 전체 시스템 효율을 좌우하고 있기 때문이다. 이 같은 흐름 속에서 삼성전자는 메모리, 파운드리, 패키징을 모두 보유한 ‘종합 반도체’ 구조를 바탕으로 수혜를 극대화하고 있다. 특히 차세대 HBM4 양산을 통해 기술 경쟁력 회복 신호를 보냈다는 점도 긍정적으로 평가된다. 다만 사업부별 온도차는 여전히 존재한다. 반도체를 담당하는 디바이스솔루션(DS) 부문이 실적을 견인하는 반면, 스마트폰과 가전 등 완제품 사업은 원가 부담과 수요 둔화 영향으로 상대적으로 부진한 흐름을 보이고 있다. 이는 반도체 가격 상승이 완제품 사업에는 비용 부담으로 작용하는 구조적 특성에 따른 것이다. 같은 그룹 내에서도 사업 포트폴리오에 따라 실적 방향이 엇갈리는 모습이다. 업계에서는 이번 실적을 기점으로 AI 반도체 슈퍼사이클이 본격화됐다는 평가가 나온다. 메모리 가격 상승과 데이터센터 투자 확대가 맞물리며 실적 성장세가 이어질 가능성이 크다는 분석이다. 특히 AI 인프라 투자가 단기적인 수요 증가를 넘어 구조적 성장 흐름으로 자리 잡고 있다는 점에서 메모리 수요 역시 장기적으로 확대될 가능성이 크다. 글로벌 빅테크 기업들이 데이터센터 투자를 지속적으로 확대하고 있는 데다, 생성형 AI 서비스 확산으로 연산량과 데이터 처리 규모가 기하급수적으로 증가하고 있기 때문이다. 실제로 클라우드·AI 기업들은 GPU와 함께 HBM 등 고성능 메모리 확보를 핵심 투자 항목으로 설정하고 있으며, 데이터센터 신규 구축뿐 아니라 기존 인프라의 업그레이드 수요도 동시에 발생하고 있다. 이는 일회성 설비 투자가 아닌 지속적인 증설과 교체 수요로 이어지는 구조다. 여기에 AI 모델이 고도화될수록 더 많은 데이터를 빠르게 처리해야 하는 특성상 서버당 메모리 탑재량도 증가하고 있어, 단위 장비 기준 수요까지 확대되는 흐름이 나타나고 있다. 이처럼 인프라 확장과 장비 고도화가 동시에 진행되면서 메모리 수요는 경기 사이클과 무관하게 구조적으로 증가하는 양상을 보이고 있다는 분석이다. 다만 반도체 산업 특유의 변동성과 대규모 설비 투자 부담은 여전히 변수로 남아 있다. 수요 변화에 따라 가격 변동성이 확대될 가능성도 배제할 수 없다. 그럼에도 불구하고 AI 중심 산업 구조가 강화되면서 반도체 경쟁의 축은 성능을 넘어 ‘데이터 처리 능력’을 좌우하는 메모리 중심으로 재편되는 흐름이 뚜렷해지고 있다. 결국 이번 실적은 단순한 호황을 넘어 반도체 산업의 주도권이 다시 메모리로 이동하고 있음을 보여주는 신호로 평가된다.
2026-04-07 09:02:49
-
구글, '젬마4' 출시로 오픈소스 AI 경쟁 참전…'제미나이' 투트랙 전략
[경제일보] 구글이 오픈형 인공지능(AI) 모델 '젬마 4'를 공개하며 개방형 AI 시장 공략에 속도를 내고 있다. 고급 추론 능력과 온디바이스 실행을 강화한 모델을 앞세워 개발자 생태계를 확대하고 폐쇄형 모델인 제미나이와의 투트랙 전략으로 AI 경쟁력 강화에 나서는 것으로 분석된다. 2일(현지시간) 구글은 고급 추론과 에이전트 기반 워크플로우를 지원하는 오픈형 모델 제품군 '젬마 4'를 출시했다고 밝혔다. 젬마 4는 아파치 2.0 라이선스로 제공되며 상업적 활용이 가능하다. 구글은 오픈형 모델을 통해 개발자와 기업이 다양한 환경에서 AI를 활용할 수 있도록 접근성을 확대한다는 전략이다. 젬마 4는 'Effective 2B(E2B)', 'Effective 4B(E4B)', '26B Mixture of Experts(MoE)', '31B Dense' 등 총 4가지 모델로 구성됐다. 해당 모델들은 단순한 대화 기능을 넘어 복잡한 논리 처리와 에이전트 기반 자동화 작업을 지원하도록 설계됐다. 특히 고급 추론 기능과 코드 생성 능력, 이미지·오디오 처리 기능 등 멀티모달 지원을 강화했으며 최대 256K 컨텍스트를 지원해 긴 문서 처리도 가능하다. 또한 140개 이상의 언어를 지원해 글로벌 애플리케이션 개발 환경을 제공한다. 구글은 이번 젬마 4를 통해 온디바이스 AI 전략도 강화했다. E2B와 E4B 모델은 스마트폰과 노트북, IoT 기기 등 엣지 환경에서 실행할 수 있도록 설계됐다. 이를 통해 클라우드 연결 없이도 AI 기능을 활용할 수 있으며 낮은 레이턴시와 개인정보 보호 측면에서도 장점을 제공한다. 특히 구글 픽셀을 비롯해 퀄컴, 미디어텍 등 주요 반도체 기업과 협력을 통해 스마트폰과 라즈베리 파이, 엔비디아 젯슨 나노 등 다양한 기기에서 오프라인 실행을 지원한다. 온디바이스 AI 확산이 가속화되는 가운데 구글이 모바일 중심 AI 경쟁력 확보에 나선 것으로 풀이된다. 오픈형 AI 모델 경쟁도 한층 치열해지고 있다. 메타의 'Llama' 시리즈를 비롯해 '미스트랄', 알리바바 'Qwen', 마이크로소프트 'Phi' 등 주요 기업들이 오픈형 모델을 잇따라 공개하며 개발자 생태계 확보 경쟁에 나서고 있다. 이에 구글 역시 젬마 4를 통해 오픈형 AI 시장에서 영향력을 확대하려는 전략으로 분석된다. 구글은 폐쇄형 모델인 제미나이를 중심으로 고성능 AI 서비스를 제공하는 동시에 젬마 시리즈를 통해 구글의 AI 전략 다변화를 진행하고 있다. 제미나이가 클라우드 기반 서비스와 기업 고객 중심이라면 젬마는 개발자와 스타트업을 대상으로 한 오픈형 생태계 구축에 초점이 맞춰져 있다. 두 모델을 병행 운영하며 AI 플랫폼 경쟁력을 강화하려는 전략으로 풀이된다. 또한 구글은 허깅페이스, vLLM, Ollama, NVIDIA NIM 등 주요 개발 도구에서 젬마 4를 출시 당일부터 지원해 개발자 생태계 확대에도 집중한다. 또한 구글 AI 스튜디오와 구글 콜랩, 버텍스 AI 등을 통해 모델 학습과 배포 환경을 확인할 수 있어 개발자는 로컬 환경뿐 아니라 구글 클라우드를 통해 확장 가능한 AI 서비스를 구축할 수 있을 것으로 전망된다. 하드웨어 지원 범위도 확대됐다. 젬마 4는 소비자용 GPU부터 엔비디아 H100 GPU, 구글 TPU까지 다양한 환경에서 실행할 수 있도록 최적화됐다. AMD GPU와의 연동도 지원하며 엣지 기기부터 클라우드까지 폭넓은 환경에서 활용 가능하도록 설계됐다. 이번 젬마 4 출시 이후 온디바이스 AI와 개방형 생태계를 중심으로 AI 시장 주도권 경쟁이 확대될 것으로 분석된다. 구글이 젬마 4를 통해 개발자 생태계 확보에 나서면서 AI 플랫폼 경쟁 구도도 한층 치열해질 전망이다.
2026-04-03 11:32:17
-
-
"휴먼에러 막는다"…SK AX, 에이전틱AI 기반 운영 자동화 시장 공략
[경제일보] 인공지능(AI) 인프라 확산으로 산업 현장의 시스템 운영 복잡성이 급격히 증가하면서 장애 예방을 위한 AI 기반 운영 자동화 경쟁이 본격화되고 있다. 이에 기업들이 서비스 중단에 따른 손실을 줄이기 위해 선제적 장애 예방 체계 구축에 나서면서 AI 기반 자율 운영 기술 도입이 빠르게 확대되고 있다. 2일 SK AX는 에이전틱AI 기반 인프라 운영 서비스 'AXgenticWire NPO(New Paradigm for Operation)'를 공개하며 AI 운영 자동화 시장 공략에 나선다고 밝혔다. 해당 서비스는 시스템 장애를 사전에 감지하고 자동으로 대응하는 자율 운영 체계로 GPU 기반 AI 인프라와 클라우드 환경의 확대로 인해 기존 인력 중심 운영 방식으로는 대응이 힘든 점을 파악해 설계된 것이다. AI 기반의 통합 보안 플랫폼 기업 스플렁크와 옥스포드 이코노믹스가 발표한 보고서에 따르면 글로벌 대기업들은 시스템 장애로 인해 연간 약 4000억 달러 규모의(약 600조원) 손실을 입는 것으로 나타났다. 이는 기업 이익의 약 9%에 해당하는 규모다. AI 학습과 추론 환경이 확대되면서 GPU 자원 관리, 워크로드 변동 대응, 복잡한 인프라 운영 등 관리 요소가 늘어나고 있어 글로벌 시장에서도 AI 기반 운영 자동화 수요는 빠르게 증가하고 있다. 특히 AI 서비스는 장애 발생 시 서비스 전체에 영향을 미칠 가능성이 높아 사전 탐지와 자동 대응 기술의 중요성이 커지고 있다. 이에 기업들은 기존 모니터링 중심 운영에서 벗어나 AI가 문제를 탐지하고 조치까지 수행하는 자율 운영 체계 구축을 추진하고 있다. 'AXgenticWire NPO'는 에이전틱AI가 선제적으로 문제 상황을 탐지하고 분석한 뒤 조치까지 수행하는 구조로 설계됐다. AI 에이전트가 시스템 로그, 메트릭, 이벤트 데이터를 실시간으로 분석해 이상 징후를 감지하면 분석 에이전트가 원인을 추론하고 영향 범위를 판단한다. 이후 조치 에이전트가 복구 작업, 설정 변경, 자원 재할당 등을 자동으로 실행하는 방식이다. SK AX는 기존 운영 인력이 수행하던 반복 작업과 휴먼 에러를 줄이고 장애 발생률을 낮출 수 있다고 설명했다. 또한 GPU 자원 관리 기능도 포함됐다. AI 워크로드가 급격히 증가하면서 GPU 활용률 관리와 자원 재배치가 운영 핵심 요소로 떠오르고 있다. 이에 AXgenticWire NPO는 GPU 자원을 통합 관리하는 'GPU 애즈 어 서비스(GPU-as-a-Service)' 구조를 적용해 AI 학습과 추론 환경을 안정적으로 운영할 수 있도록 설계됐다. 산업별 적용 범위도 확대되고 있다. 해당 서비스를 통해 제조업에서는 설비와 공정 데이터를 분석해 이상 징후를 사전에 감지할 수 있으며, 금융 분야에서는 거래와 인증 시스템의 무중단 운영 체계를 구축할 수 있을 전망이다. 공공 분야에서도 대국민 서비스 안정성을 강화하는 데 활용될 수 있다. 기업들은 설치형, 운영 아웃소싱(BPO), 통합 운영(ITO) 방식 등 필요에 따라 도입 방식을 선택할 수 있다. 향후 AI 인프라 확대와 함께 에이전틱 AI 기반 자율 운영 체계 도입이 더욱 가속화될 것으로 분석된다. 기업들이 장애 대응 중심에서 사전 예방 중심으로 운영 전략을 전환하면서 AI 기반 운영 자동화 시장도 빠르게 성장할 전망이다. 차지원 SK AX CAIO는 "운영 전반에서 AI가 먼저 움직여 대응하는 구조이기 때문에 휴먼 에러로 인한 장애 위험을 최소화할 수 있다"며 "'AXgenticWire NPO' 도입으로 기업들은 다운타임 없는 운영 체계에서부터 애플리케이션의 지능화된 서비스까지 AX 실행 전환 속도를 높이는 것은 물론, AX 전체 영역에서 운영비용 구조 혁신과 프로세스 재설계도 가능할 것"이라고 말했다.
2026-04-02 10:00:46
-
-
-
GPU 독주 끝나나…AI 에이전트 시대, CPU 중심 인프라 부상
[경제일보] 생성형 인공지능(AI) 확산으로 GPU 중심으로 형성됐던 AI 인프라 시장이 'AI 에이전트' 시대에 접어들며 CPU 중심으로 재편될 조짐을 보이고 있다. 단순 답변 생성에서 실제 작업을 수행하는 형태로 AI 활용 방식이 변화하면서 데이터센터 구조 자체가 달라지고 있다는 분석이다. 30일 유진투자증권의 보고서 '메모리 와치'에 따르면 초기 생성형 AI는 사용자의 질문에 대한 답변을 생성하는 단순 응답형 구조였지만 단순한 추론을 넘어 실제 행동을 수행하는 구조로 진화하면서 CPU가 담당하는 작업 비중이 크게 늘어나는 것으로 나타났다. 기존 AI는 연산 병목이 대부분 GPU 중심의 행렬 연산과 메모리 대역폭 처리 구간에 집중되며 AI 인프라 경쟁 역시 GPU 확보가 핵심 요소로 작용했다. 다만 최근 등장한 AI 에이전트는 구조가 크게 다르다. AI 에이전트는 사용자의 요청을 해석한 뒤 데이터베이스 접근, 외부 툴 호출, 결과 재분석 등 다층적인 작업을 수행하는 방식으로 동작한다. CPU는 AI 연산 자체를 수행하지는 않지만 요청 해석과 작업 스케줄링, 데이터베이스 접근, 외부 툴 실행, 세션 관리 등 AI 에이전트 워크로드 전반을 제어하는 역할을 담당한다. 이에 AI 인프라의 성능 역시 GPU 단독이 아닌 CPU와 GPU의 조합에 의해 결정되는 구조로 변화하고 있는 것으로 분석된다. 이 같은 변화는 주요 AI 기업들의 전략에서도 나타나고 있다. 최근 엔비디아는 CPU 중심 인프라 확대에 나섰다. 메타는 올해 2월 엔비디아의 '그레이스 CPU'와 '베라 CPU'를 대량 구매하는 공급 계약을 체결했으며 엔비디아는 GTC 2026에서 CPU 개별 판매를 공식화했다. GPU 기업인 엔비디아가 CPU 단독 판매에 나선 것은 이례적인 행보로 평가된다. 이어 엔비디아는 AI 에이전트 환경에 최적화된 '베라 CPU 랙'과 함께 40개 랙으로 구성된 '베라 루빈 포드'도 공개했다. Arm 역시 AI 에이전트 시장 확대에 대응해 데이터센터용 'AGI CPU'를 공개했다. Arm이 직접 칩 판매에 나선 것은 지난 1990년 창립 이후 최초이다. AGI CPU는 메타와 공동 개발됐으며 TSMC 3나노 공정으로 제조된다. Arm은 AI 에이전트 시장 확대로 데이터센터 CPU 시장 규모가 오는 2030년까지 1000억 달러(약 150조원)에 달할 것으로 전망했다. 또한 향후 5년 내 AGI CPU 매출이 Arm의 지난해 연간 매출 46억7000만 달러(약 7조원)를 크게 웃도는 연간 150억 달러(약 23조원)에 이를 것으로 예상했다. 업계에서는 AI 인프라 병목이 GPU에서 메모리, 네트워크를 거쳐 CPU로 이동하고 있는 것으로 예상하고 있다. 초기 AI 사이클에서는 GPU 확보가 핵심이었지만, 추론 시장 확대 이후 KV 캐시 증가로 메모리 수요가 급증했고, 이후 고성능 네트워크 확장 수요가 커지는 것이다. 최근 AI 에이전트 확산으로 비GPU 연산 비중이 빠르게 증가하면서 CPU가 새로운 병목 요인으로 부상할 것으로 전망된다. 이에 GPU와 메모리, 네트워크에 이어 데이터센터 CPU 관련 밸류체인에 대한 투자 관심도 확대될 것으로 분석된다. 르네 하스 Arm 대표는 'AGI CPU'를 공개하며 "AI는 빠르게 진화하고 있으며 앞으로 훨씬 더 빠른 속도로 성장할 것이고, AI 시스템이 복잡해질수록 CPU의 역할은 더욱 중요해질 것"이라며 "AI는 사용자부터 애플리케이션, 인프라까지 전체 기술 스택을 재정의하고 있으며 세계는 기존 데이터센터에서 AI 중심 데이터센터로 빠르게 전환되고 있다"고 말했다.
2026-03-30 17:13:07
-
-
-
-