검색결과 총 112건
-
美·中에 밀린 日 'AI 연합'으로 승부수…소뱅·소니·혼다 등 결집
[경제일보] 일본 주요 기업들이 연합 형태로 인공지능(AI) 개발사 설립에 나섰다. 미국과 중국 중심으로 형성된 AI 경쟁 구도 속에서 대형 모델 개발과 산업 적용을 동시에 추진하며 기술 자립 기반을 구축하려는 움직임으로 해석된다. 12일 요미우리신문에 따르면 소프트뱅크, NEC, 혼다, 소니 등 4개 기업은 공동으로 일본 AI 기반모델 개발사를 설립했다. 일본 주요 기업이 컨소시엄 형태로 AI 모델 개발에 나선 것은 이례적인 사례로 꼽힌다. 이 회사는 조 단위(트릴리언급) 파라미터 규모의 대형 AI 모델 개발을 추진한다. 단순 생성형 AI를 넘어 로봇을 제어할 수 있는 차세대 AI 개발을 목표로 한다. 제조와 로보틱스 분야에서 축적된 기술을 AI와 결합해 활용 범위를 확대하려는 전략이다. 역할 분담도 구체화됐다. 소프트뱅크와 NEC는 AI 기반 모델 개발을 맡고, 소니와 혼다는 이를 자동차, 로봇, 게임, 반도체 등 자사 사업 영역에 적용하는 구조다. 개발과 활용을 분리해 상용화 속도를 높이겠다는 접근으로 풀이된다. 지분 구조는 산업 전반이 참여하는 형태로 설계됐다. 일본제철, 미쓰비시UFJ은행, 미쓰이스미토모은행, 미즈호은행 등 주요 기업과 금융기관이 소액 주주로 참여해 투자 기반을 넓혔다. 해당 개발사는 일본 경제산업성이 추진하는 AI 지원 사업에 참여할 계획이다. 이 사업은 2026회계연도부터 5년간 총 1조엔(약 9조3000억원) 규모로 진행되며, 국산 AI 개발 기업 등을 대상으로 지원이 이뤄진다. 경영은 소프트뱅크에서 AI 개발을 담당하던 인사가 맡는다. 기존 대형 IT 기업에서 축적된 개발 경험을 바탕으로 단기간 내 모델 구축에 속도를 낼 것으로 예상된다. 이번 연합은 글로벌 AI 경쟁 구도 변화에 대응하기 위한 전략으로 해석된다. 현재 대형 AI 모델 개발은 미국과 중국 기업이 주도하고 있으며, 일본 기업은 상대적으로 후발 주자에 속한다. 특히 일본은 로봇과 제조 분야에서 강점을 보유하고 있어 AI 적용 영역에서 차별화를 시도하고 있다. 요미우리신문은 “AI 모델 개발에서는 미국과 중국이 앞서 있지만, 피지컬 AI 분야에서는 일본이 경쟁력을 보유한 것으로 평가된다”며 “대형 국산 AI와 활용 체계를 구축해 추격에 나설 것”이라고 전했다.
2026-04-12 16:07:02
-
LG유플러스, AWS 기반 AI 운영 플랫폼 구축…GPU 효율화·운영 자동화
[경제일보] 국내 이동통신사들이 인공지능(AI) 서비스 경쟁력 확보를 위해 인프라 고도화에 속도를 내고 있다. 생성형 AI 서비스 확대와 함께 모델 운영 비용과 인프라 부담이 커지면서 AI 개발부터 서비스 운영까지 전 과정을 통합하려는 움직임이 본격화되는 모습이다. 10일 LG유플러스는 최근 AWS가 주최한 '2026 모던 에이전틱 애플리케이션 데이' 행사에서 AI 모델을 실제 서비스로 안정적으로 운영하기 위한 플랫폼 구축 사례를 공개했다고 밝혔다. 이번 행사는 생성형 AI와 에이전트 기술을 활용한 인프라 운영 자동화를 주제로 진행됐다. LG유플러스는 기존 온프레미스 중심의 AI 개발 환경을 클라우드와 연계한 하이브리드 구조로 전환하고 AI 개발부터 서비스 운영까지 전 과정을 효율적으로 연결한 플랫폼 구축을 진행했다고 설명했다. 이를 통해 AI 서비스 품질과 운영 안정성을 동시에 높일 수 있는 기반을 마련한 것으로 나타났다. 이번 플랫폼은 AI 모델 개발과 서비스 운영 단계 간 단절을 줄이는 데 초점을 맞췄다. 기존에는 AI 모델 학습, 평가, 배포, 운영이 각각 분리돼 진행되면서 서비스 전환 과정에서 반복적인 작업과 시간이 소요된 것으로 알려졌다. 이에 LG유플러스는 하나의 흐름으로 통합해 AI 모델을 보다 빠르게 서비스에 적용할 수 있도록 구조를 설계했다. LG유플러스는 AI를 한 번 개발하고 끝나는 방식이 아닌, 언제든 서비스에 적용할 수 있는 '모델 준비 상태'를 유지하는 구조를 목표로 플랫폼을 구축했다고 설명했다. 데이터 수집부터 학습, 평가, 배포, 운영까지 전 과정을 하나의 파이프라인으로 연결해 개발자와 운영자가 일관된 환경에서 AI를 활용할 수 있도록 구성했다. 이를 위해 AWS의 관리형 쿠버네티스(컨테이너화된 애플리케이션의 배포, 확장, 관리를 자동으로 처리해주는 플랫폼) 서비스인 '아마존 EKS' 기반의 하이브리드 인프라 아키텍처를 도입했다. 자체 온프레미스 GPU 인프라를 아마존 EKS 클러스터의 하이브리드 노드로 통합하고 클러스터 전체 제어 기능인 쿠버네티스 컨트롤 플레인은 AWS 완전관리형 서비스로 운영하는 구조다. 인프라 운영 부담을 줄이고 서비스 안정성과 품질 개선에 집중할 수 있는 환경을 구축한 것이다. GPU 자원 활용 방식도 개선했다. 기존에는 GPU를 장비 단위로 고정 할당하는 방식이 일반적이었지만 LG유플러스는 필요에 따라 자원을 유연하게 배분하는 구조를 적용했다. GPU 미사용 시간을 줄여 AI 모델 학습과 서비스 운영에 필요한 자원을 보다 효율적으로 활용할 수 있도록 설계했다. 최근 생성형 AI 서비스가 확대되면서 AI 모델 운영과 인프라 관리 중요성도 커지고 있다. 특히 AI 모델이 실제 서비스에 적용되는 과정에서 운영 안정성과 비용 효율성이 주요 경쟁 요소로 떠오르면서 AI 운영 플랫폼 구축이 통신사 경쟁력 확보의 핵심 요소로 부상하고 있다. 통신사들은 기존 통신 서비스 중심 사업 구조에서 벗어나 AI 기반 서비스 확대를 추진하고 있다. 이에 AI 모델 개발뿐 아니라 서비스 운영과 인프라 관리까지 포함한 통합 플랫폼 구축이 중요한 과제로 떠오르고 있다. LG유플러스는 이번 플랫폼 구축을 통해 AI 서비스를 보다 빠르게 제공하고, 운영 안정성과 품질 개선을 동시에 추진한다는 계획이다. 특히 데이터 수집부터 모델 개발, 배포, 운영, GPU 자원 관리까지 아우르는 AI 기반 개발 환경을 통해 AI 서비스 경쟁력을 강화한다는 전략이다. 권기덕 LG유플러스 AX엔지니어링Lab장은 "LG유플러스는 AX 서비스 가속화를 위해 데이터 수집부터 모델 개발·배포·운영, GPU 운영까지 아우르는 AI-DLC(AI 주도 개발 라이프사이클) 기반의 엔지니어링 플랫폼 역량을 강화하고 있다"며 "앞으로도 AWS와의 기술 협력을 통해 AI 서비스 품질과 운영 안정성을 지속적으로 높여 나가겠다"고 말했다.
2026-04-10 09:34:12
-
앤트로픽, '미토스'로 사이버 보안 동맹 구축… '기술 유출' 아닌 '방어 우선' 선택
[경제일보] 인공지능(AI) 기업 앤트로픽이 아직 일반에 공개되지 않은 최신 AI 모델 ‘미토스(Mythos)’를 아마존웹서비스(AWS), 구글, 애플, 마이크로소프트(MS) 등 주요 빅테크 기업들에 선제적으로 제공한다. 7일(현지시간) 앤트로픽은 ‘프로젝트 글래스윙(Project Glasswing)’이라는 이름의 공동 계획을 발표하며 AI가 해커의 손에 들어가 악용되기 전에 방어하는 쪽이 기술적 우위를 점해야 한다고 밝혔다. 이는 AI 기술의 고도화가 가져올 잠재적 위험성을 인정하고 기술 기업들이 자발적으로 ‘방어 동맹’을 구축한 첫 사례라는 점에서 의미가 깊다. 이번 결정의 배경에는 ‘미토스’가 지닌 압도적인 성능이 있다. 사이버 보안 취약점 재현 성능지표(벤치마크)인 ‘사이버짐’ 평가에서 미토스의 점수는 83.1%로 기존 최상위 모델인 ‘오퍼스 4.6’(66.6%)을 큰 격차로 뛰어넘었다. 앤트로픽은 “미토스가 소프트웨어 취약점을 발견하는 데 있어 최고 숙련자들을 제외한 대부분의 인간을 능가한다”고 밝혔다. 이러한 능력은 곧 ‘양날의 검’이다. 방어하는 입장에서는 보이지 않던 취약점을 찾아내는 강력한 무기가 되지만 공격하는 입장에서는 기존의 보안 시스템을 무력화하는 ‘만능키’가 될 수 있다. 특히 분야별 박사급 전문가 수준의 문제를 모은 ‘인류의 마지막 시험(HLE)’ 점수에서 AI 모델 최초로 50%의 벽을 넘어선 것은 미토스가 인간의 지능에 근접했음을 시사한다. 이 기술이 통제 없이 외부에 유출될 경우 국가 단위의 사이버 전쟁이나 금융 시스템 마비 등 예측 불가능한 대혼란이 발생할 수 있다. 이에 앤트로픽은 미토스를 일반에 공개하는 대신 ‘프로젝트 글래스윙’이라는 방어 동맹을 선택했다. 이 프로젝트에는 AWS, 애플, 구글, MS, 엔비디아 등 AI 인프라를 지배하는 빅테크 기업들과 시스코, 팔로알토 등 보안 전문 기업 그리고 JP모건체이스와 같은 금융 기업까지 초기 파트너로 참여했다. 앤트로픽은 이들 기업에 최대 1억 달러 규모의 모델 사용권을 제공하고 오픈소스 보안 단체들에는 400만 달러를 기부할 계획이다. 이는 기술을 독점하려는 것이 아니라 인터넷 생태계의 주요 플레이어들이 힘을 합쳐 AI가 가져올 수 있는 부작용을 최소화하자는 ‘공동 책임’의 선언이다. 다리오 아모데이 CEO는 “AI를 잘못 다루면 위험하지만, 잘만 다루면 근본적으로 더 안전한 세상을 만들 기회가 생긴다”며 이번 프로젝트의 의미를 강조했다. 앤트로픽은 이번 프로젝트를 미 정부 당국자들과도 논의해왔다고 밝혔다. 이는 AI 기술이 더 이상 민간 기업의 영역을 넘어 ‘국가 안보’의 핵심 자산이 되었음을 의미한다. 앤트로픽은 “이러한 사이버 역량의 등장은 미국과 동맹국들이 AI 기술 분야에서 확고한 우위를 유지해야 하는 또 다른 이유”라며 정부와의 협력 의지를 분명히 했다. 향후 AI 기술 개발은 ‘성능 경쟁’과 ‘안전 경쟁’이라는 두 가지 축으로 전개될 것이다. 오픈AI, 구글, 앤트로픽 등 선두 기업들은 이제 단순히 더 똑똑한 AI를 만드는 것을 넘어 ‘우리의 AI가 얼마나 안전한가’를 증명해야 하는 시대에 진입했다. 미토스와 같은 공격적인 AI를 활용해 자사의 시스템 취약점을 점검하는 ‘AI 레드팀’이 기업 보안의 표준이 될 것이다. 정부는 AI 기술의 군사적 전용을 막기 위해 핵심 모델에 대한 수출 통제나 라이선스 규제를 강화할 가능성이 높다. 앤트로픽의 이번 ‘선제적 협력’은 이러한 규제 흐름 속에서 기업의 자율성을 확보하려는 전략적 행보로도 볼 수 있다. AI가 창과 방패 역할을 모두 하게 되면서 AI 기반의 사이버 보안 솔루션 시장은 폭발적으로 성장할 것이다. 앤트로픽의 이번 결정은 AI 기술 개발의 패러다임을 바꾸는 중요한 전환점이다. 그동안 기술 기업들은 ‘성능’을 최우선으로 추구하며 ‘안전’ 문제를 부차적인 것으로 여겨왔다. 하지만 앤트로픽은 자사가 개발한 강력한 기술이 가져올 수 있는 위험을 스스로 인정하고 이를 해결하기 위해 경쟁사들과 손을 잡는 전례 없는 선택을 했다. 물론 이러한 ‘자발적 규제’가 얼마나 실효성을 가질지에 대한 회의적인 시각도 존재한다. 하지만 인류를 위협할 수 있는 기술을 개발한 기업이 스스로 그 위험을 통제하려는 책임감 있는 자세를 보였다는 점만으로도 이번 ‘프로젝트 글래스윙’은 AI 시대의 윤리적 이정표로 기록될 것이다. 미토스의 등장은 우리에게 질문을 던진다. 우리는 과연 이 강력한 지능을 통제할 준비가 되어 있는가. 앤트로픽과 빅테크들의 동맹은 그 질문에 대한 첫 번째 응답이다.
2026-04-08 07:45:06
-
-
-
개발 복잡성 커지는 산업 현장…매스웍스, 차세대 엔지니어링 전략 제시
[경제일보] "개발의 복잡도가 기하급수적으로 늘고 타임투마켓(시장 출시 시간)의 압박, 글로벌 기업들 간의 경쟁이 치열해지고 정치적 불확실성이 늘어나면서 기업들은 그 어느 때보다 빠른 시간 안에 복잡한 제품을 높은 완성도로 시장에 출시해야 하는 압박을 받고 있다" 7일 서울시 강남구 코엑스에서 매스웍스가 진행한 '매트랩 엑스포 2026 코리아 기자간담회'에서 박주일 매스웍스코리아 사장은 현재 IT 기업들이 놓인 상황을 이렇게 진단했다. 매스웍스는 지난 1984년 미국에서 설립된 테크니컬 컴퓨팅 소프트웨어 전문 개발 기업으로 자동차, 항공우주, 통신, 전자, 산업 자동화 등 다양한 산업 분야에서 활용되고 있다. 현재 전 세계 180개국 이상에서 10만여 개 기업·대학·정부기관과 500만여 명의 엔지니어·과학자들이 매스웍스의 제품을 사용하는 것으로 집계된다. 특히 자동차, 반도체, 항공우주 등 복잡한 시스템 설계가 요구되는 산업에서 모델 기반 설계와 시뮬레이션 기반 개발 환경을 제공하며 엔지니어링 소프트웨어 시장에서 영향력을 확대하고 있다. 이번 기자간담회에서 매스웍스는 자사의 엔지니어링 플랫폼을 기반으로 AI 엔지니어링의 실제 산업 적용 사례를 소개하고 생성형 AI와 모델 기반 설계가 제품 개발 과정 전반을 어떻게 변화시키고 있는지를 설명했다. 특히 복잡해지는 제품 구조와 개발 환경 변화 속에서 기업들이 직면하고 있는 개발 효율성 문제를 해결하기 위한 방안으로 AI 기반 엔지니어링 접근법을 강조했다. 매스웍스에 따르면 최근 기업들은 디지털 트윈 구현을 목표로 다양한 시도를 진행하고 있지만 실제 현장에서는 기술적 간극과 개발 복잡성 증가로 인해 어려움을 겪고 있는 것으로 나타났다. 또한 타임투마켓 단축 압박과 글로벌 경쟁 심화, 디지털 전환 비용 증가 등이 맞물리며 개발 비용이 전반적으로 상승하는 것으로 분석된다. 특히 소프트웨어 중심 제품 구조로 변화하면서 하드웨어·소프트웨어·AI 모델이 동시에 개발되는 복합적인 엔지니어링 환경이 확대되고 있다. 자동차, 로봇, 통신 장비 등 다양한 산업에서 기능이 고도화되면서 개발 단계에서 고려해야 할 요소가 증가하고 있고, 이에 설계·검증·테스트 과정의 복잡성도 함께 높아지고 있다. 매스웍스는 이러한 환경 변화 속에서 생성형 AI와 모델 기반 설계의 중요성이 빠르게 커지고 있다고 설명했다. 생성형 AI를 활용해 코드 생성, 모델 설계, 테스트 자동화 등을 수행하고, 모델 기반 설계를 통해 설계 단계부터 시뮬레이션과 검증을 동시에 진행하는 방식이 확산되고 있다는 것이다. 특히 이러한 기능을 통합적으로 지원하는 엔지니어링 워크플로우에 대한 수요도 증가하고 있는 것으로 나타났다. AI가 엔지니어링 설계 전 영역에 걸쳐 실질적인 변화를 만들어내고 있다는 점도 강조됐다. 기존에는 반복적인 수작업 중심으로 진행되던 모델 설계와 검증 작업이 AI를 통해 자동화되면서 개발 생산성이 크게 향상되고 있다는 것이다. 프라부 매스웍스 인더스트리 부문 이사는 "엔지니어 입장에서는 예전에는 16일이 걸리던 일이었는데 이제 5분이 걸린다는 것이 생산성이 얼마나 증가된 것인지 아실 것"이라며 "가장 유능한 엔지니어는 생성형 AI를 활용하는 방법을 이해하면서 더 높은 수준의 작업에 더 많은 시간을 할애할 수 있는 사람들일 것"이라고 강조했다. 매스웍스는 이날 기자 간담회 이후 AI 기반 엔지니어링 기술을 직접 확인할 수 있는 데모 투어도 진행했다. 데모 투어에서는 생성형 AI와 모델 기반 설계를 결합한 다양한 기술이 소개됐으며 실제 산업 환경에서 활용 가능한 사례 중심으로 설명이 이뤄졌다. 이번 데모 투어에서는 매트랩 MCP, 임베디드 시스템을 위한 초소형 AI 모델 개발 및 배포, 시뮬링크 코파일럿, 폴리스페이스, ROM(리듀스드 오더 모델), 시스템 컴포저와 시뮬링크 폴트 애널라이저 통합 사이버보안 대응 등 6가지 기술이 소개됐다. 매트랩 MCP는 생성형 AI를 활용해 코드 작성과 모델 설계를 자동화하는 기능으로 소개됐다. 엔지니어가 자연어로 요구사항을 입력하면 자동으로 모델과 코드를 생성하고 설계 과정에서 필요한 수정 작업도 AI가 지원해 개발 초기 단계에서 설계 시간을 단축하고 반복 작업을 줄일 수 있는 것이다. 임베디드 시스템을 위한 초소형 AI 모델 개발 및 배포 기술도 공개됐다. 해당 기술은 제한된 컴퓨팅 자원을 가진 임베디드 환경에서도 AI 모델을 효율적으로 실행할 수 있도록 최적화하는 것이 특징이다. 자동차, 산업용 장비, IoT 디바이스 등 다양한 환경에서 AI 기능을 적용할 수 있도록 지원한다. 시뮬링크 코파일럿은 모델 설계 과정에서 AI가 자동으로 설계 구조를 제안하고 오류를 검증하는 기능이며, 코드 오류와 잠재적인 결함을 사전에 분석하는 코드 검증 기술인 폴리스페이스도 시연했다. 복잡한 시뮬레이션 모델을 간소화해 빠르게 분석할 수 있도록 지원하는 ROM 기술, 시스템 컴포저와 시뮬링크 폴트 애널라이저를 통합한 사이버보안 대응 기술도 공개됐다. 매스웍스는 이번 데모를 통해 생성형 AI와 모델 기반 설계를 결합한 엔지니어링 환경이 실제 산업 현장에서 빠르게 확산되고 있다고 설명했다. 특히 자동차, 항공우주, 산업 자동화 등 고도화된 시스템 설계가 필요한 산업에서 AI 기반 엔지니어링 도입이 증가하고 있는 것으로 나타났다. 이에 매스웍스는 앞으로도 생성형 AI와 모델 기반 설계를 중심으로 엔지니어링 워크플로우 혁신을 지속 확대해 나갈 전망이다. 특히 AI 기반 자동화 기술을 통해 개발 생산성을 높이고 복잡한 제품 설계 환경에 대응할 수 있도록 지원한다는 전략이다. 박주일 사장은 "매스웍스가 발전했듯이 한국 제조업 경쟁력도 지난 수십 년 동안 크게 발전해 왔다"며 "매스웍스의 기술을 통해 한국 제조업 경쟁력의 향상에 이바지하는 것이 매스웍스코리아의 사명"이라고 말했다.
2026-04-07 13:28:01
-
노타, 1분기 수주 118억…'AI 경량화' 기술 공급하며 '퀀텀 점프'
[경제일보] AI 경량화 기술 기업 노타(대표 채명수)가 2026년 1분기 수주액 118억원을 기록하며 전년 동기 대비 111%라는 폭발적인 성장세를 보였다. 이번 성과는 노타의 AI 모델 최적화 플랫폼 ‘넷츠프레소(NetsPresso®)’가 삼성전자, Arm, 퓨리오사AI 등 글로벌 반도체 기업들의 까다로운 검증을 통과하며 기술 공급을 본격화한 결과다. 이는 AI 산업의 무게중심이 거대 모델 개발에서 ‘효율적인 운영’으로 이동하고 있음을 보여주는 상징적인 사건이다. 생성형 AI 모델의 규모가 기하급수적으로 커지면서 이를 구동하는 데 필요한 천문학적인 연산 비용과 전력 소모가 산업계의 가장 큰 골칫거리로 떠올랐다. 특히 스마트폰이나 자율주행차와 같은 ‘온디바이스 AI’ 환경에서는 거대한 모델을 그대로 탑재하는 것이 물리적으로 불가능하다. 바로 이 지점에서 노타의 ‘AI 경량화’ 기술이 빛을 발한다. 노타의 넷츠프레소 플랫폼은 AI 모델의 성능을 유지하면서도 크기를 획기적으로 줄여 저사양의 엣지 디바이스에서도 AI가 원활하게 구동되도록 돕는다. 이는 막대한 데이터센터 구축 비용을 절감하고 AI 서비스의 응답 속도를 높이는 핵심 기술이다. 노타의 터보퀀트(TurboQuant) 기술이 시장의 주목을 받은 이유도 여기에 있다. 추론 효율과 메모리 최적화에 대한 시장의 요구가 높아지면서 노타의 기술은 이제 ‘선택’이 아닌 ‘필수’가 되고 있다. 노타의 기술적 가치는 삼성전자, Arm, 퓨리오사AI 등 글로벌 반도체 기업들과의 연이은 수주 계약으로 증명됐다. 삼성전자와의 계약을 통해 온디바이스 AI 분야의 기술력을 입증한 데 이어 Arm과의 파트너십은 노타가 글로벌 AI 생태계의 핵심 플레이어로 부상했음을 의미한다. Arm은 현재 모바일을 넘어 데이터센터, 자동차, 로보틱스까지 AI 생태계를 확장하고 있다. 노타의 최적화 기술은 Arm 기반의 다양한 컴퓨팅 환경에서 하드웨어 성능을 극대화하는 ‘소프트웨어 계층’의 표준이 될 가능성이 높다. 이는 노타가 단순한 기술 공급사를 넘어 Arm 생태계에 참여하는 모든 개발자들이 반드시 거쳐야 하는 ‘필수 플랫폼’으로 자리매김할 수 있음을 시사한다. 솔루션 부문의 성장도 괄목할 만하다. 비전언어모델(VLM) 기반의 영상 분석 솔루션 ‘노타 비전 에이전트(NVA)’는 단순히 객체를 인식하는 수준을 넘어 추론을 통해 영상의 맥락과 상황을 판단한다. 이를 통해 실시간 상황 요약 및 보고까지 가능해져 조선, ITS, 제조 등 다양한 산업 현장에서 활용 범위를 넓혀가고 있다. 글로벌 자동차 부품 기업을 비롯한 다양한 고객군에서 기술 검증 이후 실제 계약으로 이어지는 사례가 증가하는 것은 NVA의 기술적 완성도와 현장 적용성이 이미 시장의 신뢰를 얻었음을 보여준다. 향후 노타는 플랫폼과 솔루션이라는 두 날개를 통해 성장을 가속할 전망이다. 플랫폼 부문에서는 반도체 및 컴퓨팅 환경 전반으로 협력 범위를 넓히고 솔루션 부문에서는 산업별 맞춤형 공급을 통해 시장 지배력을 강화할 것이다. 채명수 대표는 “확보한 수주를 고객 성과로 연결하고 AI 최적화 시장에서의 기술 리더십을 공고히 하겠다”고 밝혔다. AI 모델의 ‘다이어트’ 기술이 기업의 생존을 결정짓는 시대에, 노타의 행보는 K-소프트웨어 기업이 글로벌 반도체 공급망의 핵심 파트너로 성장할 수 있음을 보여주는 모범 사례가 될 것이다. 한편 AI의 미래는 ‘얼마나 더 큰 모델을 만드느냐’가 아니라 ‘얼마나 더 효율적으로 운영하느냐’에 달려 있다. 노타는 이 질문에 대한 가장 명확한 답을 제시하고 있다. 앞으로 노타가 AI 반도체 시장의 ‘숨은 강자’를 넘어 글로벌 AI 최적화 시장의 표준을 제시하는 ‘게임 체인저’가 될 수 있을지 귀추가 주목된다.
2026-04-07 10:45:09
-
금융권 AX 시장 커진다…삼성SDS·LG유플러스 AI 사업 전면 확대
[경제일보] LG유플러스와 삼성SDS가 금융권 인공지능(AI) 전환 사업을 잇달아 수주하며 IT 기업 중심의 금융 AX(AI 전환) 경쟁이 본격화되고 있다. 은행권이 생성형 AI와 AI 에이전트 도입에 속도를 내면서 통신사·SI 등 IT 기업들이 핵심 파트너로 부상하는 것으로 분석된다. 7일 LG유플러스는 IBK시스템과 금융 특화 AI 서비스 개발을 위한 업무협약(MOU)을 지난 6일 체결하고 금융권 AI 에이전트 사업 확대에 나섰다고 밝혔다. 양사는 LG유플러스의 B2B AX 플랫폼과 IBK시스템의 금융 업무 전문성을 결합해 금융 특화 AI 에이전트를 개발할 계획이다. 여신 심사, 소상공인 금융 지원, 업무 자동화 등 실제 금융 업무에 적용 가능한 AI 서비스를 공동 개발한다는 방침이다. LG유플러스의 B2B AX 플랫폼에는 LG AI연구원의 생성형 AI 모델 '엑사원'이 적용된다. 또한 에이전트 코어, 지식관리시스템(KMS), LLMOps 등 AI 에이전트 구축에 필요한 기능을 통합 제공해 금융사 맞춤형 AI 환경을 구축하는 것이다. 양사는 향후 금융 서비스 공동 기획, 신규 비즈니스 모델 발굴, 금융권 AI 상품화 등 협력 범위를 확대할 계획이다. 이를 통해 금융권 AI 에이전트 시장에서 레퍼런스를 확보하고 사업 확대에 나선다는 전략이다. 권용현 LG유플러스 엔터프라이즈부문장 부사장은 "LG유플러스의 AI 기술력에 IBK시스템이 오랜 기간 축적해온 금융 비즈니스 전문성과 데이터 활용 역량이 결합된다면, 단순 기술 협력을 넘어 금융 산업 전반의 혁신을 이끄는 의미 있는 시너지를 만들어 낼 수 있을 것"이라며 "오늘 협약이 대한민국 금융 AI 시장의 새로운 기준을 만들어가는 출발점이 되기를 기대한다"고 말했다. 삼성SDS도 최근 우리은행의 'AX를 위한 AI 에이전트 구축' 사업의 우선협상대상자로 선정되며 금융권 AI 전환 사업 확대에 나섰다. 해당 사업은 우리은행 업무 전반에 175개 이상의 AI 에이전트를 구축하는 대규모 AI 에이전트 도입 프로젝트로 평가된다. AI 에이전트 뱅킹은 대형언어모델(LLM)을 기반으로 고객 응대, 내부 업무, 자산관리, 여신 심사 등 다양한 금융 업무를 AI가 자동으로 수행하는 방식이다. 우리은행은 고객관계관리·기업여신, 자산관리, 내부통제, 고객상담, 업무자동화 등 5대 영역 29개 핵심 업무에 AI 에이전트를 적용해 업무 처리 속도를 약 30% 개선하는 것을 목표로 개발하고 있다. 삼성SDS는 자체 AI 에이전트 플랫폼 '패브릭스'를 기반으로 우리은행 AI 에이전트 플랫폼을 구축한다. 패브릭스는 다양한 대형언어모델을 연결하고 업무별 AI 에이전트를 생성·관리할 수 있는 플랫폼으로, 기업 맞춤형 AI 업무 환경을 구축할 수 있는 것이 특징이다. 삼성SDS는 은행 기존 시스템과 AI를 연동하고 데이터 관리 체계를 구축해 AI 기반 금융 업무 환경을 구현할 계획이다. 삼성SDS는 우리은행의 '중장기 IT 인프라 최적화' 사업도 연이어 수주하며 금융 AX 기반 구축까지 동시에 추진하고 있다. 해당 사업은 기존 유닉스 기반 시스템을 리눅스 환경으로 전환하고 클라우드 운영 환경을 개선하는 프로젝트로, AI 도입을 위한 인프라 기반을 마련하는 것이 핵심이다. 은행권이 생성형 AI 도입에 속도를 내면서 IT 기업 중심의 금융 AX 경쟁이 본격화되고 있는 것으로 분석된다. 기존 SI 기업뿐 아니라 통신사, 클라우드 기업 등 다양한 IT 기업들이 금융권 AI 전환 사업에 적극적으로 참여하고 있다. 특히 금융권은 보안성과 안정성이 중요한 산업 특성상 자체 AI 구축보다 IT 기업과 협력하는 방식이 선호되고 있다. 이에 LG유플러스, 삼성SDS 등 IT 기업들이 금융권 AI 에이전트 구축과 인프라 전환 사업을 잇달아 확보하며 시장 영향력을 확대하고 있는 것으로 분석된다. 이정헌 삼성SDS 전략마케팅실장 부사장은 "금융 산업에서 AI는 단순한 업무 지원을 넘어 업무 방식 자체를 바꾸는 방향으로 빠르게 발전하고 있다"며 "삼성SDS는 금융 분야 핵심 프로젝트 경험과 AI·클라우드 기술력을 바탕으로 금융권 AX 전환을 적극 지원하겠다"고 말했다.
2026-04-07 09:00:20
-
구글, '젬마4' 출시로 오픈소스 AI 경쟁 참전…'제미나이' 투트랙 전략
[경제일보] 구글이 오픈형 인공지능(AI) 모델 '젬마 4'를 공개하며 개방형 AI 시장 공략에 속도를 내고 있다. 고급 추론 능력과 온디바이스 실행을 강화한 모델을 앞세워 개발자 생태계를 확대하고 폐쇄형 모델인 제미나이와의 투트랙 전략으로 AI 경쟁력 강화에 나서는 것으로 분석된다. 2일(현지시간) 구글은 고급 추론과 에이전트 기반 워크플로우를 지원하는 오픈형 모델 제품군 '젬마 4'를 출시했다고 밝혔다. 젬마 4는 아파치 2.0 라이선스로 제공되며 상업적 활용이 가능하다. 구글은 오픈형 모델을 통해 개발자와 기업이 다양한 환경에서 AI를 활용할 수 있도록 접근성을 확대한다는 전략이다. 젬마 4는 'Effective 2B(E2B)', 'Effective 4B(E4B)', '26B Mixture of Experts(MoE)', '31B Dense' 등 총 4가지 모델로 구성됐다. 해당 모델들은 단순한 대화 기능을 넘어 복잡한 논리 처리와 에이전트 기반 자동화 작업을 지원하도록 설계됐다. 특히 고급 추론 기능과 코드 생성 능력, 이미지·오디오 처리 기능 등 멀티모달 지원을 강화했으며 최대 256K 컨텍스트를 지원해 긴 문서 처리도 가능하다. 또한 140개 이상의 언어를 지원해 글로벌 애플리케이션 개발 환경을 제공한다. 구글은 이번 젬마 4를 통해 온디바이스 AI 전략도 강화했다. E2B와 E4B 모델은 스마트폰과 노트북, IoT 기기 등 엣지 환경에서 실행할 수 있도록 설계됐다. 이를 통해 클라우드 연결 없이도 AI 기능을 활용할 수 있으며 낮은 레이턴시와 개인정보 보호 측면에서도 장점을 제공한다. 특히 구글 픽셀을 비롯해 퀄컴, 미디어텍 등 주요 반도체 기업과 협력을 통해 스마트폰과 라즈베리 파이, 엔비디아 젯슨 나노 등 다양한 기기에서 오프라인 실행을 지원한다. 온디바이스 AI 확산이 가속화되는 가운데 구글이 모바일 중심 AI 경쟁력 확보에 나선 것으로 풀이된다. 오픈형 AI 모델 경쟁도 한층 치열해지고 있다. 메타의 'Llama' 시리즈를 비롯해 '미스트랄', 알리바바 'Qwen', 마이크로소프트 'Phi' 등 주요 기업들이 오픈형 모델을 잇따라 공개하며 개발자 생태계 확보 경쟁에 나서고 있다. 이에 구글 역시 젬마 4를 통해 오픈형 AI 시장에서 영향력을 확대하려는 전략으로 분석된다. 구글은 폐쇄형 모델인 제미나이를 중심으로 고성능 AI 서비스를 제공하는 동시에 젬마 시리즈를 통해 구글의 AI 전략 다변화를 진행하고 있다. 제미나이가 클라우드 기반 서비스와 기업 고객 중심이라면 젬마는 개발자와 스타트업을 대상으로 한 오픈형 생태계 구축에 초점이 맞춰져 있다. 두 모델을 병행 운영하며 AI 플랫폼 경쟁력을 강화하려는 전략으로 풀이된다. 또한 구글은 허깅페이스, vLLM, Ollama, NVIDIA NIM 등 주요 개발 도구에서 젬마 4를 출시 당일부터 지원해 개발자 생태계 확대에도 집중한다. 또한 구글 AI 스튜디오와 구글 콜랩, 버텍스 AI 등을 통해 모델 학습과 배포 환경을 확인할 수 있어 개발자는 로컬 환경뿐 아니라 구글 클라우드를 통해 확장 가능한 AI 서비스를 구축할 수 있을 것으로 전망된다. 하드웨어 지원 범위도 확대됐다. 젬마 4는 소비자용 GPU부터 엔비디아 H100 GPU, 구글 TPU까지 다양한 환경에서 실행할 수 있도록 최적화됐다. AMD GPU와의 연동도 지원하며 엣지 기기부터 클라우드까지 폭넓은 환경에서 활용 가능하도록 설계됐다. 이번 젬마 4 출시 이후 온디바이스 AI와 개방형 생태계를 중심으로 AI 시장 주도권 경쟁이 확대될 것으로 분석된다. 구글이 젬마 4를 통해 개발자 생태계 확보에 나서면서 AI 플랫폼 경쟁 구도도 한층 치열해질 전망이다.
2026-04-03 11:32:17
-
MS, '오픈AI 의존' 벗고 자체 AI 모델 공개… '초지능' 향한 독자 노선 선언
[경제일보] 마이크로소프트(MS)가 ‘오픈AI 의존’이라는 오랜 꼬리표를 떼어내고 인공지능(AI) 기술의 완전 자립을 향한 첫걸음을 뗐다. 사티아 나델라 CEO는 2일(현지시간) 링크트인을 통해 음성 전사 모델 ‘MAI-트랜스크라이브-1’, 음성 생성 모델 ‘MAI-보이스-1’, 이미지 생성 모델 ‘MAI-이미지-2’ 등 3종을 전격 공개했다. 이번 발표는 단순한 신제품 출시를 넘어 MS가 독자적인 파운데이션 모델(기반 모델) 구축을 통해 범용 AI 시장의 ‘게임 체인저’가 되겠다는 강력한 의지를 표명한 것으로 풀이된다. MS가 그동안 범용 기반 모델 개발에 소극적이었던 이유는 오픈AI와의 밀착된 초기 계약 때문이었다. MS는 오픈AI에 천문학적인 자금을 투자하는 대신, 오픈AI의 모델을 자사 서비스에 우선 적용하는 ‘안전지대’를 확보했다. 그러나 지난해 오픈AI의 구조 개편과 계약 갱신 과정에서 이러한 제약이 사라지며 MS는 비로소 ‘자체 AI 모델’ 개발이라는 독자 노선을 걷게 됐다. 이번 MAI(Microsoft AI) 모델 제품군 출시는 MS가 이제 자체적인 기술 엔진을 확보했음을 의미한다. 딥마인드 공동창업자 출신인 무스타파 술레이만 MAI 부문 CEO가 진두지휘하는 조직은 이미 엔비디아의 차세대 칩과 막대한 컴퓨팅 자원을 투입해 인간을 뛰어넘는 ‘초지능(Superintelligence)’ 개발에 몰두하고 있다. 이는 MS가 더 이상 오픈AI의 챗GPT에만 목매지 않고 자체 생태계 안에서 모든 AI 기능을 완결하겠다는 전략적 변곡점을 의미한다. 새롭게 공개된 모델들의 면면을 보면 실용성과 경제성에 초점이 맞춰져 있다. ‘MAI-트랜스크라이브-1’은 영어와 한국어를 포함한 25개 언어를 지원하며, 업계 표준 벤치마크인 ‘플뢰르’에서 오류율을 최소화해 오픈AI와 구글의 모델을 제치는 성과를 보였다. 특히 소음이 많은 환경에서도 정교하게 음성을 인식한다는 점은 엔터프라이즈(기업용) 시장에서 강력한 무기가 될 것이다. ‘MAI-이미지-2’ 역시 성능 대비 비용 효율을 극대화했다. 클라우드 기반의 AI 서비스를 운영하는 기업 입장에서 모델의 추론 비용은 핵심 수익성 지표다. MS는 고성능 이미지 생성 모델을 저렴하게 공급함으로써, 자사 클라우드인 ‘애저(Azure)’를 사용하는 기업 고객들을 더 강력하게 록인(Lock-in)시키겠다는 전략이다. 무스타파 술레이만 CEO는 “확실히 2027년까지는 최고 수준의 최첨단 기술에 도달하는 것이 목표”라고 공언했다. 12~18개월 내에 연산 성능을 비약적으로 발전시키겠다는 이 로드맵은 MS의 막대한 자본력과 인프라가 뒷받침하고 있다. 업계는 이번 모델 공개를 시작으로 MS가 ‘MS-GPT’와 같은 범용 모델을 내놓을 가능성이 높다고 본다. 기존에는 오픈AI의 모델을 사용하던 기업들이, 점차 비용 효율이 높고 MS 클라우드와 완벽하게 통합된 MS 자체 모델로 교체할 가능성이 커졌다는 뜻이다. 이는 곧 오픈AI와 MS 사이에 ‘협력’과 ‘건전한 경쟁’이라는 미묘한 긴장 관계가 형성될 것임을 예고한다. MS의 이번 행보는 AI 시장 전체의 판도를 뒤흔들 변수다. 첫째, AI 모델의 ‘파편화’가 가속화될 것이다. 엔비디아, 구글, 오픈AI에 이어 MS까지 자체 기반 모델을 구축함에 따라 시장은 ‘소수의 절대 강자’에서 ‘거대 기술 기업들의 각축장’으로 바뀔 것이다. 둘째, 기업용 AI 시장의 가격 파괴가 시작될 것이다. MS가 클라우드 점유율을 무기로 자체 모델을 저렴하게 배포하기 시작하면 다른 AI 스타트업들의 입지는 더욱 좁아질 수밖에 없다. 결국 승부처는 ‘범용성’을 넘어선 ‘도메인 특화’다. MS는 이미 사무용 소프트웨어인 ‘M365(Office)’와 ‘윈도우’라는 압도적인 운영체제 플랫폼을 보유하고 있다. 여기에 독자적인 AI 모델까지 결합하면 기업은 다른 서비스로 이탈할 수 없는 ‘기술적 종속’을 경험하게 된다. 나델라 CEO의 ‘3~5년 내 AI 자립’ 선언은 이제 막 현실이 되기 시작했다. 거대 기술 기업들이 주도하는 AI 인프라 전쟁 속에서 ‘기술 주권’을 확보한 MS가 과연 구글과 오픈AI를 상대로 얼마나 큰 시장 점유율을 탈환할지 전 세계 테크 업계가 긴장 속에 지켜보고 있다.
2026-04-03 07:46:55
-
엔씨 이어 크래프톤도 AI 경쟁 참전…크래프톤, 멀티모달 AI '라온' 공개
[경제일보] 크래프톤이 자체 AI 모델 브랜드를 공개하며 게임업계의 인공지능(AI) 경쟁이 본격화되고 있다. 엔씨가 게임 산업의 AI 활용에 가장 앞서가는 것으로 평가되는 가운데 게임사들이 AI 기술을 단순 연구 수준을 넘어 실제 개발·서비스 전반에 적용하면서 AI 기반 게임 산업 경쟁이 빠르게 확대되는 모습이다. 2일 크래프톤은 AI 모델 브랜드 '라온'을 론칭하고 음성 지원 대규모 언어 모델(LLM), 실시간 음성 대화 모델, 텍스트-음성 변환(TTS) 모델, 비전 인코더 등을 글로벌 플랫폼 허깅페이스에 오픈소스로 공개했다고 밝혔다. AI의 발전으로 인해 기존 대비 게임 제작 비용은 최대 10분의 1 수준으로 줄고 개발 속도는 최대 60배까지 빨라지고 있는 것으로 나타나고 있다. 원재호 앵커노드 대표는 지난 2월 열린 'AI&게임 산업 포럼'에서 "과거에는 수개월에서 1년 이상 걸리던 작업을 단 6일만에 완료했다"며 AI의 유용성을 설명했다. 이에 크래프톤도 AI 모델 브랜드인 '라온'을 론칭하는 등 AI 사업에 뛰어든 것으로 풀이된다. 특히 데이터 수집부터 모델 학습, 성능 평가까지 파운데이션 모델 개발 전 과정을 자체적으로 수행했다는 점에서 AI 기술 내재화를 진행한 것으로 분석된다. 이번에 공개된 모델은 '라온-Speech', '라온-SpeechChat', '라온-OpenTTS', '라온-VisionEncoder' 등 4종이다. 음성 이해·생성, 실시간 음성 대화, 음성 합성, 이미지 이해 기능을 포함해 멀티모달 AI 역량을 확보한 것이 특징이다. 라온-Speech는 90억 파라미터 규모 음성 언어 모델로 음성 텍스트 변환, 음성 기반 질의응답 등 다양한 태스크에서 사용 가능하도록 설계됐고, 라온-SpeechChat은 실시간 양방향 대화가 가능한 풀 듀플렉스 기술을 적용해 사용자와 자연스럽게 대화가 가능하다. 또한 라온-OpenTTS는 공개 음성 데이터 기반으로 학습된 텍스트-음성 변환 모델이며, 라온-VisionEncoder는 이미지 정보를 AI가 이해 가능한 형태로 변환하는 비전 인코더다. 크래프톤이 멀티모달 AI 모델을 공개한 것은 향후 게임 개발과 서비스 전반에 AI를 적용하기 위한 전략으로 풀이된다. 음성 기반 NPC, 자동 스토리 생성, 실시간 캐릭터 상호작용 등 새로운 게임 경험 구현이 가능해지기 때문이다. 최근 글로벌 게임업계에서도 AI 도입이 빠르게 확산되고 있다. 생성형 AI를 활용한 NPC 대화, 자동 콘텐츠 제작, 개발 자동화 등 AI 기반 게임 제작 방식이 새로운 흐름으로 자리 잡고 있다. 게임 개발 비용 증가와 콘텐츠 제작 속도 경쟁이 심화되면서 AI 도입 필요성도 커지고 있다. 최근 엔씨는 자체 AI 기술을 외부에 개방하며 산업 생태계 확장에 나섰다. 이를 위해 별도 AI 전문 법인 NC AI를 설립하고 AI 기반 제작 솔루션을 상용화했다. NC AI의 대표 솔루션인 'VARCO' 라인업은 게임 제작 전반을 자동화하는 것이 특징이다. 2D 이미지를 3D 모델로 자동 변환하는 VARCO 3D, 이미지 기반 사운드 생성 기능을 제공하는 VARCO Sound, 게임 특화 번역 기능을 지원하는 VARCO Trans 등이 포함된다. NC AI는 해당 기술을 통해 제작 시간은 최대 75%까지 단축하고 사운드 및 현지화 비용도 크게 줄일 수 있다고 설명했다. 임수진 NC AI 상무는 'AI&게임 산업 포럼'에서 "지난해 기술 검증을 마쳤고 올해는 AI 기반 게임이 본격적으로 시장에 등장하는 원년이 될 것"이라며 "AI는 개발 효율성을 높이는 것을 넘어 게임 제작 방식 자체를 바꾸는 핵심 기술"이라고 말했다. 크래프톤도 지난해 개인용 AI 비서 KIRA를 공개하는 등 AI 에이전트, CPC(Co-Playable Character) 등 AI 기반 상호작용 기술을 개발해 게임 적용을 추진하고 있다. 게임사별로 AI 기술 적용 방향이 다양해지면서 AI 중심 경쟁이 본격화될 전망이다. 게임사들이 자체 AI 모델 확보에 나서면서 향후 AI 기반 게임 콘텐츠 경쟁이 더욱 치열해질 것으로 분석된다. 특히 음성·대화·시각 인식 기술이 결합된 AI 캐릭터와 자동 콘텐츠 생성 기술이 차세대 게임 경험의 핵심 요소로 부상할 것으로 전망된다. 이강욱 크래프톤 CAIO는 "이번 '라온' 모델 시리즈 공개는 AI 기술 역량을 축적해 나가는 과정의 중요한 이정표"라며 "대규모 학습 데이터와 핵심 모델을 오픈소스로 공유해 연구자와 개발자들이 자유롭게 활용할 수 있도록 하고 멀티모달 기술 발전과 국내 AI 생태계의 성장에 기여하기를 기대한다"고 말했다.
2026-04-02 16:59:04
-
-
Arm, 직접 칩 생산 선언…르네 하스 Arm 대표 "세상을 바꿀 기회"
[경제일보] Arm이 인공지능(AI) 데이터센터 시장을 겨냥한 자체 중앙처리장치(CPU)를 공개하며 반도체 사업 전략의 대대적인 전환에 나섰다. 설계 자산(IP) 중심 사업 모델에서 벗어나 양산형 실리콘 제품을 직접 공급하는 방식으로 확장하면서 AI 인프라 시장에서 영향력을 확대하려는 움직임으로 풀이된다. 24일(현지시간) Arm은 AI 데이터센터용 CPU인 'Arm AGI CPU'를 발표하고 창사 이래 처음으로 자체 설계한 양산형 실리콘 제품을 제공한다고 밝혔다. 이번 제품은 AI 에이전트 기반 워크로드 확대에 대응하기 위해 개발된 것으로 차세대 AI 인프라 구축을 위한 핵심 컴퓨팅 플랫폼으로 제시됐다. 이를 통해 Arm은 기존 IP 라이선스뿐 아니라 컴퓨팅 서브시스템(CSS), 그리고 완성형 실리콘 제품까지 제공하며 고객 선택지를 확대한다는 구상이다. 그동안 Arm은 반도체 설계 자산을 제공하고 로열티를 받는 사업 모델을 유지해 왔다. 애플, 엔비디아, 퀄컴 등 글로벌 빅테크 기업들이 Arm 설계를 기반으로 자체 칩을 개발하는 방식이었다. 다만 AI 확산으로 데이터센터 인프라 경쟁이 격화되면서 Arm이 직접 실리콘 제품을 공급하는 방향으로 전략을 전환한 것으로 분석된다. 르네 하스 Arm 대표는 "AI 가속기가 CPU를 대체하는 것이 아니라 오히려 CPU는 더 필수적인 파트너가 됐다"며 "AI 데이터센터 시장은 현재 약 30억 달러 규모지만 향후 1000억 달러 시장으로 확대될 것으로 본다"고 설명했다. 특히 AI 기술이 학습 중심에서 추론 및 실행 중심의 '에이전틱 AI'로 발전하면서 CPU 역할이 다시 중요해지고 있다. AI 에이전트는 모델 학습뿐 아니라 추론, 계획, 실행까지 지속적으로 수행하며 시스템 간 데이터를 조율해야 하기 때문에 대규모 CPU 자원이 필요하다. 이에 따라 데이터센터 내 CPU 수요 역시 크게 증가할 것으로 예상된다. Arm은 에이전틱 AI 환경에서 데이터센터의 CPU 요구량이 기존 대비 4배 이상 증가할 것으로 전망했다. 또한 AI 모델 간 상호작용과 실시간 의사결정이 늘어나면서 가속기를 조율하고 데이터 이동을 관리하는 CPU 역할이 핵심 인프라로 부상하고 있는 것으로 분석했다. 르네 하스 대표는 "AI는 빠르게 진화하고 있으며 앞으로 훨씬 더 빠른 속도로 성장할 것이고, AI 시스템이 복잡해질수록 CPU의 역할은 더욱 중요해질 것"이라며 "AI는 사용자부터 애플리케이션, 인프라까지 전체 기술 스택을 재정의하고 있으며 세계는 기존 데이터센터에서 AI 중심 데이터센터로 빠르게 전환되고 있다"고 강조했다. Arm AGI CPU는 이러한 AI 인프라 변화에 맞춰 설계됐다. 해당 CPU는 최대 136개의 Arm Neoverse V3 코어를 탑재하고 코어당 6GB/s 메모리 대역폭과 100ns 미만 지연 시간을 지원한다. Arm은 이번 신제품이 300W 전력 범위에서 동작하며 지속적인 고부하 환경에서도 안정적인 성능을 제공한다고 설명했다. 확장성 측면에서도 대규모 데이터센터 환경을 고려해 설계됐다. 공랭식 서버 기준 랙당 최대 8160개 코어를 지원하며 수랭식 환경에서는 4만5000개 이상의 코어 구성이 가능하고 이를 통해 기존 x86 CPU 대비 랙당 2배 이상의 성능을 제공할 수 있는 것으로 알려졌다. 또한 Arm은 AI 데이터센터 구축 비용 절감 효과도 강조했다. 1GW 규모 AI 데이터센터 기준 최대 100억 달러 수준의 설비 투자 비용 절감이 가능하다는 분석도 제시했다. 이는 전력 효율성과 고밀도 설계를 통한 인프라 비용 절감 효과를 반영한 것이다. 초기 파트너로는 메타가 참여했다. 메타는 Arm AGI CPU 공동 개발 파트너로 참여했으며 자체 AI 가속기인 MTIA와 결합해 AI 인프라 효율을 높일 계획이다. Arm은 향후 여러 세대에 걸쳐 메타와 협력을 이어갈 방침이다. 또한 OpenAI, 클라우드플레어, SAP, SK텔레콤 등 주요 기업들도 초기 파트너로 참여했다. 해당 기업들은 가속기 관리, API 처리, AI 애플리케이션 호스팅 등 다양한 AI 워크로드에 Arm AGI CPU를 활용할 예정으로 알려졌다. 정석근 SK텔레콤 최고기술책임자는 "SK텔레콤은 Arm AGI CPU와 리벨리온 AI 가속기 칩을 포함한 대규모 풀스택 AI 추론 데이터센터 인프라로 사업을 확장하고 있다"며 "자사의 소버린 AI 'A.X' 파운데이션 모델과 추론 최적화 AI 서버를 결합함으로써 이를 글로벌 시장에 제공하기 위한 준비를 완료함과 동시에 AI 데이터센터(AIDC) 경쟁력을 한층 강화하고 있다"고 평가했다. 하드웨어 제조 생태계도 빠르게 확대되고 있다. 레노버, 슈퍼마이크로, 콴타 컴퓨터, 애즈락랙 등이 시스템 구축 파트너로 참여하고 있으며 상용 시스템은 올해 하반기부터 본격 확대될 예정이다. AWS, 구글, 마이크로소프트, 엔비디아, 삼성전자, SK하이닉스, TSMC 등 50개 이상의 기업이 Arm 컴퓨팅 플랫폼 확장을 지원하는 것으로 알려졌다. 그동안 데이터센터 CPU 시장은 인텔과 AMD가 주도해 왔다. Arm 기반 아키텍처가 전력 효율성을 앞세워 클라우드 시장에서 점유율을 확대하고 있는 상황에서 Arm이 직접 CPU 공급에 나서면서 기존 경쟁 구도가 변화할 가능성이 높을 것으로 분석된다. 최근 엔비디아 역시 자체 CPU '베라'를 공개하며 CPU 시장 진입을 선언하는 등 AI 인프라 경쟁이 확대되고 있다. AI 인프라 시장이 빠르게 성장하면서 칩 설계 기업들이 직접 하드웨어 시장으로 진출하는 흐름이 본격화될 전망이다. Arm은 이번 Arm AGI CPU를 시작으로 데이터센터용 실리콘 제품군을 확대할 계획이다. 향후 제품들은 성능, 확장성, 전력 효율성을 중심으로 발전하며 AI 네이티브 데이터센터 아키텍처 구축을 목표로 구성될 예정이다. AI 인프라 경쟁이 본격화되는 가운데 Arm이 설계 기업에서 플랫폼 사업자로 변신을 시도하면서 글로벌 반도체 생태계에도 변화가 가속화될 전망이다.
2026-03-25 10:55:20
-
-