검색결과 총 163건
-
-
AI 보안 위협 커진다…카카오엔터프라이즈, 그룹 차원 보안 체계 구축
[경제일보] 카카오가 금융·콘텐츠·플랫폼 등 서비스 영역을 빠르게 확대하면서 그룹 차원의 보안 강화 필요성이 커지고 있다. 특히 카카오뱅크, 카카오페이, 카카오엔터테인먼트 등 주요 계열사가 다양한 이용자 데이터를 다루는 만큼 보안 체계 고도화가 핵심 과제로 떠오르고 있다. 10일 카카오엔터프라이즈는 경기 성남시 판교 인근에서 카카오뱅크, 카카오페이, 카카오엔터테인먼트 등 주요 카카오 계열사 보안 담당자를 대상으로 최신 보안 트렌드 및 최적화 방안에 대해 논의하는 클라우드 보안 세미나를 개최했다고 밝혔다. 이번 세미나는 AI 기술이 빠르게 확산되면서 사이버 공격 방식도 고도화되는 것을 대비해 진행됐다. 최신 보안 위협 대응 방안과 클라우드 환경에서의 보안 최적화 전략을 공유한 것으로 알려졌다. AI 기반 피싱 공격, 자동화된 해킹 시도, 데이터 탈취 공격 등이 증가하면서 기업 보안 환경이 빠르게 변화하고 있다. 특히 클라우드 환경에서는 서비스가 분산돼 운영되는 만큼 단일 보안 체계로는 대응이 어려워지고 있으며 다양한 보안 솔루션을 통합 관리하는 체계 구축이 중요해지고 있다. 카카오엔터프라이즈는 세미나에서 카카오클라우드 기반 보안 서비스인 'SECaaS(서비스형 보안)' 전략을 소개했다. SECaaS는 클라우드 환경에서 보안 기능을 서비스 형태로 제공하는 방식으로, 각 계열사가 동일한 보안 기준을 유지하면서도 서비스 특성에 맞게 유연하게 적용할 수 있는 구조다. 카카오엔터프라이즈는 이를 통해 그룹 차원의 보안 거버넌스를 유지하면서도 계열사별 운영 환경에 맞춘 보안 체계를 구축할 수 있다고 설명했다. 이번 행사에는 글로벌 보안 기업들도 참여해 최신 보안 기술을 공유했다. 팔로알토네트웍스코리아는 모든 접근을 검증하는 제로 트러스트 보안 전략을 소개했으며 F5코리아는 AI 환경에서 애플리케이션 보안을 강화하는 플랫폼 전략을 발표했다. 이어 센티넬원은 대화형 AI 기반 위협 대응 기술을, 아카마이코리아는 네트워크 내부 확산을 차단하는 마이크로 세그멘테이션 전략을 공유했다. 카카오 계열사별 서비스 특성에 따른 보안 요구도 다양해지고 있다. 금융 서비스를 제공하는 카카오뱅크와 카카오페이는 금융 보안과 개인정보 보호가 핵심 과제로 꼽히며 콘텐츠 중심의 카카오엔터테인먼트는 대규모 이용자 데이터와 콘텐츠 보호가 중요한 요소로 부각되고 있다. 이처럼 서비스 특성이 다른 계열사들이 동일한 보안 체계를 유지하면서도 유연하게 대응할 수 있는 구조가 필요해지고 있다는 분석이다. 카카오엔터프라이즈는 카카오클라우드를 중심으로 그룹 차원의 보안 역량을 강화하며 클라우드 경쟁력 확대도 추진하고 있다. 클라우드 사업에서 보안 역량은 핵심 경쟁 요소로 꼽히는 만큼, 그룹 내부 보안 경험을 바탕으로 외부 고객 확보에도 나설 수 있다는 전망이 나온다. 특히 AI 서비스 확대와 함께 보안 요구가 높아지는 상황에서 클라우드 보안 서비스 강화는 사업 확장 전략과도 맞물려 있다. 클라우드 시장에서는 네이버클라우드, KT클라우드 등 국내 기업뿐 아니라 아마존 웹 서비스, 마이크로소프트 애저 등 글로벌 기업과의 경쟁이 이어지고 있다. 이 가운데 카카오엔터프라이즈가 그룹 차원의 보안 역량을 기반으로 클라우드 사업 경쟁력을 강화하고 있다. AI와 클라우드 중심의 디지털 전환이 가속화되면서 기업 보안 전략도 새로운 국면에 접어들고 있다. 카카오엔터프라이즈가 계열사 협력을 기반으로 통합 보안 체계를 구축하고 이를 클라우드 사업 경쟁력으로 확대할 경우 향후 시장 경쟁 구도에도 영향을 미칠 것으로 전망된다. 이용민 카카오엔터프라이즈 클라우드부문장은 "AI 기술이 비즈니스의 핵심 동력으로 자리 잡은 가운데, 클라우드 환경에서의 보안 강화와 거버넌스 확보는 기업 및 기관의 필수 과제가 됐다"며 "카카오엔터프라이즈는 주요 카카오 계열사가 유연하면서도 일관된 보안 거버넌스를 확보할 수 있는 보안 체계를 발판으로 안전하게 도약할 수 있도록 그룹 차원에서 보안 기술 및 전문성을 결집하는 구심점 역할을 수행할 것"이라고 말했다.
2026-04-10 15:22:10
-
LG유플러스, AWS 기반 AI 운영 플랫폼 구축…GPU 효율화·운영 자동화
[경제일보] 국내 이동통신사들이 인공지능(AI) 서비스 경쟁력 확보를 위해 인프라 고도화에 속도를 내고 있다. 생성형 AI 서비스 확대와 함께 모델 운영 비용과 인프라 부담이 커지면서 AI 개발부터 서비스 운영까지 전 과정을 통합하려는 움직임이 본격화되는 모습이다. 10일 LG유플러스는 최근 AWS가 주최한 '2026 모던 에이전틱 애플리케이션 데이' 행사에서 AI 모델을 실제 서비스로 안정적으로 운영하기 위한 플랫폼 구축 사례를 공개했다고 밝혔다. 이번 행사는 생성형 AI와 에이전트 기술을 활용한 인프라 운영 자동화를 주제로 진행됐다. LG유플러스는 기존 온프레미스 중심의 AI 개발 환경을 클라우드와 연계한 하이브리드 구조로 전환하고 AI 개발부터 서비스 운영까지 전 과정을 효율적으로 연결한 플랫폼 구축을 진행했다고 설명했다. 이를 통해 AI 서비스 품질과 운영 안정성을 동시에 높일 수 있는 기반을 마련한 것으로 나타났다. 이번 플랫폼은 AI 모델 개발과 서비스 운영 단계 간 단절을 줄이는 데 초점을 맞췄다. 기존에는 AI 모델 학습, 평가, 배포, 운영이 각각 분리돼 진행되면서 서비스 전환 과정에서 반복적인 작업과 시간이 소요된 것으로 알려졌다. 이에 LG유플러스는 하나의 흐름으로 통합해 AI 모델을 보다 빠르게 서비스에 적용할 수 있도록 구조를 설계했다. LG유플러스는 AI를 한 번 개발하고 끝나는 방식이 아닌, 언제든 서비스에 적용할 수 있는 '모델 준비 상태'를 유지하는 구조를 목표로 플랫폼을 구축했다고 설명했다. 데이터 수집부터 학습, 평가, 배포, 운영까지 전 과정을 하나의 파이프라인으로 연결해 개발자와 운영자가 일관된 환경에서 AI를 활용할 수 있도록 구성했다. 이를 위해 AWS의 관리형 쿠버네티스(컨테이너화된 애플리케이션의 배포, 확장, 관리를 자동으로 처리해주는 플랫폼) 서비스인 '아마존 EKS' 기반의 하이브리드 인프라 아키텍처를 도입했다. 자체 온프레미스 GPU 인프라를 아마존 EKS 클러스터의 하이브리드 노드로 통합하고 클러스터 전체 제어 기능인 쿠버네티스 컨트롤 플레인은 AWS 완전관리형 서비스로 운영하는 구조다. 인프라 운영 부담을 줄이고 서비스 안정성과 품질 개선에 집중할 수 있는 환경을 구축한 것이다. GPU 자원 활용 방식도 개선했다. 기존에는 GPU를 장비 단위로 고정 할당하는 방식이 일반적이었지만 LG유플러스는 필요에 따라 자원을 유연하게 배분하는 구조를 적용했다. GPU 미사용 시간을 줄여 AI 모델 학습과 서비스 운영에 필요한 자원을 보다 효율적으로 활용할 수 있도록 설계했다. 최근 생성형 AI 서비스가 확대되면서 AI 모델 운영과 인프라 관리 중요성도 커지고 있다. 특히 AI 모델이 실제 서비스에 적용되는 과정에서 운영 안정성과 비용 효율성이 주요 경쟁 요소로 떠오르면서 AI 운영 플랫폼 구축이 통신사 경쟁력 확보의 핵심 요소로 부상하고 있다. 통신사들은 기존 통신 서비스 중심 사업 구조에서 벗어나 AI 기반 서비스 확대를 추진하고 있다. 이에 AI 모델 개발뿐 아니라 서비스 운영과 인프라 관리까지 포함한 통합 플랫폼 구축이 중요한 과제로 떠오르고 있다. LG유플러스는 이번 플랫폼 구축을 통해 AI 서비스를 보다 빠르게 제공하고, 운영 안정성과 품질 개선을 동시에 추진한다는 계획이다. 특히 데이터 수집부터 모델 개발, 배포, 운영, GPU 자원 관리까지 아우르는 AI 기반 개발 환경을 통해 AI 서비스 경쟁력을 강화한다는 전략이다. 권기덕 LG유플러스 AX엔지니어링Lab장은 "LG유플러스는 AX 서비스 가속화를 위해 데이터 수집부터 모델 개발·배포·운영, GPU 운영까지 아우르는 AI-DLC(AI 주도 개발 라이프사이클) 기반의 엔지니어링 플랫폼 역량을 강화하고 있다"며 "앞으로도 AWS와의 기술 협력을 통해 AI 서비스 품질과 운영 안정성을 지속적으로 높여 나가겠다"고 말했다.
2026-04-10 09:34:12
-
-
-
-
오라클·AWS, 국내 AI 데이터 시장 공략…클라우드 협력 확대
[경제일보] 인공지능(AI) 도입이 본격화되면서 기업들의 데이터 인프라 경쟁이 클라우드 기반으로 빠르게 이동하고 있다. 특히 기존 온프레미스 데이터베이스를 클라우드로 이전하면서 AI 서비스를 결합하려는 수요가 늘어나며 글로벌 클라우드 기업 간 협력과 경쟁이 동시에 확대되는 모습이다. 이러한 흐름 속에서 오라클과 AWS가 국내 시장에서 협력 범위를 확대하며 AI 데이터 플랫폼 경쟁이 한층 가속화될 전망이다. 7일 오라클과 AWS는 '오라클 AI 데이터베이스@AWS'를 국내에 제공한다고 밝혔다. 이번 출시를 통해 국내 기업들은 AWS 내 오라클 클라우드 인프라스트럭처(OCI) 전용 인프라에서 오라클 엑사데이터 데이터베이스 서비스, 오라클 자율운영 AI 데이터베이스, 오라클 자율운영 AI 레이크하우스 등 주요 서비스를 활용할 수 있게 될 예정이다. '오라클 AI 데이터베이스@AWS'는 온프레미스와 동일한 기능과 아키텍처 호환성을 제공해 기업들이 기존 시스템을 유지하면서도 클라우드 전환과 AI 도입을 동시에 추진할 수 있는 것이 특징이다. 기존 온프레미스 환경에서 운영 중인 오라클 데이터베이스와 엑사데이터 워크로드를 최소한의 변경으로 AWS 환경으로 이전할 수 있도록 설계됐다. 특히 오라클과 AWS 전반의 데이터를 통합하는 제로 ETL 기능을 통해 데이터 이동 없이 분석 및 AI 서비스를 활용할 수 있도록 지원한다. 이를 통해 기업들은 아마존 베드록 등 생성형 AI와 분석 서비스를 결합해 신규 AI 기반 애플리케이션을 구축하거나 기존 시스템을 고도화할 수 있다. 이번 협력은 온프레미스 환경을 유지하던 대형 기업들의 클라우드 전환 수요를 겨냥한 전략으로 분석된다. 금융, 유통, 제조 등 대규모 데이터베이스를 운영하는 기업들은 안정성과 성능 문제로 클라우드 이전에 신중한 입장을 유지해 왔다. 오라클 AI 데이터베이스@AWS는 기존 오라클 환경을 유지하면서 클라우드 전환이 가능하도록 지원해 기업들의 전환 장벽을 낮추는 역할을 할 것으로 분석된다. 박원호 CJ올리브영 플랫폼엔지니어링팀 팀장은 "오라클 AI 데이터베이스@AWS의 국내 출시는 핵심 오라클 워크로드를 클라우드로 이전할 수 있는 손쉬운 경로를 제공한다"며 "아마존 베드록과 같은 AWS의 고급 AI 및 분석 서비스와의 원활한 통합으로 AI 혁신을 가속화하고 인사이트 도출 시간을 단축하며 실질적인 비즈니스 성과를 창출할 수 있을 것으로 기대한다"고 평가했다. 오라클과 AWS 간 협력 확대는 글로벌 클라우드 시장에서도 주목되는 흐름이다. 기존 클라우드 시장에서 데이터베이스와 인프라 영역은 경쟁 관계였지만 AI 시대가 도래하면서 기업들이 다양한 클라우드 서비스를 동시에 활용하는 멀티클라우드 전략이 확산되고 있다. 특히 데이터베이스와 클라우드 인프라를 결합한 서비스는 AI 활용에 핵심 요소로 평가된다. 기업들은 대규모 데이터를 안정적으로 저장하고 분석할 수 있는 데이터베이스와 생성형 AI, 머신러닝 서비스 등을 동시에 활용해야 하는 수요가 높아졌다. 파트너 생태계 확대도 주요 전략으로 추진된다. 고객은 AWS 마켓플레이스를 통해 오라클 AI 데이터베이스@AWS를 직접 구매할 수 있으며 공인 채널 파트너를 통해서도 도입이 가능하다. 해당 채널 전략은 국내 MSP(관리형 서비스 제공업체) 및 클라우드 서비스 기업들과의 협력 확대로도 풀이된다. 기업 고객이 클라우드 전환 과정에서 컨설팅과 운영 지원을 필요로 하는 만큼 파트너 생태계를 통해 시장 확대를 추진하는 구조다. 특히 AI 도입이 복잡해지면서 파트너 기반 서비스 수요도 함께 증가할 것으로 전망된다. 서울 리전 추가는 국내 기업들의 데이터 주권 요구와 AI 서비스 수요 증가를 반영한 것으로 분석된다. 특히 금융, 공공, 대기업 중심으로 데이터 지역 내 저장 요구가 강화되면서 국내 리전 확보의 중요성이 높아지고 있다. AI 서비스 역시 데이터 접근 속도가 중요한 만큼 로컬 리전 확대는 경쟁력 확보 요소로 평가된다. AI 확산과 함께 클라우드 데이터 플랫폼 경쟁도 한층 치열해질 전망이다. AWS, 마이크로소프트 애저, 구글 클라우드 등 글로벌 클라우드 기업들이 생성형 AI와 데이터 플랫폼 결합 전략을 강화하고 있는 가운데 오라클 역시 데이터베이스 경쟁력을 기반으로 시장 확대에 나서고 있다. 특히 AI 서비스 성능이 데이터 품질과 인프라에 크게 좌우되면서 데이터베이스 기업의 영향력도 확대되는 추세로 분석된다. 이에 오라클과 AWS의 협력 확대는 해당 시장 변화 속에서 AI 데이터 플랫폼 경쟁을 가속화하는 계기가 될 것으로 전망된다. 김성하 한국오라클 사장은 "AWS 아시아 태평양(서울) 리전에서 오라클 AI 데이터베이스@AWS를 제공하게 된 것은 미션 크리티컬 워크로드를 현대화하는 동시에 AI 혁신을 가속화하려는 국내 기업들의 증가하는 수요에 대응하기 위한 것"이라며 "기업들은 이제 오라클 AI 데이터베이스@AWS를 활용하여 간편하게 온프레미스 오라클 엑사데이터 환경을 AWS 내 배포된 오라클 AI 데이터베이스 서비스로 이전하고 AWS의 분석 및 머신러닝 서비스와 통합시켜 새로운 비즈니스 가치를 창출하고 혁신을 가속화할 수 있다"고 말했다. 함기호 AWS코리아 대표는 "오라클 AI 데이터베이스@AWS를 통해 국내 기업들은 애플리케이션을 재설계할 필요 없이 오라클 AI 데이터베이스 워크로드를 클라우드로 손쉽게 이전할 수 있다"며 "고객은 AWS의 견고한 글로벌 인프라를 기반으로 한 향상된 보안성, 복원력 및 확장성을 활용하는 동시에 고급 분석 및 AI 서비스를 이용할 수 있다"고 말했다.
2026-04-07 17:33:23
-
-
대한항공, '이동·혼잡·도착' 안내 서비스 국내 공항 10곳으로 확대
[경제일보] 대한항공이 공항 이용 전 과정을 사전에 확인할 수 있는 모바일 서비스를 전국 단위로 확대한다. 공항 혼잡도와 이동 시간 등 실시간 데이터를 통합 제공해 여객 동선 예측과 공항 체류 시간 관리 기능을 강화한다. 7일 항공업계에 따르면 대한항공은 모바일 애플리케이션 내 ‘공항 미리보기’ 서비스 적용 범위를 기존 인천국제공항에서 국내 전 취항 공항으로 확대했다. 대상은 인천을 포함해 김포, 김해, 제주, 대구, 청주, 울산, 광주, 여수, 사천 등 총 10개 공항이다. 이번 개편의 핵심은 공공데이터 연동 범위 확대다. 기존에는 인천국제공항공사 데이터를 기반으로 인천공항 제2여객터미널 정보만 제공했으나, 한국공항공사 데이터까지 추가 연계하면서 국내 주요 공항 전반의 정보를 통합 제공할 수 있는 구조를 갖췄다. 이용자는 공항 방문 전 주차장 여유 공간과 시간대별 혼잡도, 탑승구까지의 예상 이동 시간을 사전에 확인할 수 있다. 출발 당일 공항 체류 시간을 예측하고 이동 계획을 조정할 수 있는 것이 특징이다. 도착 단계 기능도 보강됐다. ‘마중 요청’ 기능을 통해 항공편 도착 예정 시간과 출구 정보를 문자메시지(SMS) 또는 메신저로 공유할 수 있다. 대한항공에서 항공권을 예약한 이용자의 경우 별도 설정 없이 앱 홈 화면에서 임박 여행 정보 형태로 자동 노출된다. 출도착 및 스케줄 메뉴에서도 상시 확인이 가능하도록 설계해 이용 빈도를 높였다. 이번 서비스 확대는 항공사의 디지털 경쟁 영역이 운항 서비스에서 공항 이용 전반으로 확장되고 있다는 흐름과 맞물린다. 항공권 판매 이후 실제 이동 경험까지 관리 범위를 넓히면서 고객 접점을 확대하는 전략이다. 국내 공항은 운영 주체가 이원화된 구조다. 인천국제공항은 인천국제공항공사가, 나머지 주요 공항은 한국공항공사가 각각 운영한다. 이번 서비스는 두 기관의 공공데이터를 동시에 활용해 통합 정보를 제공한다는 점에서 데이터 활용 범위를 넓혔다. 다만 실제 혼잡도와 이동 시간 정보는 실시간 데이터 정확도에 영향을 받는 만큼 운영 과정에서 정교화가 필요하다는 점은 변수로 남는다. 대한항공은 향후 모바일 기반 서비스 고도화를 지속 추진한다는 방침이다. 항공편 예약, 탑승, 공항 이동, 도착 이후 단계까지 이어지는 전 과정 데이터를 연결해 이용 경험을 개선하는 방향이다. 디지털 접점 확대를 통해 고객 편의성과 운영 효율을 동시에 끌어올리겠다는 전략으로 해석된다.
2026-04-07 09:35:30
-
-
구글, '젬마4' 출시로 오픈소스 AI 경쟁 참전…'제미나이' 투트랙 전략
[경제일보] 구글이 오픈형 인공지능(AI) 모델 '젬마 4'를 공개하며 개방형 AI 시장 공략에 속도를 내고 있다. 고급 추론 능력과 온디바이스 실행을 강화한 모델을 앞세워 개발자 생태계를 확대하고 폐쇄형 모델인 제미나이와의 투트랙 전략으로 AI 경쟁력 강화에 나서는 것으로 분석된다. 2일(현지시간) 구글은 고급 추론과 에이전트 기반 워크플로우를 지원하는 오픈형 모델 제품군 '젬마 4'를 출시했다고 밝혔다. 젬마 4는 아파치 2.0 라이선스로 제공되며 상업적 활용이 가능하다. 구글은 오픈형 모델을 통해 개발자와 기업이 다양한 환경에서 AI를 활용할 수 있도록 접근성을 확대한다는 전략이다. 젬마 4는 'Effective 2B(E2B)', 'Effective 4B(E4B)', '26B Mixture of Experts(MoE)', '31B Dense' 등 총 4가지 모델로 구성됐다. 해당 모델들은 단순한 대화 기능을 넘어 복잡한 논리 처리와 에이전트 기반 자동화 작업을 지원하도록 설계됐다. 특히 고급 추론 기능과 코드 생성 능력, 이미지·오디오 처리 기능 등 멀티모달 지원을 강화했으며 최대 256K 컨텍스트를 지원해 긴 문서 처리도 가능하다. 또한 140개 이상의 언어를 지원해 글로벌 애플리케이션 개발 환경을 제공한다. 구글은 이번 젬마 4를 통해 온디바이스 AI 전략도 강화했다. E2B와 E4B 모델은 스마트폰과 노트북, IoT 기기 등 엣지 환경에서 실행할 수 있도록 설계됐다. 이를 통해 클라우드 연결 없이도 AI 기능을 활용할 수 있으며 낮은 레이턴시와 개인정보 보호 측면에서도 장점을 제공한다. 특히 구글 픽셀을 비롯해 퀄컴, 미디어텍 등 주요 반도체 기업과 협력을 통해 스마트폰과 라즈베리 파이, 엔비디아 젯슨 나노 등 다양한 기기에서 오프라인 실행을 지원한다. 온디바이스 AI 확산이 가속화되는 가운데 구글이 모바일 중심 AI 경쟁력 확보에 나선 것으로 풀이된다. 오픈형 AI 모델 경쟁도 한층 치열해지고 있다. 메타의 'Llama' 시리즈를 비롯해 '미스트랄', 알리바바 'Qwen', 마이크로소프트 'Phi' 등 주요 기업들이 오픈형 모델을 잇따라 공개하며 개발자 생태계 확보 경쟁에 나서고 있다. 이에 구글 역시 젬마 4를 통해 오픈형 AI 시장에서 영향력을 확대하려는 전략으로 분석된다. 구글은 폐쇄형 모델인 제미나이를 중심으로 고성능 AI 서비스를 제공하는 동시에 젬마 시리즈를 통해 구글의 AI 전략 다변화를 진행하고 있다. 제미나이가 클라우드 기반 서비스와 기업 고객 중심이라면 젬마는 개발자와 스타트업을 대상으로 한 오픈형 생태계 구축에 초점이 맞춰져 있다. 두 모델을 병행 운영하며 AI 플랫폼 경쟁력을 강화하려는 전략으로 풀이된다. 또한 구글은 허깅페이스, vLLM, Ollama, NVIDIA NIM 등 주요 개발 도구에서 젬마 4를 출시 당일부터 지원해 개발자 생태계 확대에도 집중한다. 또한 구글 AI 스튜디오와 구글 콜랩, 버텍스 AI 등을 통해 모델 학습과 배포 환경을 확인할 수 있어 개발자는 로컬 환경뿐 아니라 구글 클라우드를 통해 확장 가능한 AI 서비스를 구축할 수 있을 것으로 전망된다. 하드웨어 지원 범위도 확대됐다. 젬마 4는 소비자용 GPU부터 엔비디아 H100 GPU, 구글 TPU까지 다양한 환경에서 실행할 수 있도록 최적화됐다. AMD GPU와의 연동도 지원하며 엣지 기기부터 클라우드까지 폭넓은 환경에서 활용 가능하도록 설계됐다. 이번 젬마 4 출시 이후 온디바이스 AI와 개방형 생태계를 중심으로 AI 시장 주도권 경쟁이 확대될 것으로 분석된다. 구글이 젬마 4를 통해 개발자 생태계 확보에 나서면서 AI 플랫폼 경쟁 구도도 한층 치열해질 전망이다.
2026-04-03 11:32:17
-
"휴먼에러 막는다"…SK AX, 에이전틱AI 기반 운영 자동화 시장 공략
[경제일보] 인공지능(AI) 인프라 확산으로 산업 현장의 시스템 운영 복잡성이 급격히 증가하면서 장애 예방을 위한 AI 기반 운영 자동화 경쟁이 본격화되고 있다. 이에 기업들이 서비스 중단에 따른 손실을 줄이기 위해 선제적 장애 예방 체계 구축에 나서면서 AI 기반 자율 운영 기술 도입이 빠르게 확대되고 있다. 2일 SK AX는 에이전틱AI 기반 인프라 운영 서비스 'AXgenticWire NPO(New Paradigm for Operation)'를 공개하며 AI 운영 자동화 시장 공략에 나선다고 밝혔다. 해당 서비스는 시스템 장애를 사전에 감지하고 자동으로 대응하는 자율 운영 체계로 GPU 기반 AI 인프라와 클라우드 환경의 확대로 인해 기존 인력 중심 운영 방식으로는 대응이 힘든 점을 파악해 설계된 것이다. AI 기반의 통합 보안 플랫폼 기업 스플렁크와 옥스포드 이코노믹스가 발표한 보고서에 따르면 글로벌 대기업들은 시스템 장애로 인해 연간 약 4000억 달러 규모의(약 600조원) 손실을 입는 것으로 나타났다. 이는 기업 이익의 약 9%에 해당하는 규모다. AI 학습과 추론 환경이 확대되면서 GPU 자원 관리, 워크로드 변동 대응, 복잡한 인프라 운영 등 관리 요소가 늘어나고 있어 글로벌 시장에서도 AI 기반 운영 자동화 수요는 빠르게 증가하고 있다. 특히 AI 서비스는 장애 발생 시 서비스 전체에 영향을 미칠 가능성이 높아 사전 탐지와 자동 대응 기술의 중요성이 커지고 있다. 이에 기업들은 기존 모니터링 중심 운영에서 벗어나 AI가 문제를 탐지하고 조치까지 수행하는 자율 운영 체계 구축을 추진하고 있다. 'AXgenticWire NPO'는 에이전틱AI가 선제적으로 문제 상황을 탐지하고 분석한 뒤 조치까지 수행하는 구조로 설계됐다. AI 에이전트가 시스템 로그, 메트릭, 이벤트 데이터를 실시간으로 분석해 이상 징후를 감지하면 분석 에이전트가 원인을 추론하고 영향 범위를 판단한다. 이후 조치 에이전트가 복구 작업, 설정 변경, 자원 재할당 등을 자동으로 실행하는 방식이다. SK AX는 기존 운영 인력이 수행하던 반복 작업과 휴먼 에러를 줄이고 장애 발생률을 낮출 수 있다고 설명했다. 또한 GPU 자원 관리 기능도 포함됐다. AI 워크로드가 급격히 증가하면서 GPU 활용률 관리와 자원 재배치가 운영 핵심 요소로 떠오르고 있다. 이에 AXgenticWire NPO는 GPU 자원을 통합 관리하는 'GPU 애즈 어 서비스(GPU-as-a-Service)' 구조를 적용해 AI 학습과 추론 환경을 안정적으로 운영할 수 있도록 설계됐다. 산업별 적용 범위도 확대되고 있다. 해당 서비스를 통해 제조업에서는 설비와 공정 데이터를 분석해 이상 징후를 사전에 감지할 수 있으며, 금융 분야에서는 거래와 인증 시스템의 무중단 운영 체계를 구축할 수 있을 전망이다. 공공 분야에서도 대국민 서비스 안정성을 강화하는 데 활용될 수 있다. 기업들은 설치형, 운영 아웃소싱(BPO), 통합 운영(ITO) 방식 등 필요에 따라 도입 방식을 선택할 수 있다. 향후 AI 인프라 확대와 함께 에이전틱 AI 기반 자율 운영 체계 도입이 더욱 가속화될 것으로 분석된다. 기업들이 장애 대응 중심에서 사전 예방 중심으로 운영 전략을 전환하면서 AI 기반 운영 자동화 시장도 빠르게 성장할 전망이다. 차지원 SK AX CAIO는 "운영 전반에서 AI가 먼저 움직여 대응하는 구조이기 때문에 휴먼 에러로 인한 장애 위험을 최소화할 수 있다"며 "'AXgenticWire NPO' 도입으로 기업들은 다운타임 없는 운영 체계에서부터 애플리케이션의 지능화된 서비스까지 AX 실행 전환 속도를 높이는 것은 물론, AX 전체 영역에서 운영비용 구조 혁신과 프로세스 재설계도 가능할 것"이라고 말했다.
2026-04-02 10:00:46
-
-
"앱 없이 바로 3D"…엑스리얼, 차세대 AR 글래스 '엑스리얼 1S' 출시
[경제일보] "오늘 단순한 신제품 발표가 아닌 미래의 새로운 기준을 소개한다" 1일 서울시 강남구 레드버튼 컬처스테이지에서 진행된 엑스리얼 신제품 발표회에서 발표를 맡은 양영화 엑스리얼 매니저는 자사의 신제품 '엑스리얼 1S'의 설명과 함께 올해 주요 사업 전략 및 향후 계획을 발표하며 이렇게 말했다. 엑스리얼은 소비자용 AR 스마트 글래스 전문 기업으로 지난 2017년 스타트업으로 시작해 지난 2020년 한국에 진출해 LG유플러스와 협업해 상용 AR 글래스를 출시했다. 이날 엑스리얼은 자사의 신제품인 '엑스리얼 1S'의 한국 정식 출시를 공식 발표했다. 엑스리얼 1S의 가장 큰 특징은 기존 외부 기기에서 처리하던 핵심 기능을 자체 개발한 전용 칩셋 'X1 칩'에 내장해 기기 자체에서 처리하도록 설계했다는 점이다. 별도의 애플리케이션 설치 없이도 주요 기능을 사용할 수 있도록 사용자 편의성을 높였다. 또한 '네이티브 3DoF' 기능을 적용해 사용자가 머리를 움직여도 화면이 공간상 고정된 위치에 유지되도록 했다. 120Hz 주사율과 3ms 초저지연 성능을 구현했으며, 2D 영상을 실시간으로 3D로 변환하는 기능도 지원한다. 내장된 X1 칩이 2D 영상을 분석해 별도 콘텐츠 없이도 즉시 3D 영상으로 전환하는 방식이다. 실제 테스트에서는 기기 버튼을 길게 누르는 것만으로 화면 위치 고정이 가능했으며 일반 유튜브 영상도 별도 앱 설치 없이 3D 변환이 실시간으로 이뤄졌다. 다만 3D 변환 기능은 기기 자체 칩만으로 구현되는 만큼 빠르게 움직이는 물체에서는 외곽선 픽셀이 일부 뭉개지는 현상도 확인됐다. 제품에는 OSD(온스크린디스플레이) 메뉴도 탑재됐다. 밝기, 화면 모드, 화면 크기, 전자 변색, 3D 전환, 주사율 등 주요 설정을 글래스 자체에서 직접 조작할 수 있도록 구성했다. 엑스리얼 관계자는 "'엑스리얼 1S'는 AR 글래스를 처음 접하는 사용자도 별도 설정 없이 바로 사용할 수 있도록 설계했다"며 "세계 최초 네이티브 2D→3D 변환 기능과 글래스 단독 조작 기능을 통해 AR 경험의 진입 장벽을 낮추는 계기가 될 것"이라고 설명했다. 디스플레이는 소니의 0.68인치 Micro-OLED 패널을 적용해 1200p 해상도와 700니트 밝기를 지원한다. 16:18, 21:9, 32:9 울트라 와이드 화면 비율도 글래스 자체에서 전환할 수 있다. 오디오 부문에서는 보스와 협업해 공간감 있는 사운드를 구현했다. 시야각(FOV)은 기존 '엑스리얼 1'의 50도에서 52도로 확대됐으며 무게는 82g으로 경량화됐다. 엑스리얼 관계자는 "시야각(FOV)은 기존 자사의 '엑스리얼 1'의 50° 대비 52°로 확장됐고 무게도 82g으로 가벼워졌지만 가격은 오히려 저렴해졌다"며 가격은 전작 대비 낮췄지만 성능은 오히려 높아졌다고 설명했다. 이번 신제품은 네이버 스마트스토어의 엑스리얼코리아 공식몰에서 정식 판매를 시작했고 이후 쿠팡과 토스쇼핑에서 판매가 예정됐다. 향후 엑스리얼은 온라인 채널뿐만 아니라 오프라인 판매 채널도 확대한다는 구상이다. 양 매니저는 "과거에는 기술에 관심이 많은 일부 사용자 중심이었다면 이제는 일반 소비자, 직장인, 게이머 등 보다 넓은 사용자로 확장하고 있다"며 "단순한 제품 판매가 아니라 경험을 완성하는 서비스를 제공하고자 노력한다"고 말했다.
2026-04-01 11:41:45
-
GPU 독주 끝나나…AI 에이전트 시대, CPU 중심 인프라 부상
[경제일보] 생성형 인공지능(AI) 확산으로 GPU 중심으로 형성됐던 AI 인프라 시장이 'AI 에이전트' 시대에 접어들며 CPU 중심으로 재편될 조짐을 보이고 있다. 단순 답변 생성에서 실제 작업을 수행하는 형태로 AI 활용 방식이 변화하면서 데이터센터 구조 자체가 달라지고 있다는 분석이다. 30일 유진투자증권의 보고서 '메모리 와치'에 따르면 초기 생성형 AI는 사용자의 질문에 대한 답변을 생성하는 단순 응답형 구조였지만 단순한 추론을 넘어 실제 행동을 수행하는 구조로 진화하면서 CPU가 담당하는 작업 비중이 크게 늘어나는 것으로 나타났다. 기존 AI는 연산 병목이 대부분 GPU 중심의 행렬 연산과 메모리 대역폭 처리 구간에 집중되며 AI 인프라 경쟁 역시 GPU 확보가 핵심 요소로 작용했다. 다만 최근 등장한 AI 에이전트는 구조가 크게 다르다. AI 에이전트는 사용자의 요청을 해석한 뒤 데이터베이스 접근, 외부 툴 호출, 결과 재분석 등 다층적인 작업을 수행하는 방식으로 동작한다. CPU는 AI 연산 자체를 수행하지는 않지만 요청 해석과 작업 스케줄링, 데이터베이스 접근, 외부 툴 실행, 세션 관리 등 AI 에이전트 워크로드 전반을 제어하는 역할을 담당한다. 이에 AI 인프라의 성능 역시 GPU 단독이 아닌 CPU와 GPU의 조합에 의해 결정되는 구조로 변화하고 있는 것으로 분석된다. 이 같은 변화는 주요 AI 기업들의 전략에서도 나타나고 있다. 최근 엔비디아는 CPU 중심 인프라 확대에 나섰다. 메타는 올해 2월 엔비디아의 '그레이스 CPU'와 '베라 CPU'를 대량 구매하는 공급 계약을 체결했으며 엔비디아는 GTC 2026에서 CPU 개별 판매를 공식화했다. GPU 기업인 엔비디아가 CPU 단독 판매에 나선 것은 이례적인 행보로 평가된다. 이어 엔비디아는 AI 에이전트 환경에 최적화된 '베라 CPU 랙'과 함께 40개 랙으로 구성된 '베라 루빈 포드'도 공개했다. Arm 역시 AI 에이전트 시장 확대에 대응해 데이터센터용 'AGI CPU'를 공개했다. Arm이 직접 칩 판매에 나선 것은 지난 1990년 창립 이후 최초이다. AGI CPU는 메타와 공동 개발됐으며 TSMC 3나노 공정으로 제조된다. Arm은 AI 에이전트 시장 확대로 데이터센터 CPU 시장 규모가 오는 2030년까지 1000억 달러(약 150조원)에 달할 것으로 전망했다. 또한 향후 5년 내 AGI CPU 매출이 Arm의 지난해 연간 매출 46억7000만 달러(약 7조원)를 크게 웃도는 연간 150억 달러(약 23조원)에 이를 것으로 예상했다. 업계에서는 AI 인프라 병목이 GPU에서 메모리, 네트워크를 거쳐 CPU로 이동하고 있는 것으로 예상하고 있다. 초기 AI 사이클에서는 GPU 확보가 핵심이었지만, 추론 시장 확대 이후 KV 캐시 증가로 메모리 수요가 급증했고, 이후 고성능 네트워크 확장 수요가 커지는 것이다. 최근 AI 에이전트 확산으로 비GPU 연산 비중이 빠르게 증가하면서 CPU가 새로운 병목 요인으로 부상할 것으로 전망된다. 이에 GPU와 메모리, 네트워크에 이어 데이터센터 CPU 관련 밸류체인에 대한 투자 관심도 확대될 것으로 분석된다. 르네 하스 Arm 대표는 'AGI CPU'를 공개하며 "AI는 빠르게 진화하고 있으며 앞으로 훨씬 더 빠른 속도로 성장할 것이고, AI 시스템이 복잡해질수록 CPU의 역할은 더욱 중요해질 것"이라며 "AI는 사용자부터 애플리케이션, 인프라까지 전체 기술 스택을 재정의하고 있으며 세계는 기존 데이터센터에서 AI 중심 데이터센터로 빠르게 전환되고 있다"고 말했다.
2026-03-30 17:13:07