경제일보 - 아시아 경제시장의 맥을 짚다
패밀리 사이트
아주일보
베트남
회원서비스
로그인
회원가입
지면보기
네이버블로그
금융
산업
생활경제
IT
건설
정치
피플
국제
사회
문화
딥인사이트
검색
2026.04.13 월요일
맑음
서울 18˚C
맑음
부산 20˚C
맑음
대구 21˚C
맑음
인천 16˚C
맑음
광주 22˚C
맑음
대전 21˚C
흐림
울산 22˚C
맑음
강릉 17˚C
흐림
제주 17˚C
검색
검색 버튼
검색
'솔라 오픈 100B'
검색결과
기간검색
1주일
1개월
6개월
직접입력
시작 날짜
~
마지막 날짜
검색영역
제목
내용
제목+내용
키워드
기자명
전체
검색어
검색
검색
검색결과 총
4
건
AI 경쟁 '모델 규모'에서 '효율'로…노타, LLM 경량화 기술 개발
[경제일보] 수천억개의 파라미터를 갖춘 인공지능 모델을 구동하기 위해 필요한 대규모 GPU 인프라와 막대한 메모리가 기업의 AI 도입 장벽으로 작용하면서 대형 언어모델(LLM)의 운영 비용이 인공지능 산업의 새로운 과제로 떠오르고 있다. 이에 글로벌 AI 기업들이 모델 성능을 유지하면서도 비용을 낮추기 위한 경량화·최적화 기술 경쟁에 속도를 내는 가운데 국내 기업들도 관련 기술 개발에 나서고 있다. 5일 AI 경량화 및 최적화 전문 기업 노타는 업스테이지의 대형 언어모델 '솔라'의 모델 크기를 대폭 압축해 추론 비용을 줄이고 처리 속도를 높이면서도 높은 정확도를 유지하는 차세대 양자화 기술을 개발했다고 밝혔다. 이번 개발은 과학기술정보통신부가 추진하는 '독자 AI 파운데이션 모델 프로젝트'의 일환으로 진행됐다. 노타는 업스테이지의 '솔라 오픈 100B' 모델에 자체 경량화·최적화 기술을 적용해 성능은 유지하면서 메모리 효율을 크게 개선했다고 설명했다. 해당 프로젝트는 국내 독자 AI 모델 생태계 구축을 목표로 추진되는 사업으로 모델 개발뿐 아니라 학습·추론 효율을 높이기 위한 핵심 기술 확보도 중요한 과제로 꼽힌다. 특히 이번 기술은 최근 차세대 LLM 구조로 확산되고 있는 'MoE(전문가 혼합 구조)' 모델의 기술적 난제를 해결하는 데 초점을 맞췄다. MoE는 입력에 따라 일부 전문가 모델만 선택적으로 작동하는 방식으로 구글과 메타 등 글로벌 빅테크들이 차세대 LLM 구조로 채택하고 있는 기술로 알려졌다. 모델 전체가 동시에 작동하는 기존 방식보다 연산 효율을 높일 수 있어 초대형 모델 설계에 유리하지만, 구조 특성상 기존 양자화 방식으로는 성능 저하가 발생하기 쉽다는 한계가 있었다. 노타는 MoE 구조에 최적화된 독자 알고리즘 '노타 MoE 양자화' 방법론을 개발해 해당 문제를 해결했다고 설명했다. 모델 전체를 일괄적으로 압축하는 기존 방식과 달리 연산 중요도에 따라 정밀도를 차등 적용해 양자화 과정에서 발생하는 성능 저하를 최소화했다. 즉, 성능에 영향을 크게 미치는 연산은 정밀도를 유지하고 상대적으로 영향이 작은 부분만 압축해 효율성과 정확도를 동시에 확보하는 방식이다. 노타에 따르면 100B(1000억개) 파라미터 규모의 솔라 모델에 해당 기술을 적용해 기존 약 191.2GB(기가바이트) 수준이던 메모리 사용량을 약 72.8% 감소한 51.9GB까지 줄인 것으로 나타났다. 성능 지표인 PPL은 6.81을 기록해 원본 모델의 6.06과 큰 차이를 보이지 않는 수준을 유지했다. 일부 범용 양자화 기법이 적용될 경우 성능이 크게 저하되는 것과 비교하면 메모리 효율과 정확도를 동시에 확보한 결과라는 설명이다. 이 같은 경량화 기술은 향후 온디바이스 AI와 피지컬 AI 확산에도 중요한 기반이 될 전망이다. 그동안 초대형 LLM은 막대한 GPU 자원을 요구해 데이터센터 중심으로 운영될 수밖에 없었다. 그러나 모델을 경량화하면 로봇, 자율주행차, 스마트 디바이스 등 다양한 엣지 환경에서도 고성능 AI를 구현할 수 있는 가능성이 커진다. 스탠퍼드대학교 인간중심 AI 연구소가 발간한 'AI 인덱스 리포트'에 따르면 최근 인공지능 산업에서는 모델 성능 경쟁과 함께 추론 비용과 연산 효율성이 주요 경쟁 지표로 부상하고 있다. 보고서는 초대형 모델 규모가 빠르게 커지면서 이를 운영하기 위한 GPU 인프라와 전력 비용이 급증하고 있으며 이에 글로벌 AI 기업들이 모델 압축, 양자화, 추론 최적화 등 효율성 기술 확보에 투자를 확대하고 있다고 분석했다. 앞으로는 LLM 경쟁이 단순한 모델 성능 경쟁을 넘어 효율성 경쟁으로 확장될 전망이다. 미국과 중국을 중심으로 모델 경량화와 엣지 AI 기술 연구가 활발하게 진행되는 가운데 국내에서도 파운데이션 모델 개발과 함께 최적화 기술 확보가 중요한 과제로 떠오르고 있다. 채명수 노타 대표는 "이번 성과는 한국형 AI 파운데이션 모델인 솔라 100B에 노타만의 양자화 기법을 적용해 메모리를 대폭 줄이면서도 성능을 유지했다는 점에서 의미가 크다"며 "디바이스에 대규모 모델을 구현해야 하는 수요가 커질수록 노타의 경량화·최적화 기술이 고성능 AI를 실현하는 핵심적인 역할을 해나갈 것"이라고 말했다.
2026-03-05 09:54:56
'국대 AI' 첫 탈락자 나온다... 15일 운명 가를 변수는 '독자 기술'
[이코노믹데일리] 대한민국 인공지능(AI) 기술 자립을 목표로 한 '국가대표 AI(독자 파운데이션 모델 구축)' 프로젝트의 1차 컷오프 결과가 사흘 앞으로 다가왔다. LG AI연구원, 네이버클라우드, SK텔레콤, 엔씨소프트, 업스테이지 등 5개 컨소시엄 중 하위 1개 팀이 탈락하는 '서바이벌' 평가를 앞두고 업계의 긴장감이 최고조에 달했다. 12일 과학기술정보통신부와 업계에 따르면 정부는 오는 15일까지 1차 기술 평가를 완료하고 첫 탈락 팀을 확정할 방침이다. 이번 평가의 핵심 쟁점은 '프롬 스크래치(From scratch)' 여부다. 이는 기존 오픈소스 모델을 가져와 다듬는 것이 아니라 데이터 수집부터 모델 아키텍처 설계 및 학습까지 바닥부터 독자적으로 개발했는지를 따지는 기준이다. 특히 최근 불거진 '중국 기술 차용' 논란이 평가의 최대 변수로 떠올랐다. 업스테이지의 '솔라-오픈-100B'가 중국 지푸(Zhipu) AI의 모델과 유사하다는 의혹을 시작으로 SK텔레콤 역시 중국 딥시크의 추론 코드와 유사하다는 지적이 제기됐다. 이에 대해 양사는 "오픈소스로 공개된 추론 코드를 활용한 것은 글로벌 표준에 부합하며 자체 기술력과는 무관하다"고 해명했다. 반면 네이버클라우드는 알리바바의 '큐웬' 모델의 일부 모듈(비전 인코더)을 활용한 것으로 알려져 논란이 됐다. 네이버 측은 "성능 안정화를 위한 엔지니어링적 판단이며 향후 자체 기술로 대체 가능하다"는 입장이지만 업계에서는 라이선스 종속 가능성을 우려하는 시각도 적지 않다. 과기정통부 공모 안내서에 "해외 모델 파생형 개발은 사업 취지에 부합하지 않는다"고 명시된 만큼 심사위원단이 이를 얼마나 엄격하게 적용할지가 관건이다. 현재 업계 안팎에서는 LG AI연구원의 '엑사원(EXAONE)'이 가장 앞서 있다는 평가가 나온다. 방대한 논문 및 특허 데이터를 기반으로 독자적인 학습 체계를 구축했고 오픈소스 의존도가 낮아 '소버린 AI(Sovereign AI)'라는 사업 취지에 가장 부합한다는 분석이다. 엔씨소프트의 '바르코(VARCO)' 역시 탄탄한 자체 연구 역량을 인정받고 있으나 특화 모델의 한계인 범용성 확보가 과제다. 정부는 예정대로 15일까지 평가를 마치되 결과 발표 시점은 신중하게 검토 중이다. 과기정통부 관계자는 "평가는 일정대로 진행되지만 최근 제기된 이슈들을 종합적으로 검토하는 데 시간이 걸릴 수 있다"며 "성장통 없는 혁신은 없다는 기조 하에 기술적 관점에서 공정하고 투명하게 심사하겠다"고 밝혔다.
2026-01-12 11:06:29
연이은 AI 모델 카피 논란…업스테이지·네이버클라우드 '진땀'
[이코노믹데일리] 업스테이지의 '솔라 오픈 100B' 카피 의혹에 이어 최근 네이버클라우드의 '하이퍼클로바X 시드 32B 싱크 모델'에 대한 프롬 스크래치 논란이 제기됐다. '독자 AI(인공지능) 파운데이션 모델' 프로젝트 대표 5사 중 2개의 기업에 프롬 스크래치를 둘러싼 논란이 연이어 터진 것이다. 6일 업계에 따르면 네이버클라우드의 '하이퍼클로바X 시드 32B 싱크 모델'이 중국 알리바바의 'QWEN-2.4 언어모델'과 일부 유사한 부분이 있다는 목소리가 나왔다. 두 모델 간 비전 인코더 웨이트(가중치)의 코사인 유사도와 피어슨 상관계수가 높다는 주장이다. 네이버클라우드 관계자는 "이번 모델에서는 글로벌 기술 생태계와의 호환성과 전체 시스템의 효율적 최적화를 고려해 검증된 외부 인코더를 전략적으로 채택했다"며 프롬 스크래치 방식이 아니라는 논란에 대해서는 "네이버클라우드는 핵심 엔진을 프롬 스크래치 단계부터 100% 자체 기술로 개발했다"고 부인했다. 프롬 스크래치라는 표현은 기존 기계학습 연구 현장에서 매우 제한적으로 쓰이던 용어다. 모델 아키텍처 설계부터 가중치 초기화, 학습 데이터 구성까지 기존 자산에 기대지 않고 처음부터 구축했을 때에만 사용된다. 그러나 최근 대규모언어모델(LLM) 시대에 들어 이 개념은 사실상 이론적 표현에 가깝다는 평가가 나온다. 수천억 파라미터 모델을 개발하면서 공개 논문, 오픈소스 코드, 선행 연구를 전혀 참고하지 않는 경우는 거의 없기 때문이다. 국내에서는 프롬 스크래치라는 표현이 유난히 강조돼 왔다. 배경에는 정부 주도의 독자 AI 파운데이션 모델 사업이 있다. 이 사업은 해외 빅테크 의존도를 낮추고 국가 차원의 AI 자립을 달성하겠다는 목표 아래 출범했다. 문제는 이 과정에서 독자성, 자립성 같은 개념이 기술적 정의가 아닌 선언적 언어로 사용됐다는 점이다. 업스테이지 역시 비슷한 논란에 휩싸였다. 업스테이지는 '솔라 오픈 100B 모델'을 공개하며 독자 개발을 강조했지만, 최근 중국 AI 모델과의 구조적 유사성이 제기되면서 논쟁에 휘말렸다. 업스테이지는 학습 데이터와 훈련 방식의 독립성을 강조하며 해명에 나섰고, 외부 검증 절차까지 진행했다. 김성훈 업스테이지 대표는 지난 2일 공개 검증회에서 "유사성이 지적된 구간은 모델 전체의 0.0004%에 불과한 미세 영역이며 나머지 99.9996%는 완전히 다르다"며 "언어모델의 구조적 특성상 레이어놈의 유사도가 높게 나오는 것은 자연스러운 현상"이라고 설명했다. 해외에서는 이런 논란이 상대적으로 적다. 오픈AI, 메타, 구글 모두 기존 연구와 구조를 적극적으로 활용한다는 사실을 숨기지 않고 어떤 부분에서 차별화를 했는지, 어떤 성능을 달성했는지를 설명한다. 알리바바의 'QWEN2-Audio'는 오픈AI의 음성인식 기술을 기반으로 구축됐고 'QWEN3-Omni'는 구글의 이미지 인식을 기반으로 제작됐다고 알려졌다. 또한 SKT는 자사의 한국어 특화 LLM(거대언어모델) 'A.X 4.0'이 오픈소스 기반 모델인 알리바바의 'Qwen 2.5'를 기반으로 설계됐다고 밝힌 바 있다. 네이버클라우드 관계자는 "이번 모델의 핵심 기여는 단순한 부품 조립이 아닌 통합 아키텍처의 완성에 있다"며 "글로벌 AI 업계에서도 이러한 방식은 시스템 확장성을 위한 보편적인 설계 표준으로 자리 잡고 있다"고 말했다.
2026-01-06 13:37:52
업스테이지 '솔라 오픈 100B' 카피 논란…"검증 절차 공개한다"
[이코노믹데일리] 국내 인공지능(AI) 스타트업 업스테이지가 개발한 대규모언어모델(LLM) ‘솔라 오픈 100B’를 둘러싸고 중국 AI 모델을 모방했다는 의혹이 제기됐다. 이에 대해 업스테이지는 의혹을 제기한 당사자와 전문가들을 초청해 공개 검증을 진행하고 사실관계를 명확히 하겠다는 입장이다. 2일 업계에 따르면 AI 스타트업 사이오닉AI의 고석현 대표는 전날 링크드인을 통해 업스테이지를 겨냥한 문제 제기 글을 게시했다. 고 대표는 업스테이지가 ‘독자 AI 파운데이션 모델 1차 설명회’에 제출한 솔라 오픈 100B와 중국 AI 기업 지푸AI의 ‘GLM 4.5 에어’ 모델을 비교 분석한 깃허브 리포트를 함께 공개했다. 해당 리포트는 두 모델의 ‘LayerNorm’ 파라미터 가중치를 비교한 결과 코사인 유사도가 0.989에 달한다며 우연히 유사한 모델이 생성됐을 가능성은 극히 낮다고 주장했다. 고 대표는 이를 포함한 여러 지표를 근거로 솔라 오픈 100B가 GLM 모델에서 파생됐다고 평가했다. LayerNorm 파라미터는 LLM에서 거의 모든 블록에 포함되는 기본 구성요소로 신경망 각 레이어의 출력을 정규화하기 위해 학습되는 값이다. 모델 안정화를 위해 각 레이어마다 학습되는 ‘γ’와 ‘β’ 파라미터를 의미한다. 고 대표는 링크드인 게시글에서 “국민 세금이 투입된 프로젝트에서 중국 모델을 복사해 미세 조정한 결과물로 추정되는 모델이 제출된 것은 상당히 큰 유감”이라고 밝혔다. 솔라 오픈 100B는 정부 지원을 받아 개발된 AI 모델이다. 업스테이지를 비롯해 네이버클라우드, SK텔레콤, NC AI, LG AI연구원 등 5개 기업이 참여한 정예팀이 선정돼 GPU, 데이터, 인재 등의 지원을 받고 있다. 정부의 평가 기준은 성능, 개발 전략, 개발 투명성, 오픈소스 기여도 등으로 구성돼 있으며 특정 해외 모델과의 유사성 자체는 명시적인 평가 항목은 아니다. 다만 허위 사실 기재 등 사업 수행과 관련한 문제가 확인될 경우 제재가 이뤄질 수 있다. 이에 대해 고현웅 카카오 ML 연구원은 고 대표의 분석이 부적절하다는 취지의 반박 리포트를 이날 깃허브에 공개했다. 고 연구원은 LayerNorm 파라미터의 코사인 유사도만으로는 모델 간 유사성이나 파생 여부를 판단할 수 없다고 지적했다. 그는 “코사인 유사도는 벡터의 크기, 즉 스케일을 무시하고 방향성만을 고려해 산출되는 지표”라며 “이 지표 하나로 모델의 계보나 학습 출처를 판단하는 것은 적절하지 않다”고 밝혔다. 업스테이지 측도 즉각 반박에 나섰다. 김성훈 업스테이지 대표는 이날 페이스북을 통해 2일 오후 3시 강남역 인근에서 업계 관계자들과 함께 공개 검증 자리를 마련하고 의혹을 제기한 고 대표를 포함한 관련자들을 직접 초청하겠다고 밝혔다. 김 대표는 “학습에 사용한 중간 ‘checkpoint’와 ‘wandb’ 로그를 모두 공개할 예정”이라며 “명확한 검증 절차를 통해 사실관계를 바로잡겠다”고 강조했다. ‘checkpoint’는 모델 학습 과정에서 중간 단계별로 저장된 가중치 스냅샷이며 ‘wandb’는 학습 전 과정을 시간순으로 기록한 로그다. 업계에서는 이들 자료가 공개될 경우 해당 모델이 처음부터 학습된 것인지 기존 모델을 기반으로 했는지를 기술적으로 검증할 수 있는 핵심 자료가 될 것으로 보고 있다.
2026-01-02 09:13:20
처음
이전
1
다음
끝
많이 본 뉴스
1
"에스패스 특허 논란 정면돌파"…삼천당제약, 계약서 공개로 의혹 전면 반박
2
금융위, "정책자금 지원 26조8000억원으로 확대"…석화·정유업계 지원 나서
3
한은, 중동 전쟁에 환율·물가·경기 모두 불안
4
짜인 각본…박상용 "국조가 날 위증으로 몬 뒤 특검으로 李 공소 취소"
5
휴전에도 중동 리스크 여진 남아…건설현장 공사비 갈등 확산
6
도시정비 '2조 클럽' 선착한 대우건설…성수4지구에 기세 달렸다
7
티오더, KT·SK쉴더스 기술 분쟁 수면 위로…테이블오더 시장 갈등 '격화'
8
[르포] 전쟁의 파편이 장바구니로…광장시장에 번진 '생활물가 충격'
영상
Youtube 바로가기
오피니언
[사설] 미·이란 협상 결렬과 장기전의 서막… '에너지·수출 안보' 비상 플랜 서둘러야