나를 기록하다
article thumbnail
반응형

1. NHN·KT·네이버, 국산 AI반도체 활용 'K-클라우드'로 뭉쳤다

'AI 반도체팜' 공동 컨소시엄으로 참여…카카오엔터프라이즈는 협력 파트너 못 찾아

국내 주요 클라우드 서비스 제공 기업(CSP)인 NHN클라우드·KT클라우드·네이버클라우드가 국산 AI반도체를 활용한 'K-클라우드 프로젝트' 사업 참여를 위해 손을 맞잡았다.

16일 관련 업계에 따르면, 과학기술정보통신부가 추진하는 K-클라우드 프로젝트 중 'AI반도체 팜(Farm) 구축 및 실증' 사업과 'AI 반도체 시험검증 환경조성' 사업에 NHN클라우드·KT클라우드·네이버클라우드가 공동 컨소시엄을 꾸려 참여한다. 해당 컨소시엄에는 AI반도체 기업인 퓨리오사AI, 사피온, 리벨리온 3사가 함께 참여한다.

국내 주요 클라우드 서비스 제공 기업(CSP)인 NHN클라우드·KT클라우드·네이버클라우드가 국산 AI반도체를 활용한 'K-클라우드 프로젝트' 사업 참여를 위해 손을 맞잡았다. (사진=지디넷코리아)

 

K-클라우드 프로젝트는 초고속·저전력 국산 AI반도체 개발과 데이터 센터 적용을 통해 국내 클라우드 경쟁력을 강화하기 위해 과기정통부에서 추진하는 사업이다. 국산 AI반도체 기반 데이터센터 구축 사업과 AI·클라우드 서비스 개발 사업을 연계해 국산 AI반도체의 레퍼런스를 확보하는 것이 목표다.

 

K-클라우드 프로젝트 중 가장 많은 예산이 투입되는 사업은 'AI반도체 팜 구축 및 실증' 사업과 'AI반도체 시험 검증 환경조성' 사업이다. AI반도체 팜 구축 및 실증 사업은 3년 동안 약 187억원 규모의 예산을 지원하며, AI반도체 시험 검증 환경 조성 사업은 2년 동안 약 131억원 규모의 예산을 지원한다.

 

업계는 해당 사업에 클라우드 기업과 AI반도체 기업이 1:1로 매칭되는 경쟁구도를 이룰 것으로 예상했었다. 그러나 지난달 정부가 K-클라우드 프로젝트 사업 통합 공고에서 업계 예상을 깼다.

 

K-클라우드 프로젝트 사업 통합 공고에 의하면, 사업은 다자 컨소시엄 형태으로 참여하고, 컨소시엄 구성을 AI반도체 기업 2곳, 클라우드 기업(CSP) 2곳, AI 서비스 기업 2곳 등 최소 6개 사업자로 만들어야 한다.

 

이에 각 클라우드 기업은 AI반도체 협력 기업뿐 아니라, 경쟁 클라우드 기업과 협력해야 하는 상황이다. AI반도체 기업 역시 마찬가지다. 해당 사업에 관심을 보여온 NHN클라우드, KT클라우드, 네이버클라우드, 카카오엔터프라이즈 등 국내 CSP사와 AI반도체 개발사인 퓨리오사AI, 사피온, 리벨리온 등은 컨소시엄을 만들기 위해 물밑작업을 벌여왔다.

 

사업 접수 마감이 오는 20일로 다가온 가운데, NHN클라우드·KT클라우드·네이버클라우드 3사와 국내 주요 AI반도체 기업인 퓨리오사AI·사피온·리벨리온 3사가 공동 컨소시엄을 꾸리는 것으로 확인됐다.

 

국내 주요 CSP 3사가 모두 같은 컨소시엄에 들어가면서 카카오엔터프라이즈는 협력사를 찾지 못해 컨소시엄을 꾸리지 못하고 있는 모양새다. 오는 20일까지 카카오엔터프라이즈가 협력사를 찾지 못한다면, CSP로서 컨소시엄 참여는 불가능해진다.

 

다만 카카오가 CSP로서 참여하지 못하더라도 AI 자회사인 '카카오브레인' 등이 AI서비스 기업으로 참여할 가능성도 제기된다.

 

업계 관계자는 "한 개의 클라우드 기업이 사업에 참여하는 것이 아닌, 여러 클라우드 기업이 컨소시엄을 꾸려 참여하게 된 것은 여러 기업에 기회를 열어주기 위함이라고 본다"고 말했다.

 

카카오 측은 "카카오엔터프라이즈는 반도체 회사들과 협력은 많이 하고 있으나 선택과 집중을 위해 전략적으로 해당 건에 참여하지 않기로 결정했다"며 "고성능 컴퓨터 사업 등 클라우드를 활용한 다른 사업에 집중할 예정이다"라고 밝혔다.

황정빈 기자jungvinh@zdnet.co.kr

2. 초거대AI 두뇌, AI반도체가 키운다…GPU넘어 NPU로

초거대 AI를 움직이는 인프라

2016년 이세돌 9단과의 바둑 대결에서 승리해 세상을 놀래켰던 알파고. 알파고를 승리로 이끈 주역은 딥러닝 기술을 구현하는 데 쓰인 그래픽처리장치(GPU)였다. 당시 알파고에는 1천920개의 CPU와 280개의 GPU가 사용됐다.

그리고 7년 뒤 세상을 뒤흔드는 또 하나의 AI '챗GPT'가 탄생했다. 챗GPT의 AI학습에는 무려 1만개가 넘는 엔비디아의 'A100' GPU가 사용됐다. GPU는 직렬 처리 방식을 이용하는 중앙처리장치(CPU)와 달리, 병렬 처리 방식으로 여러 개의 연산을 동시에 처리할 수 있어 대규모AI 연산을 처리하는 데 많이 쓰이고 있다.

이제는 한 번 더 도약의 시기가 다가왔다. 기업들은 GPU를 넘어 AI 특화 반도체인 신경망처리장치(NPU)를 초거대AI에 활용하기 위해 나서고 있다.

■ 맥북·갤S23·초거대AI '엑사원'·'KoGPT'에도 NPU 적용…"가격 GPU의 4분의 1"

그동안 AI에는 GPU가 많이 사용됐지만, 이제 기업들은 GPU가 아닌 NPU에 많은 기대를 걸고 있다.

GPU는 병렬 처리 방식으로, 그동안 직렬 처리 방식인 CPU의 한계를 대신해 주로 AI 개발에 활용돼 왔다. 그러나 GPU는 애초에 그래픽 처리 용도로 탄생했기 때문에 기업들은 보다 AI 연산에 특화돼 효율이 좋고 가격을 낮출 수 있는 NPU를 개발·사용하고 있다.

우리가 사용하고 있는 노트북, 스마트폰에도 이미 NPU는 사용되고 있다. 애플은 맥북에어에 실리콘 칩 'M2'를 탑재했는데, M2는 AI 연산에 최적화된 NPU인 뉴럴엔진이 M1 대비 속도가 40% 향상된 것으로 알려졌다.

Play Video
좋은 잠을 꺼내먹어요
Play
Unmute
 
Current TimeÂ0:01
/
DurationÂ0:15
Loaded: 0%
Progress: 0%
Fullscreen

최근 삼성전자가 출시한 갤럭시S23 시리즈에 들어간 모바일 AP에도 NPU가 쓰인다. 갤럭시S23 시리즈에는 퀄컴 스냅드래곤8 2세대 모바일 AP가 적용됐다. 삼성전자는 "AI의 핵심인 딥러닝 알고리즘을 담당하는 NPU의 성능이 전작 대비 40% 이상 개선됐다"며 "NPU 성능으로 사진 촬영 성능과 전력의 균형을 최적화했다"고 밝혔다.

갤럭시S23 시리즈에는 퀄컴의 갤럭시용 스냅드래곤8 2세대가 탑재됐다(사진=갤럭시 언팩 갈무리)

LG가 자체 개발한 초거대 AI 연구원 '엑사원'과 카카오브레인 'KoGPT'의 모델 학습에는 NPU의 일종인 구글이 자체 개발한 AI 반도체 텐서 프로세싱 유닛(TPU)이 사용됐다. TPU는 기존 GPU-CPU 조합 대비 15~30배 높은 성능을 갖추면서도, 전력 소비는 30~80배 적은 것으로 알려졌다.

엑사원은 클라우드 TPU를 도입해 AI 모델 학습에 소요되는 시간을 효과적으로 단축하고 더 효율적인 모델 학습 프로세스를 구축했다. 카카오브레인은 클라우드 TPU를 도입해 대규모 모델 학습 시 발생하는 네트워크 병목 현상을 해결하고 60억 개의 파라미터와 2천억 개 토큰에 달하는 한국어 데이터를 빠르게 처리했다고 밝혔다.

성능 면에서도 GPU보다는 AI 연산에 특화된 NPU를 활용하는 것이 좋지만, 비용 면에서도 기존 GPU를 사용하는 것은 초거대AI를 개발·서비스하려는 기업에게 큰 부담이다. KT클라우드 이태경 팀장은 "엔비디아의 완성형 장비와 같은 기존 고가의 GPU는 엔지니어의 기술 지원 비용까지 합쳐지면 장비 하나당 4억~5억 정도 한다"며 "아무나 그런 고가의 장비를 살 수 없으며, 매우 비싸고 데이터센터 또한 매우 많이 지어야 한다"고 기존 GPU를 사용하는 데 있어 기업들의 어려움을 설명했다. 이어 그는 "NPU를 쓰면 GPU의 4분의 1로 가격이 줄어들며, 전력량도 4분의 1, 5분의 1 수준이면 된다"고 설명했다.

■  AI반도체 국가 산업으로 키운다…2030년까지 총 8천262억원 투자

사진 = 이미지투데이

AI 시장이 떠오르면서 AI 서비스를 받치고 있는 인프라의 중요성이 대두되자 정부에서도 국산 AI반도체 개발에 뛰어들었다.

과학기술정보통신부는 지난 16일 세계 최고 수준의 초고속·저전력 국산 AI반도체 개발과 데이터 센터 적용을 통해 국내 클라우드 경쟁력을 강화하고, 국민들에게 향상된 AI 서비스를 제공하는 'K-클라우드 프로젝트'를 추진한다고 밝혔다. 정부는 이를 위해 올해부터 2030년까지 총 8천262억원을 투자, 국산 AI반도체를 3단계(NPU→저전력PIM→극저전력PIM)에 걸쳐 고도화한다는 계획이다.

과기정통부 전영수 정보통신산업정책관은 "오픈AI의 챗GPT와 같이 AI 기술이 비약적으로 발전하고 AI가 우리 일상 속으로 보다 폭넓게 확산되면서 AI 연산에 특화된 고성능·저전력 AI반도체의 중요성이 부각되고 있다"며 "K-클라우드 프로젝트를 통해 국산 AI반도체가 데이터센터의 저전력화 및 클라우드와 AI 서비스 비용 절감 부분에서 시장 경쟁력이 있다는 것을 실증하고, 향후 글로벌 진출도 가능한 성공 레퍼런스를 확보할 수 있도록 지원할 예정"이라고 말했다.

K-클라우드 프로젝트 사업 중 정보통신산업진흥원(NIPA)에서 전담하는 AI반도체 팜 구축 및 실증 사업에는 클라우드 기업, AI 반도체 기업, AI 서비스 기업·기관이 각각 2개 사 이상이 협력해 컨소시엄 형태로 참여하게 된다. 주관기관은 클라우드 기업이며, 지원 시 참여기업·기관 간 구체적인 협력 방안을 제시해야 한다.

이번 사업을 통해 국산 AI반도체를 기반으로 각 데이터센터당 총 연산용량 10PFLOPS 규모의 고성능 연산이 가능한 저전력 데이터센터가 구축될 예정이다. 이를 바탕으로 민간·공공 분야에서 각각 4건 이상의 AI서비스를 실증하며, 1차 시범서비스는 올 12월 제공될 예정이다.

■ 클라우드 기업-AI 반도체 기업 협력…GPU 시장에 도전장

KT클라우드 이태경 팀장.

기존의 GPU 시장은 개인용·기업용 모두 엔비디아가 독식해왔다. 기존 GPU 시장에서 엔비디아는 80%가 넘는 점유율을 차지하고 있다. KT클라우드 이태경 팀장은 "일상으로의 AI 접목이 가시권에 들어오면서 지금이라도 반도체가 기술 종속되지 않도록 자립해야 된다는 인식이 있어 왔고, GPU 대체재로서의 국산 AI 반도체에 대한 논의가 다년간 진행돼 왔다"고 설명했다.

국내 NPU 개발 업체로는 대표적으로 사피온, 퓨리오사, 리벨리온 3사가 주로 거론된다. 퓨리오사의 '워보이' NPU는 카카오엔터프라이즈의 기업용 통합 클라우드 플랫폼 '카카오 i 클라우드'에 적용됐다. '카카오 i 클라우드'는 워보이 NPU를 통해 딥러닝 서비스를 실시간으로 제공한다. 카카오엔터프라이즈는 현재 카카오 i 클라우드상에서 퓨리오사AI 워보이 NPU 카드 12장을 4개의 베어메탈 서버에 장착해 서비스하고 있으며, 연내에 워보이 NPU 카드 16장, 베어메탈 서버 10대를 추가할 계획이다.

 

SK텔레콤, SK스퀘어, SK하이닉스 등 3개 회사가 투자해 설립한 AI 반도체 기업 사피온은 올 하반기 기존 NPU(사피온 X220) 대비 4배 이상 성능을 끌어올린 'X330'을 출시할 예정이다. 사피온은 NHN클라우드와 협력해 지난 2021년부터 2022년까지 실증 사업을 진행했다. 패션 특화 AI서비스 '버츄얼 트라이온'에서 사피온 X220을 검증해, 기존 엔비디아 'T4' GPU보다 처리 속도가 5.1배 빠른 것으로 확인됐다.

 

리벨리온은 KT클라우드와 협력하고 있다. 상반기 출시 예정인 KT의 초거대 AI 서비스 '믿음'에는 언어처리에 특화된 리벨리온 AI 반도체 '아톰'이 탑재된다. 아톰은 엔비디아의 GPU와 비교했을 때 전력 소모량이 6분의 1 수준인 것으로 알려졌다. KT는 향후 GPU팜에 리벨리온과 제작한 AI 반도체를 접목할 예정이다. KT는 지난해 리벨리온에 300억원 규모의 전략 투자를 진행했다.

 

이 팀장은 "리벨리온은 언어 부분에 대해 성능이 탁월하며, 미세 공정 부분에서 가장 앞서있다"며 "KT는 리벨리온의 기술 수준을 높게 평가해 투자하게 됐다"고 말했다. KT는 향후 'AI 풀스택' 사업자로 거듭난다는 목표다.

이 팀장은 "KT클라우드의 HAC 서비스가 소프트웨어 역량을 끌어 올려 과거에 없던 서비스를 태동시킨 거라면, 그 다음 단계로는 GPU를 걷어내고 NPU를 활용해 외산에서 탈피해 향후 AI 기반 사업에서 주도권을 가져가고자 하는 것이 지향점이다"라고 말했다.

황정빈 기자jungvinh@zdnet.co.kr

3. 마침내 발표된 GPT4···어떤 '물건'인가

문자 뿐 아니라 이미지도 이해하는 멀티모달···파라미터 수는 공개하지 않아

챗GPT를 만든 미국 오픈AI가 마침내 GPT4를 발표했습니다. 그동안 미국을 비롯해 세계는 오픈AI가 언제 GPT4를 발표할 지를 놓고 루머가 무성했는데요, 지난주 독일 마이크로소프트(MS) 안드레이스 브라운(Andreas Braun) 최고기술책임자(CTO)가 전망한 대로 15일 오픈AI가 GPT4를 공개했습니다. 

GPT가 처음 나온게 2018년이고 GPT2는 2019년, GPT3는 2020년, GPT3.5(챗GPT)는 2022년 11월에 나왔습니다. GPT3로만 보면 거의 2년만에 새 GPT(GPT4)가 나온 셈입니다. 

자료: 삼일PwC경영연구원

예상대로 GPT는 텍스트 뿐 아니라 이미지도 인식할 수 있는 멀티모달AI였습니다. 그림으로 입력을 할 수 있게 된 거죠. 그림 내용을 바탕으로 대화와 해석이 가능하게 됐습니다. 하지만 아직 완벽하지 않다고 오픈AI는 발표설명회(프리젠테이션)에서 밝혔습니다. 단어 처리 능력이 대폭 강화된 부분도 눈에 띕니다. 챗GPT보다 처리할 수 있는 단어 수가 8배 많아졌습니다. 약 수십 페이지 분량의 명령어로 입력이 가능해졌습니다. 지원하는 언어도 26개국어가 됐습니다. 

추론 능력도 훨씬 좋아졌고, 기존 시험에서 풀지못한 문제도 풀수 있게 됐습니다. GPT4를 사용하려면 기존 챗GPT플러스(월 20달러)로 유료 결제해야 합니다. 

 

하지만 궁금증이 많았던 파라미터(매개변수) 수는 공개하지 않았습니다. AI의 성능을 좌우하는 요인인 파라미터에 대해 일각에서는 GPT4가 100조개가 될 거라는 루머도 있었는데요, 사실 이는 낭설일 가능성이 높습니다. 실제 오픈AI 최고경영자(CEO) 샘 알트먼도 이전에 파라미터 100조개 운운은 터무니없다고 말한 적도 있습니다.

 산업계는 문자 처리보다 멀티모달 기능에 더 관심이 있었는데요, 막상 뚜껑을 열어보니 멀티모달보다 문자 처리 기능에 더 방점을 둔 듯한 느낌입니다. 여기에 마이크로소프트(MS) 검색(빙)에 우선 적용하는 등 MS에서 거대한 자금을 지원받다보니 오픈AI가 마치 MS 2중대가 된 듯한 느낌도 있습니다.  프리젠테이션 툴 기업으로 GPT4를 테스트한 AI스타트업 톰(Tome) 창업자 카이스 페이리스는 "GPT3와 3.5(챗GPT)가 6학년 같다면 GPT4는 똑똑한 10학년 같다"고 평가했습니다. 


 공개하지 않은 파라미터...과연 몇 개 일까?

GPT4에 대해 우선 궁금한게 파라미터(Parameter) 숫자였는데요, 오픈AI는 이에 대해 입을 다물었습니다.  파라미터는 흔히 매개변수라고 불리는데요, 일반인과 문과생들은 금방 와 닿지 않은 개념입니다. 네이버 지식백과에 따르면, 파라미터는 '회로나 기계를 동작시킬 때, 조작 가능한 요소를 가리키는 것'이라고 쓰여 있습니다. 감이 금방 안 오는데요, 각각의 연산에 사용하는 기본 정보들(함수의 계수나 상수 등)을 매개변수라고 합니다. 디지털 기본 단위인 바이트(Byte)처럼 정보의 한 단위로 생각하면 될 것 같습니다.

파라미터가 많을 수록 AI 성능이 좋은 건 맞습니다. 하지만 반드시 그런 건 아닙니다. AI성능은 파라미터 외에도 알고리즘, 컴퓨팅 파워, 데이터가 좌우하기 때문에 이 세 박자가 모두 맞아야 합니다. 실제, 최근 거대AI모델을 새로 발표한 미국 빅테크 메타는 당시 "GPT보다 적은 파라미터를 갖고도 성능은 더 좋다"고 말한 바 있습니다. 파라미터를 많이 가지면 그만큼 비용이 더 많이 들기 때문에, 요즘 글로벌 추세는 파라미터를 늘리지 않고도 좋은 성능의 AI를 개발하는 것입니다. 

이런 이유에서 오픈AI가 새로 발표할 GPT4의 파라미터가 100조개라는 건 넌센스일 가능성이 높았습니다. 샘 알트먼 오픈AI CEO도 수개월전 GPT4의 100조개 파라미터 루머에 대해 "엉터리(ridiculous)"라고 말한 바 있습니다. 

사람의 신경망 세포인 시냅스가 100조개인데요, GPT4의 100조개 파라미터를 처음 제기한 곳은 미국 저명 IT잡지 와이어드로 2021년 8월 이렇게 추정 했습니다. 2018년 처음 나온 GPT1은 파라미터가 1700만 개, GPT2(2019년)는 15억개, GPT3(2022년)는 1750억개로 100배 커졌는데요, 이런 증가세로 미뤄 GPT4의 파라미터를 100조 운운한 것 같습니다. 오픈AI가 공개하지 않았지만, GPT4 파라미터는 5000억개 안팎일 것 같습니다. 

파라미터는 언젠가부터 1000억 개를 돌파하기 시작했는데, 이때부터 ‘초거대 모델(large language model)’이라는 호칭이 사용됐습니다. 현존하는 가장 많은 매개변수AI를 갖고 있는 곳은 구글입니다. 지난해 2월 발표한 '스위치-트랜스포머(Switch-Transformer)'는 매개변수가 무려 1조6000억 개에 달합니다. 1조개가 넘는 유일한 모델입니다. 이어 역시 구글이 지난해 4월 내놓은 팜(PaLM)의 파라미터는 5400억개고, 마이크로소프트(MS)가 2021년 10월 선보인 메가트론(Megatron)은 5300억개, 우리나라 LG가 2021년 12월 발표한 엑사원(Exaone)은 3000억개로 4위 정도 됩니다. 

이들 외에 구글고퍼(2021년 12월)가 2800억개,  네이버 하이퍼클로바(HyperClova)는 2040억개, 오픈소스인 빅사이언스의 블룸(BLOOM)은 1750억개로 모두 요즘 핫한 챗GPT(1750억개)보다 매개변수가 많습니다. 구글이 최근 선보인 바드는 1370억개, 카카오 코지피티(KoGPT, 2021년 11월)는 300억개입니다.   

출처:소프트웨어정책연구소 보고서

 멀티모달로 진화한 GPT.."챗GPT가 6학년이라면 GPT4는 똑똑한 10학년" 

오픈AI는 GPT를 처음 선보인 2018년 이래 약 1년 간격으로 새 제품을 선보였습니다. 즉 GPT2는 2019년, GPT3는 2020년, GPT3.5(챗GPT)는 2022년 11월 공개했는데요,

GPT1이래 5년만에 나온 GPT4에서 텍스트와 이미지를 동시에 이해하는 멀티모달을 선보였습니다. 

GPT4가 멀티모달이 될 거라는 건 이미 예견된 거 였습니다. 지난주 GPT4가 이번주 나올 거라고 처음 이야기한 독일 마이크로소프트 CTO 안드레아스 바라운(Andreas Braun)은 당시 "챗GPT와 완전히 다른 가능성을 제공할 것"이라고 말했는데요, 이 중 하나가 멀티모달이였습니다. 

멀티모달 AI는 다양한 모달리티(텍스트 등 입력)를 동시에 받아들여 결과를 내는 AI를 말합니다. 챗GPT 같은 기존 초거대 AI가 주로 언어(텍스트)에 초점을 맞춘 것이라면 멀티모달 AI는 한발 더 나아가 텍스트 외에도 △이미지 △음성 △제스처 △시선 △표정 △생체신호 등 여러 입력을 받아들여 결과를 냅니다. 즉, 텍스트를 넣으면 이미지나 영상(비디오)으로 만들어 줄 수 있습니다. 이에 챗GPT의 텍스트 뿐 아니라 영상, 음악 등에서도 큰 변화가 일어날 수 있습니다.

 이미 오픈AI는 텍스트를 그림으로 만들어주는 '달리(DALL-E)'와 '달리2' AI를 선보인 바 있습니다. '달리'는 초현실주의 화가 살바도르 달리(Salvador Dalí)와 자율주행 로봇 이야기를 담은 2008년 애니메이션 영화 ‘WALL-E’에서 따온 말입니다. '달리'는 NLP(Natural Language Processing, 자연어처리)와 이미지 인식 기술을 함께 사용해 전에 학습한 적이 없는 이미지를 새로 만들어냈습니다.

사실 텍스트를 영상으로 전환하는 건 새로운 컨셉은 아닙니다. 이미 메타와 구글도 이런 AI를 갖고 있습니다. 즉, 메타는 'Make-A-Video'를, 구글은 'Imagen Video'라는 AI모델을 갖고 있습니다. 하지만 이들 회사 AI는 리서치(연구) 단계고 여러 이유로 아직 대중이 사용하지는 못합니다.

GPT4의 특징인 멀티모달은 AI가 인간과 더욱 자연스럽게 의사소통하게 해주는데요, 사람과 같은 AI인 일반인공지능(AGI)을 지향하는 오픈AI로서는 꼭 보유해야 할 AI입니다. 오픈AI 후원자 역할을 하고 있는 미국 마이크로소프트(MS)도 최근 문자뿐 아니라 이미지까지 이해해 생성할 수 있는 '비주얼챗GPT'를 소개하기도 했습니다.

우리나라도 멀티모달에서 일가견이 있습니다. 대표적인 곳이 LG인데요, LG는 작년 7월 자사가 만든 AI 아티스트 '틸다'를 세계 3대 광고제인 뉴욕 페스티벌에 출품, 금상과 은상을 받았습니다. 뉴욕 페스티벌은 칸 라이언즈, 클리오 어워즈와 함께 세계 3대 광고제로 인정 받고 있는데요, '틸다'는 세계 60여 개국에서 출품한 작품과 경쟁해서 이런 성과를 거뒀습니다. '틸다'에는 LG의 초거대 멀티모달 AI인 '엑사원'이 적용됐습니다. 현재 '엑사원'은 말뭉치 6000억개 이상과 언어와 이미지가 결합된 고해상도 이미지 3억5000만장 이상의 데이터를 학습한 것으로 알려져 있습니다. 특히 '엑사원은' IT만 아니라 금융, 의료, 제조, 통신 등 여러 분야 산업 데이터까지 학습하고 있어 다른 초거대 AI와는 차별화된 경쟁력을 갖고 있습니다. 각 도메인에서 쓸 수 있는 '도메인 특화 AI'인 것입니다.

LG는 우리나라 시각으로 14일 새벽 미국에서 열린 유명한 영화 및 TV 행사인 'SXSW(South by Southwest)'서 의료와 제약 분야에 적용한 '엑사원'을 소개, 주목을 받았습니다. 배경훈 LG AI연구원장은 "생성형 멀티모달AI(Generative Multimodal AI)가 단순히 그림을 그려주는데 활용되는 것 뿐 아니라 일반 이미지 3.5억장을 학습한 초거대 멀티모달 AI를 활용하면 병리 이미지, 피부과 이미지, X레이 판독사진 등을 기존 대비 10% 이하 레이블 데이터만 있어도 SOTA(최고 성능) 이상 성능을 만들어 낼 수 있다"고 밝혔습니다. LG는 이 AI를 한양대 병원과 검증 후 곧 논문으로 출간 할 예정인데요 글로벌 제약사에 공급도 할 계획입니다.

기업 뿐 아니라 우리 연구소도 정부 지원을 받아 멀티모달 AI 핵심 기술 확보에 열심입니다. 한국전자통신연구소와 한국전자기술연구원(Keti)이 멀티모달 관련 정부 과제 3개를 추진중인데요, 오는 2026년 과제가 완료됩니다. 아쉬운 것은 과제비가 미국 등과 비교하면 터무니없이 적다는 것입니다. 과제당 수년간 들어가는 연구비가 몇십억원 수준이니, 글로벌 빅테크 기업에 비하면 그야말로 '껌' 수준입니다.


 더욱 강력해진 단어 생성 능력을 가진 GPT4

멀티모달 외에 GPT4는 단어 생성 능력도 더욱 막강해졌습니다. 기존 챗GPT는 세션당 최대 토큰(Token, AI가 이해하는 언어 단위)이 4096개로 한 세션에서 최대 약 8000 단어까지 처리할 수 있었습니다. 세션은 AI와 사람이 묻고 답하고 묻고 답하기를 주고 받는 구간이라고 이해하면 됩니다.

 GPT4는 이 능력이 챗GPT보다 8배 많은 최대 3만2760개 토큰, 최대 6만4000개 단어를 처리할 수 있게 향상됐습니다. AI가 단편소설 하나를 그야말로 눈깜짝 할 새 쓸 수 있다는 거죠. 이 뿐 아니라 GPT4는 다른 나라 말로 번역할 수 있는 것도 한국어를 포함해 26개 국어로 늘렸습니다. 외신은 이탈리아말을 예로들어 이를 우크라이나와 한국어로 번역해준다고 보도했습니다. 

월스트리트저널(WSJ)에 따르면 프리젠테이션 툴 기업으로 GPT4를 테스트한 AI스타트업 톰(Tome)의 창업자 카이스 페이리스는 "GPT3와 3.5(챗GPT)가 6학년 같다면 GPT4는 똑똑한 10학년 같다"고 평가했습니다. 오픈AI는 GPT4의 성능 안정성을 확보하기 위해 약 50명 AI전문가에게 6개월 정도 자문을 받았다고 밝혔습니다. 


GPT의 Generative Pre-trained Transformer는 무엇?

보통 이름을 보면 그 정체를 유추할 수가 있죠. GPT도 마찬가지입니다. 그 이름을 뜯어보면 어떤 '물건'인지 알 수 있습니다. GPT는 Generative Pre-trained Transformer의 약어입니다. 

우선 Generative. 이는 말 그대로 생성한다, 무엇을 만든다는 겁니다. 그럼 Pre-trained는 무슨 뜻일까요?. 우리말로 번역하면 사전학습입니다. AI는 (데이터) 학습의 결과물인데요, GPT는 사전학습을 한 AI입니다. 사전학습에 끝나지 않고 파인튜닝이라는 또 한번의 학습을 했습니다. 두번의 학습을 한 AI인 셈이죠. AI기술은 크게 지도학습(supervised learning), 비지도학습(unsupervised learning), 강화학습 3가지가 있는데요, GPT는 사전학습은 비지도학습 기술로, 파인튜닝은 지도학습 기술로 만든 AI입니다.  

GPT에 중요한 또 하나의 기술이 Transformer입니다. 트랜포머AI는 문장 속 단어와 같은 순차 데이터 내의 관계를 추적해 맥락과 의미를 학습하는 신경망으로, 어텐션(attention) 또는 셀프어텐션(self-attention)이라 불립니다. 구글(Google)의 2017년 논문에 처음 등장한 용어인데요, 지금까지 개발한 모델 중 가장 새롭고 강력한 것으로 평가받습니다. 세계 AI연구를 선도하는 미국 스탠퍼드대학교 연구진은 2021년 8월 발표 논문에서 트랜스포머를 '파운데이션 모델(foundation model)'이라 부른 바 있는데, 이 모델들이 AI의 패러다임 변화를 견인하는 근간으로 봤기 때문입니다.

방은주 기자ejbang@zdnet.co.kr
반응형
profile

나를 기록하다

@prao

포스팅이 좋았다면 "좋아요❤️" 또는 "구독👍🏻" 해주세요!

profile on loading

Loading...