본문 바로가기

AI Feed
Tech & Product/AI 뉴스룸

COMPUTEX 2023를 장악한 엔비디아의 키노트, 인프라로 읽어보기

 

 

안녕하세요, 에디터 SA입니다😊 지난 5월 30일부터 6월 2일까지, 대만 타이베이에서 열린 COMPUTEX 2023의 여파가 아직도 남아있는데요. 4년만에 열린 행사인 만큼 전 세계의 이목이 쏠렸기 때문이겠지요. 또한 AI처럼 향후 미래 산업을 책임질 신기술에 영향을 미칠 이야기들이 대두된 것도 한몫하지 않았나, 생각합니다. 우리 모두 알고 있는 한 회사의 Keynote가 그 이야기의 중심에 있지요.

 

이번 COMPUTEX 2023에서 엔비디아는 슈퍼스타였다고 생각합니다

 

올해의 COMPUTEX에서는 챗GPT, 스테이블 퓨전 등 생성형 AI로 인해 블루칩으로 등극한 엔비디아의 존재감이 빛을 발했었는데요. 특히 2시간가량 진행된 NVIDIA의 키노트 세션에서는 예상하지 못했던 이야기들을 들을 수 있었습니다. NVIDIA의 CEO 젠슨 황(Jensen Huang)은 광고, 제조, 통신 등 대부분의 산업 분야를 변화시킬 생성형 AI 열풍에 돛을 달고 뛰어들 수 있는 기업용 플랫폼을 발표했습니다. 확신에 찬 목소리로 “저희가 돌아왔습니다.”라 말하기에, 내용을 들어보니 근거 있는 자신감이더라고요. 👏

 

아직 젠슨 황의 키노트를 챙겨 보시지 못한 분들이 계실 것 같습니다. 그래서 2시간 분량의 키노트에서 챙겨야 할, AI 및 인프라와 관련된 이야기들을 꼽아 보았습니다. 이번 이야기를 통해서 향후 AI 산업에 불어 닥칠 변화의 바람을 짐작해 보고, 대응할 준비를 시작하는 것도 좋을 것 같네요.

 

 

 

[ Topic 1 : DGX GH200, 최고의 AI 성능을 위하여 ]

앞으로는 이런 공간 대신 DGX GH200이 자리하게 되겠지요!

 

젠슨 황은 오늘날의 컴퓨터를 ‘데이터센터’라 명명했습니다. 몇 번이나 ‘데이터센터’라는 표현을 사용하면서, 전력 등 제한적인 산업환경에서 ‘데이터센터’에 투자하는 것이 효율성을 높이는 방법이 될 수밖에 없다고 전했어요. 키노트 도중 컴퓨터로 가득했던 방 한 칸을 단 하나의 부품으로 대체할 수 있게 된다는 부분에서 박수갈채를 이끌어내기도 했습니다. 엔비디아에서 DGX GH200과 같은 고효율의 제품이 출시된다는 건, AI 프로젝트를 기획, 수행하고 있는 많은 분께 엄청난 희소식일 거라 생각되네요.

 

대용량 메모리 AI 슈퍼컴퓨터인 DGX GH200은 기본적으로 거대한 GPU 컴퓨터인데요. 엔비디아의 NVLink (GPU 간의 연결)을 통해 최대 256개까지의 그레이스 호퍼 슈퍼칩을 1 엑사플롭 트렌스포머 엔진, 단일 GPU로 결합하는 엄청난 효율을 도모해 냈어요. 초당 600기가 바이트의 속도, 대규모로 빠른 캐시 전송 등 앞으로의 AI 산업에 기대감을 더하는 성능을 갖췄습니다. 이번 DGX GH200은 A100 320GB 시스템 기준 500배나 더 높은 엑사플롭 성능을 보여준다고 합니다. 또한 144TB의 공유 메모리도 제공하고요. 앞으로는 대규모 AI 프로젝트를 수행하기 위한 환경 구축도 비교적 수월해질 것으로 보이네요.

 

AI 슈퍼컴퓨터가 함께 프로그래밍하게 될 향후 개발 환경에서, DGX GH200은 매우 중요한 기능을 할 것으로 보입니다. 효율적인 자원 환경 구축을 위한 저희 TEN의 AI Pub이 문득 떠오르는 대목이기도 했어요. 실 활용의 관점에서는, 세계 최고가의 슈퍼컴퓨터를 효율적으로 활용할 수 있는 방법에 대한 고민이 필요할 테니까요. 😊

 

 

 

[ Topic 2 : 엔비디아 MGX, 서버 가속화를 위한 모듈형 Reference Architecture ]

 

엔비디아가 키노트 내내 강조한 ‘데이터센터’는 전 세계에 존재합니다. 젠슨 황은 향후 10년 동안 기존의 데이터센터들을 가속화된 데이터센터와 생성형 AI 지원 데이터센터로 재활용, 재가공하게 되리라 전망했는데요. 각각의 데이터센터에는 과학 컴퓨팅, 데이터 처리, 생성형 AI 추론, EDA, 엔터프라이즈를 위한 생성형 AI 등 다양한 애플리케이션이 존재하게 됩니다. 용도가 다르니까요.🤷 그럼 당연히 서버 구성도 다르고 배포 방식도 다르고 보안도 운영체제도 다르고 컴퓨터 위치조차도 다를 수밖에 없죠..!😵‍💫 젠슨 황은, 앞으로 AI가 중점이 될 환경에서는 기존의 데이터센터들이 각각 새로운 유형의 컴퓨터로 다시 엔지니어링 되어야만 하는 시기가 오게 될 거라고 밝혔어요.

 

하지만 지금까지 우리가 사용해 온 서버 사양은 범용 컴퓨팅을 위해 설계된 것이라 초고밀도 컴퓨팅 시스템에 잘 맞지 않게 되는데요. 그래서, 엔비디아는 모듈식 레퍼런스 아키텍쳐인 ‘엔비디아 MGX’ 도 같이 발표했습니다. 앞으로 시스템 제조업체들은 광범위한 AI, HPC, 엔비디아 옴니버스 애플리케이션에 적합한 서버 구성을 빠르게 구축할 수 있게 된다고 해요. 개수는 무려 100개 이상. 서버 구성이 각기 다르다고 하더라도, 모듈식이기에 무리가 없습니다. 물론, 비용 효율성도 챙길 수 있는 방식이라고 하네요.

 

 

 

[ Topic 3 : 나은 AI 클라우드를 만드는 엔비디아 Spectrum-X ]

 

엔비디아 스펙트럼-X는 이더넷 기반 AI 클라우드의 성능과 효율성 개선에 특화된 네트워킹 플랫폼입니다. 젠슨 황은 스펙트럼-X의 4가지 구성요소로 스위치, BlueFiled-3 NIC, 고속 통신을 위한 케이블, 그 위에 올라갈 소프트웨어 스택을 꼽아 소개했습니다.

 

젠슨 황은 Spectrum-X에 대해 “모든 클라우드 데이터센터를 AI 데이터센터로 만들고자 하는 방법”이라 소개하기도 했어요. AI 공장 수준의 초거대규모의 데이터센터가 아니더라도 모든 데이터센터를 생성형 AI 데이터센터가 되도록 만들 수 있게 된다고 하네요. 또한 AI 성능은 물론, 전력 효율성까지 기존 대비 1.7배나 향상시킬 수 있다고 하는데요. 기존의 이더넷 네트워크에서 이뤄져 왔던 AI 워크플로우에서는 성능 손실이 있을 수밖에 없었다는 점을 고려하면, 아주 반가운 존재가 등장한 것 같아요.

 

 

 

[ Topic 4 : WPP 엔비디아, 옴니버스 클라우드에서 만나다 ]

 

이번 키노트에서 ‘데이터센터’만큼이나 자주 언급된 단어가 있다면, 바로 ‘옴니버스’ 일 거예요. 엔비디아는 WPP와의 협력을 통해 생성형 AI 기반의 콘텐츠 엔진을 구축하고 있다고 밝혔는데요. 이 작업이 옴니버스 클라우드에서 진행되고 있다고 합니다. 키노트 시작 부분에서 화려한 영상미로 눈을 사로잡았던, 바로 그 세션의 내용이었죠. 전혀 다른 업종의 두 회사가 '옴니버스 클라우드'에서 협업하고, 그 클라우드에서 생성형 AI 툴을 운용할 수 있다는 점이 무척 생소하게 다가왔는데요. 클라우드 협업 에 대해 파일 공유의 방식으로만 생각했던 인식이 깨졌기 때문이겠지요..! AI 기반의 협업이 가능한 인프라에 대한 궁금증이 싹트기도 하는 부분이네요.

 

젠슨 황은 3D 디자인 툴을 연결하여 엔비디아 옴니버스에서 제품의 디지털 트윈을 구축하는 방법을 공개했는데요. 그 후에는 소싱된 데이터로 훈련, 엔비디아 피카소(Picasso)로 구축한 생성형 AI 툴의 콘텐츠를 활용해서 가상 세트를 만들어 내는 모습도 볼 수 있었어요. 지금까지의 광고 콘텐츠 제작 방식은, 제품의 실물을 구한 다음, 장소를 선정하고 세트를 지어, 불확실한 빛과 공기의 흐름을 노려 콘텐츠를 촬영해 만드는 것이었는데요. 생성형 AI로 이 모든 과정을 대체할 수 있게 된다는 것이죠. 앞으로의 광고 산업에 매우 큰 변화가 생길 것으로 보이는 순간이었습니다.

 

 

 

 

SA가 선정한 4개의 토픽으로 알아본 엔비디아의 키노트, 어떠셨나요? AI에 대한 배경지식을 쌓아 나가고, 관련 분야에서 근무하고 있는 분들이라면, 여유를 마련해서라도 젠슨 황의 키노트를 꼭 챙겨 들으시면 좋을 것 같습니다. AI의 개발과 운영에서 빼놓을 수 없는 ‘인프라’와 직결된, 그리고 시장을 선도하는 기업이 바로 NVIDIA라는 점에서, 충분히 가치 있는 시간이 될 거예요. 😊