인텔은 컨슈머 시장에서 오랫동안 줄곧 CPU 비즈니스만 해왔고 GPU는 CPU에 탑재한 내장 그래픽 정도만 있었습니다. NVIDIA와 AMD가 치열하게 경쟁했던 GPU 시장은 인텔은 크게 관심을 두지 않았던 반면, CPU 시장에서의 인텔의 위세는 실로 엄청났죠. 하지만 컨슈머 시장의 GPU, 게이밍 GPU 시장에서 2010년대 후반 NVIDIA GTX 10 시리즈 출시 이후 AMD는 영 힘을 못썼습니다. 그리고 지금까지도 게이밍 GPU 시장에서 NVIDIA는 독주나 다름없는 1강 체제를 공고히 다져왔는데요.
<이미지 출처: https://www.downtownjoshbrown.com>
이러한 NVIDIA의 위세는 데이터센터 GPU 시장까지 이어지고 있습니다. 일찌감치 NVIDIA Tesla GPU로 서버용 GPU 시장을 개척해왔던 NVIDIA는 2023년 ChatGPT를 필두로 한 생성형 AI, LLM의 붐으로 이제 기업 가치가 전 세계에서 가장 높은 수준의 기업으로 성장해 버렸습니다. OpenAI가 열어젖힌 AI 시장을 NVIDIA가 다 먹어버릴 기세죠.
자고로 바다에 물고기가 가득하면 금새 소문이 나서 낚시꾼은 물론이요 그물망을 갖춘 통통배들도 전국에서 몰려들기 십상입니다. 이렇게 물반 고기반인 것 처럼 보이는 AI 인프라 시장에 AMD가 먼저 NVIDIA에 도전장을 내밀었고, 인텔도 경쟁에 합세하는 모양새입니다. 그래서 이번 콘텐츠에서는 인텔이 어떻게 AI 가속기 시장에 뛰어들었는지, 인텔의 AI 가속기는 어느 정도 수준이고, 과연 경쟁에서 살아남을 수 있을 지 가늠해 보겠습니다. 목차는 아래와 같습니다.
콘텐츠 목차 |
1. AI 가속기 시장 본격 태동, 그리고 인텔® 가우디와 NVIDIA GPU의 서로 다른 행보 2. 인텔® 가우디® 3의 등장: 가성비로 무장한 AI 학습과 추론계의 강력한 도전자 3. NVIDIA 의존도를 줄이려는 시장의 움직임, 그리고 인텔에게 찾아온 기회 4. 인텔® 가우디의 활용 사례는 많이 있나? 인텔과 글로벌 기업들의 협력 5. 아직은 인텔의 미래가 장미빛이 아닌 이유는? 인텔에게 남은 과제들 |
|
이 콘텐츠는 인텔의 지원으로 제작되었습니다.
1. AI 가속기 시장 본격 태동, 그리고 인텔® 가우디와 NVIDIA GPU의 서로 다른 행보
<이미지 출처: Shearwater, Unlocking the Potential of AI and ML in Shaping the Future of Work>
ChatGPT가 쏘아올린 너무나도 큰 공으로 인해 작년부터 모든 IT 이슈는 AI가 죄다 빨아드리고 있는 형국입니다. 이에 맞물려 AI에 대한 기업들의 관심이 폭발적으로 증가하면서, AI 기반 워크로드를 원활하게 처리할 수 있는 데이터센터가 요구되고 있는데요. 과거 오랫동안 데이터센터는 대규모 데이터를 안정적으로 처리하는 데에 집중해 왔다면, AI 시대의 데이터센터는 이전과는 비교도 할 수 없을 만큼의 엄청난 데이터를 매우 빠르게 처리할 수 있는 역량을 필요로 합니다. 많은 데이터를 빨리 학습하는 것이 AI의 경쟁력을 가르는 열쇠거든요.
이런 상황에서 주모받은 것이 데이터센터 GPU입니다. CPU 보다 병렬 처리에 강점이 있는 GPU를 탑재한, 소위 GPU 서버들이 데이터센터에 입점하면서, 이전에는 생각지도 못했던 문제들이 하나 둘 씩 드러나고 있는데요. 대표적인 문제점이 GPU의 높은 가격으로 인한 너무나도 비싼 구축 비용, 그리고 CPU보다 배 이상 높은 전력을 소비하는 GPU가 서버 한 대에 몇장 씩 장착되고, 아예 8장씩 꽂아서 사용하는 AI 가속기의 등장에 데이터센터의 전력이 부족해 진 것이 새로운 문제로 떠오르고 있습니다.
<이미지 출처: Secret sauce investing, Nvidia and the AI Landscape>
하지만, 그럼에도 불구하고 AI라는 거대한 파도는 거스를 수 없는 대세가 되었습니다. 그래서 NVIDIA는 전 세계의 기업과 개인들에게 컴퓨팅 자원과 저장 공간, 나아가 AI 기반 서비스를 제공하려는 OpenAI, Meta, AWS, Microsoft, Google과 같은 통칭 하이퍼스케일러들에게 AI 광산에서 빠르게 좋은 AI를 캐낼 수 있는 AI 전용 삽을 대량으로 공급해 오고 있습니다. 그리고 인텔도 이 AI 광산에 딱 알맞은 또 하나의 삽을 들고 빅테크 기업들에게 구애를 보내고 있는데요. 그럼, 인텔은 어떻게 이 AI 삽을, 즉, AI 가속기를 만들게 된 걸까요?
1) Habana Labs 인수
<이미지 출처: 인텔, 인텔 Acquires Artificial 인텔ligence Chipmaker Habana Labs>
인텔은 2019년 AI 하드웨어 전문 기업인 이스라엘의 Habana Labs를 인수하며 AI 가속기 시장에 본격적으로 진입했습니다. 사실 인텔은 이보다 몇년 전인 2016년 8월로 거슬러 올라가, 당시 미국에서 가장 핫한 AI 반도체 기업인 Nervana Systems를 인수해 자사의 AI 부서로 편입시키고, 이후 2019년에 AI 학습 및 추론 전용 반도체인 Nervana NNP(Neural Network Processors)를 발표했죠.
그런데 이 NNP의 성능이 인텔의 기대만큼은 아니었던 것인지, 아니면 시장의 반응이 그다지 좋지 않았던 것인지는 확실치 않지만, 인텔은 돌연 2019년 12월에 Habana Labs의 인수를 발표하고, 이듬해 2020년 2월, Nervana NNP 개발을 중단하겠다고 발표합니다. Habana Labs의 AI 학습 및 추론을 위한 AI 가속기인 가우디의 성능이 그만큼 뛰어났기에, 차라리 이쪽에 집중하는 것이 낫겠다라고 판단한 것이 아닌가 싶습니다만, 어찌됐든 인텔은 미래의 AI 인프라는 NNP가 아닌 GPU 중심이 되는 쪽으로 배팅한 모양새입니다.
이 Habana Labs가 가진 가우디의 핵심 기술은 Tensor Processing Core(TPC)로, NVIDIA나 AMD가 만들어왔던 범용 GPU와는 다른 접근 방식을 취하고 있는데요. 그 특징을 간단히 요약하면 아래와 같습니다.
●AI에 특화된 연산 구조
TPC는 범용 GPU와 달리 AI 학습 및 추론에 최적화된 연산 아키텍처를 기반으로 설계되었는데요. 행렬 연산(MATOPS)을 가속화하며, 딥러닝 모델 학습과 추론에서 효율성을 높이는 데에 중점을 둔 아키텍처입니다.
●저전력 고효율 설계
범용 GPU가 고정밀도 연산(FP32, FP64)을 주로 지원하는 반면, TPC는 AI 워크로드에 보다 적합하다고 평가받는 저정밀도 연산(FP16, BF16)을 활용하여 전력 소모를 줄이고 성능 효율성을 높이는 쪽으로 설계되었습니다.
<이미지 출처: TechCrunch, Habana Labs launches its Gaudi AI training processor>
이러한 특징을 가지고 있는 가우디는 당시 NVIDIA의 데이터센터 GPU인 V100보다 AI 성능이 3.8배나 높다고 발표했는데요. GPU 당 성능이 3.8배 높다는 것은 아닙니다. 위 표를 보면 NVIDIA V100의 경우 프로세서의 수가 늘어나는 것 만큼 초당 이미지 학습량이 비례해서 증가하지 않는 반면, 가우디는 선형적으로 쭉쭉 늘어나서 프로세서 수가 650개 정도 되었을 때의 학습량이 3.8배 정도 벌어진 것을 확인할 수 있는데요.
당시 Habana Labs측의 주장에 따르면, NVIDIA GPU는 다수의 GPU를 연결하기 위해 NVLink라는 고유의 인터커넥트 기술을 사용했는데, GPU가 16개를 넘어가는 순간부터 병목 현상이 생겨 성능이 생각보다 늘어나지 않는다고 합니다. 하지만 가우디는 표준 이더넷 프로토콜 기반 RoCE v2 규격의 NIC를 장착했는데요. 그래서 100G 이더넷 스위치로 128개의 가우디를 연결해도 병목현상 없는 하나의 거대한 AI 인프라를 구축할 수 있다고 하는군요. 어찌됐든 설계상의 이점을 통해 성능 병목을 제거, NVIDIA V100보다 동일 프로세서 기준 3.8배에 달하는 이미지 학습량을 달성했다고 합니다.
<이미지 출처: 인텔, 인텔 Newsroom / Second-Gen Habana Gaudi2 Outperforms Nvidia A100>
그리고, 2022년 5월에 등장한 인텔 가우디 2 역시 위와 같이 8개의 가속기로 구성한 인프라에서의 ResNET-50 이미지 학습 시간과 트랜스포머 모델 기반의 NLP 처리 모델인 BERT 학습 시간에서 모두 당시 NVIDIA의 최상위 데이터센터 GPU인 A100을 제쳤습니다. 가우디 2의 성능이 이렇게나 뛰어난데, 그럼 왜 가우디 2는 주목을 받지 못했던 것일까요? 왜 대중들은 AI 가속기 하면 NVIDIA를 떠올리고 인텔 가우디는 알지 못했던 것일까요?
2) 혜성처럼 등장한 ChatGPT, 그리고 주목받기 시작하는 LLM
<이미지 출처: Forbes, What Does ChatGPT Really Mean For Businesses?>
2022년 11월 30일, 듣도 보도 못한 신생 회사에서 발표한 챗봇 하나가 전 세계를 들썩이게 만듭니다. 바로 OpenAI의 ChatGPT인데요. 이 챗봇은 OpenAI가 개발한 GPT(Generative Pre-trained Transformer)라는 언어 모델을 기반으로 동작하는 챗봇으로, 기존의 그 어떤 챗봇보다 뛰어난 성능을 보였습니다. 개똥같이 말해도 찰떡같이 알아듣고 척척 대답해주는 ChatGPT의 신통방통한 성능 덕분에 대중의 관심은 온통 ChatGPT와 GPT 모델로 이어졌죠.
사실 GPT 모델은 2017년 Google이 발표한 Transformer 딥러닝 아키텍처를 뿌리로 두고 있습니다. 이 Transformer 모델에서 파생된 BERT와 GPT는 둘 다 언어 모델이지만, 성격이 좀 다른데요. BERT(Bidirectional Encoder Representations from Transformers)는 양방향으로 문맥을 이해하는 데 강점이 있어 자연어 분석, 감정 분석 등에 주로 활용됩니다. 반면, GPT(Generative Pre-trained Transformer)는 자동 회귀 방식으로 텍스트를 생성하는 데 특화되어 있습니다. 그래서 ChatGPT와 같은 모델을 생성형 AI라고 부르는 것이고요. ChatGPT의 등장 이후, 대중의 관심은 자연스럽게 GPT 모델과 LLM(Large Language Model)으로 쏠렸습니다.
<이미지 출처: Microsoft Open Source, Large Language Model (LLM)>
그리고 OpenAI가 개발한 GPT는 통칭 LLM(Large Language Model)이라고 불리우는, 수천억 개의 파라미터를 학습해야 하는 모델입니다. 그리고 이렇게 많은 수의 파라미터를, 데이터를 학습하기 위해 중요한 것이 바로 메모리 용량인데요. OpenAI가 ChatGPT를 처음 출시했을 당시 사용된 모델은 GPT-3.5입니다. GPT 3.5는 OpenAI가 2020년 6월에 1,750억개의 파라미터로 구성된 언어모델인 GPT-3를 파인튜닝한 모델로 알려져있으며, 2022년 11월 오픈베타를 시작한 ChatGPT에 적용되었는데요. 여기서 주목할 숫자는 1,750억개라는 숫자입니다. GPT의 이름은 Generative Pre-trained Transformer죠? 사전 학습된 생성형 트랜스포머입니다. 사전에 데이터를 학습하고, 그 결과를 토대로 새로운 데이터를 생성해 내는 모델인 것인데요. 즉, 1,750억개나 되는 데이터를 학습했다는 의미입니다.
OpenAI가 개발한 GPT 모델은 수천억 개의 파라미터로 구성된 대규모 언어 모델로, 파라미터의 수가 많다는 것은 그만큼 많은 데이터를 학습할 수 있는 역량을 갖췄다라고 이해할 수 있습니다. 파라미터는 마치 뇌의 신경망과 같은 역할을 하는데, 파라미터의 수가 많으면 모델이 거대하다는 의미가 되고, 모델이 거대하다는 것은 그만큼 많은 데이터를 학습할 수 있다는 의미가 됩니다. 따라서, 일반적으로 파라미터 수가 많은 모델일 수록 많은 데이터를 학습해 보다 똑똑할 가능성이 높습니다. 하지만 무조건 파라미터 수가 많다고 좋은 것은 아닙니다. 중요한 것은 좋은 데이터를 잘 학습해야 하는 것이거든요.
<이미지 출처: SK하이닉스, SK하이닉스 뉴스룸>
일단 파라미터 수가 많은 거대 모델의 경우 이를 수용할 수 있는 많은 메모리 용량이 필요합니다. OpenAI가 2022년 11월 ChatGPT를 출시할 당시 적용한 모델은 GPT-3.5로, 이 모델은 1,750억 개의 파라미터로 구성된 GPT-3를 기반으로 파인튜닝한 버전으로 추정되는데요. AI 모델이 데이터를 학습하려면 데이터를 메모리에 올려야 하죠. 그리고 메모리 용량이 많으면 한 번에 학습할 수 있는 데이터의 양도 그만큼 늘어나게 됩니다. 메모리 용량이 많다 = 한번에 많은 데이터를 학습할 수 있다 = 대량의 데이터 학습 시간을 줄일 수 있다 라는 것입니다.
그럼 여기서 NVIDIA A100과 당시 경쟁하던 인텔 가우디 2의 사양을 확인해 봅시다. NVIDIA A100은 HBM2e 80GB를, 인텔 가우디 2 역시 HBM2e를 96GB나 장착했습니다. 인텔 가우디 2의 메모리 용량이 16GB나 더 많네요? 그럼 GPT와 같은 LLM 학습에는 인텔 가우디 2가 더 유리할텐데, 아쉽게도 OpenAI는 GPT 학습에 NVIDIA A100을 선택했습니다. 정확한 수량이 공개되지 않았지만, 수량이 1만대는 훨씬 넘고 2만대에 육박한다는 추정도 있었죠. 그럼, OpenAI는 왜 메모리 용량이 더 많은 인텔 가우디 2를 배제하고 NVIDIA A100을 선택했을까요? 여러가지 이유가 있겠지만, 저는 NVIDIA CUDA의 영향이 크다고 봅니다.
<이미지 출처: NVIDIA, NVIDIA Deep Learning Institute>
CUDA(Compute Unified Device Architecture)는 NVIDIA가 개발한 GPU 병렬 처리 연산을 지원하는 소프트웨어 플랫폼으로, C, C++ 같은 범용 프로그래밍 언어를 사용해 GPU를 딥러닝, AI 연구, 과학 연산 등 다양한 분야에서 활용할 수 있도록 지원합니다. NVIDIA는 CUDA를 2007년에 발표한 이후 꾸준히 발전시켜 왔으며, 미국의 주요 대학 CS(Computer Science) 학과에서도 CUDA를 활용한 병렬 프로그래밍 과목을 개설하도록 적극적으로 지원했다고 알려져 있습니다.
<이미지 출처: TensorFlow, GPU 지원 페이지>
그런데, 현재 AI 개발자들은 주로 TensorFlow나 PyTorch와 같은 프레임워크를 사용하여 개발합니다. 이들 프레임워크는 기본적으로 NVIDIA GPU를 지원하며, NVIDIA GPU를 활용하려면 CUDA Toolkit을 설치해야 합니다. 심지어 프레임워크 설치 시 기본값으로 권장되고 있죠.(TensorFlow 설치 가이드 참고) 이렇게 TensorFlow 및 PyTorch와 같은 프레임워크는 CUDA를 통해 NVIDIA GPU를 활용해서 AI 연산을 가속화할 수 있어 AI 개발에 NVIDIA GPU와 CUDA가 주요 선택지로 자리 잡게 되었습니다.
물론, OpenCL과 같은 오픈소스 플랫폼, AMD의 ROCm, 인텔의 HabanaLabs에서 제공하는 SynapseAI와 같이 NVIDIA GPU가 아닌 다른 AI 가속기를 사용할 수 있도록 지원하는 대안들도 존재합니다. AI 개발에 반드시 NVIDIA GPU를 활용하지 않아도 된다는 것이죠. 하지만, 현재까지 CUDA의 비중이 가장 높다는 점은 부정할 수 없습니다.
정리하면, ChatGPT가 NVIDIA A100로 학습했다는 사실이 밝혀지면서 LLM에는 NVIDIA GPU가 필수다 라는 인식이 퍼졌고, ChatGPT와 경쟁하기 위한 LLM을 개발하려는 하이퍼스케일러들을 비롯해 다양한 AI 테크 기업들은 앞다투어 NVIDIA GPU를 사들였습니다. ChatGPT로 촉발된 LLM에 대한 대중의 높은 관심, 그리고 NVIDIA가 CUDA에 오랜 기간 투자해 온 결실이 맺어져 현재와 같은 AI 가속기 시장에서 NVIDIA의 독주 상태가 완성된 것이라고 할 수 있습니다.
2. 가우디 3의 등장: 가성비로 무장한 AI 학습과 추론계의 강력한 도전자
<이미지 출처: 인텔 가우디 3 소개자료>
2024년 6월에 발표된 가우디 3는 TSMC 5nm 공정에서 제작되었는데요. 위와 같이 3개의 제품 라인업으로 구성되어 있습니다. 왼쪽부터 말씀드리면, HL-325L Accelerator Mezzanine Card는 OEM 파트너들이 제조한 보드에 1개부터 최대 8개까지 장착 가능한 모듈형 구조를 채택한 제품입니다. 그리고 가운데에 있는 HLB-325는 인텔이 설계 제조한 보드에 HL-325L 카드 8개가 장착되어, 8개 GPU 세트로 제공되는 제품이고요. 마지막 PCIe CEM은 일반적인 서버 보드의 PCIe 슬롯에 꽂아 사용하는 카드로, 최대 4개까지 장착할 수 있습니다.
중요한 것은, OAM 형태이든 PCIe 형태이든 폼팩터에 따라 성능 차이가 없다는 것입니다. 단지 OAM 폼팩터가 보드 당 최대 8개, PCIe 폼팩터는 보드 당 최대 4개 까지만 사용할 수 있다는 것만 다를 뿐입니다. 그래서 단일 시스템에서 소규모로 AI 연구를 수행할 때에는 PCIe 폼팩터가 알맞고, 향후 확장성까지 고려하는 경우라면 OAM 폼팩터가 제격입니다.
<이미지 출처: 인텔 가우디 3 소개자료>
가우디 3는 가우디 2에 비해 메모리 용량 및 대역폭이 향상됐고 PCIe 5세대를 사용합니다. 향상된 성능 덕분에 TDP도 600W에서 900W로 증가했는데, 공랭 방식 뿐만 아니라 수랭 방식도 지원해서 높은 발열을 제어할 수 있습니다.
<이미지 출처: 인텔 가우디 3 소개자료>
그럼, 앞서 살펴본 스펙 증가에 따른 성능 향상폭이 어느 정도 되는지 간단히 살펴볼까요? 가우디 3는 가우디 2에 비해 AI 성능 연산 성능 2배(FP8) & 4배(BF16), 네트워크 대역폭 2배, 메모리 대역폭은 1.5배가 향상되었습니다. 이러한 스펙 증가에 힘입어 NVIDIA GPU처럼 LLM과 같은 대규모 AI 모델을 처리할 수 있는 성능과 확장성을 갖추게 되었는데요. AI 벤치마크 결과는 잠시 후에 보도록 하고, 일단 NVIDIA H100, AMD MI300X와 간단히 스펙부터 비교해 보겠습니다.
1) 사양 비교: NVIDIA H100 vs AMD MI300X vs 인텔 가우디 3
<이미지 출처: 인텔 가우디 3 소개자료>
일단 사양만 놓고 보면 AMD MI300X가 가장 높습니다. 1등 AMD 2등 인텔 3등 NVIDIA처럼 보이는군요. 그 아래에 있는, AI 성능이 어느 정도인지를 가늠할 수 있는 BF16/FP16 연산 성능(FLOPS) 지표의 경우 NVIDIA와 AMDs는 Sparsity 기준 성능 지표를 제공하나 인텔 가우디 3는 Sparsity 연산을 지원하지 않습니다. 그래서 명확한 비교는 하기 어려운 것이 아쉽네요. 사실, 이번 콘텐츠의 주제가 AI 연산에 대한 것은 아니고, 저도 데이터 과학자 수준의 지식을 가지고 있는 것은 아니기에, 이 내용은 이쯤에서 갈음하고, 인텔이 공개한 벤치마크 지표를 통해 NVIDIA GPU와의 성능을 비교해 봅시다.
2) AI 모델 학습 및 추론 성능 비교: NVIDIA H100 & H200 vs 인텔 가우디 3
<이미지 출처: The Next Platform, Stacking Up 인텔 가우디 Against Nvidia GPUs For AI>
<이미지 출처: The Register, 인텔 가우디's third and final hurrah is an AI accelerator built to best Nvidia's H100, 클릭하면 커짐>
일단 비교적 파라미터 수가 적은 LLaMA 2 7B와 13B 모델 성능을 봅시다. FP8 형식으로 8개 가우디 3가 장착된 노드 1개, 그리고 16개가 장착된 노드 2개로 훈련했을 때 가우디 3는 LLaMA 2 7B는 1.5배, LLaMA 2 13B는 1.7배나 더 많은 초당 처리량을 기록했습니다.
그리고 GPT-3 175B와 같이 파라미터 수가 많은 대형 모델에서도 최대 1,024 노드로 8,192개의 GPU를 구성하고 FP8 형식으로 훈련했을 때의 TTT(Time to Train), 모델 훈련에 소요된 시간도 가우디 3가 H100보다 1.4배나 더 짧은 것으로 나타났습니다.
<이미지 출처: 인텔 가우디 3 소개자료>
그리고 추론 역시 위와 같이 LLaMA 2 70B 모델에서 가우디 3가 H100 대비 1.19배 더 많은 처리량을 기록했고, $당 추론 효율은 2배나 더 높다고 합니다. LLaMA 3 8B 처럼 더 작은 모델에서도 H100 대비 1.09배 더 많은 처리량에 1.8배의 뛰어난 추론 효율을 기록했네요. 가우디 3의 가성비가 H100보다 더 좋다는 것인데, 가격 부분은 뒤에서 다시 말씀드릴게요.
<이미지 출처: The Register, 인텔 가우디's third and final hurrah is an AI accelerator built to best Nvidia's H100, 클릭하면 커짐>
이번엔 NVIDIA H200과의 추론 성능 비교입니다. H200은 H100에서 메모리를 2배 가까이 늘려 141GB의 HBM3를 장착한 제품인데요. 앞서 말씀드렸듯이 메모리가 많으면 한번에 더 많은 양의 데이터를 훈련할 수 있으니 GPT와 같은 대형 모델에서는 메모리 용량이 매우 중요합니다. 훈련 뿐일까요? 추론에서도 많은 메모리가 있으면 더 많은 결과를 내놓을 수 있죠. 가우디 3는 128GB로 H200과 꽤 차이가 나는데요. 실제 벤치마크 결과는 어쨌는지 볼까요?
위 표와 같이 8개의 GPU를 장착한 1개 노드 기준으로 LLaMA 7B와 70B의 경우에는 아쉽게도 가우디 3가 H200 보다 성능이 떨어집니다. 하지만 큰 차이가 나지는 않는데요. 고무적인 것은 Falcon 180B를 4개 노드로 추론했을 때입니다. H200보다 2.3배에서 3.8배나 높은 성능을 기록했는데요. 이정도면 가우디 3의 추론 성능은 꽤 훌륭하다고 할 수 있겠죠?
<이미지 출처: 인텔 가우디 3 소개자료>
앞서 보신대로 NVIDIA H100과 비교해서 오히려 성능 우위를 점하고 있는 가우디 3는 위와 같이 단일 노드 구성부터 32 - 64 - 512 - 1,024 노드 구성까지 대규모 클러스터를 구성하더라도 성능이 선형적으로 증가합니다. 덕분에 기업은 활용하려는 AI 모델의 파라미터 수를 기준으로 어느 정도의 학습 및 추론 시간을 목표로 하고 있는지를 정해서 가우디 3 기반 클러스터를 구축할 수 있고요. 예상 성능을 예측할 수 있기 때문에 보다 계획적인 AI 인프라 구축이 가능하며, 이는 곧 AI 인프라 구축 프로젝트 비용을 최적화할 수 있다는 얘기가 됩니다.
만약, 예상보다 성능이 나오지 않을 경우 노드를 추가해야 하고, 노드를 추가했을 때 예상되는 성능이 가늠이 되지 않으면 얼마만큼의 노드를 추가해야 하는지 판단하기 어렵죠. 몇 십 몇 백 노드 규모의 GPU 클러스터를 구성하는 데에는 수백억 단위의 비용이 소요될 수 있을텐데, 예상 성능을 예측하기 어렵다? 그 프로젝트는 성공적으로 마무리되기 어려울겁니다. 이런 면에서 인텔 가우디 3의 선형적인 확장은 GPU 클러스터 구축을 준비하는 IT 인프라 담당자 입장에서 아주 중요한 요소가 될 수 있지 않을까요?
3) 비용 비교: NVIDIA H100 vs 인텔 가우디 3
그럼, 구체적으로 인텔 가우디 3는 NVIDIA H100보다 얼마만큼 저렴할까요? 2024년 6월 인텔이 발표한 내용에 따르면, 가우디 3 AI 가속기 8장이 장착된 UBB(Universal Base Board)의 가격은 $125,000으로, NVIDIA H100 GPU 8장을 장착한 HGX 보드와 비교해 2/3 수준이라고 발표했습니다. 개별 GPU 가격을 환산하면(물론 보드 값이 포함되어 있어 정확한 가격은 아닐테지만) $15,625 정도가 되겠군요. NVIDIA H100 GPU의 단일 가격은 $25,000 내외이고, 신제품 B100 GPU는 $30,000 정도로 알려져있으니 GPU 당 금액은 가우디 3가 H100, B100과 비교해서 절반 정도로 가성비가 아주 좋죠?
NVIDIA의 플래그쉽 제품인 GB200의 경우 Grace CPU와 B200 GPU가 합쳐져 대 당 가격이 무려 $60,000 - $70,000에 이를 것이라는 예측되고 있는 만큼, 인텔 Xeon 6 P 코어 프로세서와 가우디 3를 조합하더라도 인텔의 가격 경쟁력은 매우 뛰어난 편이라고 할 수 있겠습니다.
자, 이렇게 가우디 3의 스펙과 성능, 그리고 가격까지 확인해 봤습니다. 중요한 것은 가우디 3가 꽤나 준수한 성능을 보임과 동시에 가격까지 저렴해서 NVIDIA의 대안으로 손색이 없어 보이는데요. 이런 특징이 과연 시장에서 어느 정도 통할 수 있을까요? 그 가능성에 대해 좀 더 깊이 들어가 보겠습니다.
3. NVIDIA 의존도를 줄이려는 시장의 움직임, 그리고 인텔에게 찾아온 기회
AI 기술이 데이터센터와 클라우드 운영의 중심이 되면서, AI 인프라 시장에서 NVIDIA의 지배적 위치는 많은 기업에게 도전 과제가 되고 있습니다. NVIDIA의 고가 정책과 시장 독점은 NVIDIA를 전 세계 시총 1위 기업으로 올려놨지만, 기업들의 AI 인프라 비용의 급증을 초래했죠. 이로 인해 기업들은 AI 인프라 구축에 있어 비용 효율성을 따져보게 되었습니다. NVIDIA가 좋은 건 알겠는데, 해도해도 너무 한다는 인식이 확산된거죠. 이 때문에 AI 인프라 시장에는 탈 NVIDIA라는 바람이 감지되고 있습니다. 그 내용을 좀 더 구체적으로 살펴볼까요?
1) NVIDIA GPU의 가격 인상과 AI 인프라 비용 부담
<이미지 출처: The Verge, Chip race: Microsoft, Meta, Google, and Nvidia battle it out for AI chip supremacy>
출시된 지 2년차지만 여전히 NVIDIA AI 가속기의 주력인 H100 GPU는 수요가 공급을 웃도는 현상을 보여주고 있습니다. 이 때문에 NVIDIA H100 GPU의 가격이 폭등, 최근에는 대당 6천만원에 달한다는 기사가 나온바 있죠. 게다가 곧 본격적으로 출하될 것으로 예상되는 신제품 B200은 아예 NVIDIA가 공식적으로 이전 세대 대비 가격을 20% 이상 인상한 것 같은데요. 최근 공개된 서버 공급 업체의 가격에 따르면 NVIDIA B200 8개를 장착한 NVIDIA HGX-B200 1대의 가격은 51만 달러, 한화 약 7억원 수준으로 밝혀졌는데, 이 가격은 전 세대 HGX-H100의 40만 달러보다 20% 이상 비싼 금액이기 때문이죠.
이러한 가격 인상에도 NVIDIA가 배짱을 부릴 수 있는 이유는 역시나 엄청난 대기수요 덕분입니다. AI 경쟁에서 살아남기 위해, 빅테크 기업과 하이퍼스케일러들은 보유 중인 NVIDIA GPU를 계속해서 늘려나가고 있습니다. LLM의 파라미터 수 = AI 성능 수준이라는 세간의 인식이 여전히 존재하고 있기에, GPT와 같은 LLM 학습에 최적화된 성능을 자랑하는 NVIDIA GPU는 여전히 초 인기 제품이죠. 하지만, 가격 인상 폭이 도를 넘은 것 같습니다. 하이퍼스케일러들조차 다른 방향을 찾아야 하는거 아니냐고 입을 모으고 있는데, 일반 기업은 오죽 할까요. NVIDIA의 대안이 그 어느때보다 주목받고 있는 시기가 된 것입니다.
2) 하이퍼스케일러의 자체 칩 개발 시도
<이미지 출처: 티타임즈TV Youtube 채널>
앞서 전술한 대로, AWS, Google과 같은 하이퍼스케일러 기업들은 NVIDIA의 의존도를 줄이고, 비용 효율적인 AI 인프라를 구축하기 위해 자체 AI 칩 개발에 주력하고 있습니다. AWS는 자체 개발한 추론 용 Inferentia, 고성능 딥러닝 및 LLM 모델 학습 용 Trainium 칩을 통해 AI 추론과 학습 작업에서 비용 절감과 성능 최적화를 동시에 실현하기 위해 노력하고 있습니다.
그리고 Google은 2016년에 TPU(Tensor Processing Unit)을 출시, 2024년 5월 기준 V6e 까지 발전시킬 정도로 일찌감치 AI 학습 및 추론 성능 확보를 위해 많은 노력을 기울여 왔는데요. 사실 Google은 Gemini라는 자체 LLM 모델 훈련을 위해 이미 NVIDIA A100과 H100을 2만대 넘게 보유하고 있다고 알려져있죠. 하지만 점차적으로 자사의 TPU 비중을 높여 NVIDIA 비중을 낮추려는 시도를 꾸준히 할 것으로 보입니다.
Meta 역시 자체 AI 학습 및 추론 칩인 MTIA(Meta Training and Inference Accelerator) 2세대를 2024년 4월에 발표했는데, 1세대가 아닌 2세대인 것을 보면 앞으로도 지속적으로 발전시켜 나가겠죠? Meta는 전 세계에서 NVIDIA GPU를 가장 많이 보유한 것으로(2024년까지 35만대 보유 계획 발표) 알려져 있지만, 이렇게 자체 칩 개발을 포기하지 않는 것을 보면, 미래는 결국 탈 NVIDIA라고 인식하고 있는 것이 아닌가 싶습니다.
3) 반(反) NVIDIA 공감대와 인텔의 부상
NVIDIA의 가격 정책과 독점적 생태계에 대한 불만이 커지고 있지만, 그럼에도 불구하고 NVIDIA GPU에 대한 수요는 매우 높은 것이 사실입니다. 그래서 NVIDIA의 최신 데이터센터 GPU B200도 본격적으로 출하가 시작되면 모두 하이퍼스케일러에게 가버려서 일반 기업들은 당분간 이전 세대인 H100을 구입해야 하는 상황이죠. 그런데 이 H100 마저도 앞서 언급한 대로 가격이 꽤 올라버렸습니다. 그래서, 어차피 NVIDIA의 신제품 수혜를 받지 못하는 기업들, NVIDIA의 고 비용 정책이 부담스러운 기업들은 NVIDIA가 아닌 대안을 찾기 시작했는데요. 현재 시점에서 NVIDIA의 좋은 대체제로 각광받고 있는 곳은 단연 인텔이라고 할 수 있습니다.
<이미지 출처: Daum 뉴시스, 인텔, "엔비디아 H100 너무 비싸다"…대항마 '가우디3' 공개>
가우디 3는 은 지난 2024년 4월에 발표되어 3분기부터 고객에게 인도되고 있습니다. 앞서 가우디 3의 성능이 어느 정도인지, 가격은 얼마나 되는지 앞서 자세히 소개해 드렸었는데요. 지금까지의 내용을 토대로, 이제 AI 가속기 시장은 여전히 NVIDIA가 가장 앞서나가고 있긴 하지만, 인텔도 충분히 대체제로써 자리매김할 수 있는 가능성이 있다고 봐도 될 것 같습니다. 어쨌든 하이퍼스케일러들은 NVIDIA의 최 우선 고객이니 NVIDIA로부터 GPU를 공급받는 데에 큰 문제는 없을 테니까요.
하지만 중견 이하의 기업들은 상황이 다릅니다. 그들은 NVIDIA GPU가 너무 비싸서 도입하기 어려운 문제를 가지고 있지만, 웃돈을 주더라도 사지 못하는 안타까운 상황에 놓인 것도 사실이죠. 그래서 이들에게는 NVIDIA를 대체하면서, 비용과 성능 두 마리 토끼를 모두 잡을 수 있는 또 다른 옵션이 필요합니다. AI를 개발하기 위해 마냥 손놓고 NVIDIA가 GPU 줄 때까지 기다릴 수는 없는 노릇이니까요. 그 옵션으로 인텔 가우디 3가 적당하다는 것을 넘어 강력하게 추천할 수 있을 정도라는 것, 이제 잘 아시리라 생각합니다.
4. 인텔 가우디의 활용 사례는 많이 있나? 인텔과 글로벌 기업들의 협력
여러 번 언급했지만 GPU 기반의 AI 인프라 구축은 규모가 매우 큰, 비용이 많이 드는 프로젝트입니다. 그래서 IT 담당자 입장에서는 추진하는 데에 신중할 수밖에 없을텐데요. 그래서 이들은 검증된 NVIDIA를 도입하고 싶어 하겠지만, 가격이 너무 비싸 경영진의 승인을 받기 매우 어렵습니다. 그렇다고 AI 인프라 구축을 계속 미룰 수도 없는 노릇이죠. 그렇다고 인텔 가우디를 선택하자니 사례가 별로 없는 것 같아 불안합니다.
그래서, 이런 고민을 갖고 있는 분들께 도움을 드리기 위해 가우디의 사례를 잔뜩 가지고 왔답니다. 함께 볼까요?
1) IBM과의 긴밀한 협력
<이미지 출처: 인텔 and IBM Collaborate to Provide Better Cost Performance for AI Innovation>
IBM은 자사의 AI 및 데이터 플랫폼인 Watsonx에 가우디 가속기를 활용하고 있습니다. WatsonX의 학습과 추론 작업에서 비용 효율성을 가져가기 위함인데요. 추가로 IBM Cloud에서 가우디 3를 서비스로 제공하겠다고 발표했습니다. AI 인프라를 구축하기 전에 먼저 가우디 3를 테스트해 보고 싶은 기업들에게 알맞은 오퍼링이라고 할 수 있겠네요.
2) 그 외 글로벌 기업들의 가우디 활용 사례
<이미지 출처: 인텔 가우디 3 소개자료>
IBM 외에도 다양한 업종의 많은 글로벌 기업들이 인텔 가우디를 사용하기로 결정했는데요. 그 내용을 간단히 정리하면 아래와 같습니다.
●제조 - 보쉬(Bosch): 자체 AI 모델 개발 + 스마트 제조 환경으로의 전환을 위해 합성 데이터 셋 생성 및 자동 광학 검사 시스템 운영에 가우디 활용 결정
●서비스 - 올라/크루트림(Ola/Krutrim): 10개의 언어로 인도 최초의 생성형 AI 역량을 갖춘 기초 모델 훈련에 가우디 2 사용
●서비스 - 닐슨IQ(NielsenIQ): 자체 보유한 세계 최대의 소비자 구매 행동 데이터베이스에서 특정 분야별 대규모 언어 모델(LLM)을 가우디로 학습, 개인정보 보호 기준을 엄격하게 준수하면서 고객 서비스 향상 도모
●IT - 시커(Seekr): LLM 개발 및 생산 배포를 위해 인텔 Tiber Developer Cloud에서 가우디 2 활용 중
●통신 - 바르티 에어텔(Bharti Airtel): 자체 AI 역량 강화를 위해 보유 중인 대량의 통신 데이터 가우디로 학습
●인포시스(Infosys): 자사의 차세대 디지털 컨설팅 솔루션 Infosys Topaz에 생성형 AI를 접목시키 위해 가우디 2 사용
3) 글로벌 말고 국내 사례는? 가우디 국내 활용 사례
<이미지 출처: 인텔, 인텔 Newsroom>
2024년 4월, 네이버와 인텔은 AI 반도체 분야에서 협력을 발표했습니다. 네이버클라우드는 가우디를 활용해 자사의 LLM '하이퍼클로바X'의 학습 및 추론에 활용, AI 사업의 수익화를 자신하고 있습니다. 네이버는 인텔 Vision 2024 행사에서 연사로 나와 하이퍼클로바X를 탑재한 유료 클라우드 제품의 납품이 순조롭게 진행 중이며, 한국은행, 한국수력원자력, HD현대 등과의 협력을 통해 연내 사업적 성과를 발표할 계획입니다.
네이버는 현재 가우디 2를 테스트하고 있는데, 기대보다 성능이 뛰어나다는 피드백을 줬다고 합니다. AI 모델 학습 및 추론을 위해 GPU를 활용할 때 중요한 것은 메모리 사용률인데, 내부 테스트 결과 가우디의 메모리 사용 효율이 매우 높아 성능이 잘 나왔다는 후문입니다. 이런 기조가 유지된다면 조만간 가우디 3로 넘어가지 않을까요?
또한, 인텔과의 AI 칩 개발 협력이 차질 없이 진행되고 있으며, 이와 관련된 첫 매출도 발생했다고 합니다. 사실 네이버는 올해 1월 삼성전자와 협력해 AI칩 '마하 1' 개발을 추진했었죠. 이번 인텔과의 협력을 통해 네이버 자체 AI 칩 개발은 삼성전자가 아닌 인텔쪽으로 방향을 튼 것이 아닌가 싶습니다.
<이미지 출처: 카이스트 신문, 네이버·인텔, KAIST와 손잡고 공동연구센터에서 AI 생태계 혁신에 도전하다>
그리고, 2024년 5월에 네이버와 인텔은 KAIST와 함께 '네이버 - 인텔 - KAIST AI 공동연구센터(NIK AI Research Center)'를 설립하기로 합의했습니다. 이 센터는 AI 반도체와 서버, 데이터센터의 성능 개선을 위한 오픈소스 소프트웨어 개발을 목표로 하고 있는데요. KAIST 내부적으로도 AI 연구 수요가 많을텐데, 이를 위한 AI 모델 학습 및 추론 GPU로 가우디를 선택한 것입니다.
단, KAIST가 가우디를 사용해 AI 인프라를 직접 구축하는 것은 아니고, 네이버가 자사의 데이터센터에 가우디 기반의 AI 인프라를 구현 후 KAIST에 제공하는 형태로 진행된다고 합니다. 어쨌든 이번 협력으로 KAIST의 AI 및 소프트웨어 전공 교수진과 대학원생들이 참여해 한국의 AI 반도체 생태계 구축에 크게 기여할 수 있을 것으로 기대됩니다.
이번 협력을 통해, 네이버는 AI 서비스의 품질과 효율성을 높일 수 있으며, 인텔은 AI 반도체 시장에서 가우디의 입지를 강화할 수 있습니다. KAIST는 AI 연구 성과의 산업화를 촉진하고, 학생들에게 실질적인 연구 경험을 제공할 수 있게 되겠죠. 이번 협력이 성공적으로 마무리된다면 국내의 다양한 AI 스타트업과 연구기관들도 네이버-인텔이 제공하는 가우디 인프라를 활용할 수 있는 길이 열리지 않을까요?
5. 인텔에게 조금씩 열리기 시작한 AI 가속기 시장, 인텔에게 남은 과제는?
<이미지 출처: wccftech, NVIDIA To Dominate AI Share In 2024 With An Estimated $46 Billion In Data Center Revenue>
<데이터 출처: wccftech, EricFlaningam 예측치를 기반으로 재구성>
인텔 가우디 3는 AI 가속기 시장에서 NVIDIA와 경쟁하며 주목받고 있지만, 그래도 아직 갈 길이 멉니다. 위 장표 처럼, 여전히 NVIDIA는 저 꼭대기에 있고 AMD보다도 점유율이 낮거든요. Microsoft 기술 연구원 Eric Flaningam에 따르면 2023년 기준 NVIDIA의 데이터센터 GPU 매출은 약 50조원으로 AMD의 약 6,454억원, 인텔의 약 4,200억원을 아득히 앞서고 있습니다. 2024년 실적 역시 3사가 고르게 성장하고 점유율도 AMD와 인텔의 비중이 살짝 높아지는 정도인데요. 이 정도 차이면 사실 NVIDIA는 인텔을, 심지어 AMD도 경쟁 상대로 여기지 않을 것 같습니다.
그럼에도 불구하고 AI 가속기 시장은 앞으로 더 커질 것이고, NVIDIA는 계속 가격을 올릴 것이고, 반 NVIDIA 연대의 목소리를 더욱 커질 것입니다. 인텔 입장에서는 절호의 기회를 잡은 셈인데, 그 기회를 놓치지 않기 위해서는 각고의 노력이 필요하겠죠. 그 노력의 일환으로 고려해야 할 것들을 짚어보겠습니다.
1) 가우디 보급의 성공 열쇠, SynapseAI에 대한 지속적인 투자
<이미지 출처: 인텔 가우디 3 소개자료>
인텔의 SynapseAI 소프트웨어 스택은 가우디 GPU를 효율적으로 사용하기 위해 설계된 필수 도구로, GPU 성능 최적화와 AI 개발자들의 워크로드 처리를 돕습니다. SynapseAI는 NVIDIA의 CUDA와 마찬가지로, AI 프레임워크와 GPU 하드웨어 간의 상호작용을 지원하고 있죠.
그러나, NVIDIA GPU에서 가우디 GPU로 전환할 경우, CUDA 기반 코드의 일부 조정이 필요할 수 있습니다. 하지만 SynapseAI는 TensorFlow, PyTorch와 같은 주요 AI 프레임워크는 물론, Hugging Face와 같은 플랫폼과도 호환되기에, CUDA 기반 개발자들도 기존 코드를 상당 부분 재활용할 수 있어, 전환 과정의 부담이 점점 줄어들고 있습니다.
<이미지 출처: 인텔 가우디 3 소개자료>
자료의 해상도가 다소 떨어져 잘 안보이는데, 중요한 것은 CUDA 기반 코드의 전부를 다시 짤 필요가 없다는 것입니다. 3-5줄 정도만 수정하면 되는데요. PyTorch 프레임워크 기반에서 Python으로 개발한 코드의 경우 torch.cuda, torch.randn(device="cuda")와 같은 항목을 바꿔주면 되고요. API를 호출할 때에도 심플하게 import habana framework.torch.gpu.migration을 추가하는 것 만으로 CUDA 코드를 SynanpseAI로 손쉽게 가져올 수 있습니다. 그리고 PyTorch에서 코드를 처음 짤 때에도 가우디를 사용하기 위해 단 4줄의 간단한 코드만 추가하면 됩니다.
<이미지 출처: Habana Developer Blog>
하지만 최근의 인텔 3분기 실적 발표에서 2024년 가우디 매출 목표인 5억 달러를 달성하지 못할 것이라고 언급했는데요. 2024년 하반기 가우디 3의 출시에도 불구하고 실적이 부진한 것은 인텔 내부적으로, 그리고 인텔 주주들 입장에서도 다소 충격적인 결과라고 볼 수 있습니다. 그리고 인텔의 가우디 3 AI 가속기의 보급이 지연되는 주요 원인 중 하나로, SynapseAI 소프트웨어 스택이 가우디 3 아키텍처와의 호환성 문제를 겪고 있다는 지적이 있습니다.
가우디 3가 새롭게 출시되면서 가우디 2 대비 새로운 아키텍처와 기능이 대거 추가되었는데, 기존 SynapseAI의 업데이트와 최적화가 지연되어 가우디 3에 호환되지 않는 문제가 발생한 것으로 보인다는 국내외 미디어의 기사가 공개됐었죠.(국내 미디어 디일렉의 기사) 이러한 호환성 문제는 개발자들이 가우디 3를 활용하는 데 어려움을 초래할 수 있고, 이는 곧 가우디 3의 보급에 부정적인 영향을 미칠 수 있습니다. GPU만 바꾸면 되는게 아니니까요.
앞서 자세히 다뤘듯이, CUDA는 AI 시대에 NVIDIA의 데이터센터 시장 독주 체제를 완성시킨 장본인입니다. SynapseAI도 가우디 3 보급의 선봉장 역할을 하려면 이러한 문제가 반복되어서는 안되겠죠. 아마 인텔 내부적으로도 발빠르게 대응하고 있지 않을까 싶습니다.
2) 차세대 제품들의 차질없는 출시
인텔은 2025년 말, 차세대 GPU인 Falcon Shores의 출시를 계획하고 있습니다. Falcon Shores는 본래 CPU와 GPU를 합친 XPU 아키텍처로 개발되고 있었는데요. HPC 전용 GPU로 출시된 Ponte Vecchio의 후속제품으로 개발되던 Falcon Shores는 생성형 AI의 기반이 되는 LLM이 예상보다 큰 주목을 받게 되자 방향을 선회, GPU 전용 제품으로 개발하고 있습니다.
그래서 Falcon Shores는 가우디 3가 지원하지 못하는 FP64와 같은 고정밀도 연산까지 지원해 HPC와 AI를 모두 아우를 수 있는 차세대 GPU로 개발되고 있는데요. 가우디는 AI 가속기라는 명칭을 달고 나온, 명확하게 AI에만 집중하는 가속기죠. 그리고 Falcon Shores는 2025년 말을 목표로 인텔의 차세대 GPU로 개발되고 있는 모양새인데요. 가우디 3로 살려놓은 AI 가속기 시장에서의 불씨를 Falcon Shores가 이어받으려면 일단 예정된 로드맵대로 개발이 완료되어 출시하는 것이 무엇 보다 중요할 것입니다. 당연히 성능이 중요하겠지만 출시 시기가 지연된다면 경쟁사에게 고객을 빼앗길 수도 있을테니까요.
<이미지 출처: 인텔 가우디 3 소개자료>
지금까지 인텔의 AI 가속기, 가우디에 대해 자세히 알아봤습니다. 국내외 많은 미디어에서는 NVIDIA의 독주가 얼마 남지 않았다고, 앞으로는 추론이 대세라서 비싼 NVIDIA GPU를 사용할 필요가 없다고, 결국 폐쇄적인 생태계를 지향하는 NVIDIA는 마치 Apple처럼 1위 자리는 놓치지 않겠으나 점유율은 절반 이하로 줄어들 것이라고 이야기합니다.
하지만 스마트폰 시장에서 30% 남짓한 점유율을 차지하는 Apple은 엄청난 매출과 이익률로 다른 기업들을 멀찌감치 따돌리고 오랫동안 스마트폰 시장의 최강자로 군림하고 있습니다. NVIDIA의 데이터센터 GPU 시장에서의 지위는 Apple보다 더하죠. 이런 상황에서, 오픈 생태계를 추구하는 반 NVIDIA 진영이 NVIDIA의 점유율을 얼마나 잡아먹을 수 있을까요? 그리고 그 역할을 주도하는 곳이 인텔이 될 수 있을까요?
이제 막 가우디로 시장에 진입한 만큼, 아직은 가야 할 길이 까마득합니다. 하지만 국내외에서 가우디를 활용한 AI 프로젝트가 활발하게 진행 중에 있기에, 향후 전망은 밝아보입니다. 아시잖아요. 독점 체제가 오래되면 결국 소비자들만 피해를 본다는 것을요. 그동안은 NVIDIA의 점유율이 매우 높았으니, 이제 좀 나눠 가질 때도 된 것 같습니다. 반 NVIDIA 진영에서 인텔의 입지가 현 상태를 유지할 지, AMD를 제치고 의미있는 숫자를 만들어 낼 지 함께 지켜봅시다.
이렇게 인텔의 CPU부터 AI 가속기까지, 인텔 특집 콘텐츠가 마무리 되었습니다. 항간에 떠도는 이야기들, 그리고 국내외 각종 미디어에서 쏟아내는 방대한 기사들을 수집하고 비교, 정리하면서 저도 흥미로운 사실들을 많이 알게 되어 뜻깊은 시간이었지 않았나 싶네요.(사실 너무 고생했어요 엉엉)
여기까지 방대한 내용을 읽으시느라 고생하신 여러분들을 위해 위와 같이 이벤트를 준비했습니다. 많이 참여하셔서 당첨의 기회를 누리셨으면 좋겠고요. 이 콘텐츠가 AI 인프라에 관심이 많은 분들께 조금이나마 도움이 되었기를 바랍니다. 끝!
2개의 댓글이 있습니다.
참고하겠습니다.
Reply댓글 남기기
댓글을 남기기 위해서는 로그인이 필요합니다.
로그인 회원가입정보 참고하겠습니다. 감사합니다.
Reply댓글 남기기
댓글을 남기기 위해서는 로그인이 필요합니다.
로그인 회원가입