본문 바로가기
stock(주식)

피크 엔비디아

by 토이스 2021. 7. 14.

피크 엔비디아

Gorden Moore가 소개한 무어의 법칙은 반도체 분야에서 가장 잘 알려져 있고 상징적인 추세입니다. 이 전설적인 관찰은 업계에서 2년마다 트랜지스터 밀도를 두 배로 늘리도록 안내합니다. 최근 Nvidia는 "황의 법칙"(농담 아님)을 도입했습니다. AI 추론 성능이 매년 2배씩 증가한다고 합니다. Nvidia는 퍼스트 무버 및 소프트웨어 생태계 이점 외에 AI에서 더 이상 선두를 유지하지 않습니다. 회사가 경쟁자를 모방하기 시작하면 정점에 이르렀다는 신호일 수 있습니다. Nvidia의 천문학적 가치는 이를 더욱 확증합니다. 최근 암호화폐 과대 광고가 다시 줄어들면서 투자자는 2017년과 같은 또 다른 암호화폐 숙취에 빠지는 것을 방지하기 위해 주식을 피하거나 매도할 수 있습니다.

 

여전히 3배의 매출을 올리고 있는 인텔( INTC ) 의 시가 총액의 약 2 배. 포워드 P/S 20배 이상, P/E 51배 이상. 경쟁 심화(칩 부족). 암호화 고장 . 나는 투자자들이 이러한 모든 약세 신호를 액면 그대로 받아들이고 주식을 피하는 것이 좋습니다. 주식 보유자에게도 마찬가지로 차트를 보고 이익을 고정할 것을 투자자에게 제안합니다. Peak Nvidia( NVDA ) 에서 주식을 판매하십시오 .

 

나는 비교 전자는 팔의 인수를 발표 한 지난해 엔비디아와 인텔을. 간단히 말해서, 내 분석에 따르면 이 인수는 비즈니스 모델(라이선스 대 칩 판매)의 큰 차이를 고려할 때 시너지 효과가 거의 없을 것이라고 밝혔습니다. 게다가, 나는 또한 Nvidia가 Intel의 전략을 모방하기 시작했다는 것을 알아차렸습니다. 예를 들어 IoT에서 Arm과 함께 CPU 사업 자체 를 시작 하고 데이터 센터(Mellanox 포함)로 선회함으로써. 이미 반년 전에 인텔은 "데이터 중심" 회사가 될 것이라고 발표했습니다. 공정하게 말하자면, 이것이 올바른 전략이라고 결론지었으므로, 그런 관점에서 볼 때 두 회사가 CPU 또는 GPU에서 각각의 강점을 활용하면서 분명히 동일한 전략을 추구하는 것이 합리적입니다. 따라서 충돌 경로가 발생합니다. 예를 들어, 인텔은 GPU 분야의 리더가 되기 위해 6월에 가속 컴퓨팅 시스템 및 그래픽 그룹의 창설을 발표했습니다. 그럼에도 불구하고 나는 둘 다 차별화된 전략을 가지고 있지만 하나가 다른 것보다 현저히 저렴하여 투자 위험을 크게 줄인다는 점도 지적했습니다.

 

이제 Nvidia가 아직 모방을 완료하지 않은 것으로 보입니다. 그러나 먼저 몇 가지 추가 배경. 종종 과학과 기술에서 현상은 자연의 행동을 정당하게 발견한 사람의 이름을 따서 명명됩니다. 예를 들어, 상징적인 뉴턴의 법칙 또는 우주론의 호킹 복사. 이것은 중요한 기여에 대한 표창 역할을 합니다. 마찬가지로 Gordon Moore가 반도체 개선 속도에 대한 유명한 획기적인 관찰인 '무어의 법칙'을 만들어냈다면 놀라운 일이 될 것입니다. 그러나 그것은 Nvidia가 ' 황의 법칙 ' 이라는 것을 발명함으로써 정확히 한 일인 것 같습니다 . 이 법칙에 따르면 AI의 추론 성능은 매년 두 배로 증가합니다. 확실히, 저는 AI가 향후 10년 또는 그 이상 동안 데이터 센터 실리콘 시장의 가장 큰 성장 동인 중 하나로 널리 간주되기 때문에 AI가 Nvidia, Intel 및 Qualcomm ( QCOM ) 모두에게 창출하는 기회에 대해 광범위하게 논의했습니다.

 

이 기회는 빠른 개발과 하드웨어 발전으로 이어졌습니다. Nvidia의 그래프에서 알 수 있듯이 28nm에서 Kepler를 사용하여 2012년 이후로 칩의 INT8 성능을 (실제로) 두 배로 늘렸습니다. Nvidia가 강조하듯이, 이러한 발전의 대부분은 무어의 법칙 때문 이 아니 었습니다. 무어의 법칙은 28nm에서 20/16nm로, 그리고 7nm로(1.5노드 점프) 2.5배만 증가했습니다. 따라서 이 "법칙"은 주로 Tensor Core와 같은 아키텍처 개선으로 인해 유지되었습니다. Nvidia 는 또한 이 법이 곧 끝나지 않을 것이라고 밝혔 습니다. 이 법칙을 일관되게 유지하기 위해 NVIDIA는 W당 100조 ops 또는 100 TOPs의 정격 성능을 가진 신경망의 모듈식 생성기 가속기인 MAGNet 도구를 개발했습니다. 이는 시중에 나와 있는 어떤 가속기보다 10배 이상 높습니다.

 

언뜻 보기에 이 모든 것이 매우 인상적으로 보일 수 있습니다. 무어의 법칙(Moore's Law)이 더 많은 균열(Intel의 10nm 지연, TSMC( TSM )의 3nm에서 2.5년 케이던스) 을 보여주기 시작하는 동안 Nvidia는 두 배의 속도로 개선되는 새로운 법칙을 제시하고 있습니다. 그러나 이것은 놀라운 일이 아닙니다. 이를 마켓 풀(market pull)이라고 합니다. AI 전용 제품은 이것이 큰 시장 기회가 되었을 때 설계되었습니다. 다음 기사에서 설명하는 것처럼 AI(딥 러닝)의 현대 시대는 2012년에 시작되었습니다. 따라서 새로운 시장의 초기 개선이 더 성숙하고 발전된 세그먼트를 앞지르는 것은 이치에 맞습니다.

 

앞서 언급한 주요 돌파구인 2012 ImageNet Large Scale Visual Recognition Challenge(ILSVRC)는 이미지 인식을 위한 심층 신경망 사용을 결정짓는 순간이었습니다. Alex Krizhevsky가 설계한 CNN(Convolutional Neural Network)은 Ilya Sutskever 및 Krizhevsky의 PhD 고문인 Hinton과 함께 출판했으며 Imagenet 시각 인식의 기존 오류율을 15.3%로 줄였습니다. CNN은 "AlexNet"이라고 불렸습니다. 이 토론토 대학 팀은 경쟁에서 처음으로 75%의 정확도를 깨뜨렸습니다. AlexNet 논문은 CNN의 일종의 "커밍아웃 파티" 였기 때문에 머신 러닝 산업의 붐에 중요한 역할을 했습니다. GPU를 사용하여 모델을 교육하는 등의 새로운 기술과 현재 일반적으로 사용되는 드롭아웃 레이어 및 수정된 방법을 강조한 것입니다. 선형 활성화 단위(ReLU).

 

그 이후로 더욱 복잡한 딥 러닝 모델이 개발되었으며 Google( GOOG ) 과 같은 대기업에서도 널리 배포되기 시작했습니다 . 따라서 갑자기 AI는 데이터 센터와 에지에서 새롭고 중요하며 빠르게 증가하는 워크로드가 되었습니다. 이로 인해 회사와 실리콘 밸리 신생 기업의 완전히 새로운 시대는 AI를 겨냥한 칩을 개발하게 되었으며 2015년 Google의 TPU가 가장 주목할만한 예입니다. 2016년 인텔은 데이터센터와 엣지 AI를 위해 너바나와 모비디우스를 각각 인수했다. 이것은 또한 CPU에 DLBoost가 도입된 Intel의 "AI-everywhere" 전략의 시작과 AI 최적화 FPGA 의 출시를 의미했습니다

 

그러나 이것은 AI와 AI 하드웨어에 투자한 것이 Nvidia만이 아니라는 것을 보여줍니다. AI가 GPU에서 시작된 이유는 GPU가 CPU보다 더 많은 원시 성능(초당 작업)을 제공하고 전용 NPU(신경 처리 장치)가 아직 없었기 때문입니다. 그럼에도 불구하고 Nvidia가 주로 채택된 곳은 주로 모델의 추론 또는 배포 이전에 발생하는 AI 모델 개발의 훈련 부분입니다. 즉, CPU를 기준으로 추론한 인텔의 시장 점유율은 실제로 엔비디아보다 높다. 예를 들어 2019년 이 기사에서 인텔이 데이터 센터에서 이길 것을 요구한 기사에서 확인되었습니다 .

 

또한 (재 용도화된) GPU 대신 전용 가속기의 존재와 최근 출현은 GPU가 AI에 전혀 최적이 아님을 보여줍니다. 예를 들어, 이번 5월 AnandTech와의 인터뷰 에서 업계 베테랑 Jim Keller는 Nvidia의 접근 방식을 "중간자"라고 부릅니다.

 

엔비디아는 여전히 인텔과 비슷한 수준 (데이터 센터) AI에 대한 실리콘의 가장 높은 시장 점유율과 수익 사이에서 가지고 있지만 그래서 하나의 결론으로, 기술의 측면에서 틀림없이 실제로 엔비디아의 용도가 수정 된 GPU 전략은 이미되었습니다 제치고 더 진보 된 방법에 의해 . 따라서 그런 의미에서 Nvidia가 달성한 속도 향상의 대부분은 단순히 AI 전용 실리콘에 대한 시장의 견인 때문에 Nvidia가 GPU의 용도를 변경하게 된 것입니다. 이것은 GPU가 전통적으로 그래픽 워크로드에 최적화되었기 때문에 AI 이전 시대의 Kepler GPU보다 훨씬 더 뛰어난 성능을 가능하게 했습니다. GPU에는 그래픽 작업을 위한 다양한 기타 실리콘 회로도 포함되어 있습니다.

 

Nvidia는 AI의 중요성을 인식하고 특히 AI를 위한 최적화( CPU 측면에서 Intel의 DLBoost 와 어느 정도 유사)를 추구했습니다 . 특히 Nvidia는 그래픽 워크로드에 대한 모든 인접 기능을 없애고 대신 AI가 필요로 하는 매우 밀집된 컴퓨팅 유닛을 제공하는 Tensor Core를 도입했습니다. 혁신을 요약하자면:

 

Nvidia의 베이스라인인 Kepler는 INT8(8비트 숫자 형식)도 지원하지 않으며 대신 성능은 당시 GPU의 일반 32비트 부동 소수점 성능을 나타냅니다. 근사적으로 회로 영역은 2차적으로 확장됩니다. 즉, 32비트는 8비트보다 16배 정도 더 비쌉니다. INT8은 2016년 Pascal(P100)에서만 도입되었습니다. 그래프에서 알 수 있듯이 그 전에는 4년 동안 2배 미만의 속도 향상이 달성되었으며 이는 '황의 법칙'에 명시된 것보다 훨씬 낮습니다. 파스칼은 또한 스마트폰 GPU 공간에서 온 기능인 FP16(훈련용)을 도입했습니다. Tensor Core는 2017년 Volta V100에 도입된 Nvidia의 전용 AI 장치로 성능을 20TOPS에서 125TOPS로 6배 향상했습니다. Volta의 Tensor Core는 FP16만 지원합니다. Turing은 정밀도가 낮은 2세대 Tensor Core를 도입했습니다. 2020년에 Nvidia는 7nm로의 도약을 통해 3세대 Tensor Core가 탑재된 Ampere A100을 출시했습니다. 최소한 이 기능을 사용할 수 있는 네트워크에서 2배의 성능 향상을 제공하기 위해 "희소성"에 대한 지원이 도입되었습니다.

 

이 개요에서 알 수 있듯이 대부분의 이점은 기존 GPU에는 없는 전용 Tensor Core의 도입을 통해 달성되었습니다. 따라서 Nvidia는 속도 향상의 일부만이 무어의 법칙 때문이라고 주장하지만 가장 최근의 A100에서 FP16 Tensor Core 성능은 312 TFLOPS입니다. 이는 V100과 A100 사이의 3년 동안 2.5배의 이득이며 16nm에서 7nm로의 밀도 향상과 거의 동일합니다. 이것은 아니요, Nvidia가 실제로 FP16 성능에서 무어의 법칙을 이길 수 없었음을 나타냅니다. 그런 다음 312 TFLOPS에서 1248 TOPS로 이동하려면 FP16에서 INT8(2x)로 이동한 다음 Nvidia도 모든 경우에 사용할 수 없다고 인정하는 희소성 기능(2x)을 사용합니다(Nvidia는 희소성이 있거나 없는 경우). A100은 INT4도 지원하므로 2배 더 빨라집니다.

 

즉, 이러한 Tensor Core는 일회성 트릭이었고, 따라서 개선 속도는 프로세스 기술의 개선으로 되돌아갔습니다(무어의 법칙). INT8에서 INT4로 가는 것도 일회성 트릭입니다. 또한 Nvidia의 Huang's Law 그래프는 INT8 성능을 보여주지만 해당 그래프의 대부분의 GPU는 INT8도 지원하지 않습니다. AI의 성장은 AI에 최적화된 제품과 기능을 도입하게 된 것입니다. 그러나 이러한 기능을 정규화할 때 AI 성능은 실제로 무어의 법칙을 아주 깔끔하게 따랐습니다. 마지막으로 위에서 언급했듯이 AI에서 Nvidia의 우위는 주로 훈련 부분에서 비롯됩니다. 훈련에서는 16비트가 주로 사용되며 INT8의 경우 이보다 작은 형식은 사용되지 않습니다.

 

더 높은 성능을 위한 이러한 기술은 무어의 법칙을 기반으로 하지 않기 때문에 성능 향상을 위한 일회성 트릭(예: 더 작은 숫자 형식, 전용 단위, 희소성)임을 의미합니다. 물론 유효한 아키텍처 혁신입니다. 그러나 그들은 상당한 이익을 남기고 실제로 영향력 있는 트릭이 남지 않게 되기 전까지만 갈 수 있습니다. 그렇게 되면 황의 법칙이 2년마다 2배씩 빨라질 것이라고 예측할 수 있습니다. 그러나 그것은 (인텔의) 무어의 법칙일 뿐입니다. 이것은 실제로 인텔이 2018 아키텍처의 날에서 보여준 것입니다.

 

인텔은 처음에 전용 AI 가속기(빨간색 선)가 GPU에 비해 ​​1회성 속도 향상을 달성할 것으로 예상했지만, 추가 진화는 다른 제품과 마찬가지로 무어의 법칙을 더 밀접하게 따릅니다. 그러나 공정하게 말하자면, 황의 법칙에 관한 추론을 위해 연구는 이미 더 진행되었습니다. 따라서 Nvidia가 말한 것처럼 "황의 법칙"이 매년(2년마다 대신) 2배로 끝나는 것은 실제로 여전히 몇 년이 걸릴 수 있습니다. 예를 들어, 전력 효율성을 높여 성능을 훨씬 더 높일 수 있는 훨씬 더 이국적인 혁신이 연구 및 경로 찾기에 있습니다. 연구 중인 일부 영역에는 더 낮은 정밀도(최대 1비트), 메모리에 가까운 컴퓨팅, 메모리 내 컴퓨팅, 심지어 아날로그 컴퓨팅이 포함됩니다. 다음은 AI 효율성의 스냅샷입니다

 

CPU는 Intel의 DLBoost를 사용해도 0.1 TOPS/W에 이르지만 GPU와 전용 가속기는 1 TOPS/W 이상을 달성합니다. 예를 들어, 400W를 가정하면 Nvidia의 A100은 INT8에 대해 2 TOPS/W의 효율성을 갖습니다. 대조적으로 인텔의 10nm NNP-I는 5 TOPS/W를 달성했고 Qualcomm의 Cloud AI 100도 비슷한 효율성을 달성했습니다. 연구에 있는 더 '이국적인' 기술은 100 TOPS 또는 그 이상을 달성할 수 있습니다. 예를 들어, Intel은 컴퓨팅 근거리 메모리 연구 칩을 설명했습니다 . 물론 연구에서 상용화까지의 격차가 큰 경우가 많아 언제, 어떤 기술이 도입될지는 보장되지 않는다.

 

CPU는 AI에서 왕으로 남아 있습니다. 사실, Intel과 CPU가 AI의 왕이라고 주장할 때마다, 이것을 의심하고 대신 Nvidia를 AI의 확실한 리더로 내세우는 Nvidia 황소의 군단이 있는 것 같습니다. 확실히 Nvidia는 AI 교육(AI 모델 생성)의 왕입니다. 그러나 CPU는 AI 추론(모델 사용)에서 여전히 왕입니다. 증거 또는 예로서, 아래는 훈련 및 추론 전반에 걸친 Facebook( FB )의 AI 배포입니다.

 

Facebook은 모든 AI 추론 작업과 일부 교육에 CPU를 사용합니다. 인텔의 DLBoost 최적화에 대한 지속적인 투자를 감안할 때 이것도 변경되지 않을 것입니다.

 

재정 제 생각에는 Nvidia가 AI의 혜택을 받는 가장 크거나 심지어는 유일한 회사라는 오해가 있습니다. Intel은 실제로 거의 일치합니다. 위에서 언급한 바와 같이 AI 시장과 워크로드는 AI 모델 훈련과 AI 모델 사용(추론)으로 나뉩니다. Nvidia의 데이터 센터 수익은 주로 교육의 우수성으로 인해 분기당 10억 달러 정도입니다. 인텔의 AI 수익은 추정하기가 더 어렵습니다. 그러나 인텔이 2019년에 제공한 최신 데이터는 모든 비즈니스에서 38억 달러였습니다. 즉, 이 수치에는 IoT 및 Mobileye와 같은 엣지에서의 AI 수익도 포함됩니다. 2018년에는 데이터 센터에서만 이미 거의 20억 달러였습니다. 정확히는 아니지만 38억 달러라는 수치는 인텔이 이미 1년 전에 분기당 10억 달러 정도의 수익을 창출했음을 의미합니다. 이 숫자는 아마도 그 이후로 증가했을 것입니다. 어쨌든 AI의 미래에 대한 이전 섹션도 설명하기 위한 것이었으므로 AI와 딥 러닝에 대해 조만간 약세를 보일 이유가 없습니다.

 

Nvidia는 '황의 법칙(Huang's Law)'을 발명함으로써 기존 GPU에서 최신 GPU에 이르기까지 속도와 효율성 면에서 놀라운 속도 향상을 달성했다고 자평했습니다. 법에 명시된 바와 같이 INT8 추론 성능은 매년 한 번 속도로 두 배로 증가했으며 Nvidia는 이 법이 한동안 더 지속될 것으로 예상합니다. 그러나 논의된 바와 같이 투자자들은 Nvidia의 "법"이 매우 오해의 소지가 있다는 것을 알고 있어야 합니다. 첫째, Nvidia의 구형 GPU는 이 새로운 시장에 대한 시장 수요로 인해 도입된 INT8과 같은 기능조차 지원하지 않습니다. 둘째, GPU에 전용 AI Tensor 코어를 배치함으로써 Nvidia는 본질적으로 GPU를 AI 가속기로 용도를 변경했습니다.

 

순전히 재정적 관점에서 볼 때 Nvidia의 접근 방식은 다소 효율적일 수 있지만(두 개의 매우 다른 시장을 처리하기 위해 하나의 칩만 개발하면 됨) 성능 관점에서 볼 때 "모든 거래의 대가" 종류의 칩이 될 수 있습니다. . 또한, 전용 AI 실리콘도 만든 말 그대로 수십 개의 신생 기업( Intel의 Habana 포함 ) 이 있기 때문에 Nvidia가 이러한 성능을 달성할 수 있었던 유일한 회사는 아닙니다 . 레거시 GPU 기능 없이. 마찬가지로 Intel은 DLBoost를 도입하고 소프트웨어를 개선하여 CPU 성능을 수백 배 향상시켰습니다. 이로 인해 인텔은 AI와 관련성이 높은 상태를 유지했으며 실제로 수익 측면에서 비슷한 규모를 달성했습니다. 2020년에 Intel은 AI Tensor Blocks가 포함된 Stratix 10 NX FPGA도 출시하여 성능이 15배 향상되었습니다. Nvidia의 Tensor Core와 유사한 이득을 다시 얻습니다.

 

또한 업계와 학계에서 많은 다른 혁신이 연구되고 있습니다. 이는 무어의 법칙보다 더 높은 비율로 개선을 계속할 수 있는 추가 경로를 제공할 수 있습니다. 처음 10년 동안 무어의 법칙은 매년 2배의 속도로 진행되었습니다. 따라서 이러한 산업 발전을 황의 법칙이라고 부르는 것은 거의 의미가 없습니다. Nvidia는 전용 NPU가 개발되기 전에 GPU가 CPU보다 빨랐기 때문에 우연히 AI를 발명하지 않고 단순히 AI를 자본화했습니다. 아마도 일부 공적으로 Nvidia는 AI(Tensor Cores)에 최적화된 실리콘을 최초로 상용화하여 모든 신생 기업(Google의 TPU 제외)을 제치고 시장에 출시했습니다. 그럼에도 불구하고 Nvidia는 이 작업을 수행하는 유일한 회사가 아니므로 Nvidia의 CEO에게 만들어진 용어를 정당화하는 선구자라고 할 수 없습니다. 마지막으로, AI에서 Nvidia의 지배력은 대부분 훈련에 기반을 두었고 지금도 마찬가지입니다. 추론하지 않습니다. Huang의 법칙이 실제로 무엇에 관한 것인 추론에서 CPU는 여전히 왕입니다. 따라서 황의 법칙은 정말로 당시 인텔의 CEO였던 크르자니크의 법칙이라고 불러야 할 것입니다.

 

그 대신 인텔의 Raja Koduri의 2018년 제안, 즉 우리가 지금 '아키텍처 시대'에 있다는 것을 보증하고 싶습니다. Nvidia가 최소한 동의하는 것처럼 성능과 효율성을 지속적으로 개선할 수 있도록 아키텍처의 중요성이 커지고 있습니다.

 

피크 엔비디아 논의한 바와 같이 Nvidia는 데이터 센터와 IoT의 에지에서 기회를 추구하고 Arm과 함께 CPU 사업을 시작하는 Intel의 전략을 점점 더 모방하기 시작했습니다. 물론 이것은 다른 회사들이 동일한 (성장) 기회를 보고 있으며 AI와 같은 이러한 새로운 시장에서 경쟁하고 있음을 나타냅니다. 그럼에도 불구하고 Nvidia는 Huang's Law라는 것을 도입 하여 모방 게임의 정점에 도달 했을 수 있습니다 . 다른 사람들이 AI 속도를 높이는 성과를 인정할 때까지 기다리지 않았습니다. 그러나 Nvidia는 그 어느 때보다 높은 AI 성능을 추구하는 유일한 기업이 아니므로 Nvidia가 이에 대한 공로를 인정받아야 하는 기업인지는 실제로 의심스러워 보입니다. 예를 들어 Qualcomm은 최근 Nvidia 를 뛰어 넘었 습니다. 

 

Nvidia가 이를 위해 정점에 도달했을 수 있다는 사실은 이 글을 쓰는 시점에 천문학적으로 ~$500B까지 오른 시장 가치에서도 볼 수 있습니다. 이것은 매출과 수익이 몇 배 더 높은 Intel의 약 2배일 뿐만 아니라 ~20x의 Forward P/S 비율과 ~51x의 P/E를 나타내므로 SaaS 회사와 매우 유사합니다. 물론 Microsoft( MSFT ) 와 비교할 때 Nvidia는 "단" ~1.5배 정도 과대평가될 수 있으며, 적어도 Mellanox 인수와 암호화폐 붐을 흡수하는 동안에는 성장도 더 높습니다. 그럼에도 불구하고 시장은 성장 속도가 느린 경쟁업체인 Intel도 P/E의 10배에 불과하다고 평가하고 있습니다. 이것이 인텔이 과소 평가되었다는 것을 의미하는지 여부에 대해 논쟁할 수 있습니다. 그러나 두 번째 경우에 시장은 결실을 맺을 수도 있고 그렇지 않을 수도 있는 엄청난 성장에 가격을 책정하고 있습니다. 이것은 Nvidia의 하방 위험이 크다는 것을 의미합니다

 

실제로 과거에는 Nvidia에 대한 투자와 관련하여 이미 몇 가지 주의 사항이 포함되어 있습니다. 몇 년 전, 암호화폐와 관련하여 유사한 과대 광고 사이클이 있었습니다. 그 여파로 Nvidia의 성장이 무너졌고 주가도 하락하여 가치의 절반을 잃었습니다. 그런 일이 다시 발생하고 지난 몇 달과 몇 분기 동안 암호화폐에 대해 생성된 모든 과대 광고를 투자자들에게 상기시키는 것 외에는 아무 것도 예측하려고 시도하지 않을 것입니다. 그러면 Nvidia는 이후 대부분의 이익을 잃을 수 있습니다. 2020. 한편 AMD의 RDNA2 및 CDNA2 도입으로 경쟁도 크게 높아져 AMD가 경쟁력을 되찾게 되었습니다. 자금이 넉넉한 완전히 새로운 경쟁업체도 인텔과 함께 게임 및 AI(훈련) 데이터 센터 사업에 진출하고 있습니다. Intel의 실행은 상대적으로 더뎠지만, 새로운 CEO Pat Gelsinger는 Intel의 투자를 늘려 페달을 밟고 있습니다.

 

의심의 여지 없이 게임과 특히 AI는 계속 성장할 것이지만, 이는 의미 있는 시장 점유율 하락의 가능성을 제시하여 Nvidia의 성장을 둔화시킵니다. Nvidia의 ~60% 총 마진도 보여주듯이 선두적인 실리콘에 대해 매우 높은 프리미엄을 부과하고 있습니다. Pat Gelsinger의 "모든 범주에서 확실한 리더십"(2024-2025년까지)의 목표가 실현되고 고객이 더 저렴한 Intel 실리콘으로 이동할 경우 이러한 마진은 상당한 압박을 받을 수 있습니다. 이것은 Nvidia에 대한 헛된 위협이 아닙니다. Amazon( AMZN ) AWS는 곧 출시할 Intel Habana 인스턴스가 Nvidia 인스턴스에 비해 교육 비용이 40% 더 높다고 이미 주장했습니다. Habana의 16nm 실리콘과 Nvidia의 7nm 실리콘을 비교한 결과, Nvidia의 AI 칩이 GPU 용도 변경이라는 기사에서 일부 기술적인 논의가 입증되었습니다. 또한 Intel의 Ponte Vecchio(TSMC의 최신 및 보다 발전된 5nm에서 제조된 것으로 가정)는 지금까지 가장 많은 실리콘 칩 중 하나로 널리 인정받고 있습니다.

 

위험 요컨대, 약세 주장의 주요 위험은 Nvidia가 계속 성장하는 한 Nvidia 주주들이 주식의 천문학적 가격을 지불하는 데 무관심할 수 있다는 것입니다. 이를 위해 칩 부족은 수요가 높고 계속 성장할 것으로 예상되기 때문에 회사에 대한 강세 신호로 볼 수 있습니다. 논쟁의 요점은 가격을 정당화하기 위해 성장이 장기적으로 얼마나 강한지를 유지하는 것입니다. Nvidia 투자자들은 데이터 센터 성장을 촉진하기 위한 지속적인 AI 확산에 힘입어 수년 간의 지속적인 성장을 기대하고 있습니다. Arm 및 Mellanox와 같은 인수로 인한 추가 성장; 곧 자기 운전 교통 혁명 ; 게임과 같은 레거시 비즈니스. 이러한 성장 부문이 논의된 것처럼 Intel과 같은 경쟁업체도 추구하고 있다는 점에는 의심의 여지가 없습니다. 'Peak Nvidia'는 오히려 시장 가치를 나타냅니다.

 

그러나 '피크 Nvidia' 이론에 대한 위험은 그러한 가능한 주식 수축이 발생하기 위해 경쟁업체가 상당한 시장 점유율을 차지해야 하고 일반적인 시장 성장도 상쇄해야 한다는 것입니다. Tensor Cores와 같은 기능의 빠른 도입에서 알 수 있듯이 시장 리더로서 Nvidia가 실제로 일어날 정도로 혼란을 일으킬 수 있는지 의심스러울 수 있습니다. 또한 경쟁업체가 훨씬 더 나은 제품(예: Qualcomm Cloud AI 100, Habana 또는 Intel의 Ponte Vecchio)을 출시할 수 있다고 해도 Nvidia가 시장 점유율을 크게 잃을 것이라는 보장은 없습니다. 예를 들어, CPU에서 AMD는 이미 몇 년 동안 주도적인 위치를 차지하고 있지만 데이터 센터에서는 여전히 10% 미만의 시장 점유율을 가지고 있습니다. 이는 시장 리더가 실제 기술 리더인지 여부에 관계없이 상당한 관성으로부터 이익을 얻는다는 것을 보여줍니다. 따라서 일반적으로 Nvidia가 주요 부문에서 Intel과 마찬가지로 CPU에서도 유사한 위치를 유지한다면 단순한 관성으로 인해 다른 사람들이 시장 점유율을 방해하는 것을 막을 수 있습니다.

 

투자자 테이크어웨이 경쟁 심화의 불가피한 경로에 있는 두 개의 주요 반도체 회사(Nvidia 및 Intel)의 일반적인 논제는 9월에 설명된 대로 계속 진행되고 있습니다. 더 최근에는 전설적인 무어의 법칙과 비교하여 "황의 법칙"을 발명함으로써 Nvidia의 오만함이 절정에 달했을 수도 있다고 여기에서 주장했습니다. 마찬가지로, 너무 확고한 주식 예측을 하지는 않겠지만, Nvidia의 밸류에이션도 최고점에 도달했다는 주장이 있을 수 있습니다. 이를 위해 반드시 AI(업계에서 가장 밝은 성장 전망 중 하나로 남아 있음)가 아니라 암호화 과대 광고가 지금부터 몇 분기 안에 주식에 문제를 일으킬 수 있습니다.

댓글