2025년 11월 25일

Nvidia에 대한 Google의 Silent Kill Shot(그리고 소유해야 하는 5가지 AI 주식)

🇰🇷 한국어 번역

Nvidia에 대한 Google의 Silent Kill Shot(그리고 소유해야 하는 5가지 AI 주식) 매일의 --- H.E.A.T. Torching Wall Street의 쓸모없는 플레이북.주 5일 귀하의 편지함으로 바로 배송됩니다. 구독 홈 게시물 Nvidia에 대한 Google의 Silent Kill Shot(그리고 소유해야 하는 5가지 AI 주식) Nvidia에 대한 Google의 Silent Kill Shot(그리고 소유해야 하는 5가지 AI 주식) 2025년 11월 25일 저는 44년 동안 트레이더이자 투자자였습니다.나는 오래 전에 월스트리트를 떠났습니다. 그들의 쓸모없는 조언은 당신이 아니라 그들에게 이익을 주기 위한 것임을 깨달았습니다. 현재 우리 회사는 약 50억 달러 규모의 ETF를 관리하고 있는데 나는 누구에게도 대답하지 않습니다.투자자를 속이려는 것은 그들에게도, 나에게도 도움이 되지 않기 때문에 나는 진실을 말합니다. 데일리 --- H.E.A.T., 재난에 대비하고, 우위를 찾고, 비대칭 기회를 활용하고, 월스트리트가 따라잡기 전에 주요 테마를 타는 방법을 보여줍니다. ❝ 저는 "커버드콜 ETF가 형편없는 이유와 대신해야 할 일"이라는 제목의 웹세미나를 12월 9일 오후 2~3시에 주최할 예정입니다. (자세한 내용은 아래 참조) 여기에서 가입하세요 목차 --- H.E.A.T.--NVDA에 대한 Google의 Silent Kill Shot 뉴스 vs. 소음: 오늘날 시장을 움직이는 요인 내가 보고 있는 주식 커버드콜 ETF가 형편없는 이유와 대신해야 할 일 --- H.E.A.T. 오랫동안 나는 주요 주제에서 확실한 승자를 고르는 방법의 예로 NVDA를 사용해 왔습니다.경쟁과 의심이 나타나기 시작하면서 점점 더 방정식의 명백한 부분에 균열이 생기기 시작했습니다.오늘 우리는 경쟁에 대해 이야기합니다… Google 대 Nvidia: 이 AI 전쟁의 실제 승자는 누구입니까? 시장은 마침내 반은 기대하고 반은 무시했던 것을 얻었습니다. 실제 AI 제품 내에서 Nvidia를 대체할 수 있는 신뢰할 수 있는 생산 규모의 대안입니다.Google의 Gemini 3는 또 다른 "재미있는 챗봇"이 아닙니다.타사 벤치마크를 통해 주요 추론 작업에서 OpenAI의 최신 모델보다 성능이 뛰어난 것으로 평가되는 주력 모델입니다. 그리고 Nvidia GPU가 아닌 Google 자체 TPU에서 엔드 투 엔드 교육을 받았습니다. 그것이 중요한 부분입니다.Alphabet은 "AI를 놓쳤을 수도 있습니다"에서 "가장 성능이 좋은 Mag7 이름"으로 바뀌었습니다. 올해 최대 68% 상승했으며 시가총액 4조 달러를 향해 나아가고 있습니다. Broadcom, Celestica 및 Lumentum은 TPU 공급망 가격이 재조정되면서 더 높은 비명을 지르고 있습니다. 한편 Nvidia는 여전히 최고 수익과 수익에 가까워졌지만 이야기는 깨졌습니다. 이번 달 주가가 거의 10% 하락했고 우리는 투자자들이 더 저렴하고 효율적인 AI를 실현한 또 다른 "DeepSeek 순간"을 보았습니다. 이다 Nvidia 이외의 하드웨어에서는 가능합니다. 내부적으로 이것은 단지 Google 대 Nvidia가 아닙니다.그것은 하이퍼스케일러와 상용 실리콘 .Google, Meta, OpenAI 등은 자체 가속기를 설계하기 위해 경쟁하고 있으며 Broadcom 및 유사한 파트너를 사용하여 이러한 설계를 대규모 맞춤형 ASIC으로 전환하고 있습니다. Google의 Ironwood TPU는 이제 7세대로 출시되었으며 범용 GPU보다 저렴한 비용과 전력으로 대용량 추론에 최적화되었습니다. Meta는 자체 데이터 센터를 위해 수십억 달러 상당의 Google TPU를 구매하는 데 박차를 가하고 있는 것으로 알려졌습니다. 이는 Nvidia와 자체 GPU로 Meta를 구애해온 AMD의 활을 직접적으로 겨냥한 것입니다. 해당 거래가 성사되면 더 이상 'Google 워크로드를 위한 Google의 사내 칩'에 대해 이야기하지 않습니다.우리는 GPU 전용 클라우드를 약화시킬 수 있는 가격 대비 성능을 갖춘 제3자에게 판매되는 두 번째 AI 하드웨어 플랫폼에 대해 이야기하고 있습니다.이것이 Nvidia와 AMD가 헤드라인에서 매도한 이유이며 수십억 달러의 Nvidia GPU를 임대한 Oracle이 갑자기 모든 TPU 슬라이드 데크의 십자선에 등장한 이유입니다. 구글이 실제로 엔비디아를 '추월'할 수 있을까? 순전히 시가총액 기준으로 보면 이미 타이트해지고 있습니다.이번 조치 이후 Nvidia와 Alphabet 간의 격차는 몇 달 만에 가장 작은 약 5000억 달러로 줄어들었습니다. 현재 규모로 보면 기본적으로 Nvidia에게는 나쁜 한 달이고 Google에게는 좋은 한 달입니다.만약 당신이 나에게 그것을 핸디캡으로 설정한다면: 나는 다음과 같이 말할 것입니다. 향후 12~24개월 내에 Google이 시가총액에서 Nvidia보다 잠깐 거래되는 것을 볼 가능성이 매우 높습니다. , Nvidia가 "죽기" 때문이 아니라 투자자들이 한 회사가 모든 AI 경제학을 얻는다는 생각을 다시 평가하기 때문입니다. 내가 훨씬 더 보수적인 곳은 인프라 지배력 .Nvidia는 여전히 대규모 교육 스택(CUDA, cuDNN, 라이브러리, 개발자 마인드 공유)을 보유하고 있으며 하이퍼스케일러부터 중국 거대 기술 기업까지 모두가 구매하려고 줄을 서고 있는 H 클래스 GPU 로드맵을 보유하고 있습니다. Google의 TPU, 그리고 더 광범위하게는 맞춤형 ASIC이 훨씬 더 큰 위협입니다. 추론 경제학과 가격 결정력 Nvidia의 단기 교육 볼륨보다Google이 더 저렴한 실리콘에서 최첨단 모델을 실행할 수 있다는 것을 더 많이 입증할수록 전체 생태계는 "Nvidia가 요구하는 대로 지불"에서 "토큰당 비용을 끊임없이 최적화"하는 것으로 더 많이 전환됩니다.그것이 Nvidia를 죽이지는 않지만, 마진 스토리가 얼마나 미치게 될 수 있는지를 제한합니다. 승자와 패자, AI 스택에 대한 의미 승자 가능성 알파벳(GOOGL / GOOG) – 풀 스택 AI(Gemini + 검색 + 클라우드) 그리고 믿을만한 하드웨어 이야기.일부 분석가들은 독립형 TPU/DeepMind 사업의 가치를 1조 달러에 가깝게 평가하고 있으며 올해 주가가 이미 1조 5천억 달러에 달했습니다. 브로드컴(AVGO) – 맞춤형 ASIC 웨이브에서 가장 깨끗한 순수 플레이.Google의 TPU만으로도 Broadcom의 연간 수익이 100억 달러를 넘을 수 있으며, Jefferies는 이제 AI ASIC 파이프라인을 바탕으로 Nvidia를 제치고 최고 준결승으로 선정했습니다. Google 공급망(CLS, LITE 등) – Celestica, Lumentum 및 동료들은 새로운 AI 플랫폼이 승리할 때 무슨 일이 일어나는지 실시간으로 보여줍니다. 하이퍼스케일러가 800G/광 및 가속기 보드를 확장함에 따라 큰 비트 앤 레이즈 쿼터와 두 자릿수 원데이 팝이 발생합니다. 기타 맞춤형 실리콘 및 네트워킹 이름(MRVL 등) – Marvell 및 유사한 플레이어는 동일한 구조적 추세를 따릅니다. 하이퍼스케일러는 하나의 판매자 공급업체가 모든 경제성을 포착하도록 허용합니다.ASIC + 팻 네트워킹은 이제 모든 클라우드의 플레이북입니다. 실제 AI 수요를 갖춘 하이퍼스케일러(MSFT, AMZN, META) – 하드웨어 경쟁이 치열할수록 Nvidia, 맞춤형 ASIC 및 자체 설계를 서로 경쟁시키면서 더 많은 AI 제품에 더 낮은 단가를 전달할 수 있는 대규모 구매자의 삶이 더 좋아집니다. 패자 가능성이 있는 기업(또는 최소한 "덜 확실한 승자") 엔비디아 (NVDA) – 여전히 기본 훈련 플랫폼이지만 "대안이 없다"는 이야기는 사라졌습니다.지금까지 살펴본 내용은 다음과 같습니다. DeepSeek은 더 저렴한 하드웨어에서 진지한 모델을 실행하고 하루 만에 Nvidia에서 거의 6000억 달러를 닦아냅니다. Google은 전적으로 TPU를 사용하여 프론티어 모델을 학습시킵니다. 하이퍼스케일러는 공개적으로 대안을 모색하고 있습니다. 그렇다고 Nvidia가 성장할 수 없다는 의미는 아닙니다.이는 상승 경로에는 가장 낙관적인 AI 형제가 기대했던 것보다 더 많은 경쟁과 덜 무한한 가격 결정권이 포함된다는 것을 의미합니다. AMD (AMD) – 어려운 상황에 빠졌습니다. GPU에서 Nvidia의 점유율을 빼앗으려고 합니다. 정확한 순간에 대형 구매자들은 일부 작업 부하를 ASIC으로 옮기고 있습니다.Google/Meta 뉴스가 나오면 AMD는 Nvidia와 함께 매각합니다. Nvidia는 시장에서 증가하는 달러가 어디로 향하고 있다고 생각하는지 알려줍니다. GPU를 많이 사용하는 리셀러(예: Oracle, 일부 클라우드 리셀러) – 귀하의 해자가 "우리는 Nvidia를 대량으로 구입하여 임대했습니다"라면 이제 추론당 비용이 더 낮은 Google 스타일 AI 클라우드와 Broadcom과 같은 파트너와 함께 자체 가속기를 가동하는 Meta/OpenAI의 전망에 직면하게 됩니다. 실제 수입 없이 AI에 대해 피크 버블 배수를 지불하는 사람 – 저렴한 컴퓨팅 세상은 사용자에게는 좋지만 가장 취약한 비즈니스 모델에는 적합하지 않습니다.더 많은 가치가 플랫폼(Google, Microsoft, Amazon)과 맞춤형 실리콘 지원자(Broadcom, Marvell)로 흘러간다면 더 투기적인 "AI 래퍼"가 충격 흡수 장치가 됩니다. 그렇다면 이 설정에서 "필수"는 무엇입니까? 투자 조언은 아니지만, 내가 투자를 하고 있다면 이 새로운 단계를 위한 AI 인프라 바스켓 , 내 핵심은 다음과 같습니다. 알파벳(GOOGL / GOOG) – 당신은 다음을 얻습니다: 최고급 프론티어 모델(Gemini 3), TPU 스택과 해당 실리콘을 외부에 판매할 가능성이 커지고 있습니다. 검색/YouTube/광고를 수익화 레일로 활용합니다. 가장 확실한 'AI의 승자' 플러스 수요 유입 경로의 소유자입니다.” 엔비디아 (NVDA) - 법원이 붐비기 때문에 왕을 내쫓을 수는 없을 것 같아요.교육에는 여전히 엄청난 양의 범용 컴퓨팅이 필요하며 지금까지의 모든 효율성 혁신은 결국 더 AI 워크로드가 줄어들지 않습니다.Nvidia는 시간이 지남에 따라 일부 가격 결정권을 잃을 가능성이 높지만 AI TAM이 내구성이 있다면 둘 다 성장하고 약간 저하되어 여전히 괜찮을 수 있습니다. 브로드컴(AVGO) – 이는 Google의 TPU, OpenAI가 발표한 가속기, 기타 하이퍼스케일러의 ASIC 및 고급 네트워킹 등 맞춤형 실리콘 혁명을 위한 무기 판매점입니다.단일 모델 승자를 선택할 필요 없이 “미래는 특수 실리콘이다”에 베팅하는 가장 깔끔한 방법입니다. 그런 다음 그 핵심을 중심으로 고려해 보겠습니다. 더 높은 베타 위성 적절한 크기: Celestica(CLS) 및 Lumentum(LITE) "TPU + 광학 + 800G" 빌드아웃을 표현하는 방법입니다. 마벨(MRVL) 맞춤형 가속기 및 데이터 센터 네트워킹을 위한 Google 외 하이퍼스케일러. 하나 또는 두 개의 플랫폼 이름(MSFT, AMZN, META) 따라서 당신은 단지 하나의 칩 공급업체가 아닌 광범위하게 AI를 오랫동안 사용하고 있습니다. 큰 그림: Google은 Nvidia가 최첨단 AI를 대규모로 수행할 수 있는 유일한 방법이 아니라는 사실을 입증했습니다. 이는 Nvidia의 신화에는 좋지 않지만 Nvidia의 신화에는 반드시 나쁜 것은 아닙니다. 사업 기회가 보이는 것만큼 크다면 말이죠.여기서 실제 거래는 "승자 한 명을 선택하는 것"이 ​​아니라 "칩에 어떤 로고가 있든 상관없이 지불받는 플랫폼과 배관을 소유하는 것"입니다. 뉴스 vs. 소음: 오늘날 시장을 움직이는 요인 오늘에는 뉴스 대 소음 , 시장이 가장 선호하는 새로운 판타지에 대해 이야기해 보겠습니다. 세 번째 12월에 “보험”이 삭감되었습니다.12월에 잠시 중단하면 1월에 인하가 거의 확실해지기 때문에 12월 인하가 장기적으로 얼마나 중요한지는 잘 모르겠습니다.그러나 지난주의 약점 중 상당수는 아마도 12월 확률에 대한 재평가였을 것입니다. 따라서 연준의 모든 피벗은 아마도 산타클로스 랠리를 원하는 사람들에게 좋은 신호일 것입니다. 흥분이 다시 폭발한 것은 충격적이면서 동시에 완전히 브랜드에 맞는 것입니다.12명으로 구성된 FOMC는 사실상 분리되어 있습니다.Miran, Waller, Williams, Jefferson(그리고 아마도 Bowman)은 공개적으로 금리 인하를 편안하게 받아들이고 있는 반면 Musalem, Schmid, Goolsbee, Collins, Barr – 그리고 그의 최근 논평에 따르면 Powell 자신은 – 보유 쪽으로 기울고 있습니다.쿡 주지사는 그 중간에 갇혀있습니다.이달의 새로운 정치적 유행어(“저렴성 위기”)를 추가하면 연준이 독립적인 기술 기관이라기보다는 의회처럼 보이기 시작하는 이유를 알 수 있습니다. 이 논쟁을 터무니없게 만드는 것은 거시적 배경이다.연준은 이미 3분기 GDP의 ~4%에 해당하는 25bp의 "보험" 인하를 두 번 실시했으며, 실업률은 4.4%(여전히 지난 77년간 전체 수치의 ~3/4보다 낮음)이고 핵심 CPI는 약 3%입니다. 이는 우리가 본 적이 없는 수준입니다. 가까운 2021년부터 목표를 세웠습니다. 게다가 민간 신용 분야에서 거품과 투기 행위의 조짐이 커지고 있습니다.4분기 약점은 대부분 정부 폐쇄와 정책 채찍질을 통해 자해될 것입니다.이에 맞서 파월의 동맹국(윌리엄스, 댈리)은 이제 공개적으로 12월 조치를 위한 토대를 마련하고 있으며 노동 시장 약화가 더 큰 위험이라고 주장하고 "지금 삭감한 후 보유" 전략을 암시하고 있습니다.불완전한 데이터와 여전히 높은 인플레이션을 배경으로 세 번째 인하를 논의하고 있다는 사실이 실제 이야기입니다. 이는 연준이 3% 인플레이션을 새로운 표준으로 받아들이는 방향으로 얼마나 멀리 표류했는지 보여줍니다. 테이크아웃 위원회가 분열되었습니다. 12월은 파월이 어느 세력의 편에 서기로 결정했는지, 그가 얼마나 많은 반대 의견을 용납할 것인지만큼 "데이터"에 관한 것이 아닙니다. 시장은 다음과 같이 반응하고 있습니다. 연설 , 통계가 아닙니다. 칠레에서 열린 한 번의 비둘기파적인 윌리엄스 연설은 12월 배당률을 ~40%에서 ~80%로 뒤집고 주식을 더 높이는데 충분했습니다.그것은 새로운 정보가 아닌 순수한 이야기입니다. 우리는 이미 보험 삭감 영역에 있습니다. GDP 4%, 실업률 4.4%, 근원 인플레이션 3%에 대한 두 번의 삭감은 "데이터 의존적"이 아니며, 구조적으로 더 높은 인플레이션을 용인하는 방향으로 정권을 바꾸는 것입니다. “경제적 위기” = 인플레이션 피로. 정치인들은 유권자들이 3% 이상의 인플레이션을 싫어한다는 사실을 마침내 발견했습니다.연준은 암묵적으로 이를 받아들일 수 있다는 신호를 보내고 있습니다.그 격차는 분노와 정책 오류가 존재하는 곳입니다. 잘라내기와 보류는 어느 쪽이든 나쁜 선택입니다. 12월 인하: 위험 자산의 단기 설탕 최고치, 인플레이션 신뢰성에 더 큰 손상. 1월까지 보류: 시장 드라마가 더 많아지지만 적어도 분위기보다는 실제 데이터에 반응하고 있습니다. 포지셔닝 렌즈: 12월 컷을 다음과 같이 처리합니다. 이미 가격이 책정되었습니다 위험 자산에서.진정한 우위는 새로운 반응 함수를 이해하는 데 있습니다. 연준은 2% 인플레이션 수준에서 순조롭게 실행하는 것보다 노동 시장과 자산 가격을 보호하는 것을 조용히 선호합니다. 내가 보고 있는 주식 오늘의 주식은 파워 인테그레이션스(POWI)입니다… 포위 합리적인 기본 사례 평가를 통해 AI가 선택하고 삽질하는 플레이입니다.10일 이동 평균에서 잠재적인 언더컷과 랠리를 찾으세요. 당신이 월스트리트의 게임에서 이길 수 있도록 내가 도울 수 있는 다른 방법 H.E.A.T 내부월간 웹 세미나 시리즈입니다. 아래에서 이번 달 웹 세미나에 등록하세요… 커버드콜 ETF가 형편없는 이유와 대신해야 할 일 12월 9일 화요일, 오후 2~3시(EST) 커버드콜 ETF는 어디에나 있으며 모두가 횡보장에서 수익률을 모으는 "안전한" 방법을 찾았다고 생각합니다. 진실? 그들 대부분은 빨아. 그들은 당신의 상승세를 제한하고, 실제로는 "수익률"로 투자자를 오도합니다. 자기 돈이 다시 돌아오는데 , 그리고 종종 단지 주식을 소유하고 있는 트레일 마일 단위로. 이 자금이 실제로 어떻게 작동하는지, 그리고 대신 무엇을 해야 하는지에 대한 잔인하고 솔직한 분석에 참여하세요. 당신이 배울 내용: 🔥 왜 "고수익률" 커버콜 ETF는 종종 단지 자신의 자본을 반환 📉 대부분의 통화 작성 전략이 복리를 조용히 파괴하는 방법 🚫 강세장에서 커버드 콜을 소유하는 것이 무거운 조끼를 입고 마라톤을 달리는 것과 같은 이유 💡 이러한 문제를 해결할 수 있는 간단한 구조, 그리고 실제 일일 소득 기회가 숨어 있는 곳 여기에서 가입하세요 모든 권리 보유. 계속 읽으세요 게시물을 찾을 수 없습니다 더 보기 캐럿 오른쪽 0

🇺🇸 English Original

Google’s Silent Kill Shot on Nvidia (And the 5 AI Stocks You Have to Own) THE DAILY --- H.E.A.T. Torching Wall Street’s Obsolete Playbook. Delivered straight to your inbox 5 days a week. Subscribe Home Posts Google’s Silent Kill Shot on Nvidia (And the 5 AI Stocks You Have to Own) Google’s Silent Kill Shot on Nvidia (And the 5 AI Stocks You Have to Own) Nov 25, 2025 I’ve been a trader and investor for 44 years. I left Wall Street long ago—-once I understood that their obsolete advice is designed to profit them, not you. Today, my firm manages around $5 billion in ETFs, and I don’t answer to anybody. I tell the truth because trying to fool investors doesn’t help them, or me. In Daily --- H.E.A.T. , I show you how to Hedge against disaster, find your Edge, exploit Asymmetric opportunities, and ride major Themes before Wall Street catches on. ❝ I’m hosting a webinar entitled “Why Covered Call ETFs Suck and What to Do Instead” (More Info Below) December 9 2-3pm. Sign Up Here Table of Contents --- H.E.A.T.--Google's Silent Kill Shot to NVDA --- News vs. Noise: What’s Moving Markets Today --- A Stock I’m Watching Why Covered Call ETFs Suck-And What To Do Instead --- H.E.A.T. For a long time I have used NVDA as an example of how to pick the obvious winner in a major theme. More and more, cracks are starting to form in the obvious part of that equation as competition and doubts start to emerge. Today we talk about some competition….. Google vs. Nvidia: Who Actually Wins This AI War? The market finally got the thing it’s been half‑expecting and half‑dismissing: a credible, production‑scale alternative to Nvidia inside a real AI product. Google’s Gemini 3 isn’t just another “whizzy chatbot.” It’s a flagship model that third‑party benchmarks say outperforms OpenAI’s latest on key reasoning tasks and was trained end‑to‑end on Google’s own TPUs, not Nvidia GPUs. That’s the part that matters. Alphabet has gone from “maybe they missed AI” to “best‑performing Mag7 name,” up ~68% this year and pushing toward a $4 trillion market cap, with Broadcom, Celestica, and Lumentum screaming higher as the TPU supply chain gets repriced. Nvidia, meanwhile, is still near peak revenue and earnings, but the narrative has cracked: its stock is down almost 10% this month and we just watched another “DeepSeek moment” where investors realized cheaper, more efficient AI is possible on non‑Nvidia hardware. Under the hood, this isn’t just Google vs. Nvidia; it’s hyperscalers vs. merchant silicon . Google, Meta, OpenAI and others are racing to design their own accelerators and using Broadcom and similar partners to turn those designs into custom ASICs at scale. Google’s Ironwood TPU is now on its seventh generation, optimized for high‑volume inference at lower cost and power than general‑purpose GPUs. Meta is reportedly kicking the tires on buying billions of dollars’ worth of Google TPUs for its own data centers, a direct shot across Nvidia’s bow and even AMD’s, which has been courting Meta with its own GPUs. If that deal happens, we’re no longer talking about “Google’s in‑house chip for Google workloads.” We’re talking about a second AI hardware platform, sold to third parties, with price/performance that can undercut GPU‑only clouds. That’s why Nvidia and AMD sold off on the headlines and why Oracle—sitting on billions of dollars of Nvidia GPUs it rents out—is suddenly in the crosshairs of every TPU slide deck. Can Google actually “overtake” Nvidia? In pure market‑cap terms, it’s already getting tight. After this latest move, the gap between Nvidia and Alphabet has shrunk to roughly half a trillion dollars, the smallest in months. At current sizes, that’s basically one bad month for Nvidia and one good month for Google. If you force me to handicap it: I’d say there’s a better‑than‑even chance we see Google briefly trade above Nvidia in market cap sometime in the next 12–24 months , not because Nvidia “dies,” but because investors re‑rate the idea that one company gets all of the AI economics. Where I’m much more conservative is on infrastructure dominance . Nvidia still owns the training stack at scale—CUDA, cuDNN, libraries, developer mindshare, and a roadmap of H‑class GPUs that everyone from hyperscalers to Chinese tech giants is still lining up to buy. Google’s TPUs, and custom ASICs more broadly, are a much bigger threat to inference economics and pricing power than to Nvidia’s near‑term training volumes. The more Google proves you can run frontier‑class models on cheaper silicon, the more the whole ecosystem shifts from “pay whatever Nvidia asks” to “optimize relentlessly for cost per token.” That doesn’t kill Nvidia, but it does cap how crazy the margin story can get. Winners, losers, and what it means for the AI stack Likely Winners Alphabet (GOOGL / GOOG) – Full‑stack AI (Gemini + Search + Cloud) and a credible hardware story. A stand‑alone TPU/DeepMind business is being valued by some analysts near $1 trillion, and the stock has already added ~$1.5 trillion in market cap this year. Broadcom (AVGO) – The cleanest pure‑play on the custom‑ASIC wave. Google’s TPUs alone could be >$10B in annual revenue for Broadcom, and Jefferies has now crowned it their top semi pick over Nvidia on the back of that AI ASIC pipeline. Google’s supply chain (CLS, LITE, others) – Celestica, Lumentum and peers are showing you in real time what happens when a new AI platform wins: big beat‑and‑raise quarters and double‑digit one‑day pops as hyperscalers ramp 800G/optical and accelerator boards. Other custom‑silicon & networking names (MRVL, etc.) – Marvell and similar players ride the same structural trend: the hyperscalers are done letting one merchant vendor capture all the economics. ASIC + fat networking is now the playbook at every cloud. Hyperscalers with real AI demand (MSFT, AMZN, META) – The more competition in hardware, the better life is for large buyers who can pit Nvidia, custom ASICs, and their own designs against each other while passing lower unit costs into more AI products. Likely Losers (or at least “less obvious winners”) Nvidia (NVDA) – Still the default training platform, but the “no alternative” narrative is dead. We’ve now seen: DeepSeek run a serious model on cheaper hardware and wipe almost $600B off Nvidia in a day, Google train a frontier model entirely on TPUs, and hyperscalers openly exploring alternatives. That doesn’t mean Nvidia can’t grow; it means the upside path involves more competition and less infinite pricing power than the most optimistic AI bros hoped. AMD (AMD) – Caught in a tough spot: it’s trying to claw share from Nvidia in GPUs at the exact moment big buyers are shifting some workloads to ASICs. When Google/Meta news hits, AMD sells off alongside Nvidia, which tells you where the market thinks the incremental dollars are headed. GPU‑heavy resellers (e.g., Oracle, some cloud resellers) – If your moat was “we bought a ton of Nvidia and we rent it out,” you now face the prospect of Google‑style AI clouds with lower cost per inference and Meta/OpenAI rolling their own accelerators with partners like Broadcom. Anyone paying peak‑bubble multiples for AI with no real earnings – A cheaper‑compute world is great for users but rough for the weakest business models. If more value flows to platforms (Google, Microsoft, Amazon) and custom‑silicon enablers (Broadcom, Marvell) then the more speculative “AI wrappers” are the shock absorber. So what are the “must‑owns” in this setup? Not investment advice, but if I’m building an AI infrastructure basket for this new phase , my core has: Alphabet (GOOGL / GOOG) – You get: a top‑tier frontier model (Gemini 3), the TPU stack and a growing chance of selling that silicon externally, plus Search/YouTube/Ads as monetization rails. It’s the clearest “winner of AI plus owner of the demand funnel.” Nvidia (NVDA) – I don’t think you throw out the king just because the court got crowded. Training still needs insane amounts of general‑purpose compute, and every efficiency breakthrough so far has eventually translated into more AI workloads, not fewer. Nvidia will likely lose some pricing power over time, but if the AI TAM is durable, they can both grow and get derated a bit and still be fine. Broadcom (AVGO) – This is the arms dealer for the custom‑silicon revolution: Google’s TPUs, OpenAI’s announced accelerators, other hyperscalers’ ASICs, plus high‑end networking. It’s the cleanest way to bet on “the future is specialized silicon,” without having to pick a single model winner. Then around that core, I’d consider higher‑beta satellites sized appropriately: Celestica (CLS) and Lumentum (LITE) as ways to express the “TPU + optical + 800G” build‑out. Marvell (MRVL) for custom accelerators and data‑center networking across non‑Google hyperscalers. One or two platform names (MSFT, AMZN, META) so you’re long AI usage broadly, not just one chip vendor. The big picture: Google just proved that Nvidia isn’t the only way to do state‑of‑the‑art AI at scale. That’s bad for Nvidia’s myth, but not necessarily bad for Nvidia’s business if the opportunity stays as big as it looks. The real trade from here is less “pick one winner” and more “own the platforms and the plumbing that get paid no matter which logo is on the chip.” --- News vs. Noise: What’s Moving Markets Today In today’s News vs. Noise , let’s talk about the market’s new favorite fantasy: a third “insurance” cut in December. I’m not sure how much a December cut matters in the long run as a pause in December makes a cut in January almost certain. However, a lot of last week’s weakness was probably a re rating of the odds of December, so any Fed pivot is probably a good sign for those who want a Santa Claus rally. It is simultaneously shocking and completely on‑brand that excitement has exploded again. The 12‑member FOMC is genuinely split. Miran, Waller, Williams, Jefferson (and likely Bowman) are openly comfortable taking rates lower, while Musalem, Schmid, Goolsbee, Collins, Barr – and, based on his recent comments, Powell himself – are leaning toward a hold. Governor Cook is stuck in the middle. Add in the new political buzzword of the month (“affordability crisis”) and you can see why the Fed is starting to look more like Congress than an independent technocratic body. What makes this debate absurd is the macro backdrop. The Fed has already delivered two 25 bp “insurance” cuts into what’s likely to be a ~4% Q3 GDP print, with unemployment at 4.4% (still lower than ~¾ of all readings in the last 77 years) and core CPI running around 3% – a level we haven’t seen near target since 2021. On top of that, there are growing signs of froth and speculative behavior in private credit. Any Q4 weakness will be largely self‑inflicted via a government shutdown and policy whiplash. Against that, Powell’s allies (Williams, Daly) are now publicly laying the groundwork for a December move, arguing that a weakening labor market is the bigger risk and hinting at a “cut now, then hold” strategy. The fact that we’re even debating a third cut, with incomplete data and a still‑elevated inflation backdrop, is the real story: it shows how far the Fed has drifted toward accepting 3% inflation as the new normal. Takeaways The committee is fractured. December isn’t about “the data” as much as which faction Powell decides to side with – and how many dissents he’s willing to tolerate. Markets are reacting to speeches , not stats. One dovish Williams speech in Chile was enough to flip December cut odds from ~40% to ~80% and rip equities higher. That’s pure narrative, not new information. We’re already in insurance‑cut territory. Two cuts into ~4% GDP, 4.4% unemployment, and 3% core inflation is not “data dependent” – it’s regime change toward tolerating structurally higher inflation. “Affordability crisis” = inflation fatigue. Politicians finally discovered that voters hate 3%+ inflation; the Fed is implicitly signaling they can live with it. That gap is where anger – and policy error – lives. Cut vs. hold is a bad choice either way. Cut in December: short‑term sugar high for risk assets, more damage to inflation credibility. Hold until January: more market drama, but at least you’re reacting to real data instead of vibes. Positioning lens: treat a December cut as already priced in risk assets. The real edge is in understanding the new reaction function: a Fed that quietly prefers protecting the labor market and asset prices over making a genuine run at 2% inflation. --- A Stock I’m Watching Today stock is Power Integrations (POWI)….. POWI is an AI picks and shovels play with a reasonable base case valuation. Look for a potential undercut and rally at the 10 day moving average. How Else I Can Help You Beat Wall Street at Its Own Game Inside --- H.E.A.T. is our monthly webinar series, sign up for this month’s webinar below…. Why Covered Call ETFs Suck-And What To Do Instead Tuesday December 9, 2-3PM EST Covered call ETFs are everywhere — and everyone thinks they’ve found a “safe” way to collect yield in a sideways market. The truth? Most of them suck. They cap your upside, mislead investors with “yield” that’s really your own money coming back , and often trail just owning the stock by a mile. Join me for a brutally honest breakdown of how these funds actually work — and what you should be doing instead. What You’ll Learn: 🔥 Why “high yield” covered call ETFs are often just returning your own capital 📉 How most call-writing strategies quietly destroy compounding 🚫 Why owning covered calls in bull markets is like running a marathon in a weighted vest 💡 The simple structure that can fix these problems — and where the real daily income opportunities are hiding Sign Up Here All rights reserved. Keep Reading No posts found View more caret-right 0