太长不看:
台积电计划提高3nm和5nm制程代工价格,大客户英伟达表示支持,目前高性能计算的营收贡献已经超过传统智能手机;
英伟达超高的毛利水平全能够消化台积电提价,同时考虑到英伟达芯片目前仍处于供不应求的状态,继续向下游转嫁也完全不是问题;
黄仁勋在去年的GTC大会上喊出,当前正处于AI的iPhone时刻,而相较于苹果的迭代速度,如今的英伟达更为激进;
苹果“挤牙膏”式的更新,导致下游用户的换季周期被不断拉长,而英伟达一年一更的节奏,快速提升GPU的性能,下游云计算和大模型厂商为了不在AI军备竞赛中落后,不得不加码采购新一代芯片。
台积电计划涨价
报道称,台积电计划提高3nm和5nm制程代工价格,3nm涨幅或在5%以上,先进封装2025年年度报价也有约10%-20%的涨幅。
此前在股东大会上,新任董事长魏哲家就提到,正在考虑提高公司人工智能芯片代工服务的价格。而黄仁勋也顺势接过了暗示表示,台积电对世界和科技行业的贡献在财务业绩中没有得到充分体现,提价与其提供的价值是一致的。
基于台积电在2022年提价10%,2023年提价5%,目前提出的涨幅完全是可能的。
根据台积电发布的2024财年一季报,7nm及以上先进制程的营收贡献为65%,较上一季度的67%有所下滑,主要是3nm制程出货占比从15%降至9%,受到苹果新机需求不及预期的拖累。
一季度智能手机业务占比下滑至四成以下,高性能计算填补了产能,份额占比升至46%,支撑了台积电的营收增长。毛利率维持在53.1%,但较上年同期回落3.2个百分点,部分由于3nm扩产的影响,存在提价挺利润的诉求。
苹果让位英伟达
长期以来苹果都是台积电的第一大客户,二者也被认为是过去十年最成功的芯片搭档。
台积电凭借其持续大规模的研发投入和资本开支,在先进制程上始终保持领先,而苹果作为其大客户,以大规模订单成为台积电迭代芯片制程最有力的支撑。
但随着迭代成本的大幅攀升以及下游需求的疲软,转向3nm后,苹果也显得有些心有余而力不足。
过去三年,苹果手机的平均售价仍在稳步增长,但从2020年到2023年13%的涨幅,显然不及同期台积电芯片报价的涨幅(25%)。
AI军备竞赛的开启引发高端芯片需求的快速增长,机构预测英伟达已经一跃成为台积电的第二大客户。
根据台积电的财报,2023年客户A(苹果)占台积电收入的25%,向台积电支付接近170亿美元,客户B被认为是英伟达,贡献的收入约75亿美元,占比11%。
图:收入占比超过10%的单一客户
过去虽然英伟达也是台积电的重要客户之一,但其营收占比基本维持在5%-6%,不及高通、博通、AMD和联发科。
目前英伟达的AI芯片几乎全部由台积电代工,包括其最新的Blackwell GPU。2025财年第一季财报显示,英伟达的营收续创新高,今年以来英伟达股价累计上涨165%。相比之下,台积电的业绩同样稳健,今年股价累计上涨超56%。
鉴于当前云计算和AI领域的需求,提供代工服务的台积电也想分一杯羹,英伟达炸裂的赚钱能力自然不介意和台积电相互成就。
英伟达H100的首发价为3.5万美元,二手市场价格一度炒到超过5万美元,英伟达计划以3万至4万美元的价格出售Blackwell GPU,而根据机构的估算,H100的成本约3100美元,而B200的成本约6000美元。
英伟达超高的毛利水平(一季度达到79%)完全能够消化台积电提价,同时考虑到英伟达芯片目前仍处于供不应求的状态,继续向下游转价也完全不是问题。
随着台积电提升其CoWoS的生产能力,H100的交货时间从52周缩短至16-20周。根据Omdia预测,2023年下半年英伟达售出超100万块A100和H100GPU,其中Meta和微软是H100的最大买家。
AI的iPhone时刻
黄仁勋在去年的GTC大会上喊出,当前正处于AI的iPhone时刻,而相较于当年苹果的迭代速度,如今的英伟达更为激进。
2007年苹果推出第一代iPhone,开创了智能手机时代。而在初期,苹果基本维持硬件两年一大迭代的频次,3G到3GS,再到4和4S,小年发布s,大年升级一代,这一规律一直延续至6系列。
从出货量来看,iPhone6、iPhoneX和iPhone 12 系列相对其他代产品表现更出众,也基本反映了iPhone三年左右的换机周期。
2010年iPhone4首次搭载自研芯片A4,此后A系列芯片保持每年升级一次的频率,到iPhone15系列搭载A17 Pro,首款3nm芯片。从性能来看,A7到A17 Pro,CPU单核性能提升约7.7倍,多核性能提升约11.1倍。
近年来,iPhone的更新越来越被诟病是走上英特尔“牙膏厂”的老路。作为曾经的行业标杆,英特尔引领了摩尔定律,两年升级一代芯片制程,但从2015年之后,英特尔卡在了14nm制程,也给了竞争对手AMD赶超的机会。
比起苹果和英特尔,英伟达的更新可谓快马加鞭。
2021年发布A100,2022年推出H100,2023年发布L40S,2024年推出H200和B100,英伟达的目标是每年推出新的数据中心GPU架构。上一代的热度还没过,下一代就来了。
图:英伟达AI产品更新路线图
就性能的升级对比,H200在大模型Llama和GPT-3.5的输出速度分别是H100的1.9倍和1.6倍,在高性能计算方面的速度达到双核x86 CPU的110倍。而到了GB200,与H100相比,可以将LLM推理工作的性能提高30倍,并将成本和能耗降低25倍。
Copyright © 2008-2020 【启盈配资】广东天雄投资控股有限公司 粤ICP备18158468号-1 股市有风险,投资需谨慎