隔振器

  • 米6体育:英伟达25年路线图惊爆流出!老黄豪赌B100暴打AMD秘密武器X100曝光
米6体育:英伟达25年路线图惊爆流出!老黄豪赌B100暴打AMD秘密武器X100曝光

英伟达25年路线图惊爆流出!老黄豪赌B100暴打AMD秘密武器X100曝光

  • 产品描述:英伟达25年路线图惊爆流出!老黄豪赌B100暴打AMD秘密武器X100曝光
  • 来源:米6体育
  • 时间:2023-10-17 02:29:40
  • 在线订购

  近日,外媒曝光了一份英伟达全新GPU路线技术细节全流出,其中最神秘的X100,据悉将在2025年上市。

  最近,外媒SemiAnalysis曝出了一份英伟达未来几年的硬件路线」GPU。

  当然,霸主之位也没这么好当——AMD的MI300、MI400,亚马逊的Trainium2,微软的Athena,英特尔的Gaudi 3,都不会让英伟达好过。

  谷歌早已开始布局自己的AI基础设施,他们构建的TPUv5和TPUv5e,既能够适用于内部的训练和推理,也可以给苹果、Anthropic、CharacterAI、MidJourney等外部客户使用。

  在软件方面,Meta的PyTorch2.0和OpenAI的Triton也在迅猛发展,使其他硬件供应商得以实现兼容。

  在软件堆栈上,AMD的GPU、英特尔的Gaudi、Meta的MTIA和微软的Athena都取得了某些特定的程度的发展。

  在接下来的几个月内,无论是AMD的MI300,还是英特尔的Gaudi 3,都将推出技术上优于H100的硬件产品。

  而除了谷歌、AMD、英特尔这些难缠的对手,还有一些公司,也给了英伟达不小的压力。

  这一些企业虽然在硬件设计上暂时落后,但能得到背后巨头的补贴——天下苦英伟达久矣,这些公司都希望打破英伟达在HBM上的巨额利润垄断。

  亚马逊即将推出的Trainium2和Inferentia3, 微软即将推出的Athena,都是已布局多年的投资。

  在外媒SemiAnalysis看来,无论管理风格还是路线决策,英伟达都是「行业中最多疑的公司之一」。

  他们已经不屑于再和英特尔、AMD在传统的市场上竞争,而是想成为谷歌、微软、亚马逊、Meta、苹果这样的科技巨头。

  而英伟达的DGX Cloud、软件,以及针对非半导体领域的收购策略,背后都是一盘大棋。

  内容包括所采用的网络、内存、封装和工艺节点,各种GPU、SerDes选择、PCIe6.0、协同封装光学器件和光路交换机等细节。

  显然,慑于谷歌、亚马逊、微软、AMD和英特尔的竞争压力,英伟达连夜加快了B100和「X100」的研发。

  根据内部消息,英伟达的B100将于2024年第三季度量产,部分早期样品将于2024年第二季度出货。

  从性能和TCO看,无论是亚马逊的Trainium2、谷歌的TPUv5、AMD的MI300X,还是英特尔的Gaudi 3或微软的Athena,跟它相比都弱爆了。

  比如,英伟达本想把功耗定在更高的水平(1000W),但最终,他们还是选了接着使用H100的700W。

  5.0和700W的组合意味着,它可以直接插入现有的H100 HGX服务器中,从而大幅度的提升供应链能力,更早地量产和出货。

  之所以决定坚持使用5.0,还有部分原因是,AMD和英特尔在PCIe6.0集成上还远远落后。而即使英伟达自己的内部团队,也没有准备好使用PCIe6.0CPU。

  在以后,ConnectX-8会配备一款集成的PCIe6.0交换机,但目前还没人准备好。

  据悉,博通和AsteraLabs要到年底才能准备好量产的PCIe6.0重定时器,而考虑到这些基板的尺寸,所需的重定时器只会更多。

  这也意味着,最初的B100将被限制在3.2T,使用ConnectX-7时的速度也仅仅是400G,而非英伟达在PPT上所宣称的每个GPU 800G。

  如果保持空气冷却,电源、PCIe和网络速度不变,那无论是制造还是部署,都会很容易。

  虽然每个GPU的网络速度提高了一倍,但基数却减半了,因为它们仍需通过相同的51.2T交换机。而102.4T交换机,在B100一代中将不再使用。

  有趣的是,有爆料称B100上的NVLink组件将采用224G SerDes,如果英伟达真能做到这一点,无疑是巨大的进步。

  大多数人业内人士都认为,224G并不可靠,2024年不可能实现,但英伟达的人除外。

  要知道,无论是谷歌、Meta,还是亚马逊,他们的224G AI加速器量产目标都定在2026/2027年。

  如果英伟达在2024/2025年就实现了这一点,铁定会把对手们打得落花流水。

  根据英伟达基板供应商Ibiden透露的基板尺寸,英伟达似乎已经转而采用由2个单片大芯片MCM组成的设计,包含8或12个HBM堆叠。

  英伟达之所以没有像AMD那样使用混合键合技术,是因为他们要量产,而成本就是他们的一大顾虑。

  另外,英伟达还在路线都使用了G,显然这是一个占位符,因为英伟达将推出基于Arm架构的新CPU。并不会经常使用Grace。

  B40很可能仅仅是B100的一半,只有一个单片N4P芯片,和最多4或6层的HBM。与L40S不同,这对于小模型的推理是很有意义的。

  有趣的是,它与AMD目前的MI400时间表完全吻合。就在H100推出一年后,AMD发布了MI300X战略。

  AMD给MI300X的封装令人印象非常深刻,他们大量塞入了更多的计算和内存,希望能超越一年前的H100,从而在纯硬件上超越英伟达。

  英伟达也发现了,他们两年一次发布新GPU的节奏,给了竞争对手大好的机会抢夺市场。

  被逼急了的英伟达,正在把产品周期加快到每年一次,不给对手任何机会。比如,他们计划于2025年推出「X100」,仅仅比B100晚一年。

  要知道,在过去,英伟达可从来不会讨论下一代产品之后的产品,这次已经是史无前例了。

  至于「X」,唯一符合逻辑的就是研究半导体和金属带结构的Xie Xide,但考虑到她的身份,概率应该不大。

  自英伟达成立之初,黄仁勋就一直在积极推动着对供应链的掌握,从而支持庞大的增长目标。

  他们不仅愿意承担不可取消的订单——高达111.5亿美元的采购、产能和库存承诺,并且还有38.1亿美元的预付款协议。

  2007年黄仁勋与张忠谋的对线年,张忠谋和我相遇时,只有100人的英伟达在那一年完成了2700万美元的收入。 你们可能不相信,但张忠谋以前经常打电话推销,并且还会上门拜访。而我则会向张忠谋解释英伟达是做什么的,以及我们的芯片尺寸需要多大,而且年年都会慢慢的变大。 后来,英伟达总共做了1.27亿个晶圆。从那时起,英伟达每年增长近100%,直到现在。也就是在过去10年中,复合年增长率达到了70%左右。

  英伟达通过在供应方面的大胆尝试,取得了巨大成功。虽然时不时要减记价值数十亿美元的库存,但他们仍然从过度的订购中获得了正收益。

  每个供应商似乎都觉得自身是AI的赢家,部分原因是因为英伟达向所有供应商都下了大量的订单,而他们也都觉得自身赢得了大部分业务。但实际上,只是因为英伟达的上涨的速度太快了。

  回到市场动态上,虽然英伟达的目标是在明年实现超过700亿美元的数据中心销售额,但只有谷歌在上游有足够的产能——拥有超过100万台的设备。AMD在AI领域的总产能仍然非常有限,最高也不过几十万台。

  事实上,英伟达的捆绑销售非常成功。尽管之前只是一家规模很小的光纤收发器供应商,但他们的业务量在一个季度内增长了两倍,预计明年的出货量将超过10亿美元——远超于了自家GPU或网络芯片业务的增长速度。

  此外,英伟达的MGX模块化平台,虽然省去了服务器设计的艰苦工作,但也同时降低了OEM的利润率。

  戴尔、惠普和联想等公司显然对MGX持态度,但诸如超微、广达、华硕、技嘉等公司则争相填补这一空白,将低成本的「企业人工智能」商品化。

  目前,英伟达已经考察了几家初创公司的CPO方案,但暂时还没做出最终的决定。

  分析认为,英伟达有很大的可能性将CPO集成到「X100」的NVSwitch上。

  英伟达意识到,Fat Tree在继续扩展方面已经走到了尽头,因此就需要另一种拓扑结构。

  与谷歌选择6D Torus不同,英伟达更倾向于采用Dragonfly结构。

  据了解,英伟达距离OCS的出货还遥遥无期,但他们盼望在2025年时能更接近这一目标,但大概率无法实现。

  OCS + CPO是圣杯,尤其是当OCS能轻松实现按数据包交换时,将会直接改变游戏规则。