“2.21万亿美元”,这是截至当地时间3月18日收盘时英伟达的最新市值,该市值目前居全球第三,仅次于微软的3.1万亿美元和苹果的2.68万亿美元。股市一再创新高后,英伟达下一步棋如何走,是投资者和业内关注的焦点。
3月19日凌晨,英伟达在2024年GUP技术大会(GTC)上回答了这个问题,该公司推出的新一代AI GPU B200,推理性能较上一代的H100最多可提高30倍,这也意味着,英伟达再次拉大了与其它芯片公司的距离。
与此同时,英伟达的生态护城河越挖越深,不久前突然增加了CUDA限制条款。业内人士认为,这是英伟达维护自己市场“垄断”地位的一种表现,虽然当前对其它芯片公司造成的影响不算大,但也对它们起到了警示作用。
“地表最强”AI芯片拉大差距
英伟达CEO黄仁勋又是身穿皮衣亮相,正式推出最新一代基于Blackwell架构的AI GPU,这款芯片被命名为B200,计划于今年晚些时候上市。
上一代的GPU“王者”是H100,于2022年发布,也就是去年这波大模型浪潮中众多AI公司争抢的芯片之一。B200的整体性能相较H100得到大幅提升,其AI性能为每秒20千万亿次浮点运算,H100为每秒4千万亿次浮点运算,约是其5倍,推理性能最多可提高30倍,功耗和成本却降至上一代的1/25。
“过去,计算能力平均每十年性能提升100倍,而在过去的八年中,我们已经将性能提升了1000倍。”黄仁勋说。
黄仁勋没有公布B200及其相关产品的价格,只表示亚马逊、谷歌、微软和甲骨文等公司都已计划在其云服务产品中装配NVL72机架,但没有公布这些公司的购买数量,只透露了亚马逊AWS已计划采购由2万片GB200芯片组建的服务器集群,可以部署27万亿个参数的模型。
通信高级工程师、战略规划专家袁博对《华夏时报》记者表示,B200是当前全球能力最强的GPU,有助于英伟达进一步奠定自己在AI计算硬件方面的霸主级地位。
一方面,这款芯片在一定程度上满足了人工智能飞速发展时代对于算力和降低能耗的需求。“大模型业务在近两年的飞速发展,无论是ChatGPT还是Sora,都体现了人工智能的应用场景在从专业领域越来越走向大众普及,以算力为核心技术面向大众的消费、娱乐技术的蓬勃发展将成为未来信息产业的热点,AI向大众普及带来算力资源需求的急剧提升,但是同时,对降低计算带来的巨大能耗的需求也越来越迫切。”袁博说。
另一方面,袁博指出,B200在计算能力和能耗上做到极佳,将该公司与其竞争对手之间的差距再次拉大。“无论是英伟达的老对手AMD、英特尔,还是AI芯片新贵谷歌、亚马逊、微软,都进一步被英伟达拉开了代际的差距,尤其对于我国而言,短期内算力基础设施能力差距有进一步拉大的风险。”
然而,在芯片禁令进一步收紧的情况下,中国的AI公司恐怕暂时还买不到这款芯片。在此前的业绩说明会上,英伟达高管曾表示已经开始向中国地区运送不需要许可证的替代产品,但这次大会上该公司并未就此进行更多披露,《华夏时报》记者就此采访了英伟达方面,截至发稿,对方未给出回复。
值得一提的是,英伟达正在扩大与中国汽车制造商的合作。英伟达称,比亚迪将使用英伟达名为Drive Thor的下一代车用晶片,实现更高水平的自动驾驶和其他数码功能。此外,多家头部电动汽车制造商展示了其基于英伟达最新技术的下一代AI车型,包括广汽埃安、小鹏、理想汽车和极氪等众多中国车企。
2024GTC开始前,英伟达当日的股价一度上涨超过4%,随后回落,当日最终收于884.55美元/股,涨0.7%。
限制条款增加生态壁垒
在AI芯片领域不断拉大与其它企业之间差距的同时,英伟达也在通过增加限制条款,加深自己的生态护城河。
不久前,一名德国工程师在安装CUDA 11.6时发现,英伟达在最终用户许可协议(EULA)的限制类目中新增了条款:“不得对使用SDK元素生成的任何输出部分进行逆向工程、反编译或拆解,以将此类输出工件转换为非NVIDIA平台”。
CUDA是英伟达于2006年推出的统一计算设计架构,英伟达如今在AI芯片市场的“霸主”地位,不光靠性能卓越的GPU,还倚仗于CUDA。CUDA让英伟达的GPU拥有解决复杂计算问题的能力,可以针对不同的任务对处理器进行编程。
过去,其他科技巨头曾试图打破英伟达的技术和市场壁垒,比如苹果在2008年推出对标CUDA的OpenCL,AMD在2016年推出开放式软件平台ROCm,但都没能打破CUDA的独特性地位。
业内对于英伟达新增CUDA限制条款的原因有各种猜测,认为该举措是为了针对英特尔和AMD都参与的ZLUDA计划(ZLUDA主要为了实现CUDA应用无需修改源代码即可在AMD硬件中运行),也可能是指向某些通过翻译层利用CUDA代码的中国GPU厂商。
“在英伟达GPU呈现出全球垄断性地位的前提下,其AI芯片的软件系统和开发者生态相对成熟,而对于AI芯片市场的新玩家,兼容CUDA,在模拟层可以运行CUDA软件毫无疑问是能够快速切入市场的方式。”袁博告诉记者,英伟达要维持自身的垄断地位,就需要在硬件芯片不断迭代实现断崖式领先,同时也要加深自身生态的粘性,增加生态软件向其他硬件平台迁移的难度,所以CUDA这条新增条款实际上是英伟达加深了自身的护城河,也意味着AI芯片市场的竞争会越来越激烈。
目前,袁博指出,无论是英特尔、AMD,还是国内的摩尔线程,对CUDA的兼容方式主要还是API接口兼容,因此受到此条款的影响较小。
摩尔线程此前也发布声明称,摩尔线程MUSA/MUSIFY不涉及英伟达EULA(最终用户许可协议)相关条款,开发者可放心使用,并表示MUSA是摩尔线程自主研发、拥有全部知识产权、软硬一体的全功能GPU先进计算统一系统架构,与CUDA无任何依赖关系。
不过,在袁博看来,这也对国内的AI芯片企业起到了警示作用,尽快构建自身的软件生态是非常必要的,尤其是在一些特定行业领域,通过构建自身的软件生态,可以加速行业对英伟达AI芯片的替代。
责任:于玉金 主编:寒丰
随着全球AI计算硬件市场的快速发展,英伟达在这一领域的领先地位日益巩固。然而,面对国内AI芯片市场的挑战,英伟达正在采取措施加强其生态系统护城河。
根据消息,英伟达公司最近宣布了一项新的规定,要求使用其CUDA架构的开发者在提交应用程序时需要额外遵守一项新的EULA限制条款。这个限制条款规定,不得通过翻译层将CUDA代码用于非NVIDIA平台。这是因为英伟达的产品已经在AI计算领域展现出其独特的优势,而且这些优势使其在全球范围内拥有了主导地位。
除了CUDA限制条款之外,英伟达还在加强其生态系统护城河。这意味着其AI芯片的软件系统和开发者生态相对成熟,这对于新玩家来说是进入市场的有力武器。同时,英伟达希望防止其他国家的GPU厂商通过技术支持,绕过CUDA限制条款来进入中国市场。
尽管如此,业界对于英伟达新增CUDA限制条款的原因仍有争议。有些人认为这是一个出于对英特尔和AMD竞争策略的考虑,有些人则认为它可能与Microsoft OpenCL类似,旨在保护自家的CUDA软件免受外来的威胁。
总的来说,英伟达正通过多种措施加强其AI芯片生态系统,其中包括加强CUDA限制条款以及加强其软件生态建设。在这个过程中,不仅要确保自己的产品能够在市场竞争中保持优势,还要防止其他国家的竞争对手利用自己独有的技术和市场份额,威胁到自己的垄断地位。