腾讯科技讯 8月29日消息,据国外媒体报道,美国当地时间周三,芯片制造商英伟达发布了其2025财年第二财季财报。这份成绩单大大超越了市场分析师的预测,不仅营收亮眼,利润表现也同样令人瞩目。此外,英伟达还发布了对于第三财季的乐观展望,其预测数据较市场预期更为强劲。
财报发布后,英伟达联合创始人兼首席执行官黄仁勋接受了彭博社的独家专访。访谈中,黄仁勋就多个热点议题发表了见解,包括Blackwell产品的延迟交付情况、加速计算领域的强劲需求、主权人工智能的发展趋势,以及当前GPU市场的供需动态等。
以下为专访全文:
问: 市场对 Blackwell 的期望颇高,投资者渴望获取更多具体信息。从电话会议和转录文本中,我注意到这主要是一个生产问题,而非 Blackwell 的设计缺陷。那么,在实际部署过程中,这是否会造成部署时间的延误,进而影响产品的收入表现?
黄仁勋: 我在此进一步澄清:我们已投入大量资源进行改进,显著提升了 Blackwell 的良品率,确保这款芯片在性能上达到卓越水平。目前,我们正在全球范围内展开 Blackwell 的样品测试,并已公开展示了在实际运行中的系统,你可以通过网络搜索到相关照片。
我们已经全面启动了大规模生产流程,并计划在第四季度实现大量出货。届时,我们将迎来 Blackwell 带来的数十亿美元收入。同时,我们也将根据市场需求逐步增加产量。由于市场需求远远超过了我们的初期供应能力,因此,在最初阶段,我们可能会面临一些供不应求的情况。但我们已做好充分准备,将确保从第四季度开始逐步提升产量以满足市场需求。
展望未来,我们不仅在第四季度有望实现显著收入增长,而且随着产量的持续增加,我们预计在2025财年第一财季、第二财季乃至明年都将继续保持强劲的增长势头。
问: 除了大规模数据中心外,还有哪些领域存在显著的加速计算需求?
黄仁勋: 当前,尽管大规模数据中心客户占据了我们数据中心业务的大约45%,但我们的业务范围已经相当多样化。除了大规模数据中心外,还包括互联网服务提供商、主权人工智能项目、以及各类工业企业。因此,除了大规模数据中心,其余55%的业务覆盖了多个关键领域。
所有数据中心的应用都以加速计算为核心,这一技术不仅限于生成式人工智能这一热门领域,还广泛应用于数据库处理、数据预处理与后处理、视频转码、科学模拟、计算机图形处理、图像处理等多个方面。生成式人工智能只是加速计算众多应用场景中的一个。
问: 关于主权人工智能,能否进一步阐述其含义及对普通人的影响?你之前提到本财年主权人工智能的销售额将达到数十亿美元,这是否意味着与特定政府达成了直接交易?如果是,那么主要是哪些政府?
黄仁勋: 主权人工智能的概念并不仅仅局限于与特定政府的直接交易,它更多地涉及与受政府资助的区域服务提供商的合作。例如,日本政府已经通过提供数亿美元的补贴,支持国内互联网公司和电信公司建设人工智能基础设施。同样,印度也在推行主权人工智能计划,致力于构建自己的人工智能基础设施。此外,加拿大、英国、法国、意大利以及新加坡、马来西亚等国家也在积极资助区域数据中心的建设,旨在将这些国家的数字资源转化为国家的数字智能。这些国家开始认识到数字知识作为国家自然资源的重要性,并致力于开发利用这些资源。这一趋势几乎在全球范围内得到认同,可以预见,未来大多数国家都将加入这一行列,建设属于自己的人工智能基础设施。
问:你使用了“资源”这个词,让人不禁联想到能源需求方面的考量。你在电话会议上提到,下一代模型对计算能力的需求将大幅增长,那么,你如何看待这些模型对应的能源需求变化?英伟达在此方面拥有哪些竞争优势?
黄仁勋:我们首要关注的是如何提升产品的性能和能效。以Blackwell为例,它在相同功率下的性能表现远超其前身Hopper,这意味着我们能在不增加功耗的前提下实现更高的性能,或者在保持性能不变的情况下显著降低功耗,这就是我们在能源效率上取得的显著进步。
其次,英伟达还积极采用液冷技术来进一步优化能源使用。虽然我们也支持空气冷却方式,但液冷技术以其更高的能效比成为了我们的优选方案。通过这些先进技术的融合应用,我们能够在能源利用上实现较大的提升。
第三,我们需要认识到人工智能的训练与应用并不需要完全同步进行。随着技术的发展,人工智能模型可以在远程地点进行训练,然后将训练好的模型带回并部署到接近用户的地方,甚至直接在用户的PC或手机上运行。这样,我们就可以避免为了持续运行大型模型而不断消耗大量能源。实际上,大型模型更多扮演的是训练和指导小型模型的角色,而小型模型则负责在各个地点进行实际应用。因此,通过构建少量大型模型来训练并指导大量小型模型的方式,我们可以在确保性能的同时,有效控制能源消耗。这将是英伟达在未来人工智能领域保持竞争优势的关键所在。
问:你清晰地阐述了市场对基于模型和GPU的生成式人工智能产品的需求远超当前供应量的情况,特别是在Blackwell产品上。能否详细解释一下你们公司产品的供应动态,以及你预计何时能看到供应状况的显著改善,是逐季改善还是在本财年末至下一年度的某个特定时间点?
黄仁勋:事实上,我们的供应状况正在积极改善中,这体现在供应量的不断增加上。我们的供应链体系庞大且高效,是全球领先的供应链之一,得益于我们与杰出合作伙伴的紧密合作,他们为支持我们的快速增长做出了巨大贡献。正如你所见,我们公司是历史上增长最快的科技公司之一,这背后既有强劲的市场需求驱动,也有我们不断提升的供应能力支撑。
具体到供应动态,我们预计第三财季的供应量将较第二财季有所增加,而第四财季将进一步超过第三财季。进入2026财年第一财季时,供应量将再次实现显著增长,超过2025财年第四财季的水平。因此,从整体来看,我们预期明年的供应状况将比今年有大幅度的改善。
关于需求方面,Blackwell的推出无疑是一个巨大的飞跃。当前,基础模型的规模正在迅速扩大,从几百亿参数增长到几万亿参数,同时它们也在学习更多种类的语言,包括但不限于人类语言、图像、声音、视频以及3D图形的语言。这些模型不仅能够理解输入的内容,还能根据要求生成相应的内容。此外,它们还在探索蛋白质、化学物质和物理学等领域的语言,如流体力学和粒子物理学等。随着模型规模的扩大和学习内容的多样化,模型开发商的数量也在迅速增加,不仅有互联网服务提供商和初创公司,还有众多企业和不同国家的参与。因此,生成式人工智能市场的需求正在以前所未有的速度快速增长。
问:英伟达是否有计划转型为云计算服务提供商?
黄仁勋:不,我们的战略重心并非成为直接的云计算服务提供商。相反,英伟达GPU Cloud(NGC)的目标是成为每个主流云平台上最优化的英伟达云服务。具体来说,我们通过在GCP、Azure、AWS和OCI等全球领先的云平台内部构建英伟达DGX Cloud,来确保我们的云版本能够充分利用这些平台的资源,并与他们紧密合作,共同优化人工智能基础设施的效率。这一策略已经取得了显著的成效。
此外,我们自身也是DGX Cloud的忠实用户。由于英伟达在人工智能领域的深入探索,我们的芯片设计、软件开发等多个环节都高度依赖人工智能技术。因此,我们内部广泛使用DGX Cloud来支持自动驾驶汽车、通用机器人以及Omniverse等前沿项目的研发。同时,我们还利用DGX Cloud提供AI Foundry服务,为那些希望拥有专业技术但缺乏资源的企业制作高质量的人工智能模型。我们是人工智能代工厂,就像台积电是我们芯片的代工厂一样。
总的来说,英伟达GPU Cloud的策略基于三个核心原因:一是确保在所有主流云平台上提供最优化的英伟达云服务;二是满足我们自身作为大量用户的需求;三是通过提供人工智能代工服务,助力其他企业加速人工智能技术的应用与发展。
温馨提示:微信搜索公众号【深圳之窗】,关注后在对话框内回复【资讯】即可获取深圳的各种资讯内容,包含深圳入户,深圳天气,深圳交通,深圳人文,同时,扫描关注文下企微号,可以了解深圳近期的各种福利活动优惠等信息
版权与免责声明:
感谢您访问我们的网站。请在阅读本免责声明之前注意以下内容:
1.该文章主要收集于互联网,目的在于传递更多信息,并不代表本网赞同其观点或证实其内容的真实性。
2.本网站的所有信息仅供参考,不构成任何形式的建议或指导。用户应自行承担使用本网站信息的风险。
3.该文章主要来源于互联网,如发现本网站上的文章涉及侵权问题时,建议您立即联系本网站的站长或管理员进行删除处理。