收起左侧
发新帖

性能可提升30倍,英伟达发布全新构架,今年上市,一套或售20万美元

时间:2024-3-19 12:49 0 615 | 复制链接 |

马上注册,结交更多好友

您需要 登录 才可以下载或查看,没有账号?立即注册

x
3月19日消息,当地时间周一,英伟达在美国加州圣何塞(San Jose)举办的全球开发者大会上,隆重发布了最新一代人工智能专用GPU芯片以及运行人工智能模型的软件,意图进一步巩固其作为人工智能领域首选供应商的地位。
英伟达推出的新一代人工智能GPU架构命名为Blackwell,首款基于该架构的GB200芯片预计将在今年晚些时候推出。
在处理大型语言模型(LLM)推理工作负载时,GB200性能可提升30倍,同时在成本和能效上也有显著提升。英伟达称,与H100相比,“GB200能将成本和能耗降低至多达25倍”。
尽管当前市面上如Hopper架构的H100芯片等旧款产品依然供不应求,英伟达仍通过推出更高性能的新芯片来吸引客户,鼓励他们持续下单。
自2022年底,随着OpenAI推出聊天机器人ChatGPT,掀起了一股人工智能热潮,英伟达股价随之飙升五倍,营业收入也增长了逾两倍。英伟达的高性能GPU对于训练和运行大型人工智能模型至关重要。像微软、Meta这样的科技巨头,都斥资几十亿美元购买这种芯片。英伟达首席执行官黄仁勋在大会上表示:“Hopper架构固然出色,但我们追求的是更加强大的GPU。”
英伟达股价在周一盘后交易中微跌超过1%。
为了让客户在面对日益增多的竞争产品时更倾向于选择英伟达芯片,公司还推出了一款名为NIM的付费软件,使得部署人工智能变得更加简单。
英伟达高管表示,公司正从单一芯片供应商转型为类似于微软或苹果那样的平台提供者,其他公司可以在其平台上开发软件。
黄仁勋坦言:“Blackwell不仅仅是一款芯片,它代表的是一个平台。”
英伟达企业计算部门副总裁马努维尔·达斯(Manuvir Das)在接受采访时表示:“最畅销的商业产品仍是GPU,软件则是为了帮助用户以不同的方式使用GPU。”他补充道:“当然,我们依然在致力于产品的创新。但现在,我们真正实现了转变,已经发展出了自己的商业软件业务。”
英伟达新软件能让在所有英伟达GPU上运行程序变得更加简便,即便是对于那些老款GPU,它们虽更适合于部署人工智能应用,而非开发,也能轻松应对。
达斯说:“如果您是开发者,手中有一个备受期待的模型,希望能让更多人采用,只需将其部署在NIM上。我们承诺将兼容所有英伟达GPU,确保模型能触及广泛用户群。”
Hopper架构的继任者Blackwell
每隔两年,英伟达都会更新其GPU架构,从而实现性能的显著跃升。在过去一年中,众多发布的人工智能模型均在2022年宣布的Hopper架构基础上进行训练,此架构涵盖了包括H100在内的多款芯片。
据英伟达介绍,基于Blackwell架构的GB200芯片将为人工智能领域公司带来性能上巨大的飞跃,其人工智能计算能力可达每秒20千万亿次,远超过H100芯片的每秒4千万亿次。
这一强大的计算能力将使企业得以训练规模更大、复杂度更高的人工智能模型。
GB200芯片还特别集成了英伟达的高性能Transformer推理引擎,该技术专为运行基于Transformer架构的人工智能设计,正是构成流行聊天机器人ChatGPT核心技术的关键部分。
Blackwell架构的GPU芯片体积庞大,实际上是由两块独立制造的芯片集成于一块台积电代工的芯片上。英伟达同时推出了配套的GB200 NVLink 2服务器,内置72块Blackwell架构GPU,以及其他用于人工智能模型训练的专业组件。
知名云服务提供商,包括亚马逊、谷歌、微软及甲骨文等,均将提供GB200芯片的云服务。每套GB200系统由两块基于Blackwell架构的B200 GPU和一块基于ARM架构的Grace CPU组成。英伟达透露,亚马逊网络服务(AWS)计划建立一个包含2万套GB200系统的超级计算集群。
英伟达表示,亚马逊的服务器集群能够部署达到27万亿个参数的人工智能模型,规模远超目前已知最大的GPT-4模型,后者拥有1.7万亿个参数。许多人工智能研究人员认为,拥有更多参数和数据的超大模型能够展现出更为强大的能力。
虽然英伟达未公布GB200芯片及其系统的具体售价,但根据分析师估计,参照Hopper架构H100芯片的售价范围(每块约2.5万至4万美元),一整套GB200系统的成本可能高达20万美元。
英伟达的推理微服务
英伟达还宣布,在其企业软件订阅服务中新增了一款名为NIM的产品,即英伟达推理微服务(NVIDIA Inference Microservices)的缩写,旨在简化使用旧型号GPU进行人工智能推理和软件运行的过程,使企业能够继续利用现有的数亿块英伟达GPU资源。相较于训练新的人工智能模型,推理计算所需的计算资源更少,因此,企业可以通过NIM更加便捷地运行自己的人工智能模型,而不必依赖于OpenAI等公司提供的计算服务。
作为其战略的一部分,英伟达鼓励购买其服务器的客户订阅英伟达企业服务,并按每块GPU每年4500美元的标准收取许可费。此外,英伟达将与微软、Hugging Face等领先的人工智能企业合作,确保它们开发的人工智能模型能够在所有兼容的英伟达芯片上顺畅运行。开发者可通过NIM服务,无需复杂配置,就能在自己的服务器或基于云的英伟达服务器上高效地运行模型。
“在原本调用OpenAI服务的代码中,仅需替换一行代码,即可将其连接至英伟达提供的NIM服务,”达斯解释说。
英伟达表示, NIM软件不仅能在云服务器上运行,还能使配备英伟达GPU的笔记本电脑上顺畅运行人工智能应用,进一步扩展了NIM服务的应用场景。(辰辰)
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

关闭

站长推荐上一条 /1 下一条

扫码添加微信客服
快速回复 返回列表 返回顶部