每经编辑 杜宇
添加微信好友, 获取更多信息
复制微信号
据媒体3月19日报道,英伟达CEO黄仁勋称英伟达最新的AI芯片Blackwell售价将在3万美元(约合人民币22万元)至4万美元之间。他估计,英伟达在研发成本上花费了大约100亿美元(约合人民币720亿元)。
该价格表明,该芯片很可能是训练和部署ChatGPT等人工智能软件的热门芯片,其定价范围将与其前身H100(即Hopper)相似。
黄仁勋诉CNBC的Kristina Partsinevilos,成本不仅与芯片有关,还与设计数据中心和集成到其他公司的数据中心有关。
北京时间3月19日凌晨4点,全球市值第三大公司英伟达在美国加州圣何塞举办GTC大会正式开幕,经典皮衣造型的黄仁勋在会上正式公布了堪称“核武级”的NVIDIA Blackwell架构及其首款芯片B200,这款双芯片设计,拥有2080亿个晶体管。
该芯片预计将在今年晚些时候发货。
Blackwell平台能够在万亿参数级的大型语言模型(LLM)上构建和运行实时生成式AI,而成本和能耗比前身低25倍。
据悉,英伟达称,Blackwell拥有六项革命性的技术,可以支持多达10万亿参数的模型进行AI训练和实时LLM推理:
全球最强大的芯片:Blackwell架构GPU由2080亿个晶体管组成,采用量身定制的台积电4纳米工艺制造,两个reticle极限GPU裸片将10 TB/秒的芯片到芯片链路连接成单个统一的GPU。
第二代Transformer引擎:结合了Blackwell Tensor Core技术和TensorRT-LLM和NeMo Megatron框架中的英伟达先进动态范围管理算法,Blackwell将通过新的4位浮点AI支持双倍的计算和模型大小推理能力。
第五代NVLink:为提高数万亿参数和混合专家AI模型的性能,最新一代英伟达NVLink为每个GPU提供了突破性的1.8TB/s双向吞吐量,确保最复杂LLM之间多达576个GPU之间的无缝高速通信。
RAS引擎:Blackwell支持的GPU包含一个专用引擎,实现可靠性、可用性和服务性。此外,Blackwell架构还增加了芯片级功能,利用基于AI的预防性维护进行诊断和预测可靠性问题。这可以最大限度地延长系统正常运行时间,并提高大部署规模AI的弹性,使其能连续运行数周甚至数月,并降低运营成本。
安全人工智能:先进的机密计算功能可在不影响性能的情况下保护AI模型和客户数据,并支持新的本机接口加密协议,这对于医疗保健和金融服务等隐私敏感行业至关重要。
解压缩引擎:专用解压缩引擎支持最新格式,加快数据库查询,提供数据分析和数据科学的最高性能。未来几年,在企业每年花费数百亿美元的数据处理方面,将越来越多地由GPU加速。
Blackwell GPU体积庞大,将两个单独制造的晶粒组合成一个由台积电制造的芯片。它还将作为一款名为GB200 NVLink 2的整个服务器提供,该服务器结合了72个Blackwell GPU和其他旨在训练AI模型的英伟达部件。
亚马逊、谷歌、微软和甲骨文将通过云服务提供对GB200的访问。GB200将两个B200 Blackwell GPU与一个基于Arm的Grace CPU配对。英伟达表示,亚马逊网络服务将构建一个包含20000个GB200芯片的服务器集群。
在人工智能(AI)领域开发者盛会——英伟达2024 GTC 期间,英伟达创始人兼CEO黄仁勋自信地放出豪言,英伟达会在一年可“掘金”几千亿美元的数据中心市场抢到更多的“蛋糕”。
黄仁勋告诉与会者,因为英伟达生产的芯片和软件种类繁多,所以公司处于有利地位,在全球数据中心设备的支出中,会有一大部分都来自英伟达的产品。
黄仁勋预计,每年全球对数据中心设备投入的费用将共计2500亿美元,英伟达产品在其中占据的份额将超过其他芯片生产商。英伟达正致力于开发软件,以便各行各业采用和使用AI技术。英伟达提供AI模型和其他软件,然后根据客户的算力和运行的芯片数量向客户收费。
截至当地时间3月19日收盘,英伟达报893.98美元,涨幅1.07%,市值2.2万亿美元。
每日经济新闻综合公开资料
免责声明:本文内容与数据仅供参考,不构成投资建议,使用前请核实。据此操作,风险自担。
还没有评论,来说两句吧...