尊龙凯时 (中国)人生就是搏!当地时间3月18日,英伟达2024年GTC AI大会开幕,此次会议是GTC大会时隔五年首次重回线下。英伟达CEO黄仁勋发表名为“见证AI的变革时刻”的主题演讲。
英伟达正式公布了搭载B200芯片的GB200GraceBlackwell超级芯片系统,以及多模态人形机器人模型及机器人芯片、英伟达在AI软件(NIM微服务)、Omiverse云、具身智能方面的最新进展。
大会上,英伟达推出新一代AI图形处理器芯片(GPU)架构Blackwell,并重磅发布采用该架构的GPU——B200和GB200产品系列。
在演讲中,黄仁勋将Blackwell称为“推动新一轮工业革命的引擎”,并定义其为一个平台,基于Blackwell,衍生出GPU尊龙凯时 (中国)人生就是搏!、AI超级芯片、服务器、大型计算集群、云服务等多套解决方案。
英伟达称,Blackwell 拥有六项革命性的技术,可以支持多达 10 万亿参数的模型进行 AI 训练和实时 LLM 推理:
全球最强大的芯片:Blackwell 架构 GPU 由 2080 亿个晶体管组成,采用量身定制的台积电 4 纳米(nm)工艺制造,两个 reticle 极限 GPU 裸片将 10 TB/ 秒的芯片到芯片链路连接成单个统一的 GPU 。
第五代 NVLink:为提高数万亿参数和混合专家 AI 模型的性能,最新一代英伟达 NVLink 为每个 GPU 提供了突破性的 1.8TB/s 双向吞吐量,确保最复杂 LLM 之间多达 576 个 GPU 之间的无缝高速通信。
RAS 引擎 :Blackwell 支持的 GPU 包含一个专用引擎,实现可靠性、可用性和服务性。此外,Blackwell 架构还增加了芯片级功能,利用基于 AI 的预防性维护进行诊断和预测可靠性问题。这可以最大限度地延长系统正常运行时间,并提高大部署规模 AI 的弹性,使其能连续运行数周甚至数月,并降低运营成本。
安全人工智能:先进的机密计算功能可在不影响性能的情况下保护 AI 模型和客户数据,并支持新的本机接口加密协议,这对于医疗保健和金融服务等隐私敏感行业至关重要。
解压缩引擎:专用解压缩引擎支持最新格式,加快数据库查询,提供数据分析和数据科学的最高性能。未来几年,在企业每年花费数百亿美元的数据处理方面,将越来越多地由 GPU 加速。
新GPU架构“Blackwell”得名于美国数学家David Harold Blackwell,基于该架构的GPU芯片B200采用台积电4NP制造工艺,英伟达称其可实现在十万亿级参数模型上的AI训练和实时LLM(大语言模型)推理。
B200由两个超大型Die(裸片)封装组合而成,内含超过2080亿个晶体管,是前一代800亿个晶体管的两倍以上,整块芯片还封装有192GB高速HBM3e显存。
“大”既体现在尺寸:Blackwell GPU的体积明显大于H100,采用台积电的4纳米工艺蚀刻而成,整合了两个独立制造的裸晶,共有2080亿个晶体管,而H100芯片所拥有的晶体管数量为800亿个;“大”也体现在性能:单块B200 GPU能够提供高达20 PetaFlops(每秒千万亿次浮点运算)的FP4八精度浮点运算能力,而H100则能提供4 petaflops的FP4八精度浮点运算能力。
黄仁勋手持Blackwell GPU和上一代Hopper GPU供观众对比,明显前者要大上一圈。黄仁勋称,8年时间,英伟达从Pascal架构到Blackwell架构,将AI计算性能提升了1000倍!
此外,英伟达还“大大加倍”,提供集成了两块B200 GPU和一块Grace CPU的加速卡“GB200”。
英伟达没有提供新款GB200或其使用系统的成本。据分析师估计,英伟达基于Hopper的H100芯片成本在2.5万至4万美元之间,而整个系统的成本高达20万美元。
英伟达还发布了新一代 AI 超级计算机 —— 搭载 NVIDIA GB200 Grace Blackwell 超级芯片的NVIDIA DGX SuperPOD 。这台 AI 超级计算机可以用于处理万亿参数模型,能够保证超大规模生成式 AI 训练和推理工作负载的持续运行。
“NVIDIA DGX AI 超级计算机是推进 AI 产业变革的工厂。新一代DGX SuperPOD 集 NVIDIA 加速计算、网络和软件方面的最新进展于一体尊龙凯时 (中国)人生就是搏!,能够帮助每一个企业、行业和国家完善并生成自己的 AI。”黄仁勋表示。
英伟达还发布了用于AI模型训练、调优和推理的通用AI超级计算平台NVIDIA DGX B200 系统,这是DGX系列的第六代产品。
凭借全新 Blackwell架构中的FP4精度特性,DGX B200系统可提供高达144 petaflops的 AI性能、1.4TB 海量的GPU显存和64TB/s的显存带宽,从而使得该系统的万亿参数模型实时推理速度比上一代产品提升了15倍。
“成熟的企业平台坐拥数据金矿,这些数据可以转化为生成式 AI 助手。我们与合作伙伴生态系统一起创建的这些容器化 AI 微服务,是各行业企业成为 AI 公司的基石。”黄仁勋表示。
为此,英伟达推出生成式 AI 微服务,供开发者在已安装 NVIDIA CUDA GPU 的系统中创建和部署生成式 AI 助手
英伟达推出数十项企业级生成式 AI 微服务,企业可以利用这些微服务在自己的平台上创建和部署定制应用,同时保留对知识产权的完整所有权和控制权。
英伟达还推出二十多项全新微服务,使全球医疗企业能够在任何地点和任何云上充分利用生成式 AI 的最新进展。
全新 NVIDIA 医疗微服务套件包含经过优化的 NVIDIA NIM AI 模型和工作流,并提供行业标准应用编程接口(API),可用于创建和部署云原生应用。它们提供先进的医学影像、自然语言和语音识别以及数字生物学生成、预测和模拟功能。
此外,NVIDIA 加速的软件开发套件和工具,包括 Parabricks 、MONAI、NeMo 、Riva、Metropolis,现已通过 NVIDIA CUDA-X 微服务提供访问,以加速药物研发、医学影像、基因组学分析等医疗工作流。
这些微服务,其中 25 个已推出,可以加快医疗企业的转型,因为生成式 AI 为制药公司、医生和医院带来了众多的机会。其中包括筛选数万亿种药物化合物以促进医学发展、收集更完善的患者数据以改进早期疾病检测、实现更智能的数字助手等。
英伟达还发布了专为大规模 AI 量身订制的全新网络交换机 - X800 系列。
NVIDIA Quantum-X800 InfiniBand 网络和 NVIDIA Spectrum -X800 以太网络是全球首批高达 800Gb/s 端到端吞吐量的网络平台,将计算和 AI 工作负载的网络性能提升到了一个新的水平,与其配套软件强强联手可进一步加速各种数据中心中的 AI、云、数据处理和高性能计算(HPC)应用尊龙凯时 (中国)人生就是搏!,包括基于最新的 NVIDIA Blackwell 架构产品的数据中心。
“NVIDIA 网络平台是 AI 超级计算基础设施实现大规模可扩展的核心。基于 NVIDIA X800 交换机的端到端网络平台,使新型 AI 基础设施轻松运行万亿参数级生成式 AI 业务。”NVIDIA 网络高级副总裁 Gilad Shainer 表示。
NVIDIA 提供面向万亿参数级 AI 模型性能优化的网络加速通信库、软件开发套件和管理软件等全套软件方案。
大会上,令人印象深刻的还有英伟达Omniverse与苹果Vision Pro的“强强联合”。
在今年的GTC上,英伟达宣布,企业级数字孪生和沉浸式内容创建中心Omniverse将在Apple Vision Pro上首次亮相。通过英伟达Omniverse的云API和图形交付网络 (GDN),企业现在将可以轻松将3D应用的OpenUSD(交互式通用场景描述)实时串流到Vision Pro混合头显中。
这种基于Omniverse的新工作流程将Apple Vision Pro突破性的高分辨率显示器与英伟达强大的 RTX 云渲染相结合,只需设备和互联网连接即可提供空间计算体验。通过利用云软件和硬件组件的框架,英伟达还能确保企业客户可以在Vision Pro设备上利用数字孪生,而不会损失显示或帧率质量。
这意味着设计人员可以更加值得信赖方式与进行混合现实交互,为空间计算开辟了更大的想象空间。英伟达表示,对于开发人员和独立软件供应商,他们也正在构建更多功能使他们能够使用Vision Pro与应用程序中的现有数据无缝交互。
“开发通用人形机器人基础模型是当今 AI 领域中最令人兴奋的课题之一。世界各地的机器人技术领导者正在汇集各种赋能技术,致力于在人工通用机器人领域实现突破。”黄仁勋表示。
在大会的最后,英伟达发布了人形机器人通用基础模型Project GR00T,旨在进一步推动其在机器人和具身智能方面的突破。GR00T驱动的机器人将能够理解自然语言,并通过观察人类行为来模仿动作——快速学习协调、灵活性和其它技能,以便导航、适应现实世界并与之互动。
英伟达还发布了一款基于NVIDIA Thor 系统级芯片(SoC)的新型人形机器人计算机Jetson Thor,并对NVIDIA Isaac 机器人平台进行了重大升级,包括生成式 AI 基础模型和仿真工具,以及 AI 工作流基础设施。
Jetson Thor 是一个全新的计算平台,能够执行复杂的任务并安全、自然地与人和机器交互,具有针对性能、功耗和尺寸优化的模块化架构。
该SoC包括一个带有 transformer engine 的下一代 GPU,其采用 NVIDIA Blackwell 架构,可提供每秒 800 万亿次8位浮点运算 AI 性能,以运行 GR00T 等多模态生成式 AI 模型。凭借集成的功能安全处理器、高性能 CPU 集群和 100GB 以太网带宽,大大简化了设计和集成工作。
从性能炸裂的全新超级芯片到软件、行业应用和机器人模型,用“AI春晚”来形容今年的英伟达GTC毫不夸张。
此前2月,英伟达发布了截至1月28日的2024财年第四财季财报。期内实现营收221亿美元,同比增长265%;净利润达123亿美元,同比上涨769%;毛利率为76%。三项数据均高于市场分析师预测,并创下历史新高。
经济日报发表文章《英伟达芯片能火多久》指出,“从当前的种种迹象来看,远未结束。”此前,不少投资者担忧英伟达人工智能芯片供不应求的局面难以持续,以至于无法支撑其不断攀升的股价。财报发布后,英伟达股价再度大涨,创下历史新高。资本市场用这种方式给出了自己的观点:这样的担忧纯属多虑。
面对英伟达出色的经营数据,众多投资分析师不断上调对英伟达表现和市场需求的预期。
券商伯恩斯坦分析师斯泰西·拉斯冈表示,英伟达在数据中心业务方面的机会巨大,而且还处于早期阶段。黄仁勋在财报电话会上回答分析师提问时也表示,英伟达的人工智能芯片将在2024年乃至2025年以后依然拥有较高的市场需求。因为计算机行业正处于加速计算与生成式人工智能转型的开端,全球各行业的相关需求正在激增,将推动全球数据中心基础设施安装量在未来5年内翻一番。
经济日报文章认为,此番预测中的具体数据尚难以验证,但人工智能将成为新的技术革命已经成为各行各业的共识,推动着芯片产品需求居高不下。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
天津一工业园区100多座楼烂尾,投资13亿逾期8年不能竣工,项目停滞后当地两部门互相推诿,导致土地闲置浪费至今
专家:中国90%以上的家庭拿不出10万块钱!你家线%!阿里一季度净利不足10亿元,跟腾讯的419亿拉开差距了
武汉市民投诉萝卜快跑致交通拥堵,相关部门:无人驾驶技术还不成熟,正改进