黄仁勋:AI应用奇点已到,算力支撑进入新阶段

栏目:未来教育  时间:2023-03-26
手机版

  为了训练出一个ChatGPT大模型,OpenAI采用了一万个英伟达的GPU。黄仁勋也许早在2016年8月,就已经预感到了这场AI爆发以及它对于算力的需求程度。因为当年的OpenAI成立还不足一年,英伟达公司公布创始人兼CEO黄仁勋就将自己价值达12.9万美元的全球第一台AI超算DGX-1,捐给了 OpenAI。

  如今,手握一块支撑ChatGPT算力,性能提速10倍的H100 NVL芯片,黄仁勋及英伟达已成为这场AI大战的最大受益者。这个时候,我们就有太多理由去复盘黄仁勋在AI上的布局了。

  

  生成式AI会带来什么

  多年以前,和当时已经浸淫管理软件几十年的行业大佬深聊时,他突然问了一个问题:如果这些管理软件学会了象人类一样思考,从而不断学习,会产生什么后果?当时没人能想象出问题的答案,但在今天,我们知道这就是生成式AI的力量。

  而在黄仁勋看来,ChatGPT、Stable Diffusion、DALL-E和Midjourney已经唤醒了世界对生成式AI的认知,所以结果必然是人人关注的——“生成式AI将重塑几乎所有行业。”

  黄仁勋表示:“当AI以自然语言的面目出现时,必然带来更多创新。因为我们应用语言时会是这种场景:我们不仅能听懂语言,也能读、写语言,我们甚至可以创造出新的语法、词汇。”

  iPhone创造了智能手机的奇点,从而引领出一个移动应用新时代,黄仁勋则认为,ChatGPT就称得上是AI的“iPhone时刻”。这种说法一点也不过份。

  生成式AI通常采用图像或文本形式,是一种利用算法自动生成、操纵或合成数据的技术。它之所以被称为生成式,是因为AI能够创造出原本不存在的事物,这与区分式AI不同,后者在不同输入之间进行区分。简而言之,区分式AI试图回答这样的问题:“这张图片是猫还是狗?”而生成式AI则根据提示:“画一张猫和狗在一起嬉戏的图片。”

  关于生成式AI,OpenAI联合创始人兼首席科学家Ilya Sutskever在和黄仁勋的对话中表示:“神经网络的特性就在于能够学习,它们是可以自动编程的并行计算机。如果你了解到学习和神经网络的工作原理,就可以用数据从编程上去创造小计算机,和大脑的工作原理是相似的。”

  以ChatGPT为代表的生成式AI确实是太能干,以至于黄仁勋在对话中居然对Sutskever提出了这样的苛求:“你能不能教人工智能学习语气呢?因为你知道一个‘好’字可能会体现人们千变万化的真实含义。”而面对这种苛求,Sutskever居然表示会认真考虑用音频来改善未来的大模型。

  是的,生成式AI太强大了,它接下来一定会不断通过创造来实现各种替代,从而颠覆整个世界。

  算力的考量因素

  有了神经网络和数据,AI的突破还缺少一样武器,那就是“算力”。随着ChatGPT火遍全世界,OpenAI首席执行官Sam Altman对算力的预言,也成了热议的焦点。

  Sam Altman曾表示:“新版摩尔定律很快就要来了,宇宙中的智能每18个月翻一倍。”尽管业界对此存在很多非议,但Sam Altman却认为“现在还没开始”。而早在2018年,OpenAI就发表过另一个与摩尔定律形式相近的观点:从2012年的AlexNet到2017年底的AlphaGo Zero,训练最大AI模型所需算力每3.4个月翻一番。

  把这两件事放在一起,就不难得出一个结论:我们迟早会面对算力增长难以满足机器学习需求的局面。

  而黄仁勋显然在多年前就已经关注到了算力不足的预想。对于人工智能算力的认识,业界可能存在着很大的偏差,黄仁勋却认为:“如果AI应用的提升要求提升10倍的算力,用户确实从我们这里获得了10倍的算力,但如果同时也要多付出10倍的成本,并且,各种功耗也要相应增加许多倍,这种发展模式肯定是不能持久的。”

  显然,在AI的算力支撑方面,英伟达走出了一条不一样的路径。这从本届GTC的产品路线上就可以一窥究竟。

  在算力的世界最,绝对算力的提升一定是基础。而本次英伟达发布的造福先进芯片制造的突破性技术——NVIDIA cuLitho计算光刻库,可谓了给了业界一个惊喜。

  

  光刻是芯片制造过程中最复杂、最昂贵、最关键的环节,其成本约占整个硅片加工成本的1/3甚至更多。黄仁勋在演讲中表示:“计算光刻是芯片设计和制造领域中最大的计算工作负载,每年消耗数百亿CPU小时。”而cuLitho的到来,不仅能够将计算光刻的速度提高到原来的40倍,还在于极大地降低了芯片成本。

  具体到对于AI的算力支持,类似ChatGPT的大型语言模型(LLM)的部署是一个重要的全新推理工作负载,为了支持大型语言模型推理,英伟达发布了一款新的GPU,带有双GPU NVLink的H100NVL。

  在性能提升上,黄仁勋介绍称,基于英伟达Hopper架构的H100配有一个Transformer引擎,可以处理类GPT模型,并且与用于GPT-3处理的HGX A100相比,配备四对H100与双GPU NVLink的标准服务器的速度最高可以提升10倍。

  英伟达的超级计算机DGX已经成为现代AI的“新工厂”,而基于H100芯片,英伟达构建了最新的DGX超级计算机,搭载8个H100GPU,使它们连接成为一个巨大的GPU,为AI基础设施的构建提供“蓝图”,目前全新的DGX超级计算机已经全面投产。

  从成本和便利性出发,英伟达还推出了一项名为DGX Cloud的AI超级计算服务,与微软Azure、谷歌OCP、Oracle OCI合作,通过一个Web浏览器就能访问,以便企业为生成式AI和其他开创性应用训练先进的模型。

  

  此外,借助全新云服务及代工厂NVIDIA AI Foundations,企业能够构建、改进、运营使用其专有数据训练的、用于特定领域任务的定制大模型和生成式AI模型,这些AI模型既包含了用于文本生成模型构建服务NeMo、用于视觉语言模型构建服务的Picasso,也包含了用于生命科学服务的BioNeMo。

  从一个个产品路线图中,不难发现黄仁勋为AI提供的,是综合考量了性能、成本、应用便利等因素的算力。AI应用得越广,所需的算力就越强。而通过提供可持续发展的算力,黄仁勋利用多年的布局,找准了一个最有利英伟达发展的杠杆。

  助力AI应用落地

  如果你还把英伟达看成是一家芯片公司,那么可以说几年前你就落伍了,因为当时的英伟达已经开始转型成一家人工智能公司。今天,通过软、硬结合的解决方案,英伟达已从幕后,直接到前台来助力AI应用落地了。

  这种助力作用首先表现在生态助力上。黄仁勋表示,英伟达将会把生态系统带给云服务提供商,并扩大英伟达的规模和能力,赋能更多企业建立生成式AI的能力。

  英伟达在本次GTC大会上宣布了一系列跟生成式AI相关的合作进展,包括与Adobe合作开发新一代先进的生成式AI模型;与Getty Images合作训练负责任的文生图、文本转视频基础模型;与Shutterstock合作,训练从简单文本提示中创建生成式3D模型,将创作时间从几小时减少到几分钟。此外,英伟达与三菱联合发布了将用于加速药物研发的日本第一台生成式AI超级计算机Tokyo-1。

  这种助力作用同时也表现在AI的行业应用上。五年前,在当时的GTC大会上,黄仁勋就表示过,汽车行业的AI应用将会成为英伟达重要业务,并成为一个高利润点。五年过去,黄仁勋的预言成真了。

  新奢智能纯电汽车品牌smart此次就宣布将与NVIDIA在智能驾驶领域携手开发全新数据中心,赋能高级别智能驾驶系统和智能AI系统研发。同时,自2024年起,smart将基于NVIDIA DRIVE Orin 系统级芯片(SoC)打造搭载高级别智能辅助驾驶系统的最新车型。而在此前,联想车计算已经宣布将基于新一代NVIDIA DRIVE Thor系统级芯片(SoC),自主研发最新一代车载域控制器平台。未来,基于DRIVE Thor的域控平台架构将成为联想车计算的高端核心产品线。比亚迪也已宣布将拓宽NVIDIA DRIVE Orin中央计算平台的应用范围,将用于其更多新能源车型之中。

  不仅是汽车行业,在英伟达发布用于AI模型训练和推理的全新BioNeMo云服务产品之后,包括安进生物技术公司、芝加哥生物技术公司已经跟进,用于药物研发和蛋白质工程。

  本次GTC大会的最大改变,就在于英伟达的AI应用开始涉及更多行业,未来随着AI渗透进更多行业,英伟达的AI业务必将进一步拓展至越来越多的行业。也许这同样在黄仁勋的AI布局之内,因为他在本次GTC的演讲中就明确表示:“我们正在携手帮助世界,实现不可能的事情。”

上一篇:全通教育(300359)周评:本周涨2.21%,主力资金合计净流出497.50万
下一篇:柳州出台《方案》加快推进特殊教育高质量发展

最近更新未来教育