雪花家园 - 专注分享最好用的电脑系统

当前位置: 雪花家园 >  系统资讯 >  微软发布自研芯片,英伟达黄仁勋为何站台?解析行业合作动机

微软发布自研芯片,英伟达黄仁勋为何站台?解析行业合作动机

更新时间:2023-11-16 20:22:15作者:xhjaty
微软发布自研芯片,英伟达黄仁勋为何站台?解析行业合作动机微软发布自研芯片,英伟达黄仁勋为何站台?解析行业合作动机北京时间11月16日凌晨,“微软造芯”这颗飞了一个月的石头落地了:微软CEO萨提亚·纳德拉在Ignite2023开发者大会上发布两款芯片。一款CPU、一款AI加速器,均用于云服务,分别命名为Azure Cobalt 100和Azure Maia 100。

芯片用于云服务,切中了网友的猜测。而此次发布会上还有两点超出了网友原本的预料:第一,没发布NPU,反而推出了一款CPU;第二,英伟达CEO黄仁勋被请到现场,大谈两公司在AI领域的合作成果,坊间猜测的“微软挑战英伟达”说在一定程度上被消解。

果然,科技圈没有永远的市场争夺,只有慕强是唯一真理?

微软为何要做CPU?

“体量够大。”这是记者提问“为什么微软要做CPU时”,业界专家给出的答案。

对于微软来说,云计算是当前最重要的业务板块、也是最大的盈利来源。在算力需求日益旺盛的当下,由购置处理器带来的成本已相当可观。自研处理器,很有可能是基于实现企业利益最大化的考量。

芯谋研究企业服务部总监王笑龙在接受《中国电子报》记者采访时表示,靠自研芯片提升企业品牌价值可能是一些小企业的思路,对于微软这样体量的企业来说,自研芯片肯定是为优化企业业务服务。

对于云计算厂商来说,传统的服务器通常由CPU和GPU两类处理器组成。其中CPU的主要供应商是英特尔和AMD,GPU的主要供应商是英伟达和AMD。而微软此次推出的两款芯片,恰恰对应这两大类型:Azure Cobalt 100是CPU,Azure Maia 100作为一款AI加速器,主要对应的是当前GPU的功能。萨提亚·纳德拉表示,这两款产品将先自用,再逐步对外供应。

微软发布自研芯片,英伟达黄仁勋为何站台?解析行业合作动机萨提亚·纳德拉发布Azure Cobalt 100

另一方面,现有处理器不是最适合AI的,几乎已经成为算力芯片供应商的共识。这也是在大模型浪潮的推动下,NPU、APU、TPU等AI专用处理器类型纷繁迭出的底层逻辑。在AMD、英特尔等传统处理器企业之外,芯片设计已经吸引了亚马逊、谷歌、腾讯、阿里等云服务商入场。作为服务器芯片最大的客户,以微软为代表的云服务商最了解对芯片的需求。

从微软的角度来看,一面是可见的日益走高的处理器购置费用,另一面是选择更适配AI硬件的需求推动。拿出一些成本,给自身业务的硬件配置提供新选择,何乐而不为?

而选择做CPU,而不仅仅是做AI加速卡,恐怕也是基于未来增长可能性的考量:在自己已有相当的市场容量的基础上,采用功耗更低的Arm设计CPU,也可以在一定程度上实现风险对冲。

那么微软造芯,真得能做得好吗?

所谓微软“造芯”,实际上是指入局芯片设计行业。

从芯片的全生命周期来看,芯片设计的门槛正在降低。一方面EDA等工具链正在逐渐完善,另一方面,Arm提供的IP内核,也为芯片设计者提供了很多预设。业界专家告诉《中国电子报》记者,当前芯片设计的难度正在逐步降低,相较于五六年之前已经大打折扣。相比造芯,对于芯片的迭代和调优过程,也就是如何让芯片走向能用和好用,才是最考验微软的地方。

黄仁勋为何站台?

对于很多“蹲”微软发布会的观众来说,英伟达CEO黄仁勋的出现点燃了发布会的一波高潮。自10月微软造芯的消息传出,网络上流传着很多关于“微软们撬动英伟达”的声音。关于微软自研AI芯片是否会抢占英伟达GPU市场的话题,引发了产业界的热议。

而黄仁勋此次到微软发布会“捧场”,看似使微软与英伟达进行市场争夺的猜测不攻自破,而他发布的内容,也展示了两家企业在AI业务领域的新谋划。

黄仁勋表示,企业使用AI能力主要基于三种模式:一是基于ChatGPT等公有云服务,二是基于Windows等内嵌AI应用的操作系统,三是基于自己的数据和规则定制化创建大模型。

而这第三点,正是AI未来的潜力所在。11月7日,OpenAI发布了名为GPT-4 Turbo的新模型,可支持用户实现“自定义模型”,即通过给模型专有数据,使其可以处理个别细分领域的任务。此次发布会上还发布了ChatGPT的自定义版本GPTs,支持用户的定制化需求。微软Ignite大会上,支持定制化AI服务同样是发布重点。当“人人都可训练模型”,未来的增量市场就相当可观。

微软发布自研芯片,英伟达黄仁勋为何站台?解析行业合作动机OpenAI首次开发者大会提出模型客制化

接下来黄仁勋的发言,给定制化AI模型提供了一个具象化的实现方式:“我们将成为AI模型的代工厂。”

所谓“代工厂”,也就是英伟达基于微软Azure提供的生成式AI Foundry(AI代工)服务,这项服务整合了英伟达的AI基础模型、 NeMo云原生框架和工具以及 NVIDIA DGX云端AI超算服务,面向企业提供创建自定义 AIGC 模型的端到端解决方案,支持企业定制模型以更高效地支持AIGC应用。

在Ignite 2023现场,黄仁勋回顾了英伟达与微软团队在过去一年的合作成果。包括双方共同打造的AI超级计算机已经成为全球速度最快的AI超级计算机和全球第三快的超级计算机,以及“英伟达GPU+Windows PC”的合作模式构建了将大模型从云端推广到PC端和工作站的安装基础等。双方还透露除了AI Foundry服务,英伟达还将产业数字化平台Omniverse托管到了Azure,以及英伟达已经获得了微软AI助手Copilot的全站许可。

两大科技头部企业CEO同台,针锋相对的意思没看到,倒是看出了很多在AI浪潮推动下“慕强”的味道。

AI颠覆一切?

就像黄仁勋在发布会现场所说的:“过去四十年,(计算产业)还没有发生过(影响力)如此大的事情(生成式人工智能)。它比PC大,比手机还大,这是计算机行业历史上最大规模的TAM(可触达市场)扩张。”

生成式人工智能的出现,给算力市场带来的影响是颠覆性的。在生成式人工智能的推动下,算力的需求急遽攀升,供给出现严重不足。原有软硬件、云服务商等市场参与者之间泾渭分明的界限,也因为算力需求的攀升被打破。

在满足算力需求的过程中,各种技术路线正呈现融合趋势。例如CPU和NPU正在从松散的耦合走向异构融合等等。

在这样的趋势下,微软与英伟达的持续合作就变得容易理解。在AI上云的初期,微软利用英伟达GPU给Azure的虚拟机加速,英伟达通过微软Azure扩张在云计算的市场。当ChatGPT横空出世,微软与英伟达共同打造AI超级计算机探索AIGC的发展。英伟达还受邀将软件栈托管到Azure,让英伟达CUDA平台的开发者成为微软Azure的客户。本次推出的AI Foundry服务,将使双方在AIGC的合作更加紧密。

AI时代,生态为王——微软和英伟达的合作一直基于这个逻辑,从简单的软硬件结合走向了系统软件级别的合作,接下来也将向生态级别升维。在生成式AI的浪潮下,把握机会找准合作对象占领市场最为要紧,芯片供应是否存在变化,也不再是头部厂商最关注的点。

可能老黄也会觉得,最终市场归谁所有,时间自会给出答案。



作者丨姬晓婷 张心怡编辑丨邱江勇美编丨马利亚监制丨连晓东微软发布自研芯片,英伟达黄仁勋为何站台?解析行业合作动机

Copyright ©  2012-2024 雪花家园 版权声明 网站地图