本周,英伟达宣布与微软合作多年来构建一个基于云计算的人工智能计算机。这种伙伴关系,微软Azure将成为第一个公共云利用NVIDIA的AI栈-芯片,网络,和软件。更具体地说,超级计算机将动力通过结合微软Azure的可伸缩的ND -和数控系列(即虚拟机和NVIDIA技术。A100 H100 gpu, Quantum-2 InfiniBand网络,和人工智能的企业软件套件)。合作也将把微软的DeepSpeed使用H100双人工智能计算的速度从八位浮点精度通过增加到16位操作。一旦完成,这两家公司声称,它将是最可伸缩的超级计算机,客户将有成千上万的gpu集群部署在一个巨大的语言模型训练,构建复杂的推荐系统,使大规模生成人工智能。

为什么是现在?

这两家公司的合作是一个奇怪的举动。人工智能是一个关键的增长支柱微软。公司的愿景是将“AI每个应用程序,每一个业务流程,和每一位员工。”,这不是第一次,公司已经建立了一个人工智能在Azure超级计算机——第一次是两年前与OpenAI合作。在主流与公共云(2022年全球87%的企业),采用定位Azure的重要推动者,其人工智能工具和服务是一个逻辑的举动。

主要的超大型基础设施服务在许多方面已经达到平价。因此,差异化之路现在是通过先进的计算能力(即等专业化服务。,人工智能和ML),边缘和混合计算产品,和特定行业的解决方案。

微软的策略是提供cost-effe Azure客户影响基础设施对于人工智能工作负载。这一点与吻合Azure的大组合的服务符合忠实的大型社区微软开发人员构建下一代的智能应用程序。

NVIDIA的微软接受答案Amazon Web服务的(AWS)专用芯片AI / ML - Trainium Inferentia——以及谷歌的顶点AI的计数器,一个集成的平台,构成一个专门的人工智能云嵌套在谷歌云平台(GCP)。微软已经有了一个强大的卡片玩权力BI,这通常是模型建立在其他的目标点云。假设其竞争对手无法轻易复制与NVIDIA的交易,微软可以从中取得整个AI /毫升工作流。

微软的交易是一个引人注目的NVIDIA的胜利,也是。其技术无处不在在几乎每一个人工智能基础设施解决方案和云服务。Azure实例已经特性相结合的NVIDIA的A100 GPU和量子200 - gb / s Infiniband网络。GCP和AWS也使用A100,使英伟达云技术连接到几乎所有我们的客户。当然,不仅仅是偶发事件,英伟达是嵌入在每个主要的云提供商。这个决定是由十年前当公司决定设计和市场的gpu基于云计算的智能应用程序。和它作为人工智能的市场和云技术起飞。

其他动机呢?

还有可能是其他动机推动这一伙伴关系的时机?微软和英伟达可以追逐自己的竞争对手?今年4月,富士通宣布它将建设世界上cloud-accessible最快的超级计算机。机器会利用富士通A64X处理器,而著称的能源效率,并将提供一个美国hyperscalers Japan-native替代。今年1月,元与NVIDIA宣布了一项合作建立一个人工智能的超级计算机,在2022年夏天举办超过16000的gpu。或可能有竞争以外的其他因素在起作用:在9月,美国政府命令NVIDIA停止所有A100和H100芯片的出口到中国。

这对你来说意味着什么呢?

明显的影响包括人工智能更容易,采用成本较低,创新是更好的启用,更多的组织可以构建和利用AI功能过程和产品。此外,访问超级计算机将意味着新途径,创新突破和加快设计和产品开发。例如,产品设计,需要大量的仿真和物理原型可以更换和加速快速软件计算。航空公司创业热潮超音速能够使用AWS运行5300万小时计算,并计划使用计算超过1亿小时。微软认为其NVIDIA实现将使它成为一个云这样的工作相结合的首选原料计算能力与权力BI的无缝集成。因此,超级计算机将从昂贵的和异国情调的转移到另一个云计算工作负载的选择可能是昂贵的,但将包更多的穿孔。