百能云芯(元器件)首页 > 百能资讯 > 热点资讯 > 谷歌云将与英伟达合作推动人工智能运算、软件和服务!

热点资讯

谷歌云将与英伟达合作推动人工智能运算、软件和服务!

百能云芯

360

导读:

“Google Cloud与NVIDIA今日宣布推出新的人工智能基础架构和软件,提供客户建立和部署大规模的生成式人工智能模型,并加速资料科学工作负载。”


  Google CloudNVIDIA今日宣布推出新的人工智能基础架构和软件,提供客户建立和部署大规模的生成式人工智能模型,并加速资料科学工作负载。


  

  在Google Cloud Next的一场炉边谈中,Google Cloud 执行官 Thomas KurianNVIDIA创办人暨执行官黄仁勋讨论了这个合作伙伴关系如何将端到端的机器学习服务带给全球最大型的人工智能客户,包括在基于 NVIDIA 技术建构的Google Cloud服务中,使运行人工智能超级电脑变得更加容易。新的软硬件整合使用了过去两年来Google DeepMindGoogle研究团队所使用的相同NVIDIA技术。

  

  黄仁勋表示:「我们正处于一个加速运算和生成式人工智能相结合的转折点,以前所未有的速度推动创新。我们与Google Cloud的扩大合作将帮助开发人员加速他们在基础架构、软件和服务等方面的工作,从而提高能源效率并降低成本。」

  

  Kurian表示:「Google Cloud人工智能创新方面有着悠久的历史,旨在促进和加速我们客户的创新。许多Google 产品都是基于NVIDIA GPU 建构和提供服务的,我们许多客户正在寻求 NVIDIA 的加速运算,以高效开发大型语言模型,从而推动生成式人工智能的发展。」

  

  

  Google用于建立大型语言模型(LLM)的架构PaxML,现已经优化以支持NVIDIA加速运算。

  

  PaxML最初是为了跨越多个Google TPU加速器切片而构建的,现在使开发人员能够使用NVIDIA H100A100 Tensor Core GPU进行先进且完全可配置的实验和规模。NVIDIA NGC软件目录中即刻起提供GPU优化的PaxML容器。 此外,PaxMLJAX上运行,JAX已针对利用 OpenXLA编译器的GPU进行了优化。

  

  Google DeepMind和其他Google研究人员是首批使用PaxMLNVIDIA GPU进行探索性研究的团队。

  

  NVIDIA NGC容器登录服务中将立即提供用于PaxMLNVIDIA优化容器,提供全球正在构建新一代人工智能应用的研究人员、新创公司和企业使用。

  

  此外,两家公司还宣布Google透过Google Dataproc服务将无服务器SparkNVIDIA GPU整合。这将帮助资料科学家加速Apache Spark的工作负载,以准备进行人工智能开发所需的资料。

  

  这些新的整合是NVIDIAGoogle广泛合作历史中最新的进展。双方发布多项软硬件产品,包括:Google Cloud将在由NVIDIA H100提供动力的A3虚拟机器上运行 — Google Cloud 2023830日宣布其以NVIDIA H100 GPU提供动力、专门构建的Google Cloud A3虚拟机器将在下个月正式推出,使NVIDIA人工智能平台更易用于广泛的工作负载。与前一代相比,A3虚拟机器的训练速度提高了3倍,网络频宽也有显著的提升。

  

  NVIDIA H100 GPUGoogle CloudVertex 人工智能平台提供动力 — 预计未来几周内,在 VertexAI上将普遍可用H100 GPU ,使客户能够快速开发生成式人工智能大型语言模型。

  

  Google Cloud将可使用NVIDIA DGX GH200 Google Cloud将成为世界上首批能够使用NVIDIA DGX GH200 人工智能超级电脑设备的公司之一,该超级电脑搭载了NVIDIA Grace Hopper超级芯片,可用于探索其在生成式人工智能工作负载方面的能力。

  

  NVIDIA DGX Cloud将于Google Cloud上运行 — NVIDIA DGX Cloud人工智能超级运算和软件将可供客户直接从网页浏览器中使用,以提供高速和大规模的进阶训练工作负载。

  

  Google Cloud Marketplace上提供NVIDIA AI Enterprise — 使用者能使用NVIDIA AI Enterprise,它是一个安全的云端原生软件平台,可简化开发和部署企业级应用程序,包括生成式人工智能、语音人工智能、电脑视觉等。

  

  Google Cloud率先提供NVIDIA L4 GPU 2023年稍早,Google Cloud随着G2虚拟机器的推出,成为首家提供NVIDIA L4 Tensor Core GPU的云端服务供应商。当客户从CPU切换至L4 GPU以处理人工智能影片工作负载,可提升高达120倍的效能、效率提升99%L4 GPU广泛用于影像和文字的生成,以及虚拟桌面基础架构(VDI )和人工智能加速的音频视频转码。

  

  *免责声明:文章来源于网络,如有争议,请联系客服。