日前,NVIDIA 与 Hugging Face 宣布建立合作伙伴关系,为数百万开发者提供生成式 AI 超级计算服务,帮助他们构建大语言模型(LLM)和其他高级 AI 应用。
NVIDIA与Hugging Face将连接数百万开发者与生成式AI超级计算
此次合作将使开发者能够使用 Hugging Face 平台内的 NVIDIA DGX Cloud AI 超级计算为高级 AI 模型进行训练及调优,借助为智能聊天机器人、搜索、摘要等特定行业应用的业务数据定制的大语言模型(LLM),推动生成式 AI 在各个行业中的应用。
【资料图】
NVIDIA 创始人兼首席执行官黄仁勋表示:“研究人员和开发者是正在改变每个行业的生成式 AI 的核心力量。Hugging Face 与 NVIDIA 正在将全球最大的 AI 社区与 NVIDIA 在全球领先云环境中的 AI 计算平台相连接。通过双方的合作,Hugging Face 社区用户只需要点击一下鼠标,就可以使用 NVIDIA AI 计算。”
作为合作的一部分,Hugging Face 将提供一项名为“训练集群即服务(Training Cluster as aService)”的新服务,用以简化企业创建新的自定义生成式 AI 模型的过程。该服务由 NVIDIA DGX Cloud 提供支持,将在未来几个月内推出。
Hugging Face 联合创始人兼首席执行官 Clément Delangue 表示:“世界各地的人们正在利用生成式 AI 工具建立新的联系,进行新的探索,而我们仍处于这一技术转型的早期阶段。双方的合作将为 Hugging Face 带来NVIDIA 最先进的AI 超级计算,使企业能够通过开源并以他们需要的速度将 AI 的命运牢牢掌握在自己手中,推动未来发展。”
在 Hugging Face 中大幅增强LLM 定制和训练功能
Hugging Face 平台让开发者能够利用开源资源构建、训练和部署最先进的 AI 模型。目前有超过 15,000 家企业机构正在使用 Hugging Face,社区共享了超过 25 万个模型和 5 万个数据集。
DGX Cloud 与 Hugging Face 的集成将实现对 NVIDIA 多节点 AI 超级计算平台的一键式访问。通过 DGX Cloud,Hugging Face 用户将能够连接到 NVIDIA AI 超级计算,提供利用独家数据快速训练和调整基础模型所需的软件和基础架构,推动新一轮企业大语言模型(LLM)开发浪潮。借助由 DGX Cloud 提供支持的训练集群即服务,企业将能够利用其在 Hugging Face 上的独家数据,以前所未有的速度创建出独一无二的高效模型。
DGX Cloud 为大规模模型加速开发和定制
每个 DGX Cloud 实例均配备 8 颗 NVIDIA H100 或 A100 80GB Tensor Core GPU,每个节点的 GPU 总内存为 640GB。NVIDIANetworking 所提供的高性能、低延迟结构确保工作负载能够在互联系统集群中进行扩展,从而满足高级 AI 工作负载的性能要求。
DGX Cloud 还提供 NVIDIA 专家支持,可帮助客户优化模型并快速解决开发难题。
DGX Cloud 基础设施由领先的 NVIDIA 云服务提供商合作伙伴托管。
供应情况
与 Hugging Face 集成的 NVIDIA DGX Cloud 预计将在未来几个月内推出。
标签: