使用合适的工具和技术,将生成式 AI 模型从开发阶段向生产阶段推进。
体验企业就绪型端到端生成式 AI 平台。
利用 NVIDIA 构建的领先开源生成式 AI 模型开始原型设计,这些模型已进行调优,可帮助提高性能和效率。NVIDIA API 目录中的 AI 模型可以使用 NVIDIA NIM™ 微服务进行部署 ,也可以使用 NeMo 进行定制。
NVIDIA Blueprint是基于 NVIDIA AI 技术和 Omniverse™ 库、SDK 和微服务的综合参考工作流。 每个 Blueprint 都涵盖了参考代码、部署工具、定制指南以及参考架构,能够加速 AI 智能体和数字孪生等 AI 解决方案周期从原型到生产部署的迭代。
NVIDIA AI Enterprise 是一个端到端的软件平台,它使每个企业都能触手可及地利用生成式 AI,为生成式 AI 基础模型提供最快、最高效的运行时环境。该平台包含 NeMo 和 NVIDIA NIM,能够简化模型部署,并提供出色的安全性、稳定性、可管理性和支持服务。
立即申请参与 90 天免费试用,获取生成式 AI 解决方案并获取企业级支持。
NVIDIA NeMo 是一款端到端云原生框架以及一整套微服务,可以让用户不受位置限制,灵活地构建、定制和部署生成式 AI 模型。它包含了大规模数据管护、利用高级定制技术加速训练、设置安全边界以及优化推理,为企业提供一种简单、经济高效且快速的方式来采用生成式人工智能。
NeMo 作为 NVIDIA AI Enterprise 的一部分提供。有关完整的定价和许可信息,请查看此处。
NeMo 可用于定制大语言模型 (LLM)、视觉语言模型 (VLM)、自动语音识别 (ASR) 和文本转语音 (TTS) 模型。
客户可以通过订阅 NVIDIA AI Enterprise 同时获得 NeMo 和 NVIDIA 企业级标准支持服务。NVIDIA 企业级标准支持服务可提供服务等级协议、与 NVIDIA 专家交流的机会,以及涵盖本地和云部署的长期支持服务。
NVIDIA AI Enterprise 中提供了 NVIDIA 企业级标准支持服务。如需其他可用的支持和服务,如 NVIDIA 业务关键型支持、技术客户经理、培训和专业服务,请参阅《 NVIDIA 企业支持与服务指南》。
NeMo Curator 是一项可扩展的数据管护微服务,可帮助开发者整理 LLM 预训练所需的包含万亿个 Token 的多语言数据集。它由一组 API 形式的 Python 模组组成,这些模组利用 Dask、cuDF、cuGraph 和 Pytorch 将数据下载、文本提取、清理、筛选、完全匹配/模糊匹配去重和文本分类等数据管护任务扩展到数千个计算核心。
NeMo Guardrails 是一项微服务,可确保大语言模型在智能应用中的准确性和安全性。它能为监管 LLM 系统的企业组织提供保障。
使用 NeMo Guardrails,开发者可以设置三种边界:
NeMo Retriever 是一组使用 NVIDIA NIM 构建的生成式 AI 微服务,企业可以利用它将自定义模型无缝连接到各种业务数据,以提供高度准确的回复。NeMo Retriever 可提供出色的信息检索功能,具有更低延迟、更高吞吐量和更强的数据隐私保护,让企业能够更好地利用自身数据并生成实时业务见解。NeMo Retriever 可通过企业级检索增强生成 (RAG)功能增强 AI 应用,该功能可以连接到位于任何位置的业务数据。
NVIDIA NIM 是 NVIDIA AI Enterprise 的一部分,是一个易于使用的运行环境,专为在企业内加速部署生成式 AI 而设计。这项功能齐全的微服务支持各种 AI 模型,包括开源社区模型、NVIDIA AI Foundation 模型以及自定义 AI 模型。它以推理引擎为稳健基础,旨在加速大规模无缝 AI 推理,确保可跨云端、数据中心和工作站部署 AI 应用。
NeMo Evaluator 是一个微服务,专为快速可靠地评估自定义 LLM 和 RAG 而设计。它涵盖各种采用预定义指标的基准测试,包括人工评估和 LLM (LMMs-as-a-judge) 评估技术。通过 API 调用,用户可在首选的云平台或数据中心的 Kubernetes 集群上同时部署多个评估作业,从而高效地汇总结果。
NeMo Customizer 是一项可扩展的高性能微服务,能够简化为特定领域用例定制的 LLM 的微调和对齐过程。
检索增强生成这项技术可将 LLM 连接到公司知识库,让 LLM 根据最新信息生成回复的技术。NeMo 可以搭配 Milvus、Llama Index 和 LangChain 等多种第三方工具和社区工具配合使用,从向量数据库中提取相关信息片段并将其提供给 LLM,从而以自然语言生成回复。浏览采用 RAG 工作流的 AI 聊天机器人页面,开始构建能够准确回答您的企业数据相关问题的生产级 AI 聊天机器人。
NVIDIA 提供了 AI 工作流,即封装的云原生参考示例,用于说明如何利用 NVIDIA AI 框架构建 AI 解决方案。借助预训练模型、训练和推理工作流、Jupyter Notebook 以及 Helm 图表,AI 工作流可以帮助加快 AI 解决方案的交付。
使用以下端到端工作流,您可以快速构建生成式 AI 解决方案:
NVIDIA Blueprint是基于 NVIDIA AI 和 Omniverse™ 库、SDK 和微服务构建的综合参考工作流。 每个 Blueprint 均提供完整套件,包括参考代码、部署工具、定制指南和参考架构,加速了 AI 智能体和数字孪生等 AI 解决方案从原型到生产部署的迭代。
NVIDIA AI Enterprise 是一个端到端云原生软件平台,可加速数据科学工作流并简化生产级 AI 应用 (包括生成式 AI、计算机视觉、语音 AI 等) 的开发和部署。此平台不仅为 AI 从业者提供了业界领先的开发工具、框架、预训练模型和微服务,还配备了可靠的管理功能,以满足 IT 专业人员对性能、API 稳定性和安全性的需求。
NVIDIA API 目录提供生产就绪型生成式 AI 模型和持续优化的推理运行时,它们封装为 NVIDIA NIM 微服务,可通过标准化工具轻松部署到任何 GPU 加速系统上。
及时了解 NVIDIA 发布的生成式 AI 最新资讯。