推动 AI 开发和部署,同时保护 AI 生命周期的所有阶段。
Cloudera AI 推理服务由 NVIDIA NIM 微服务提供支持,提供市场领先的性能——在 NVIDIA GPU 上实现高达 36 倍的推理速度,并在 CPU 上实现近 4 倍的吞吐量——无缝地简化了公共云和私有云中的 AI 管理和治理。
一项服务满足您所有企业 AI 推理需求
一键部署:快速将您的模型从开发迁移到生产,无论环境如何。
一个安全的环境:获取涵盖您人工智能生命周期所有阶段的强大端到端安全保障。
一个平台:通过一个能够满足您所有 AI 需求的单一平台,您可以无缝管理所有模型。
一站式支持:通过 Cloudera 获得所有硬件和软件问题的统一支持。
AI Inference 服务的关键特性
* 功能即将推出。如需更多信息,请联系我们。
演示
亲自体验轻松的模型部署
了解如何轻松部署大型语言模型,并借助强大的 Cloudera 工具有效管理大规模AI应用。
模型注册表集成: 通过集中化的 Cloudera AI Registry 存储库,您可以无缝地访问、存储、版本化和管理模型。
简易配置与部署:在云环境中部署模型,设置端点,并调整自动缩放以提高效率。
性能监控:根据延迟、吞吐量、资源利用率和模型健康等关键指标进行故障排除和优化。
Cloudera AI 推理让您能够利用 NVIDIA 的 AI 专业知识大规模释放数据的全部潜力,并使用企业级安全功能来保护数据,从而可以自信地保护数据并在本地或云端运行工作负载,同时以必要的灵活性和治理高效地部署 AI 模型。
