推动 AI 开发和部署,同时保护 AI 生命周期的所有阶段。
Cloudera AI 推理服务由 NVIDIA NIM 微服务提供支持,提供市场领先的性能——在 NVIDIA GPU 上实现高达 36 倍的推理速度,并在 CPU 上实现近 4 倍的吞吐量——无缝地简化了公共云和私有云中的 AI 管理和治理。
一项服务满足您所有企业 AI 推理需求
一键部署:快速将您的模型从开发迁移到生产,无论环境如何。
一个安全的环境:获取涵盖您人工智能生命周期所有阶段的强大端到端安全保障。
一个平台:通过一个能够满足您所有 AI 需求的单一平台,您可以无缝管理所有模型。
一站式支持:通过 Cloudera 获得所有硬件和软件问题的统一支持。
AI Inference 服务的关键特性
AI 推理服务部署选项
在本地或云中运行推理工作负载,而不影响性能、安全性或控制权。
Cloudera 云端部署
- 多云灵活性:部署在公有云上,避免生态系统锁定。
- 更快的价值实现:无需基础设施建设即可开始推理计算——非常适合快速实验。
- 弹性可扩展性:通过支持零扩展的自动扩展功能和 GPU 优化的微服务,轻松应对不可预测的流量。
Cloudera 本地部署
- 数据主权:保留完全控制权。将模型、提示和资产完全置于防火墙后方。
- 支持隔离网络:专为政府、医疗和金融服务等受监管环境设计。
- 可预测且总拥有成本更低:与基于代币的云 API 相比,固定定价和更低的总拥有成本可消除意外。
演示
亲自体验轻松的模型部署
了解如何轻松部署大型语言模型,并借助强大的 Cloudera 工具有效管理大规模AI应用。
模型注册表集成:
通过集中化的 Cloudera AI Registry 存储库,您可以无缝地访问、存储、版本化和管理模型。
简易配置与部署:在云环境中部署模型,设置端点,并调整自动缩放以提高效率。
性能监控:
根据延迟、吞吐量、资源利用率和模型健康等关键指标进行故障排除和优化。
Cloudera AI 推理让您能够利用 NVIDIA 的 AI 专业知识大规模释放数据的全部潜力,并使用企业级安全功能来保护数据,从而可以自信地保护数据并在本地或云端运行工作负载,同时以必要的灵活性和治理高效地部署 AI 模型。
