Cloudera 和 NVIDIA 让人工智能变得更简单、更快捷
如今,各组织正在应对日益复杂的数据环境,努力释放人工智能和机器学习的全部潜力。Cloudera 与 NVIDIA 的合作旨在加速和简化人工智能(尤其是生成式人工智能)在庞大而敏感的数据资产中的开发、部署和运行。
为什么选择 Cloudera 和 NVIDIA?
Cloudera 和 NVIDIA 的合作侧重于将 NVIDIA 的加速计算和人工智能软件集成到 Cloudera 的人工智能平台中,以加速企业人工智能的发展。Cloudera 的 AI 平台和 NVIDIA 的加速计算与 AI 软件使企业能够将数据转化为可行的洞察,并部署生成式和代理式 AI 用例,同时推动更快的创新,以在快速变化的环境中保持竞争优势。
关于 NVIDIA
NVIDIA 正在攻克其他公司无法解决的挑战。NVIDIA 的工作成就开启了现代 AI 时代,并正在推动各个市场的工业数字化。
主要亮点
类别
独立硬件供应商(IHV)
网站
参考架构
合作亮点
- 2021 年 4 月 12 日:将 NVIDIA RAPIDS Accelerator for Apache Spark 3.0 集成到 Cloudera Data Platform,加速大规模数据分析和人工智能。
- 2024 年 3月 19 日:Cloudera 宣布扩大与 NVIDIA® 的合作,将 NVIDIA® 的 NIM 微服务集成到 Cloudera Machine Learning(现称为 Cloudera AI)中,以增强生成式人工智能功能。
- 2024 年 10 月 8 日:Cloudera 正式发布其 AI Inference 服务(GA 版本,由 NVIDIA NIM 微服务提供支持),以加速企业生成式 AI 的部署。
- 2024 年 11 月 25 日:Cloudera 宣布 Mercy Corps 在 AWS 上的“Tech to the Rescue “AI for Changemakers”项目使用 Cloudera AI Inference 服务(由 NVIDIA NIM 微服务提供支持)。
- 2025 年 8 月 7 日:作为 Cloudera Data Services 1.5.5 GA 版本的一部分,Cloudera AI Inference 服务推出技术预览版。
Cloudera 和 NVIDIA 如何向客户交付私有 AI
Cloudera 致力于推动私有 AI 的发展,使组织能够在其安全边界内使用其专有数据构建和运行人工智能模型和应用程序。这种方法确保了数据主权并符合严格的监管要求。
Cloudera 相信应该将 AI 计算引入数据,而不是将数据迁移到 AI。Cloudera 为需要控制敏感信息的企业提供了安全高效的解决方案。Cloudera AI Inference 服务由 NVIDIA NIM 微服务提供支持,使客户能够在云或本地部署私有 AI。
随时随地加速计算
随时随地访问 GPU——在 GPU 上实现可扩展的 AI 工作负载,降低总体拥有成本
私有人工智能
在您的内部环境和公有云中安全地部署应用程序和模型
任何模型
任何基础模型、大型语言模型(LLM)和转换器库的企业上下文
应用程序和智能体
借助 Cloudera AI Workbench 和 AI 生态系统,构建代理应用程序
可信数据:将模型引入数据,而非将数据引入模型
AI in a Box:在本地部署私有人工智能
AI in a Box 是由 Cloudera、Dell Technologies 和 NVIDIA 联合发起的一项计划,旨在促进企业级私有 AI 在本地的快速安全部署。它结合了 Dell 的强大基础设施、NVIDIA 的高性能加速计算和人工智能软件,以及 Cloudera 的数据平台,提供了一个经过预先验证的端到端人工智能解决方案。这种方法使企业在高效扩展人工智能计划的同时,还能大幅节约成本、加快实现投资回报率并增强安全性。
