Cloudera 联合 NVIDIA NIM 推出 AI 推理服务,可加快 GenAI 部署。了解详情
数据科学团队需要的自由度通过 IT的云原生服务予以提供。
Cloudera AI(原名 Cloudera Machine Learning)使企业数据科学团队可以在整个数据生命周期中进行协作,并能立即访问安全、可信的数据管道、可扩展的计算资源和首选工具。简化大规模分析的实施流程,并整合先进功能,如检索增强生成(RAG)、多代理工作流和机器学习项目加速器(AMPs)。
Cloudera AI 使用用于部署、服务和监控模型的原生强大工具优化整个企业的工作流程。借助扩展的 SDX for Models,治理和自动化模型编目,然后无缝地将结果呈现出来,以便在 Cloudera Data Services 中进行协作,包括 Cloudera Data Warehouse 和 Cloudera Operational Database。
通过利用 AMP 和 AI Studios 优化 AI 数据生命周期,确保模型和代理能够提供可信赖的结果。透明且可重复的工作流程使团队能够快速创新。
为数据科学团队提供可扩展的推理服务和基于代理的编排,保持严格的安全和治理标准。在不妥协的情况下实现敏捷性和效率。
Cloudera AI 用例
- 把 AI 从概念变成现实
- 借助 MLOPS 扩展机器学习
- 开启探索性数据科学
把 AI 从概念变成现实
借助 Accelerators for Machine Learning Projects (AMP) 缩短实现价值的时间。
AMP 的作用,是通过为 Cloudera AI 中的特定用例提供定制解决方案来启动您的 AI 计划。他们向用户提供高质量预构建的参考示例以助其快速获得成功,这些参考示例可轻松适配您的具体要求,缩短项目实现价值的时间,并提升业务影响力。
向数百万客户提供个性化建议并不断改进反洗钱检测手段
超过一百万的个性化机器学习建议可为客户关系经理节省超过 1000 个小时的人工分析时间。
借助 MLOPS 扩展机器学习
通过 MLOps 提升透明度、协作和ROI,令您获益匪浅。
MLOps 帮助建立持续改进机制,确保模型保持最新状态,同时智能工作流能够适应不断变化的环境。维护所有 AI 工作负载的数据安全性、合规性和生命周期治理。
开启探索性数据科学
利用动态、上下文丰富的分析来缩短数据探索和可操作洞察之间的鸿沟。
利用经过认证的数据集、集成可视化和支持 RAG 的搜索,快速发现模式、改进假设并为决策提供信息——所有这些都在统一的环境中完成。
Cloudera AI 主要功能
只需单击几下即可部署工作区,为数据科学团队提供访问项目环境和自动弹性计算资源的权限,以进行集成开发、培训或微调,以及用于端到端企业 AI 的任何规模的模型推理。
利用 Cloudera AI,管理员和数据科学团队可以从数据源到生产环境拥有完全的可见性,从而实现透明的工作流程并简单而又安全地跨团队协作。
数据科学家不应该在工具之间切换来发现、查询和可视化数据集。Cloudera AI 提供由 AI 助手增强的集成环境,为您的所有探索性和情境化 AI 驱动的数据科学需求提供单一用户界面。
AMP 是 Cloudera AI 的项目,可以直接从 Cloudera AI 一键部署。AMP 使数据科学家能够在很短的时间内把一个想法变成完整的用例。它们为即时构建、部署和监控业务就绪的AI应用提供了一个端到端的框架。
Cloudera AI 的 MLOps 功能支持一键式模型部署、模型分类和精细化预测监控,确保整个生产环境中模型的安全性和准确性。
通过一致且易于使用的体验提供洞察力,具有直观易用的拖放式仪表板和自定义应用程序创建功能,并通过 AI 助手进行增强。
Cloudera AI 部署选项
将 Cloudera AI 部署在任何地方,并且在每个地方都提供云原生、可移植且一致的体验。
Cloudera 云端部署
- 多云就绪:避免锁定,利用 AI 推理、代理和 AMPs 处理来自任何地方的数据。
- 可扩展:动态扩展计算资源,仅按实际使用量付费。
- 完整的生命周期集成:跨 Cloudera 体验(包括 Cloudera Data Engineering 和 Cloudera Data Warehouse)无缝安全地共享工作负载和输出。
Cloudera 本地
- 成本效益:优化复杂情境建模和 AI 工作流程的资源使用。
- 优化性能:通过工作负载隔离和多租户管理,确保达成服务水平协议(SLA)。
- 高效协作:在数据生命周期的每一个阶段在团队之间安全地共享工作负载、数据、模型和结果。
