概述
现代存储基础,用于分析和人工智能。
超越 HDFS 的现代化:可扩展至数十亿个对象,并支持密度高 5 倍的存储节点,从而大幅降低您的总体拥有成本。
统一所有工作负载: 在一个平台上运行 S3 原生 AI 和云应用程序,同时运行现有的 Spark 和 Hive 分析作业。
提高弹性和效率:利用擦除编码将存储开销减少 50%,并利用现代化架构确保高可用。
突破了 Hadoop 分布式文件系统(HDFS)的 4 亿个文件限制。原生扩展到 100 亿个甚至更多对象,彻底解决了“小文件问题”。
为现代 AI/ML 工作负载(TensorFlow、PyTorch)提供原生 S3 API,并为现有分析(Spark、Hive)提供与 Hadoop 兼容的文件系统。
从 100TB HDFS 节点转移到 500TB 以上节点。这种 5 倍密度可大幅减少数据中心的占地面积、电力和冷却成本。
用高效的擦除编码(例如 RS 6+3)取代 3 倍数据复制,将存储开销降低 50%或更多,同时保持数据的耐用性。
