hlfs roadmap ? 目前0.1版本实现了基本概念原型,系统支持随机读写。未来将进一步实现: checkpoint机制 —— block cache机制、异步回写机制 —— 目前都是写透读透,安全性高,但性能差。 预读readahead —— 读性能优化主要靠readahead和提高cache命中率。 异步实现hlfs driver for tapdisk —— 目前实现是用同步IO模型实现之。 hdfs一致性的改进(或者说特化) hlfs 项目中包含那些组件 ? libhlfs 库 tools —— mkfs.hlfs 格式化工具 hlfs-seg-usaage-calc 段使用统计工具 hlfs-seg-clean 段清理工具(只能用于离线状态使用) hlfs driver for tapdisk2 hlfs driver tapdisk2的一个driver tapdisk_ops 外部控制工具 采用nbd架构的虚拟磁盘实现 ndb-server nbd-client nbd-ops 外部控制工具 hlfs 和同类项目有什么区别 ? sheepdog——牧羊犬项目的目的和hlfs最为相似,都是奔着EBS服务而生。hlfs先从xen虚拟化实现入手,sheepdog从kvm入手 (不过这都不重要,两者都是面向block-level的)。牧羊犬项目的实现,颇具创意——其采用对等网(无单点)结构实现后台存储服务,颇有Dynamo的影子在其中;hlfs的后台存储没有自己实现,而是建设于hadoop dfs之上,可以说是站在巨人肩膀上 —— 我们也曾经思考过独立开发分布存储系统,不过考虑工作量、以及更重要的是,考虑到我们设想是在最终理想的云环境中离线任务和在线应用是无差别的混合部署。而hadoop是离线应用的基石之一。所以希望整个系统都能遵循以hdfs为最下层存储基础,其他各种服务(如VM服务镜像存储服务、如key value存储服务、SQL \NO SQL等数据服务)都建立在其上的“分层策略”。基于此考虑,我们选择了hdfs做后台存储。 moose ——有些公司采用moose实现虚拟机镜像存储(存放镜像文件)。moose系统做镜像存储来说有点“大材小用”,或者尾大不掉的感觉。它是一个实在的文件系统,而不是block-level级别的存储系统,相比而言元数据管理稍微重点。moose系统存储镜像,就需要使用fuse模式挂载到本地系统,也就是说数据流要经过内核态转发,相比hlfs只存在于用户态,所以数据流更精简,另外就是错误不至于影响内核错误;另外moose系统的反熵过程比较慢,较为影响当前写操作;不能实现随时快照功能。 Drbd ——DRDB可看成网络RAID。能解磁盘冗余、跨机器问题。但不能提供thin provisoning,也不能动态负载均衡。 本站文章除注明转载外,均为本站原创或编译 欢迎任何形式的转载,但请务必注明出处,尊重他人劳动共创开源社区 转载请注明:文章转载自:开源中国社区 [http://www.oschina.net] 本文标题:新一代弹性云计算平台 Cloudxy 发布 0.1 版 本文地址:http://www.oschina.net/news/23589/cloudxy-0-1-released 收藏此资讯 |