设为首页收藏本站

LUPA开源社区

 找回密码
 注册
文章 帖子 博客
LUPA开源社区 首页 业界资讯 开源资讯 查看内容

Cloudera旨在以Spark取代MapReduce作为默认Hadoop框架

2015-9-13 16:07| 发布者: joejoe0332| 查看: 912| 评论: 0|原作者: csdn|来自: csdn

摘要: 因为Spark的项目比Hadoop项目更活跃大约为50%,所以Cloudera今天宣布它正努力地使Spark取代默认的Hadoop数据处理框架。Apache Spark内存计算框架更接近于Apache Hadoop,Cloudera今天宣布它正努力地使Spark取代默认 ...
  因为Spark的项目比Hadoop项目更活跃大约为50%,所以Cloudera今天宣布它正努力地使Spark取代默认的Hadoop数据处理框架。



  Apache Spark内存计算框架更接近于Apache Hadoop,Cloudera今天宣布它正努力地使Spark取代默认的Hadoop数据处理框架。


  “虽然IT公司将会继续添加其他数据处理框架叠加在Hadoop集群顶部,One Platinum Initiativ是一个以Spark取代MapReduce作为默认数据处理引擎的基本案。”Cloudera的产品营销总监Matt Brandwein。


  大多数IT组织认为MapReduce是一个相当晦涩难懂的编程工具。出于这个原因,许多人愿意采用任意数量的SQL引擎作为查询Hadoop数据的工具。


  谷歌因为没有达到预期的目标,公开宣布停止使用MapReducebecause,取而代之的是自己公司Dataflow框架。公司launchedDataflow今年早些时候一个测试版的云服务。该公司今年早些时候推出了Dataflow作为测试云服务。


  当涉及到建筑分析应用程序驻留在Hadoop上, Spark框架已经受到大量的拥护。


  Brandwein指出, Spark的项目比Hadoop项目更活跃50%。One Platinum倡议会实际上形式化已经用标准方法迅速构建Hadoop上分析的应用程序。


  “我们希望将Apache Spark和Hadoop统一起来。”他说。“我们已经有200多个客户运行Apache Hadoop的Spark。”


  Cloudera声称Brandwein有比其他Hadoop供应商多五倍多的工程资源致力于Spark,并且贡献了超过370个补丁和43000行代码给开源流分析项目。Cloudera也促使Spark集成Hadoop上的资源整合,此外集成工作涉及的SQL框架如Impala;信息传递系统如Kafka;还有数据摄入工具,如Flume。


  Brandwein说他们的长期的目标是,使Spark工作规模同时在多租户集群拥有超过10000个节点成为可能,这需要Spark的可靠性、稳定性和效率显著改善。


  Cloudera补充说,它也致力于使Spark更容易在企业生产环境中管理,确保Spark流至少支持80%常见流处理的工作量。最后,要使.使这些实时工作量达到.更高水平的语言层次之外,Cloudera将提高Spark流的效率。


  这一倡议到底得到多少支持Cloudera也有待观察。例如,该公司与Inte和Oracle有着长期的合作关系。在这个关头,其余的IT产业似乎更致力于Cloudera的竞争对手Hortonworks提出的Hadoop分配。


原文链接:Cloudera Aims to Replace MapReduce With Spark as Default Hadoop Framework(编译/李子健、白雪)


酷毙

雷人

鲜花

鸡蛋

漂亮
  • 快毕业了,没工作经验,
    找份工作好难啊?
    赶紧去人才芯片公司磨练吧!!

最新评论

关于LUPA|人才芯片工程|人才招聘|LUPA认证|LUPA教育|LUPA开源社区 ( 浙B2-20090187 浙公网安备 33010602006705号   

返回顶部