在当今的技术领域,大数据是个热门的IT流行词语。为了减轻处理大量数据时的复杂度,Apache开发了Hadoop——一个可靠的、可扩展的分布式计算框架。Hadoop特别适合大数据处理任务,并且它可以利用其分布式的文件系统,可靠并且低成本的将数据块复制到集群中的节点上去,从而使数据能在本地机器上进行处理。Anoop Kumar从十个方面讲解了利用Hadoop处理大数据所需要的技巧。 对于从HDFS中导入/导出数据方面,Anoop指出,在Hadoop的世界中,数据可以从多种不同的来源中被导入到Hadoop分布式文件系统中(HDFS)。在向HDFS中导入数据后,将通过用MapReduce或者其他语言比如Hive、Pig等来对数据进行某一层次的处理。
第二个方面是HDFS中的数据压缩,Hadoop中的数据存储在HDFS上,并且支持数据的压缩与解压缩。数据压缩可以通过一些压缩算法来实现,例如bzip2、gzip、LZO等。不同的算法可以根据其功能在不同的情况下使用,比如压缩/解压缩的速度或者文件分割的能力等。 在Hadoop的转换方面,Hadoop是一个用于提取和转换大量数据的理想环境。同时,Hadoop提供了一个可扩展、可靠的并且分布式的处理环境。通过使用MapReduce、Hive和Pig等,可以用很多种方式来提取并转换数据。
对于如何实现通用的任务,Anoop介绍说,有很多通用的任务需要在数据的日常处理中被完成,并且其使用频率是很高的。一些如Hive、Pig和MapReduce等可用的语言可以协助你完成这些任务,并使你的生活更加轻松。
在Hadoop组合大量数据,一般情况下,为了得到最终的结果,数据需要加入多个数据集一起被处理和联合。 Hadoop中有很多方法可以加入多个数据集。MapReduce提供了Map端和Reduce端的数据连接。这些连接是非平凡的连接,并且可能会是非常 昂贵的操作。Pig和Hive也具有同等的能力来申请连接到多个数据集。Pig提供了复制连接,合并连接和倾斜连接(skewed join),并且Hive提供了map端的连接和完整外部连接来分析数据。一个重要的事实是,通过使用各种工具,比如MapReduce、Pig和 Hive等,数据可以基于它们的内置功能和实际需求来使用它们。 如何在Hadoop分析大量数据,Anoop指出,通常,在大数据/Hadoop的世界,一些问题可能并不复 杂,并且解决方案也是直截了当的,但面临的挑战是数据量。在这种情况下需要不同的解决办法来解决问题。一些分析任务是从日志文件中统计明确的ID的数目、 在特定的日期范围内改造存储的数据、以及网友排名等。所有这些任务都可以通过Hadoop中的多种工具和技术如MapReduce、Hive、Pig、Giraph和Mahout等来解决。这些工具在自定义例程的帮助下可以灵活地扩展它们的能力。
Hadoop世界中的调试,调试在任何一个开发过程中都永远是个重要的过程。Hadoop环境中对于调试的需求和对Hadoop本身的需求一样重要。有一种说法是格式错误和意外的输入是很常见的,这将造成一切事务在一个较高的规模上中断。这也是处理大规模非结构化数据中的一个不幸的缺点。
|