简单的介绍一下大数据中最重要的MapReduce

MapReduce是分布式运行的,由两个阶段组成:Map和Reduce,Map阶段是一个独立的程序,有很多个节点同时运行,每个节点处理一部分数据。
首页 新闻资讯 行业资讯 简单的介绍一下大数据中最重要的MapReduce

简单的介绍一下大数据中最重要的MapReduce
MapReduce执行流程图

概述

MapReduce是一种分布式计算模型,由Google提出,主要用于搜索领域,解决海量数据的计算问题。

MapReduce是分布式运行的,由两个阶段组成:Map和Reduce,Map阶段是一个独立的程序,有很多个节点同时运行,每个节点处理一部分数据。

Reduce阶段是一个独立的程序,有很多个节点同时运行,每个节点处理一部分数据。

使用

MapReduce框架都有默认实现,用户只需要覆盖map()和reduce()两个函数,即可实现分布式计算,非常简单。

这两个函数的形参和返回值都是,使用的时候一定要注意构造。

 

简单的介绍一下大数据中最重要的MapReduce

执行流程(此处举例说明)

复制

一个文本(在HDFS上面保存,两个block)中每一个单词的出现的次数:     hello you hello marry     hello me really             ----->block-1                  hello kate ready     xiao wang hello tomcat             ----->block-2
  • 1.

  • 2.

  • 3.

  • 4.

  • 5.

  • 6.

  • 7.

  • 8.

1.获取每一个block块中的文本,遍历所有,回去其中的一行str

因为要统计的是每一个单词i的次数,所以还需要直到文本中有哪些单词,可以根据字符串的特点,使用split()进行切割。

复制

String[] words=str.split("");
  • 1.

根据要求,需将每一个单词i转换为的形式,k为单词本身,v为单词出现的次数。

2.因为mr的计算是分布式的 ,每一个map(称之为一个mapper task)计算其中的一个block块数据。

复制

map阶段:     输入<K1,V1>         k1,偏移量,v1,当前行文本内容         map()函数操作     输出<K2,V2>         k2,具体单词,v2,单词对应的统计项,比如次数     输出<K2,V2>
  • 1.

  • 2.

  • 3.

  • 4.

  • 5.

  • 6.

  • 7.

复制

shuffle阶段 研究后发现,如果按照<key,1>这种方式向reduce输出数据的时候,会有 大量的冗余数据。 比如map阶段之后有5个hello,则输出<hello,1>,<hello,1>,<hello,1>, <hello,1>,<hello,1>5次,实际上会对网络造成一定的压力,能不能对 这5个<hello,1>进行一个进入reduce之前的本地组合?比如成为 <hello,5>或者<hello,[1,1,1,1,1]>. 这个过程成为shuffle,洗牌重组阶段,达到上述的结果,称之为规约。 >>>shuffle阶段,也就是对map的输出进行重新洗牌: 分区、分组、排序 <K2,V2>...===><K2,V2s>
  • 1.

  • 2.

  • 3.

  • 4.

  • 5.

  • 6.

  • 7.

  • 8.

  • 9.

  • 10.

  • 11.

复制

reduce阶段 接收map的输出结果<key,values> 对这个结果进行汇总统计,针对values,进行简单的累加,计算得出key 对应的次数 reduce针对一个key调用一次reduce()函数 =====>reduce 阶段 输入<K2,V2>     K2,就是map的输出的K2,V2s是map经过shuffle之后的结果集     reduce()函数操作 转化为<K3,V3>
  • 1.

  • 2.

  • 3.

  • 4.

  • 5.

  • 6.

  • 7.

  • 8.

  • 9.

  • 10.

经过上述操作之后,系统会将计算结果输出给用户,一般会先存储(落地)到hdfs,然后反馈给用户。

到此为止,MapReduce执行完毕,接下来就可以进行大数据的其他一系列操作了。