MapReduce 和 Hive 工作流程。
Hive 执行流程
(执行查询操作)Execute Query
命令行或Web UI之类的Hive接口将查询发送给Driver(任何数据库驱动程序,如JDBC、ODBC等)以执行。(获取计划任务)Get Plan
Driver借助查询编译器解析查询,检查语法和查询计划或查询需求(获取元数据信息)Get Metadata
编译器将元数据请求发送到Metastore(任何数据库)。(发送元数据)Send Metadata
Metastore将元数据作为对编译器的响应发送出去。(发送计划任务)Send Plan
编译器检查需求并将计划重新发送给Driver。到目前为止,查询的解析和编译已经完成(执行计划任务)Execute Plan
Driver将执行计划发送到执行引擎。(执行Job任务)Execute Job
在内部,执行任务的过程是MapReduce Job。执行引擎将Job发送到ResourceManager,
ResourceManager位于Name节点中,并将job分配给datanode中的NodeManager。在这里,查询执行MapReduce任务.
(元数据操作)Metadata Ops
在执行的同时,执行引擎可以使用Metastore执行元数据操作。(拉取结果集)Fetch Result
执行引擎将从datanode上获取结果集;(发送结果集至driver)Send Results
执行引擎将这些结果值发送给Driver(driver将result发送至interface)Send Results
Driver将结果发送到Hive接口
Hadoop 执行流程
输入 –> map –> shuffle –> reduce –>输出
输入文件会被切分成多个块,每一块都有一个map task
map 阶段的输出结果会先写到内存缓冲区,然后由缓冲区写到磁盘上。默认的缓冲区大小是100M,溢出的百分比是0.8,也就是说当缓冲区中达到80M的时候就会往磁盘上写。如果map计算完成后的中间结果没有达到80M,最终也是要写到磁盘上的,因为它最终还是要形成文件。那么,在往磁盘上写的时候会进行分区和排序。一个map的输出可能有多个这个的文件,这些文件最终会合并成一个,这就是这个map的输出文件。
输入文件分片,每一片都由一个MapTask来处理
Map输出的中间结果会先放在内存缓冲区中,这个缓冲区的大小默认是100M,当缓冲区中的内容达到80%时(80M)会将缓冲区的内容写到磁盘上。也就是说,一个map会输出一个或者多个这样的文件,如果一个map输出的全部内容没有超过限制,那么最终也会发生这个写磁盘的操作,只不过是写几次的问题。
从缓冲区写到磁盘的时候,会进行分区并排序,分区指的是某个key应该进入到哪个分区,同一分区中的key会进行排序,如果定义了Combiner的话,也会进行combine操作
如果一个map产生的中间结果存放到多个文件,那么这些文件最终会合并成一个文件,这个合并过程不会改变分区数量,只会减少文件数量。例如,假设分了3个区,4个文件,那么最终会合并成1个文件,3个区
以上只是一个map的输出,接下来进入reduce阶段
每个reducer对应一个ReduceTask,在真正开始reduce之前,先要从分区中抓取数据
相同的分区的数据会进入同一个reduce。这一步中会从所有map输出中抓取某一分区的数据,在抓取的过程中伴随着排序、合并。
reduce输出