Hadoop中的MapReduce分布式算法实现

作者:佚名 上传时间:2023-03-18 运行软件:IDEA 2018.2 软件版本:Hadoop 2.7.2 版权申诉

Hadoop是一个强大的分布式计算框架,其中MapReduce是其中的一个重要组件,用于处理大规模数据集。MapReduce通过将输入数据切分为可独立处理的小块,并由多个并行运行的计算节点进行处理,最后将结果进行汇总得到最终结果。这里展示了一个简单的MapReduce示例代码,用于统计文本中不同单词出现的次数。

import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.fs.FileSystem;
import org.apache.hadoop.fs.Path;
import org.apache.hadoop.io.IntWritable;
import org.apache.hadoop.io.LongWritable;
import org.apache.hadoop.io.Text;
import org.apache.hadoop.mapreduce.Job;
import org.apache.hadoop.mapreduce.Mapper;
import org.apache.hadoop.mapreduce.Reducer;
import org.apache.hadoop.mapreduce.lib.input.FileInputFormat;
import org.apache.hadoop.mapreduce.lib.output.FileOutputFormat;

import java.io.IOException;
import java.util.StringTokenizer;

public class WordCount {

  public static class TokenizerMapper extends Mapper<LongWritable, Text, Text, IntWritable> {

    private final static IntWritable one = new IntWritable(1);
    private Text word = new Text();

    public void map(LongWritable key, Text value, Context context)
        throws IOException, InterruptedException {
      StringTokenizer itr = new StringTokenizer(value.toString());
      while (itr.hasMoreTokens()) {
        word.set(itr.nextToken());
        context.write(word, one);
      }
    }
  }

  public static class IntSumReducer extends Reducer<Text, IntWritable, Text, IntWritable> {

    private IntWritable result = new IntWritable();

    public void reduce(Text key, Iterable<IntWritable> values,
        Context context)
        throws IOException, InterruptedException {
      int sum = 0;
      for (IntWritable val : values) {
        sum += val.get();
      }
      result.set(sum);
      context.write(key, result);
    }
  }

  public static void main(String[] args) throws Exception {
    Configuration conf = new Configuration();
    Job job = Job.getInstance(conf, "word count");
    job.setJarByClass(WordCount.class);
    job.setMapperClass(TokenizerMapper.class);
    job.setCombinerClass(IntSumReducer.class);
    job.setReducerClass(IntSumReducer.class);
    job.setOutputKeyClass(Text.class);
    job.setOutputValueClass(IntWritable.class);
    FileInputFormat.addInputPath(job, new Path(args[0]));
    FileOutputFormat.setOutputPath(job, new Path(args[1]));
    System.exit(job.waitForCompletion(true) ? 0 : 1);
  }
}

免责申明:文章和图片全部来源于公开网络,如有侵权,请通知删除 server@dude6.com

用户评论
相关推荐
HadoopMapReduce
Hadoop是一个强大的分布式计算框架,其中MapReduce是其中的一个重要组件,用于处理大规模数据集。MapReduce通过将输入数据切分为可独立处理的小块,并由多个并行运行的计算节点进行处理,最
Hadoop 2.7.2
IDEA 2018.2
2023-03-18 03:54
HadoopMapReduce
Hadoop是一个分布式计算框架,使用MapReduce实现分布式算法。MapReduce可以实现数据的计算和处理,主要分为Map和Reduce两个操作。其中Map将输入数据分成若干份,同时生成键值对
Hadoop 2.10.1
IntelliJ IDEA
2023-05-27 01:36
HadoopMapReduce分布式并行编程简介
Introduction to Hadoop and MapReduce Distributed Parallel Programming
PDF
0B
2019-06-28 03:53
MapReduce
该示例代码通过使用MapReduce分布式算法,实现了对大数据集进行分布式处理的功能。具体而言,它将数据切分成多个小块并在分布式节点上进行分析和计算,最后将结果合并输出。from mrjob.job
mrjob-0.7.4
Python
2023-03-16 08:22
MapReduce
简介MapReduce是一种分布式计算框架,用于大规模数据处理。它将数据分成多个块并分配给多台计算机进行并行处理。本文将介绍如何使用Hadoop分布式计算框架实现MapReduce算法,以及提供示例
Hadoop 3.3.1
Java
2023-03-14 23:13
MapReduce
简介MapReduce是一种分布式算法,用于对大规模数据集进行并行计算和数据处理。它通常用于在大规模集群中处理数据,并且已经被广泛应用于各种领域,如搜索引擎、社交媒体、自然语言处理、机器学习等。M
3.3
Hadoop
2023-03-11 04:13
MapReduce
MapReduce是一种分布式计算模型,常用于海量数据的处理。Hadoop是一个开源的分布式计算框架,支持MapReduce模型的实现。本文将详细介绍MapReduce算法的实现及其在分布式计算中的应
Hadoop 3.2.1
Apache Hadoop
2023-04-02 18:33
之“MapReduce
MapReduce是一种分布式计算框架,能够将大规模数据集并行处理,被广泛应用于分布式数据处理领域。其主要实现方式为将任务分成map和reduce两个阶段,交由不同节点完成。// map函数实现f
Hadoop 2.7.2
JavaScript
2023-04-27 20:50
分布式计算利器_MapReduce
分析MapReduce 执行过程 Hadoop 的数据类型 输入文件格式化类InoutFormat 输出格式化类OutputFormat
PDF
0B
2018-12-26 11:49
MapReduce分布式计算框架
MapReduce分布式计算框架
PPT
3.21MB
2020-08-05 03:12