今天就跟大家聊聊有關(guān)hadoop2.2.0如何定制mapreduce輸出到數(shù)據(jù)庫,可能很多人都不太了解,為了讓大家更加了解,小編給大家總結(jié)了以下內(nèi)容,希望大家根據(jù)這篇文章可以有所收獲。
成都創(chuàng)新互聯(lián)是專業(yè)的豐順網(wǎng)站建設(shè)公司,豐順接單;提供做網(wǎng)站、網(wǎng)站建設(shè),網(wǎng)頁設(shè)計,網(wǎng)站設(shè)計,建網(wǎng)站,PHP網(wǎng)站建設(shè)等專業(yè)做網(wǎng)站服務(wù);采用PHP框架,可快速的進行豐順網(wǎng)站開發(fā)網(wǎng)頁制作和功能擴展;專業(yè)做搜索引擎喜愛的網(wǎng)站,專業(yè)的做網(wǎng)站團隊,希望更多企業(yè)前來合作!
這里以redis數(shù)據(jù)庫為例。
這里的例子是,我想統(tǒng)計日志文件中的某天各個小時的訪問量,日志格式為:
2014-02-10 04:52:34 127.0.0.1 xxx
我們知道在寫mapreduce job時,要配置輸入輸出,然后編寫mapper和reducer類,hadoop默認輸出是到hdfs的文件中,例如:
job.setOutputFormatClass(FileOutputFormat.class);
現(xiàn)在我們想要將任務(wù)計算結(jié)果輸出到數(shù)據(jù)庫(redis)中,怎么做呢?可以繼承FileOutputFormat類,定制自己的類,看代碼:
public class LoginLogOutputFormat<K, V> extends FileOutputFormat<K, V> { /** * 重點也是定制一個RecordWriter類,每一條reduce處理后的記錄,我們便可將該記錄輸出到數(shù)據(jù)庫中 */ protected static class RedisRecordWriter<K, V> extends RecordWriter<K, V>{ private Jedis jedis; //redis的client實例 public RedisRecordWriter(Jedis jedis){ this.jedis = jedis; } @Override public void write(K key, V value) throws IOException, InterruptedException { boolean nullKey = key == null; boolean nullValue = value == null; if (nullKey || nullValue) return; String[] sKey = key.toString().split("-"); String outKey = sKey[0]+"-"+sKey[1]+"-"+sKey[2]+"_login_stat"; //zset key為yyyy-MM-dd_login_stat jedis.zadd(outKey.getBytes("UTF-8"), -1, (sKey[3]+":"+value).getBytes("UTF-8")); //zadd, 其值格式為: 時刻:訪問量 } @Override public void close(TaskAttemptContext context) throws IOException, InterruptedException { if (jedis != null) jedis.disconnect(); //關(guān)閉鏈接 } } @Override public RecordWriter<K, V> getRecordWriter(TaskAttemptContext job) throws IOException, InterruptedException { Jedis jedis = RedisClient.newJedis(); //構(gòu)建一個redis,這里你可以自己根據(jù)實際情況來構(gòu)建數(shù)據(jù)庫連接對象 //System.out.println("構(gòu)建RedisRecordWriter"); return new RedisRecordWriter<K, V>(jedis); } }
下面就是整個job實現(xiàn):
public class LoginLogStatTask extends Configured implements Tool { public static class MyMapper extends Mapper<LongWritable, Text, Text, IntWritable>{ @Override protected void map(LongWritable key, Text value, Context context) throws IOException, InterruptedException { if (value == null || "".equals(value)) return; // 解析value,如: 2014-02-10 04:52:34 127.0.0.1 xxx String[] fields = value.toString().split(" "); String date = fields[0]; String time = fields[1]; String hour = time.split(":")[0]; String outKey = date+"-"+hour; context.write(new Text(outKey), new IntWritable(1)); } } public static class MyReducer extends Reducer<Text, IntWritable, Text, IntWritable>{ @Override protected void reduce(Text key, Iterable<IntWritable> values, Context context) throws IOException, InterruptedException { int count = 0; while (values.iterator().hasNext()){ //統(tǒng)計數(shù)量 count ++; values.iterator().next(); } context.write(key, new IntWritable(count)); } } @Override public int run(String[] args) throws Exception { Configuration conf = getConf(); List<Path> inputs = new ArrayList<>(); String inputPath = args[0]; if (inputPath.endsWith("/")){ //如果是目錄 inputs.addAll(HdfsUtil.listFiles(inputPath, conf)); } else{ //如果是文件 inputs.add(new Path(inputPath)); } long ts = System.currentTimeMillis(); String jobName = "login_logs_stat_job_" + ts; Job job = Job.getInstance(conf, jobName); job.setJarByClass(LoginLogStatTask.class); //添加輸入文件路徑 for (Path p : inputs){ FileInputFormat.addInputPath(job, p); } //設(shè)置輸出路徑 Path out = new Path(jobName + ".out"); //以jobName.out作為輸出 FileOutputFormat.setOutputPath(job, out); //設(shè)置mapper job.setMapperClass(MyMapper.class); //設(shè)置reducer job.setReducerClass(MyReducer.class); //設(shè)置輸入格式 job.setInputFormatClass(TextInputFormat.class); //設(shè)置輸出格式 job.setOutputFormatClass(LoginLogOutputFormat.class); //設(shè)置輸出key類型 job.setOutputKeyClass(Text.class); //設(shè)置輸出value類型 job.setOutputValueClass(IntWritable.class); job.waitForCompletion(true); return job.isSuccessful()?0:1; } public static void main(String[] args) throws Exception { Configuration conf = new Configuration(); int res = ToolRunner.run(conf, new LoginLogStatTask(), args); System.exit(res); }
運行job后,就會在redis數(shù)據(jù)庫中有對應的key:
看完上述內(nèi)容,你們對hadoop2.2.0如何定制mapreduce輸出到數(shù)據(jù)庫有進一步的了解嗎?如果還想了解更多知識或者相關(guān)內(nèi)容,請關(guān)注創(chuàng)新互聯(lián)行業(yè)資訊頻道,感謝大家的支持。
分享文章:hadoop2.2.0如何定制mapreduce輸出到數(shù)據(jù)庫
本文鏈接:http://www.rwnh.cn/article46/gcgphg.html
成都網(wǎng)站建設(shè)公司_創(chuàng)新互聯(lián),為您提供靜態(tài)網(wǎng)站、網(wǎng)站建設(shè)、品牌網(wǎng)站制作、、小程序開發(fā)、服務(wù)器托管
聲明:本網(wǎng)站發(fā)布的內(nèi)容(圖片、視頻和文字)以用戶投稿、用戶轉(zhuǎn)載內(nèi)容為主,如果涉及侵權(quán)請盡快告知,我們將會在第一時間刪除。文章觀點不代表本網(wǎng)站立場,如需處理請聯(lián)系客服。電話:028-86922220;郵箱:631063699@qq.com。內(nèi)容未經(jīng)允許不得轉(zhuǎn)載,或轉(zhuǎn)載時需注明來源: 創(chuàng)新互聯(lián)