• <fieldset id="8imwq"><menu id="8imwq"></menu></fieldset>
  • <bdo id="8imwq"><input id="8imwq"></input></bdo>
    最新文章專題視頻專題問答1問答10問答100問答1000問答2000關鍵字專題1關鍵字專題50關鍵字專題500關鍵字專題1500TAG最新視頻文章推薦1 推薦3 推薦5 推薦7 推薦9 推薦11 推薦13 推薦15 推薦17 推薦19 推薦21 推薦23 推薦25 推薦27 推薦29 推薦31 推薦33 推薦35 推薦37視頻文章20視頻文章30視頻文章40視頻文章50視頻文章60 視頻文章70視頻文章80視頻文章90視頻文章100視頻文章120視頻文章140 視頻2關鍵字專題關鍵字專題tag2tag3文章專題文章專題2文章索引1文章索引2文章索引3文章索引4文章索引5123456789101112131415文章專題3
    問答文章1 問答文章501 問答文章1001 問答文章1501 問答文章2001 問答文章2501 問答文章3001 問答文章3501 問答文章4001 問答文章4501 問答文章5001 問答文章5501 問答文章6001 問答文章6501 問答文章7001 問答文章7501 問答文章8001 問答文章8501 問答文章9001 問答文章9501
    當前位置: 首頁 - 科技 - 知識百科 - 正文

    hadoopmapreduce求平均分

    來源:懂視網 責編:小采 時間:2020-11-09 16:07:09
    文檔

    hadoopmapreduce求平均分

    hadoopmapreduce求平均分:hadoop mapreduce求平均分 求平均分的關鍵在于,利用mapreduce過程中,一個key聚合在一起,輸送到一個reduce的特性。 假設三門課的成績如下: china.txt [plain] 張三 78 李四 89 王五 96 趙六 67 english.txt [plain] 張三 80
    推薦度:
    導讀hadoopmapreduce求平均分:hadoop mapreduce求平均分 求平均分的關鍵在于,利用mapreduce過程中,一個key聚合在一起,輸送到一個reduce的特性。 假設三門課的成績如下: china.txt [plain] 張三 78 李四 89 王五 96 趙六 67 english.txt [plain] 張三 80

    hadoop mapreduce求平均分 求平均分的關鍵在于,利用mapreduce過程中,一個key聚合在一起,輸送到一個reduce的特性。 假設三門課的成績如下: china.txt [plain] 張三 78 李四 89 王五 96 趙六 67 english.txt [plain] 張三 80 李四 82 王五 84 趙六 86 math

    hadoop mapreduce求平均分

    求平均分的關鍵在于,利用mapreduce過程中,一個key聚合在一起,輸送到一個reduce的特性。

    假設三門課的成績如下:

    china.txt

    [plain]

    張三 78

    李四 89

    王五 96

    趙六 67

    english.txt

    [plain]

    張三 80

    李四 82

    王五 84

    趙六 86

    math.txt

    [plain]

    張三 88

    李四 99

    王五 66

    趙六 72

    mapreduce如下:

    [plain]

    public static class Map extends Mapper {

    // 實現map函數

    public void map(LongWritable key, Text value, Context context) throws IOException, InterruptedException {

    // 將輸入的純文本文件的數據轉化成String

    String line = value.toString();

    // 將輸入的數據首先按行進行分割

    StringTokenizer tokenizerArticle = new StringTokenizer(line, "\n");

    // 分別對每一行進行處理

    while (tokenizerArticle.hasMoreElements()) {

    // 每行按空格劃分

    StringTokenizer tokenizerLine = new StringTokenizer(tokenizerArticle.nextToken());

    String strName = tokenizerLine.nextToken();// 學生姓名部分

    String strScore = tokenizerLine.nextToken();// 成績部分

    Text name = new Text(strName);

    int scoreInt = Integer.parseInt(strScore);

    // 輸出姓名和成績

    context.write(name, new IntWritable(scoreInt));

    }

    }

    }

    public static class Reduce extends Reducer {

    // 實現reduce函數

    public void reduce(Text key, Iterable values, Context context) throws IOException, InterruptedException {

    int sum = 0;

    int count = 0;

    Iterator iterator = values.iterator();

    while (iterator.hasNext()) {

    sum += iterator.next().get();// 計算總分

    count++;// 統計總的科目數

    }

    int average = (int) sum / count;// 計算平均成績

    context.write(key, new IntWritable(average));

    }

    }

    輸出如下:

    [plain]

    張三 82

    李四 90

    王五 82

    趙六 75

    聲明:本網頁內容旨在傳播知識,若有侵權等問題請及時與本網聯系,我們將在第一時間刪除處理。TEL:177 7030 7066 E-MAIL:11247931@qq.com

    文檔

    hadoopmapreduce求平均分

    hadoopmapreduce求平均分:hadoop mapreduce求平均分 求平均分的關鍵在于,利用mapreduce過程中,一個key聚合在一起,輸送到一個reduce的特性。 假設三門課的成績如下: china.txt [plain] 張三 78 李四 89 王五 96 趙六 67 english.txt [plain] 張三 80
    推薦度:
    • 熱門焦點

    最新推薦

    猜你喜歡

    熱門推薦

    專題
    Top
    主站蜘蛛池模板: 欧美国产日韩精品| 国产高清精品一区| 国产精品日韩欧美久久综合| 精品国产一区AV天美传媒| 久久精品夜色噜噜亚洲A∨| 精品精品国产高清a毛片牛牛| 人人妻人人澡人人爽欧美精品| 国产小呦泬泬99精品| 久久精品国产69国产精品亚洲| 国产日产韩国精品视频| 亚洲高清国产AV拍精品青青草原| 久久久久国产成人精品亚洲午夜 | 国产精品美女久久久久AV福利| 国产欧美久久久精品| 国产乱子伦精品无码码专区| 蜜芽亚洲av无码精品色午夜| 伊人久久无码精品中文字幕| 日韩熟女精品一区二区三区| 久久99国产精品成人欧美| 国产精品尹人在线观看| 北岛玲日韩精品一区二区三区| 久久精品国产半推半就| 国产精品夜色一区二区三区| 成人午夜视频精品一区| 国产精品毛片VA一区二区三区| 精品久久久久久中文字幕人妻最新 | 国产精品久久亚洲不卡动漫| 国产精品无码A∨精品影院| 欧美精品一区二区蜜臀亚洲 | 四虎精品影院4hutv四虎| 久久久久国产精品麻豆AR影院| 国产精品亚洲美女久久久| 欧美亚洲国产成人精品| 中文字幕日韩精品无码内射| 国产精品制服丝袜亚洲欧美| 国产精品久久网| 99热亚洲色精品国产88| 精品亚洲成a人片在线观看| 亚洲AV永久无码精品成人| 亚洲精品无码mv在线观看网站 | 国产亚洲精品精华液|