• <fieldset id="8imwq"><menu id="8imwq"></menu></fieldset>
  • <bdo id="8imwq"><input id="8imwq"></input></bdo>
    最新文章專題視頻專題問答1問答10問答100問答1000問答2000關鍵字專題1關鍵字專題50關鍵字專題500關鍵字專題1500TAG最新視頻文章推薦1 推薦3 推薦5 推薦7 推薦9 推薦11 推薦13 推薦15 推薦17 推薦19 推薦21 推薦23 推薦25 推薦27 推薦29 推薦31 推薦33 推薦35 推薦37視頻文章20視頻文章30視頻文章40視頻文章50視頻文章60 視頻文章70視頻文章80視頻文章90視頻文章100視頻文章120視頻文章140 視頻2關鍵字專題關鍵字專題tag2tag3文章專題文章專題2文章索引1文章索引2文章索引3文章索引4文章索引5123456789101112131415文章專題3
    問答文章1 問答文章501 問答文章1001 問答文章1501 問答文章2001 問答文章2501 問答文章3001 問答文章3501 問答文章4001 問答文章4501 問答文章5001 問答文章5501 問答文章6001 問答文章6501 問答文章7001 問答文章7501 問答文章8001 問答文章8501 問答文章9001 問答文章9501
    當前位置: 首頁 - 科技 - 知識百科 - 正文

    實現Hive數據同步更新的shell腳本

    來源:懂視網 責編:小采 時間:2020-11-09 12:52:15
    文檔

    實現Hive數據同步更新的shell腳本

    實現Hive數據同步更新的shell腳本:上一篇文章《Sqoop1.4.4 實現將 Oracle10g 中的增量數據導入 Hive0.13.1 ,并更新Hive中的主表》描述了增量更新Hive表的原理和Sq 引言: 上一篇文章《Sqoop1.4.4 實現將 Oracle10g 中的增量數據導入 Hive0.13.1 ,并更新Hive中的主表
    推薦度:
    導讀實現Hive數據同步更新的shell腳本:上一篇文章《Sqoop1.4.4 實現將 Oracle10g 中的增量數據導入 Hive0.13.1 ,并更新Hive中的主表》描述了增量更新Hive表的原理和Sq 引言: 上一篇文章《Sqoop1.4.4 實現將 Oracle10g 中的增量數據導入 Hive0.13.1 ,并更新Hive中的主表

    上一篇文章《Sqoop1.4.4 實現將 Oracle10g 中的增量數據導入 Hive0.13.1 ,并更新Hive中的主表》描述了增量更新Hive表的原理和Sq

    引言:

    上一篇文章《Sqoop1.4.4 實現將 Oracle10g 中的增量數據導入 Hive0.13.1 ,,并更新Hive中的主表

    shell腳本

    #!/bin/bash

    #Please set the synchronize interval,unit is hour.

    update_interval=24

    #Please set the RDBMS connection params

    rdbms_connstr="jdbc:oracle:thin:@192.168.0.147:1521:ORCLGBK"

    rdbms_username="SP"

    rdbms_pwd="fulong"

    rdbms_table="OMP_SERVICE"

    rdbms_columns="ID,SERVICE_NAME,SERVICE_PROCESS,CREATE_TIME,ENABLE_ORG,ENABLE_PLATFORM,IF_DEL"

    #Please set the hive params

    hive_increment_table="SERVICE_TMP"

    hive_full_table="service_all"

    #---------------------------------------------------------

    #Import icrement data in RDBMS into Hive

    enddate=$(date '+%Y/%m/%d %H:%M:%S')

    startdate=$(date '+%Y/%m/%d %H:%M:%S' -d '-'+${update_interval}+' hours')

    $SQOOP_HOME/bin/sqoop import --connect ${rdbms_connstr} --username ${rdbms_username} --password ${rdbms_pwd} --table ${rdbms_table} --columns "${rdbms_columns}" --where "CREATE_TIME > to_date('${startdate}','yyyy-mm-dd hh24:mi:ss') and CREATE_TIME < to_date('${enddate}','yyyy-mm-dd hh24:mi:ss')" --hive-import --hive-overwrite --hive-table ${hive_increment_table}

    #---------------------------------------------------------

    #Update the old full data table to latest status

    $HIVE_HOME/bin/hive -e "insert overwrite table ${hive_full_table} select * from ${hive_increment_table} union all select a.* from ${hive_full_table} a left outer join ${hive_increment_table} b on a.service_code = b.service_code where b.service_code is null;"

    注意:

    在shell腳本中執行hive hql的命令格式是 hive -e "select ..."

    Cron腳本

    添加定時任務每天凌晨2點執行該腳本

    0 2 * * * /home/fulong/shell/dataSync.sh

    基于Hadoop集群的Hive安裝

    Hive內表和外表的區別

    Hadoop + Hive + Map +reduce 集群安裝部署

    Hive本地獨立模式安裝

    Hive學習之WordCount單詞統計

    Hive運行架構及配置部署

    Hive 的詳細介紹:請點這里
    Hive 的下載地址:請點這里

    本文永久更新鏈接地址:

    linux

    聲明:本網頁內容旨在傳播知識,若有侵權等問題請及時與本網聯系,我們將在第一時間刪除處理。TEL:177 7030 7066 E-MAIL:11247931@qq.com

    文檔

    實現Hive數據同步更新的shell腳本

    實現Hive數據同步更新的shell腳本:上一篇文章《Sqoop1.4.4 實現將 Oracle10g 中的增量數據導入 Hive0.13.1 ,并更新Hive中的主表》描述了增量更新Hive表的原理和Sq 引言: 上一篇文章《Sqoop1.4.4 實現將 Oracle10g 中的增量數據導入 Hive0.13.1 ,并更新Hive中的主表
    推薦度:
    標簽: 數據 she hi
    • 熱門焦點

    最新推薦

    猜你喜歡

    熱門推薦

    專題
    Top
    主站蜘蛛池模板: 无码日韩人妻精品久久蜜桃| 精品视频一区二区三区免费| 91精品全国免费观看青青| 国产在线观看一区精品| 国产亚洲精品无码成人| 中文字幕九七精品乱码| 精品露脸国产偷人在视频| 久久成人精品视频| 国产成人无码久久久精品一| 亚洲中文字幕久久精品无码APP | 欧美亚洲成人精品| 国产国产成人久久精品| 久久精品国产亚洲一区二区| 国产精品视频色拍拍| 亚洲高清专区日韩精品 | 精品国产污污免费网站| 久久精品午夜一区二区福利| 亚洲欧美日韩精品专区| 老司机午夜网站国内精品久久久久久久久| 杨幂国产精品福利在线观看| 国产成人精品日本亚洲专一区| 国产成人久久精品激情| 国产精品露脸国语对白| 精品无码一区二区三区亚洲桃色| 亚洲精品午夜无码电影网| 亚洲精品无码久久久| 亚欧洲精品在线视频免费观看| 欧美日韩精品一区二区三区不卡| 毛片a精品**国产| 精品国产一区二区三区2021| 精品国产AⅤ一区二区三区4区| 精品国产一级在线观看| 久久久人妻精品无码一区| 久久精品国产一区二区电影| 久久精品国产精品亚洲艾草网美妙| 国产亚洲精品成人a v小说| 国产精品自在线拍国产电影| 精品视频一区二区三区| 久久精品国产99久久丝袜| 日韩欧美亚洲国产精品字幕久久久| 男女男精品网站免费观看|