• <fieldset id="8imwq"><menu id="8imwq"></menu></fieldset>
  • <bdo id="8imwq"><input id="8imwq"></input></bdo>
    最新文章專題視頻專題問答1問答10問答100問答1000問答2000關鍵字專題1關鍵字專題50關鍵字專題500關鍵字專題1500TAG最新視頻文章推薦1 推薦3 推薦5 推薦7 推薦9 推薦11 推薦13 推薦15 推薦17 推薦19 推薦21 推薦23 推薦25 推薦27 推薦29 推薦31 推薦33 推薦35 推薦37視頻文章20視頻文章30視頻文章40視頻文章50視頻文章60 視頻文章70視頻文章80視頻文章90視頻文章100視頻文章120視頻文章140 視頻2關鍵字專題關鍵字專題tag2tag3文章專題文章專題2文章索引1文章索引2文章索引3文章索引4文章索引5123456789101112131415文章專題3
    問答文章1 問答文章501 問答文章1001 問答文章1501 問答文章2001 問答文章2501 問答文章3001 問答文章3501 問答文章4001 問答文章4501 問答文章5001 問答文章5501 問答文章6001 問答文章6501 問答文章7001 問答文章7501 問答文章8001 問答文章8501 問答文章9001 問答文章9501
    當前位置: 首頁 - 科技 - 知識百科 - 正文

    對單表億級數據的簡單測試

    來源:懂視網 責編:小采 時間:2020-11-09 12:56:22
    文檔

    對單表億級數據的簡單測試

    對單表億級數據的簡單測試:本次對mysql做了單表億級數據量的壓測。 表的關系簡單,只有兩個int字段,user_id和company_id,且都增加了索引。 通過python腳本,隨機向同一個表隨機插入100W、500W、1000W-1E數據,并且記錄了每次插入數據所耗時間。 先來看下寫入數據的情況吧: pyt
    推薦度:
    導讀對單表億級數據的簡單測試:本次對mysql做了單表億級數據量的壓測。 表的關系簡單,只有兩個int字段,user_id和company_id,且都增加了索引。 通過python腳本,隨機向同一個表隨機插入100W、500W、1000W-1E數據,并且記錄了每次插入數據所耗時間。 先來看下寫入數據的情況吧: pyt

    第一種:

    單次查詢1000次的結果,跑100次,發現時間浮動還是比較大,這可能跟插入的數據散列情況有關,

    user_id相同的數據還是有不少,20-100之間,線上業務出現這種數據的情況不大,所以,這些數據不影響最終結果。

    第二種:并發1000線程對數據庫進行隨機1000次查詢,

    1000線程:最慢時間8s,處理能力 125/s ;

    2000線程:最慢時間10s,處理能力 100/s;

    第三種:mysqlslap進行測試

    開啟2000個線程,執行SELECT * FROM user_company_test_5000 WHERE user_id=7432查詢

    平均處理時間8.76s,每秒能處理229個查詢。

    用官方的mysqlslap進行測試,跟python腳本的測試結果偏差較大,

    猜測原因有兩個:

    1:mysqlslap 直接采用socket對Mysql進行連接,所以它除了 mysql處理時間和網絡請求時間沒有其他影響結果的操作

    2:mysqlslap只能指定sql,沒有辦法隨機查詢數據,而測試表里面的數據分散不均勻,這也是一個原因。

    mysqlslap的數據只能視為最好情況,但第二個python腳本則更接近生產環境,1000次查詢數據也是隨機查詢,

    所以第二種能作為生產環境的依據。

    再來看看批量查詢,IN 語句最多50個值

    好吧,我只開了200個線程,最慢時間93s,最快時間46s,簡直可以用慘不忍睹來講。如果是批量查詢,

    那就拆成多條語句來查吧。如果用IN ,必然會影響服務。

    結論:

    跟dba溝通過,理論上每秒能夠支持5000次的查詢量是比較正常的,但我用mysqlslap對單表100W的數據量進行了

    測試,2000個client 每秒處理能力也只有700左右,

    從第二種數據上看,當單機client達到2000時,每秒還能處理100次左右的查詢,還是不錯的。

    原文出處:http://www.imsiren.com/archives/995

    聲明:本網頁內容旨在傳播知識,若有侵權等問題請及時與本網聯系,我們將在第一時間刪除處理。TEL:177 7030 7066 E-MAIL:11247931@qq.com

    文檔

    對單表億級數據的簡單測試

    對單表億級數據的簡單測試:本次對mysql做了單表億級數據量的壓測。 表的關系簡單,只有兩個int字段,user_id和company_id,且都增加了索引。 通過python腳本,隨機向同一個表隨機插入100W、500W、1000W-1E數據,并且記錄了每次插入數據所耗時間。 先來看下寫入數據的情況吧: pyt
    推薦度:
    標簽: 數據 簡單 測試
    • 熱門焦點

    最新推薦

    猜你喜歡

    熱門推薦

    專題
    Top
    主站蜘蛛池模板: 无码人妻精品一区二| 亚洲国产精品自在拍在线播放| 国产偷国产偷高清精品| 精品无人码麻豆乱码1区2区| 日韩精品一区二区三区在线观看 | 国产在线观看高清精品| 国产精品爽爽va在线观看网站| 亚洲AV午夜福利精品一区二区| 精品久久人人妻人人做精品| 成人精品一区二区三区在线观看| 97久久久久人妻精品专区| 亚洲AV成人精品一区二区三区| 欧美在线精品一区二区三区 | 中文字幕日韩精品有码视频| 国产精品对白交换视频| 亚洲精品无码久久久影院相关影片 | 99re这里只有精品国产精品| 亚洲精品乱码久久久久久不卡| 精品人妻一区二区三区毛片| 隔壁老王国产在线精品| 亚洲国产精品成| 91精品国产91热久久久久福利| 国产2021精品视频免费播放| 91视频国产精品| 成人国产精品999视频| 91麻豆国产福利精品 | 亚洲一级Av无码毛片久久精品 | 免费国产在线精品一区| 精品露脸国产偷人在视频| 国产精品综合专区中文字幕免费播放| 欧美精品888| 国产成人精品无人区一区| 国产精品成人99久久久久91gav | 国产观看精品一区二区三区| 国产精品内射婷婷一级二| 国产精品狼人久久久久影院| 国产农村妇女毛片精品久久| 国产欧美精品一区二区三区四区 | 亚洲欧洲精品无码AV| 午夜DY888国产精品影院| 久久久久99精品成人片试看|