• <fieldset id="8imwq"><menu id="8imwq"></menu></fieldset>
  • <bdo id="8imwq"><input id="8imwq"></input></bdo>
    最新文章專題視頻專題問答1問答10問答100問答1000問答2000關鍵字專題1關鍵字專題50關鍵字專題500關鍵字專題1500TAG最新視頻文章推薦1 推薦3 推薦5 推薦7 推薦9 推薦11 推薦13 推薦15 推薦17 推薦19 推薦21 推薦23 推薦25 推薦27 推薦29 推薦31 推薦33 推薦35 推薦37視頻文章20視頻文章30視頻文章40視頻文章50視頻文章60 視頻文章70視頻文章80視頻文章90視頻文章100視頻文章120視頻文章140 視頻2關鍵字專題關鍵字專題tag2tag3文章專題文章專題2文章索引1文章索引2文章索引3文章索引4文章索引5123456789101112131415文章專題3
    問答文章1 問答文章501 問答文章1001 問答文章1501 問答文章2001 問答文章2501 問答文章3001 問答文章3501 問答文章4001 問答文章4501 問答文章5001 問答文章5501 問答文章6001 問答文章6501 問答文章7001 問答文章7501 問答文章8001 問答文章8501 問答文章9001 問答文章9501
    當前位置: 首頁 - 科技 - 知識百科 - 正文

    mysql千萬級數據分頁查詢性能優化

    來源:懂視網 責編:小采 時間:2020-11-09 20:29:04
    文檔

    mysql千萬級數據分頁查詢性能優化

    mysql千萬級數據分頁查詢性能優化:mysql數據量大時使用limit分頁,隨著頁碼的增大,查詢效率越低下。 實驗 1.直接使用用limit start, count分頁語句: select * from order limit start, count 當起始頁較小時,查詢沒有性能問題,我們分別看下從10, 100, 1000, 10000開始
    推薦度:
    導讀mysql千萬級數據分頁查詢性能優化:mysql數據量大時使用limit分頁,隨著頁碼的增大,查詢效率越低下。 實驗 1.直接使用用limit start, count分頁語句: select * from order limit start, count 當起始頁較小時,查詢沒有性能問題,我們分別看下從10, 100, 1000, 10000開始

    mysql數據量大時使用limit分頁,隨著頁碼的增大,查詢效率越低下。

    實驗

    1.直接使用用limit start, count分頁語句:

    select * from order limit start, count

    當起始頁較小時,查詢沒有性能問題,我們分別看下從10, 100, 1000, 10000開始分頁的執行時間(每頁取20條), 如下:

    select * from order limit 10, 20 0.016秒
    
    select * from order limit 100, 20 0.016秒
    
    select * from order limit 1000, 20 0.047秒
    
    select * from order limit 10000, 20 0.094秒
    
    

    我們已經看出隨著起始記錄的增加,時間也隨著增大, 這說明分頁語句limit跟起始頁碼是有很大關系的,那么我們把起始記錄改為40w看下

    select * from order limit 400000, 20 3.229秒

    再看我們取最后一頁記錄的時間

    select * from order limit 800000, 20 37.44秒

    顯然這種時間是無法忍受的。

    從中我們也能總結出兩件事情:

    1)limit語句的查詢時間與起始記錄的位置成正比

    2)mysql的limit語句是很方便,但是對記錄很多的表并不適合直接使用。

    2.對limit分頁問題的性能優化方法

    利用表的覆蓋索引來加速分頁查詢

    我們都知道,利用了索引查詢的語句中如果只包含了那個索引列(覆蓋索引),那么這種情況會查詢很快。

    因為利用索引查找有優化算法,且數據就在查詢索引上面,不用再去找相關的數據地址了,這樣節省了很多時間。另外Mysql中也有相關的索引緩存,在并發高的時候利用緩存就效果更好了。

    在我們的例子中,我們知道id字段是主鍵,自然就包含了默認的主鍵索引。現在讓我們看看利用覆蓋索引的查詢效果如何:

    這次我們之間查詢最后一頁的數據(利用覆蓋索引,只包含id列),如下:

    select id from order limit 800000, 20 0.2秒

    相對于查詢了所有列的37.44秒,提升了大概100多倍的速度

    那么如果我們也要查詢所有列,有兩種方法,一種是id>=的形式,另一種就是利用join,看下實際情況:

    SELECT * FROM order WHERE ID > =(select id from order limit 800000, 1) limit 20

    查詢時間為0.2秒,簡直是一個質的飛躍啊,哈哈

    另一種寫法

    SELECT * FROM order a JOIN (select id from order limit 800000, 20) b ON a.ID = b.id

    查詢時間也很短

    您可能感興趣的文章:

  • mysql中迅速插入百萬條測試數據的方法
  • mysql 動態生成測試數據
  • MySQL與MSSQl使用While語句循環生成測試數據的代碼
  • MySQL 百萬級分頁優化(Mysql千萬級快速分頁)
  • mysql千萬級數據大表該如何優化?
  • Mysql limit 優化,百萬至千萬級快速分頁 復合索引的引用并應用于輕量級框架
  • 千萬級記錄的Discuz論壇導致MySQL CPU 100%的優化筆記
  • 如何優化Mysql千萬級快速分頁
  • 30個mysql千萬級大數據SQL查詢優化技巧詳解
  • MySQL如何快速的創建千萬級測試數據
  • 聲明:本網頁內容旨在傳播知識,若有侵權等問題請及時與本網聯系,我們將在第一時間刪除處理。TEL:177 7030 7066 E-MAIL:11247931@qq.com

    文檔

    mysql千萬級數據分頁查詢性能優化

    mysql千萬級數據分頁查詢性能優化:mysql數據量大時使用limit分頁,隨著頁碼的增大,查詢效率越低下。 實驗 1.直接使用用limit start, count分頁語句: select * from order limit start, count 當起始頁較小時,查詢沒有性能問題,我們分別看下從10, 100, 1000, 10000開始
    推薦度:
    標簽: 數據 百萬 mysql
    • 熱門焦點

    最新推薦

    猜你喜歡

    熱門推薦

    專題
    Top
    主站蜘蛛池模板: 国产AV无码专区亚洲精品| 欧美日韩精品一区二区在线播放| 国产成人精品AA毛片| 精品无码人妻一区二区三区不卡| 第一福利永久视频精品| 亚洲AV无码久久精品色欲| 精品久久久久久久久久中文字幕| 久久国产精品一区二区| 国产精品一区二区av| 最新欧美性爱精品一区二区三区 | 久久国产精品无码HDAV| 亚洲?V乱码久久精品蜜桃| 国产一区二区三精品久久久无广告| 欧美精品/日韩精品/国产精品| 国产午夜福利精品一区二区三区| 亚洲一区爱区精品无码| 人妻少妇精品无码专区动漫| 国产精品一区二区三区免费| 免费精品99久久国产综合精品 | 久久精品国产亚洲av水果派| 亚洲精品无码永久在线观看你懂的| 欧美精品福利视频一区二区三区久久久精品| 国产精品白丝jkav网站| 中文字幕成人精品久久不卡| 亚洲国产精品欧美日韩一区二区| 国产精品你懂得| 国产香蕉精品视频在| 久久国产精品99精品国产987| 精品亚洲永久免费精品| 精品一卡2卡三卡4卡免费视频| 国产精品1区2区3区在线播放| freesexvideos精品老师毛多| 久久精品国产99久久无毒不卡| 久久国产精品成人片免费| 久久国产精品成人影院| 国内精品久久久久伊人av| 国产精品亲子乱子伦xxxx裸| 97久久超碰国产精品旧版| 国产精品一二三区| 亚洲第一精品在线视频| 国产精品无码久久综合网|