• <fieldset id="8imwq"><menu id="8imwq"></menu></fieldset>
  • <bdo id="8imwq"><input id="8imwq"></input></bdo>
    最新文章專題視頻專題問答1問答10問答100問答1000問答2000關鍵字專題1關鍵字專題50關鍵字專題500關鍵字專題1500TAG最新視頻文章推薦1 推薦3 推薦5 推薦7 推薦9 推薦11 推薦13 推薦15 推薦17 推薦19 推薦21 推薦23 推薦25 推薦27 推薦29 推薦31 推薦33 推薦35 推薦37視頻文章20視頻文章30視頻文章40視頻文章50視頻文章60 視頻文章70視頻文章80視頻文章90視頻文章100視頻文章120視頻文章140 視頻2關鍵字專題關鍵字專題tag2tag3文章專題文章專題2文章索引1文章索引2文章索引3文章索引4文章索引5123456789101112131415文章專題3
    問答文章1 問答文章501 問答文章1001 問答文章1501 問答文章2001 問答文章2501 問答文章3001 問答文章3501 問答文章4001 問答文章4501 問答文章5001 問答文章5501 問答文章6001 問答文章6501 問答文章7001 問答文章7501 問答文章8001 問答文章8501 問答文章9001 問答文章9501
    當前位置: 首頁 - 科技 - 知識百科 - 正文

    mysql千萬級數據分頁查詢性能優化

    來源:懂視網 責編:小采 時間:2020-11-09 20:29:04
    文檔

    mysql千萬級數據分頁查詢性能優化

    mysql千萬級數據分頁查詢性能優化:mysql數據量大時使用limit分頁,隨著頁碼的增大,查詢效率越低下。 實驗 1.直接使用用limit start, count分頁語句: select * from order limit start, count 當起始頁較小時,查詢沒有性能問題,我們分別看下從10, 100, 1000, 10000開始
    推薦度:
    導讀mysql千萬級數據分頁查詢性能優化:mysql數據量大時使用limit分頁,隨著頁碼的增大,查詢效率越低下。 實驗 1.直接使用用limit start, count分頁語句: select * from order limit start, count 當起始頁較小時,查詢沒有性能問題,我們分別看下從10, 100, 1000, 10000開始

    mysql數據量大時使用limit分頁,隨著頁碼的增大,查詢效率越低下。

    實驗

    1.直接使用用limit start, count分頁語句:

    select * from order limit start, count

    當起始頁較小時,查詢沒有性能問題,我們分別看下從10, 100, 1000, 10000開始分頁的執行時間(每頁取20條), 如下:

    select * from order limit 10, 20 0.016秒
    
    select * from order limit 100, 20 0.016秒
    
    select * from order limit 1000, 20 0.047秒
    
    select * from order limit 10000, 20 0.094秒
    
    

    我們已經看出隨著起始記錄的增加,時間也隨著增大, 這說明分頁語句limit跟起始頁碼是有很大關系的,那么我們把起始記錄改為40w看下

    select * from order limit 400000, 20 3.229秒

    再看我們取最后一頁記錄的時間

    select * from order limit 800000, 20 37.44秒

    顯然這種時間是無法忍受的。

    從中我們也能總結出兩件事情:

    1)limit語句的查詢時間與起始記錄的位置成正比

    2)mysql的limit語句是很方便,但是對記錄很多的表并不適合直接使用。

    2.對limit分頁問題的性能優化方法

    利用表的覆蓋索引來加速分頁查詢

    我們都知道,利用了索引查詢的語句中如果只包含了那個索引列(覆蓋索引),那么這種情況會查詢很快。

    因為利用索引查找有優化算法,且數據就在查詢索引上面,不用再去找相關的數據地址了,這樣節省了很多時間。另外Mysql中也有相關的索引緩存,在并發高的時候利用緩存就效果更好了。

    在我們的例子中,我們知道id字段是主鍵,自然就包含了默認的主鍵索引。現在讓我們看看利用覆蓋索引的查詢效果如何:

    這次我們之間查詢最后一頁的數據(利用覆蓋索引,只包含id列),如下:

    select id from order limit 800000, 20 0.2秒

    相對于查詢了所有列的37.44秒,提升了大概100多倍的速度

    那么如果我們也要查詢所有列,有兩種方法,一種是id>=的形式,另一種就是利用join,看下實際情況:

    SELECT * FROM order WHERE ID > =(select id from order limit 800000, 1) limit 20

    查詢時間為0.2秒,簡直是一個質的飛躍啊,哈哈

    另一種寫法

    SELECT * FROM order a JOIN (select id from order limit 800000, 20) b ON a.ID = b.id

    查詢時間也很短

    您可能感興趣的文章:

  • mysql中迅速插入百萬條測試數據的方法
  • mysql 動態生成測試數據
  • MySQL與MSSQl使用While語句循環生成測試數據的代碼
  • MySQL 百萬級分頁優化(Mysql千萬級快速分頁)
  • mysql千萬級數據大表該如何優化?
  • Mysql limit 優化,百萬至千萬級快速分頁 復合索引的引用并應用于輕量級框架
  • 千萬級記錄的Discuz論壇導致MySQL CPU 100%的優化筆記
  • 如何優化Mysql千萬級快速分頁
  • 30個mysql千萬級大數據SQL查詢優化技巧詳解
  • MySQL如何快速的創建千萬級測試數據
  • 聲明:本網頁內容旨在傳播知識,若有侵權等問題請及時與本網聯系,我們將在第一時間刪除處理。TEL:177 7030 7066 E-MAIL:11247931@qq.com

    文檔

    mysql千萬級數據分頁查詢性能優化

    mysql千萬級數據分頁查詢性能優化:mysql數據量大時使用limit分頁,隨著頁碼的增大,查詢效率越低下。 實驗 1.直接使用用limit start, count分頁語句: select * from order limit start, count 當起始頁較小時,查詢沒有性能問題,我們分別看下從10, 100, 1000, 10000開始
    推薦度:
    標簽: 數據 百萬 mysql
    • 熱門焦點

    最新推薦

    猜你喜歡

    熱門推薦

    專題
    Top
    主站蜘蛛池模板: 精品国产成人在线| 国产精品玖玖美女张开腿让男人桶爽免费看 | 66精品综合久久久久久久| 久久乐国产精品亚洲综合| 国产在线不卡午夜精品2021| 亚洲精品无码久久一线| 国产精品亚洲二区在线观看| 99在线精品免费视频九九视| 亚洲欧美一级久久精品| 国产成人精品怡红院在线观看| 国产精品视频一区二区三区四| 亚洲一级Av无码毛片久久精品 | 免费精品久久久久久中文字幕 | 人精品影院| 2021精品国产综合久久| 综合国产精品第一页| 国产精品无码v在线观看| 国产精品一二三区| 国产精品久久久亚洲| 亚洲国产精品久久电影欧美| 精品人妻伦九区久久AAA片69| 久久精品国产精品亚洲精品| 国产精品免费看久久久| 亚洲精品无码不卡在线播HE| 久久国产乱子伦精品免费午夜| 高清日韩精品一区二区三区| 97精品国产福利一区二区三区| 久久精品a亚洲国产v高清不卡 | 九九精品在线观看| 欧美一卡2卡3卡四卡海外精品| 日本精品久久久中文字幕| 91精品观看91久久久久久| 99久久精品国产一区二区| 精品国产毛片一区二区无码 | 国产网红无码精品视频| CAOPORM国产精品视频免费| 国产精品久久久亚洲| 精品国产一区二区三区免费| 欧洲精品视频在线观看| Xx性欧美肥妇精品久久久久久| 国产精品制服丝袜亚洲欧美|