手机版
你好,游客 登录 注册 搜索
背景:
阅读新闻

MySQL百万级分页优化

[日期:2017-01-07] 来源:Linux社区  作者:IT--Loding [字体: ]

普通分页,数据分页在网页中十分多见,分页一般都是limit start,offset,然后根据页码page计算start

 select * from user  limit 1,20

   这种分页在几十万的时候分页效率就会比较低了,MySQL需要从头开始一直往后计算,这样大大影响效率

SELECT * from user  limit 100001,20;  //time 0.151s

explain SELECT * from user  limit 100001,20;

  我们可以用explain分析下语句,没有用到任何索引,MySQL执行的行数是16W+,于是我们可以想用到索引去实现分页

  

 

   优化分页

   使用主键索引来优化数据分页

  select * from user where id>(select id from user where id>=100000 limit 1) limit 20;  //time 0.003s

  使用explain分析语句,MySQL这次扫描的行数是8W+,时间也大大缩短。

   explain select * from user where id>(select id from user where id>=100000 limit 1) limit 20;

     

  总结

在数据量比较大的时候,我们尽量去利用索引来优化语句。上面的优化方法如果id不是主键索引,查询效率比第一种还要低点。我们可以先使用explain来分析语句,查看语句的执行顺序和执行性能。

这个id是主键自增id,正常的业务逻辑和操作是不可能使得id不连续的,除非故意破坏。
如果真的是id可能不连续的表那么子查询里面的那个id 就不能完全根据page页码来计算了。需要根据页码查询出id或者点击页码的时候需要把当前页的最后一条数据的id带上,不过这样输入页码跳转的时候就没办法了,还是得根据页码查询出id,而不能直接计算了。

本文永久更新链接地址http://www.linuxidc.com/Linux/2017-01/139307.htm

linux
本文评论   查看全部评论 (0)
表情: 表情 姓名: 字数

       

评论声明
  • 尊重网上道德,遵守中华人民共和国的各项有关法律法规
  • 承担一切因您的行为而直接或间接导致的民事或刑事法律责任
  • 本站管理人员有权保留或删除其管辖留言中的任意内容
  • 本站有权在网站内转载或引用您的评论
  • 参与本评论即表明您已经阅读并接受上述条款