电脑疯子技术论坛|电脑极客社区

微信扫一扫 分享朋友圈

已有 2404 人浏览分享

MySQL因大事务导致的Insert慢实例分析

[复制链接]
2404 0
这篇文章主要给大家介绍了关于MySQL因大事务导致Insert慢的相关资料,文中通过示例代码介绍
的非常详细,对大家的学习或者工作具有一定的参考学习价值,需要的朋友们下面随着小编来一起
学习学习吧

【问题】

INSERT语句是最常见的SQL语句之一,最近有台MySQL服务器不定时的会出现并发线
程的告警,从记录信息来看,有大量insert的慢查询,执行几十秒,等待flushing log,
状态query end

2018102111455021.png


【初步分析】

从等待资源来看,大部分时间消耗在了innodb_log_file阶段,怀疑可能是磁盘问题导致,经过排查没
有发现服务器本身存在硬件问题

2018102111455022.png

后面开启线程上升时pstack的自动采集,定位MySQL线程等待的位置。

【分析过程】

部署了pstack的自动抓取后,出现过6次thread concurrency >=50的告警(每次告警时
会有大量的慢查询产生),有3次抓到了现场。

并发线程升高时,有50多个线程卡在Stage_manager::enroll_for函数,处于group commit阶段

23.png

22.png


线程0x519c5940对应的SQL语句如下,已经执行18秒

5.png


Stage_manager::enroll_for函数的作用实现了多个线程在flush_stage阶段的排队。简单来
说,对于一个分组的事务,是被leader线程去提交的,其他线程处于排队等待状态,等待le
ader线程将该线程的事务提交完成。

如果第一个线程执行慢,后面的线程都处于等待状态,整组事务无法提交。

2018102111455126.png


流程也可以理解如下,

Session A COMMIT-->拿到锁-->进行binlog写-->commit完成

Session B COMMIT-->等待锁--------------------------->拿到锁-->进行binlog写-->commit完成

第一个线程为什么执行很慢,分析了发生告警时间段的日志文件,发现日志中存在2个15M和20M的大事务

3.png


查看日志明细,存在delete from的大事务删除语句,约包含23W条记录,ROW模式下删除23W条
记录,会产生大约20M的日志文件,刷盘时间较长,阻塞了同一个分组下其他事务的提交。

2.png


事务的开始时间与告警时间吻合

积压的分组下事务集中刷盘,反应到磁盘指标上可以看到在问题时间段的disk_write_kbytes指标出现明显的上升

2018102111455229.png


【优化方案】

1、 建议开发避免使用delete from 整表的大事务删除语句

【其他变通方案】

2、 Binlog 记录的ROW模式下会产生大量的日志,改为MIXED模式,理论上也可以解决问题

3、 更换性能好的磁盘

总结

以上就是这篇文章的全部内容了,希望本文的内容对大家的学习或者工作具有一定的参考学习价值。

您需要登录后才可以回帖 登录 | 注册

本版积分规则

1

关注

0

粉丝

9021

主题
精彩推荐
热门资讯
网友晒图
图文推荐

Powered by Pcgho! X3.4

© 2008-2022 Pcgho Inc.