@Lenciel

解决iowait过高的告警

Don't touch me

从 Nagios 切到Zabbix之后,经常大清早被 iowait 过高的告警邮件叫醒。因为这套 Zabbix 监控是本座搭的,所以解决这个问题就只有本座来了…..哎,不知道是不是把首席运营官给宠坏了。

iowait的定义和计算方式

iowait 的定义为:

iowait is time that the processor/processors are waiting (i.e. is in an idle state and does nothing), during which there in fact was outstanding disk I/O requests.

也就是至少有一个 I/O 在进行时 CPU 处于idle状态的比例。

我们都知道用vmstat, iostat, sar等命令查看系统状况的时候,CPU 有四种比较主要的状态:user, sys, idle 和 iowait。它们都是表示 CPU 处于此状态的一个平均比例(其中 sar 命令是可以用-P具体指定哪个 CPU 的,其他的命令一般是所有 CPU 的平均),通常相加应该就是 1.

这个比例的统计其实是通过 kernel 不断的更新计数器然后计算出来的。当时钟中断发生的时候,kernel 检查当前 CPU 是不是 idle 的。如果不是,就检查正在执行的指令是 user space 还是 kernel space 的。如果是 user space 就给user的计数器加 1,kernel space 就给sys计数器加 1.

类似的,如果 CPU 是处于 idle 状态,kernel 就检查是不是有 I/O 操作正在发生(可以是 local disk 也可以是mount的 NFS),如果有就给iowait计数器加 1,没有就给idle计数器加 1.

当我们运行vmstat或者sar等命令查看时,它们会先读取当前这几个计数器的计数,然后在用户指定的时间里面等待,然后再次读取。因为用户指定的时间里面过去了多少个tick是可以计算的,然后前后计数器的增值也可以计算,就可以算出一个比值。比如如果用户运行的命令是vmstat 2,表示每两秒取样一次,那么:

  1. tick 是 10ms 一个,所以总共是 200 个 ticks
  2. 计数器的增量/200*100 就是每个状态的百分比

iowait的意义

这其实比它怎么计算要难理解一些。比如本座之前心里就有一个疑问:既然只是某个 process 在 block,那么系统会 schedule 其他的事情,这对性能有什么大不了的影响呢?

来看几个例子。

例子一

假设一个程序进行批量的事务,每个事务都有一个 10ms 的计算任务,计算出的结果通过同步的方式写到磁盘。由于它写结果的文件是阻塞方式打开的,所以 I/O 完成之前写操作是不会return的。如果我们假设磁盘系统没有 cache,每个物理的 I/O 需要 20ms,那么一个事务需要 30ms。也就是每秒 33 个事务(33 tps)。如果把系统算成只有一个 CPU 的话,很显然iowait就是 66%。

这种情况下,如果我们能改进 I/O 子系统,比如启用磁盘的缓存,让每次物理的 I/O 只需要 1ms 的话,那么iowait就会迅速下降到 8%左右。可见这种情况下,iowait直接影响着程序的 performance。

例子二

假设一个磁盘检查的程序运行在系统上,每秒钟读 4k 的数据。我们假设这个程序的入口是 main(),然后读磁盘的函数是 read(),main()和 read()都是用户态的。read()属于 libc.a,会调用 kread()这个系统调用来进行物理的 I/O,这个时候就进入了 kernel 态。整个 main(),read()和 kread 执行的时间加起来不长,我们假设是 50 微秒。而物理的 I/O 需要多久要看 seek 的数据有多远,假设需要 2-20ms。这样就完全有可能当时钟中断的时候,cpu 是 idle 的,而且 I/O 正在发生,于是iowait值就达到 97-98% (如果每个 I/O 需要 20ms 就是 99-100%)。

这种情况下,虽然iowait数值非常高,其实这个系统的性能是正常的。

例子三

假设有两个程序跑在同一个 CPU 上。一个程序写得有点儿问题,I/O 会阻塞 10 秒左右。另一个则 100%的时间都在做计算。由于当前一个程序阻塞起来的时候,后面这个程序被运行了,因此无论什么时候都没有 CPU 处于 idle 的状态等 I/O,于是iowait一直是 0,这时候其实系统的 performance 是有很大的问题的。

例子四

假设系统是 4 核的 CPU,运行了 6 个程序。其中 4 个程序有 70%时间在进行物理的 I/O,30%的时间在进行计算任务(假设其中 25%在用户态,5%在 kernel 态)。另外 2 个程序假设 100%时间都在用户态进行计算任务,没有任何 I/O 操作。

如果我们查看系统的 CPU 状态,大概可能看到下面的状况:

     cpu    %usr    %sys    %iowait   %idle
      0       50      10      40       0
      1       50      10      40       0
      2      100       0       0       0
      3      100       0       0       0
      -       75       5      20       0

如果我们把相同的 6 个程序跑到一个 6 核的机器(相同的 CPU 和磁盘配置),那么可以简单的认为会有下面的结果:

     cpu    %usr    %sys    %iowait   %idle
      0       25       5      70       0
      1       25       5      70       0
      2       25       5      70       0
      3       25       5      70       0
      4      100       0       0       0
      5      100       0       0       0
      -       50       3      47       0

也就是说,同样的程序跑在不同的系统上,iowait 增加了一倍多,而这个时候其实没有什么 performance 问题,只不过是系统还能做更多的计算工作。

结论

  • CPU 处于iowait状态,并不说明 CPU 不能运行其他的程序
  • iowait偏高只能说明系统这个时刻还能进行更多的计算任务,至于是不是出现了 performance 问题,需要进一步分析才知道

找出造成问题的进程

虽然每次都是 6 点半多少说明应该是某个 cron 任务(因为机器上没有其他自定义的定时任务)但没法具体知道究竟是哪个。

最简单的办法当然是出问题的时候用iotop命令来看了 。

 # iotop
 Total DISK READ: 8.00 M/s | Total DISK WRITE: 20.36 M/s
  TID PRIO USER DISK READ DISK WRITE SWAPIN IO> COMMAND
 15758 be/4 root 7.99 M/s 8.01 M/s 0.00 % 61.97 % bonnie++ -n 0 -u 0 -r 239 -s 478 -f -b -d /tmp

但是谁又会在 6 点多起来干这种事情。除开修改系统时间重现问题,还可以通过 ps 命令查看记录处于D状态的进程来找到。

ps命令输出里面对PROCESS STATE CODES的定义是:

 D uninterruptible sleep (usually IO)
 R running or runnable (on run queue)
 S interruptible sleep (waiting for an event to complete)
 T stopped, either by a job control signal or because it is being traced.
 W paging (not valid since the 2.6.xx kernel)
 X dead (should never be seen)
 Z defunct ("zombie") process, terminated but not reaped by its parent.

处于等待 I/O 完成状态的进程一般就是D,所以可以通过 tmux 起一个 sessio 来跑下面的命令:

	while true; do date; ps auxf | awk '{if($8=="D") print $0;}'; sleep 1; done > /var/log/ps.log

然后在又一个这样的 6 点半:

Don't touch me

去日志里面查看:

$ cat /var/log/ps.log | grep D

root      7585  7.9  0.0   5904   812 ?        D    06:34   0:02                  \_ /usr/bin/updatedb.mlocate
root      7585  7.8  0.0   5904   812 ?        D    06:34   0:02                  \_ /usr/bin/updatedb.mlocate
root      7585  7.8  0.0   5904   812 ?        D    06:34   0:02                  \_ /usr/bin/updatedb.mlocate
root      7585  7.8  0.0   5944   944 ?        D    06:34   0:02                  \_ /usr/bin/updatedb.mlocate
root      7585  7.7  0.0   5944   944 ?        D    06:34   0:02                  \_ /usr/bin/updatedb.mlocate
root      7585  7.5  0.0   5944   944 ?        D    06:34   0:02                  \_ /usr/bin/updatedb.mlocate
root      7585  7.5  0.0   5944   944 ?        D    06:34   0:02                  \_ /usr/bin/updatedb.mlocate
root      7585  7.6  0.0   5944   944 ?        D    06:34   0:03                  \_ /usr/bin/updatedb.mlocate
root      7585  7.7  0.0   5944   944 ?        D    06:34   0:03                  \_ /usr/bin/updatedb.mlocate
root      7585  7.7  0.0   5944   944 ?        D    06:34   0:03                  \_ /usr/bin/updatedb.mlocate
root      7585  7.8  0.0   5944   944 ?        D    06:34   0:03                  \_ /usr/bin/updatedb.mlocate
root      7585  7.7  0.0   5944   944 ?        D    06:34   0:03                  \_ /usr/bin/updatedb.mlocate
root      7585  7.8  0.0   5944   944 ?        D    06:34   0:03                  \_ /usr/bin/updatedb.mlocate
root      7585  7.7  0.0   5944   944 ?        D    06:34   0:03                  \_ /usr/bin/updatedb.mlocate
root      7585  7.7  0.0   5944   944 ?        D    06:34   0:03                  \_ /usr/bin/updatedb.mlocate
root      7585  7.7  0.0   5944   944 ?        D    06:34   0:03                  \_ /usr/bin/updatedb.mlocate
root      7585  7.7  0.0   5944   944 ?        D    06:34   0:03                  \_ /usr/bin/updatedb.mlocate
root      7585  7.8  0.0   5944   944 ?        D    06:34   0:03                  \_ /usr/bin/updatedb.mlocate
root      7585  7.8  0.0   5944   944 ?        D    06:34   0:03                  \_ /usr/bin/updatedb.mlocate
root      7585  7.8  0.0   5944   944 ?        D    06:34   0:04                  \_ /usr/bin/updatedb.mlocate
root      7585  7.6  0.0   5944   944 ?        D    06:34   0:04                  \_ /usr/bin/updatedb.mlocate
root      7585  7.6  0.0   5944   944 ?        D    06:34   0:04                  \_ /usr/bin/updatedb.mlocate
root      7585  7.6  0.0   5944   944 ?        D    06:34   0:04                  \_ /usr/bin/updatedb.mlocate
root      7585  7.6  0.0   5944   944 ?        D    06:34   0:04                  \_ /usr/bin/updatedb.mlocate
root      7585  7.7  0.0   5944   944 ?        D    06:34   0:04                  \_ /usr/bin/updatedb.mlocate
root      7585  7.6  0.0   5944   944 ?        D    06:34   0:04                  \_ /usr/bin/updatedb.mlocate
root      7585  7.6  0.0   6000   968 ?        D    06:34   0:04                  \_ /usr/bin/updatedb.mlocate
root      7585  7.6  0.0   6000   968 ?        D    06:34   0:04                  \_ /usr/bin/updatedb.mlocate

嗯,原来是/usr/bin/updatedb.mlocate。Google 了一下12发现其实关掉也没什么:

sudo killall updatedb.mlocate
sudo chmod -x /etc/cron.daily/mlocate

整个世界清静了。

  1. http://www.iasptk.com/ubuntuwp/can-i-disable-updatedb-mlocate/ 

  2. http://ubuntuforums.org/showthread.php?t=1243951&page=2&p=7844783#post7844783 

欢迎留言