vmstat 是 Virtual Meomory Statistics (虚拟内存统计) 的缩写,可对操作系统的虚拟内存、进程、CPU等活动进行监控。它是对系统整体情况进行统计,不足之处是无法对某个进程进行深入分析。vmstat 工具提供了一种低开销的系统性能观察方式。因为 vmstat 本身就是低开销工具,在非常高负荷的服务器上,你需要查看并监控系统的健康情况,在控制窗口还是能够使用 vmstat 输出结果。在学习 vmstat 命令前,我们先了解一下 Linux 系统中关于物理内存和虚拟内存的相关信息;
物理内存和虚拟内存区别:
我们知道,直接从物理内存写取数据要比从硬盘读写数据要快的多,因此,我们希望所有的数据的读写都在内存中完成,而内存是有限的,这样就引出了物理内存和虚拟内存的概念;
物理内存就是系统硬件提供的内存大小,是真正的内存,相对于物理内存,在 Linux 下还有一个虚拟内存的概念,虚拟内存就是为了满足物理内存不足而提出的策略,它是利用磁盘空间虚拟出来的一块逻辑块,用作虚拟内存的磁盘空间被称为交换空间(Swap Space) ;
作为物理内存的扩展,Linux 会在物理内存不足的时,使用交换分区的虚拟内存,更详细的说,就是内核会将暂时不用的内存块信息写到交换空间,这样一来,物理内存得到了释放,这块内存就可以用于其他目的,当需要用到原始的内容时,这些信息会重新从交换空间读入物理内存;
Linux 的内存管理采取的是 分页存取机制 ,为了保证物理内存能得到充分的利用,内核会在适当的时候将物理内存中不经常使用的数据块自动交换到虚拟内存在那个,而将经常使用的信息保留到物理内存中;
要深入了解 Linux 的内存运行机制,需要知道下面提到的几个方面:
首先,Linux 系统会不时的进行页面交换操作,以保持尽可能多的空闲物理内存,即使并没有什么事情需要内存,Linux 也会交换出暂时不用的页面。这可以避免等待交换所需的时间;
其次,Linux 进行页面交换是有条件的,不是所有页面在不用时都交换到虚拟内存,Linux 内核根据 最近最经常使用 算法,仅仅将一些不经常使用的页面文件交换到虚拟内存,有时我们会看到这么一个现象:Linux 物理内存还有很多,但是交换空间也使用了很多。起始,这并不奇怪,例如,一个占用很大内存的进程运行时,需要耗费很多内存资源,有时就会有一些不常用页面文件被交换到虚拟内存中,但后来这个占用很多内存资源的进程结束并释放了很多内存时,刚才被交换出去的页面文件并不会自动的交换进物理内存,除非有这个必要,那么此刻系统物理内存就会空闲很多,同时交换空间也在被使用,就出现了刚才所说的现象了。关于这点,不用担心什么,只要知道是怎么一回事就可以了。
最后,交换空间的页面在使用时首先会被交换到物理内存,如果此时没有足够的物理内存来容纳这些页面,它们又会被马上交换出去,如此以来,虚拟内存中可能没有足够空间来存储这些交换页面,最终会导致 Linux 出现假死机、服务器异常等问题,Linux 虽然可以在一段时间内自行恢复,但是恢复后的系统已经基本不可用了;
因此,合理规划和设计 Linux 内存的使用,是非常重要的;
虚拟内存原理:
在系统中运行的每个进程都需要使用到内存,但不是每个进程都需要每时每刻使用系统分配的内存空间。当系统运行所需要内存超过实际的物理内存,内核就会释放某些进程所占用但未使用的部分或所有物理内存,将这部分资料存储在磁盘上直到进程下一次调用,并将释放出的内存提供给有需要的进程使用;
在 Linux 内存管理中,主要通过 调页Paging 和 交换Swapping 来完成上述的内容调度。调页算法 是将内存中最近不常使用的页面交换到磁盘上,把活动页面保留在内存中供进程使用。交换技术 是将整个进程,而不是部分页面,全部交换到磁盘上;
分页(Page)写入磁盘 的过程被称为 Page-Out ,分页(Page)从磁盘重新回到内存 的过程被称为 Page-In 。当内核需要一个分页时,但发现此分页不在物理内存中(因为已经被 Page-Out 了) ,此时就发生了分页错误(Page Fault) ;
当系统内核发现可运行内存变少时,就会通过 Page-Out 来释放一部分物理内存。尽管 Page-Out 不是经常发生,但是如果 Page-Out 频繁不断的发生,直到当内核管理分页的时间超过运行程式的时间时,系统性能会急剧下降。这时的系统已经运行非常慢或进入暂停状态,这种状态亦被称作 thrashing(颠簸) ;
命令格式 -
命令功能 - 用来显示虚拟内存信息
命令参数 -
命令实例 -
注意:Mac下无 vmstat 命令...
实例一:显示虚拟内存使用情况
命令
xxxxxxxxxx
11vmstat
输出
xxxxxxxxxx
81[root@localhost ~]# vmstat 5 6
2procs -----------memory---------- ---swap-- -----io---- --system-- -----cpu------
3 r b swpd free buff cache si so bi bo in cs us sy id wa st
4 0 0 0 3029876 199616 690980 0 0 0 2 3 2 0 0 100 0 0
5 0 0 0 3029752 199616 690980 0 0 0 41 1009 39 0 0 100 0 0
6 0 0 0 3029752 199616 690980 0 0 0 3 1004 36 0 0 100 0 0
7 0 0 0 3029752 199616 690980 0 0 0 4 1004 36 0 0 100 0 0
8 0 0 0 3029752 199616 690980 0 0 0 6 1003 33 0 0 100 0 0
说明
0 0 0 3029752 199616 690980 0 0 0 5 1003 33 0 0 100 0 0
字段说明:
Procs(进程):
r: 运行队列中进程数量
b: 等待IO的进程数量
Memory(内存):
swpd: 使用虚拟内存大小
free: 可用内存大小
buff: 用作缓冲的内存大小
cache: 用作缓存的内存大小
Swap:
si: 每秒从交换区写到内存的大小
so: 每秒写入交换区的内存大小
IO:(现在的Linux版本块的大小为1024bytes)
bi: 每秒读取的块数
bo: 每秒写入的块数
系统:
in: 每秒中断数,包括时钟中断。
cs: 每秒上下文切换数。
CPU(以百分比表示):
us: 用户进程执行时间(user time)
sy: 系统进程执行时间(system time)
id: 空闲时间(包括IO等待时间),中央处理器的空闲时间 。以百分比表示。
wa: 等待IO时间
备注: 如果 r经常大于 4 ,且id经常少于40,表示cpu的负荷很重。如果pi,po 长期不等于0,表示内存不足。如果disk 经常不等于0, 且在 b中的队列 大于3, 表示 io性能不好。Linux在具有高稳定性、可靠性的同时,具有很好的可伸缩性和扩展性,能够针对不同的应用和硬件环境调整,优化出满足当前应用需要的最佳性能。因此企业在维护Linux系统、进行系统调优时,了解系统性能分析工具是至关重要的。
命令:
xxxxxxxxxx
11vmstat 5 5
表示在5秒时间内进行5次采样。将得到一个数据汇总能够反映真正的系统情况;
实例二:显示活跃和非活跃内存
命令
xxxxxxxxxx
11vmstat -a 2 5
输出
xxxxxxxxxx
81[root@localhost ~]# vmstat -a 2 5
2procs -----------memory---------- ---swap-- -----io---- --system-- -----cpu------
3 r b swpd free inact active si so bi bo in cs us sy id wa st
4 0 0 0 3029752 387728 513008 0 0 0 2 3 2 0 0 100 0 0
5 0 0 0 3029752 387728 513076 0 0 0 0 1005 34 0 0 100 0 0
6 0 0 0 3029752 387728 513076 0 0 0 22 1004 36 0 0 100 0 0
7 0 0 0 3029752 387728 513076 0 0 0 0 1004 33 0 0 100 0 0
8 0 0 0 3029752 387728 513076 0 0 0 0 1003 32 0 0 100 0 0
说明
使用-a选项显示活跃和非活跃内存时,所显示的内容除增加inact和active外,其他显示内容与例子1相同。
字段说明:
Memory(内存):
inact: 非活跃内存大小(当使用-a选项时显示)
active: 活跃的内存大小(当使用-a选项时显示)
实例三:查看系统已经创建进程(fork)了多少次
命令
xxxxxxxxxx
11vmstat -f
输出
xxxxxxxxxx
31[root@SCF1129 ~]# vmstat -f
2 12744849 forks
3[root@SCF1129 ~]#
说明
这个数据是用 /proc/stat 中的 processes 字段里取得的
实例四:查看内存使用的详细信息
命令
xxxxxxxxxx
11vmstat -s
输出
xxxxxxxxxx
271[root@localhost ~]# vmstat -s
2 4043760 total memory
3 1013884 used memory
4 513012 active memory
5 387728 inactive memory
6 3029876 free memory
7 199616 buffer memory
8 690980 swap cache
9 6096656 total swap
10 0 used swap
11 6096656 free swap
12 83587 non-nice user cpu ticks
13 132 nice user cpu ticks
14 278599 system cpu ticks
15 913344692 idle cpu ticks
16 814550 IO-wait cpu ticks
17 10547 IRQ cpu ticks
18 21261 softirq cpu ticks
19 0 stolen cpu ticks
20 310215 pages paged in
21 14254652 pages paged out
22 0 pages swapped in
23 0 pages swapped out
24 288374745 interrupts
25 146680577 CPU context switches
26 1351868832 boot time
27 367291 forks
说明
这些信息分别来自于 /proc/meminfo,/proc/stat 和 /proc/vmstat
实例五:查看磁盘的读/写
命令
xxxxxxxxxx
11vmstat -d
输出
xxxxxxxxxx
241[root@localhost ~]# vmstat -d
2disk- ------------reads------------ ------------writes----------- -----IO------
3 total merged sectors ms total merged sectors ms cur sec
4ram0 0 0 0 0 0 0 0 0 0 0
5ram1 0 0 0 0 0 0 0 0 0 0
6ram2 0 0 0 0 0 0 0 0 0 0
7ram3 0 0 0 0 0 0 0 0 0 0
8ram4 0 0 0 0 0 0 0 0 0 0
9ram5 0 0 0 0 0 0 0 0 0 0
10ram6 0 0 0 0 0 0 0 0 0 0
11ram7 0 0 0 0 0 0 0 0 0 0
12ram8 0 0 0 0 0 0 0 0 0 0
13ram9 0 0 0 0 0 0 0 0 0 0
14ram10 0 0 0 0 0 0 0 0 0 0
15ram11 0 0 0 0 0 0 0 0 0 0
16ram12 0 0 0 0 0 0 0 0 0 0
17ram13 0 0 0 0 0 0 0 0 0 0
18ram14 0 0 0 0 0 0 0 0 0 0
19ram15 0 0 0 0 0 0 0 0 0 0
20sda 33381 6455 615407 63224 2068111 1495416 28508288 15990289 0 10491
21hdc 0 0 0 0 0 0 0 0 0 0
22fd0 0 0 0 0 0 0 0 0 0 0
23md0 0 0 0 0 0 0 0 0 0 0
24[root@localhost ~]#
说明
这些信息主要来自于 /proc/diskstats
merged :表示一次来自于合并的写/读请求,一般系统会把多个连接/邻近的读/写请求合并到一起来操作
实例六:查看/dev/sda1 磁盘的读/写
命令
xxxxxxxxxx
11vmstat -p /dev/sda1
输出
xxxxxxxxxx
91[root@SCF1129 ~]# df
2文件系统 1K-块 已用 可用 已用% 挂载点
3/dev/sda3 1119336548 27642068 1034835500 3% /tmpfs 32978376 0 32978376 0% /dev/shm
4/dev/sda1 1032088 59604 920056 7% /boot
5[root@SCF1129 ~]# vmstat -p /dev/sda1
6sda1 reads read sectors writes requested writes
7 18607 4249978 6 48[root@SCF1129 ~]# vmstat -p /dev/sda3
8sda3 reads read sectors writes requested writes
9 429350 35176268 28998789 980301488[root@SCF1129 ~]#
说明
这些信息主要来自于 /proc/diskstats。
reads:来自于这个分区的读的次数。
read sectors:来自于这个分区的读扇区的次数。
writes:来自于这个分区的写的次数。
requested writes:来自于这个分区的写请求次数
实例七:查看系统的slab信息
命令
xxxxxxxxxx
11vmstat -m
输出
xxxxxxxxxx
1431[root@localhost ~]# vmstat -m
2Cache Num Total Size Pages
3ip_conntrack_expect 0 0 136 28
4ip_conntrack 3 13 304 13
5ip_fib_alias 11 59 64 59
6ip_fib_hash 11 59 64 59
7AF_VMCI 0 0 960 4
8bio_map_info 100 105 1064 7
9dm_mpath 0 0 1064 7
10jbd_4k 0 0 4096 1
11dm_uevent 0 0 2608 3
12dm_tio 0 0 24 144
13dm_io 0 0 48 77
14scsi_cmd_cache 10 10 384 10
15sgpool-128 32 32 4096 1
16sgpool-64 32 32 2048 2
17sgpool-32 32 32 1024 4
18sgpool-16 32 32 512 8
19sgpool-8 45 45 256 15
20scsi_io_context 0 0 112 34
21ext3_inode_cache 51080 51105 760 5
22ext3_xattr 36 88 88 44
23journal_handle 18 144 24 144
24journal_head 56 80 96 40
25revoke_table 4 202 16 202
26revoke_record 0 0 32 112
27uhci_urb_priv 0 0 56 67
28UNIX 13 33 704 11
29flow_cache 0 0 128 30
30msi_cache 33 59 64 59
31cfq_ioc_pool 14 90 128 30
32cfq_pool 12 90 216 18
33crq_pool 16 96 80 48
34deadline_drq 0 0 80 48
35as_arq 0 0 96 40
36mqueue_inode_cache 1 4 896 4
37isofs_inode_cache 0 0 608 6
38hugetlbfs_inode_cache 1 7 576 7
39Cache Num Total Size Pages
40ext2_inode_cache 0 0 720 5
41ext2_xattr 0 0 88 44
42dnotify_cache 0 0 40 92
43dquot 0 0 256 15
44eventpoll_pwq 3 53 72 53
45eventpoll_epi 3 20 192 20
46inotify_event_cache 0 0 40 92
47inotify_watch_cache 1 53 72 53
48kioctx 0 0 320 12
49kiocb 0 0 256 15
50fasync_cache 0 0 24 144
51shmem_inode_cache 254 290 768 5
52posix_timers_cache 0 0 128 30
53uid_cache 0 0 128 30
54ip_mrt_cache 0 0 128 30
55tcp_bind_bucket 3 112 32 112
56inet_peer_cache 0 0 128 30
57secpath_cache 0 0 64 59
58xfrm_dst_cache 0 0 384 10
59ip_dst_cache 5 10 384 10
60arp_cache 1 15 256 15
61RAW 3 5 768 5
62UDP 5 10 768 5
63tw_sock_TCP 0 0 192 20
64request_sock_TCP 0 0 128 30
65TCP 4 5 1600 5
66blkdev_ioc 14 118 64 59
67blkdev_queue 20 30 1576 5
68blkdev_requests 13 42 272 14
69biovec-256 7 7 4096 1
70biovec-128 7 8 2048 2
71biovec-64 7 8 1024 4
72biovec-16 7 15 256 15
73biovec-4 7 59 64 59
74biovec-1 23 202 16 202
75bio 270 270 128 30
76utrace_engine_cache 0 0 64 59
77Cache Num Total Size Pages
78utrace_cache 0 0 64 59
79sock_inode_cache 33 48 640 6
80skbuff_fclone_cache 7 7 512 7
81skbuff_head_cache 319 390 256 15
82file_lock_cache 1 22 176 22
83Acpi-Operand 4136 4248 64 59
84Acpi-ParseExt 0 0 64 59
85Acpi-Parse 0 0 40 92
86Acpi-State 0 0 80 48
87Acpi-Namespace 2871 2912 32 112
88delayacct_cache 81 295 64 59
89taskstats_cache 4 53 72 53
90proc_inode_cache 1427 1440 592 6
91sigqueue 0 0 160 24
92radix_tree_node 13166 13188 536 7
93bdev_cache 23 24 832 4
94sysfs_dir_cache 5370 5412 88 44
95mnt_cache 26 30 256 15
96inode_cache 2009 2009 560 7
97dentry_cache 60952 61020 216 18
98filp 479 1305 256 15
99names_cache 3 3 4096 1
100avc_node 14 53 72 53
101selinux_inode_security 994 1200 80 48
102key_jar 2 20 192 20
103idr_layer_cache 74 77 528 7
104buffer_head 164045 164800 96 40
105mm_struct 51 56 896 4
106vm_area_struct 1142 1958 176 22
107fs_cache 35 177 64 59
108files_cache 36 55 768 5
109signal_cache 72 162 832 9
110sighand_cache 68 84 2112 3
111task_struct 76 80 1888 2
112anon_vma 458 864 24 144
113pid 83 295 64 59
114shared_policy_node 0 0 48 77
115Cache Num Total Size Pages
116numa_policy 37 144 24 144
117size-131072(DMA) 0 0 131072 1
118size-131072 0 0 131072 1
119size-65536(DMA) 0 0 65536 1
120size-65536 1 1 65536 1
121size-32768(DMA) 0 0 32768 1
122size-32768 2 2 32768 1
123size-16384(DMA) 0 0 16384 1
124size-16384 5 5 16384 1
125size-8192(DMA) 0 0 8192 1
126size-8192 7 7 8192 1
127size-4096(DMA) 0 0 4096 1
128size-4096 110 111 4096 1
129size-2048(DMA) 0 0 2048 2
130size-2048 602 602 2048 2
131size-1024(DMA) 0 0 1024 4
132size-1024 344 352 1024 4
133size-512(DMA) 0 0 512 8
134size-512 433 480 512 8
135size-256(DMA) 0 0 256 15
136size-256 1139 1155 256 15
137size-128(DMA) 0 0 128 30
138size-64(DMA) 0 0 64 59
139size-64 5639 5782 64 59
140size-32(DMA) 0 0 32 112
141size-128 801 930 128 30
142size-32 3005 3024 32 112
143kmem_cache 137 137 2688 1
说明
这组信息来自于 /proc/slabinfo
slab:由于内核会有许多小对象,这些对象构造销毁十分频繁,比如i-node,dentry,这些对象如果每次构建的时候就向内存要一个页(4kb),而其实只有几个字节,这样就会非常浪费,为了解决这个问题,就引入了一种新的机制来处理在同一个页框中如何分配小存储区,而slab可以对小对象进行分配,这样就不用为每一个对象分配页框,从而节省了空间,内核对一些小对象创建析构很频繁,slab对这些小对象进行缓冲,可以重复利用,减少内存分配次数。