vmstat 是 Virtual Meomory Statistics (虚拟内存统计) 的缩写,可对操作系统的虚拟内存、进程、CPU等活动进行监控。它是对系统整体情况进行统计,不足之处是无法对某个进程进行深入分析。vmstat 工具提供了一种低开销的系统性能观察方式。因为 vmstat 本身就是低开销工具,在非常高负荷的服务器上,你需要查看并监控系统的健康情况,在控制窗口还是能够使用 vmstat 输出结果。在学习 vmstat 命令前,我们先了解一下 Linux 系统中关于物理内存和虚拟内存的相关信息;
物理内存和虚拟内存区别:
我们知道,直接从物理内存写取数据要比从硬盘读写数据要快的多,因此,我们希望所有的数据的读写都在内存中完成,而内存是有限的,这样就引出了物理内存和虚拟内存的概念;
物理内存就是系统硬件提供的内存大小,是真正的内存,相对于物理内存,在 Linux 下还有一个虚拟内存的概念,虚拟内存就是为了满足物理内存不足而提出的策略,它是利用磁盘空间虚拟出来的一块逻辑块,用作虚拟内存的磁盘空间被称为交换空间(Swap Space) ;
作为物理内存的扩展,Linux 会在物理内存不足的时,使用交换分区的虚拟内存,更详细的说,就是内核会将暂时不用的内存块信息写到交换空间,这样一来,物理内存得到了释放,这块内存就可以用于其他目的,当需要用到原始的内容时,这些信息会重新从交换空间读入物理内存;
Linux 的内存管理采取的是 分页存取机制 ,为了保证物理内存能得到充分的利用,内核会在适当的时候将物理内存中不经常使用的数据块自动交换到虚拟内存在那个,而将经常使用的信息保留到物理内存中;
要深入了解 Linux 的内存运行机制,需要知道下面提到的几个方面:
首先,Linux 系统会不时的进行页面交换操作,以保持尽可能多的空闲物理内存,即使并没有什么事情需要内存,Linux 也会交换出暂时不用的页面。这可以避免等待交换所需的时间;
其次,Linux 进行页面交换是有条件的,不是所有页面在不用时都交换到虚拟内存,Linux 内核根据 最近最经常使用 算法,仅仅将一些不经常使用的页面文件交换到虚拟内存,有时我们会看到这么一个现象:Linux 物理内存还有很多,但是交换空间也使用了很多。起始,这并不奇怪,例如,一个占用很大内存的进程运行时,需要耗费很多内存资源,有时就会有一些不常用页面文件被交换到虚拟内存中,但后来这个占用很多内存资源的进程结束并释放了很多内存时,刚才被交换出去的页面文件并不会自动的交换进物理内存,除非有这个必要,那么此刻系统物理内存就会空闲很多,同时交换空间也在被使用,就出现了刚才所说的现象了。关于这点,不用担心什么,只要知道是怎么一回事就可以了。
最后,交换空间的页面在使用时首先会被交换到物理内存,如果此时没有足够的物理内存来容纳这些页面,它们又会被马上交换出去,如此以来,虚拟内存中可能没有足够空间来存储这些交换页面,最终会导致 Linux 出现假死机、服务器异常等问题,Linux 虽然可以在一段时间内自行恢复,但是恢复后的系统已经基本不可用了;
因此,合理规划和设计 Linux 内存的使用,是非常重要的;
虚拟内存原理:
在系统中运行的每个进程都需要使用到内存,但不是每个进程都需要每时每刻使用系统分配的内存空间。当系统运行所需要内存超过实际的物理内存,内核就会释放某些进程所占用但未使用的部分或所有物理内存,将这部分资料存储在磁盘上直到进程下一次调用,并将释放出的内存提供给有需要的进程使用;
在 Linux 内存管理中,主要通过 调页Paging 和 交换Swapping 来完成上述的内容调度。调页算法 是将内存中最近不常使用的页面交换到磁盘上,把活动页面保留在内存中供进程使用。交换技术 是将整个进程,而不是部分页面,全部交换到磁盘上;
分页(Page)写入磁盘 的过程被称为 Page-Out ,分页(Page)从磁盘重新回到内存 的过程被称为 Page-In 。当内核需要一个分页时,但发现此分页不在物理内存中(因为已经被 Page-Out 了) ,此时就发生了分页错误(Page Fault) ;
当系统内核发现可运行内存变少时,就会通过 Page-Out 来释放一部分物理内存。尽管 Page-Out 不是经常发生,但是如果 Page-Out 频繁不断的发生,直到当内核管理分页的时间超过运行程式的时间时,系统性能会急剧下降。这时的系统已经运行非常慢或进入暂停状态,这种状态亦被称作 thrashing(颠簸) ;
命令格式 -
命令功能 - 用来显示虚拟内存信息
命令参数 -
命令实例 -
注意:Mac下无 vmstat 命令...
实例一:显示虚拟内存使用情况
命令
xxxxxxxxxx11vmstat输出
xxxxxxxxxx81[root@localhost ~]# vmstat 5 62procs -----------memory---------- ---swap-- -----io---- --system-- -----cpu------3 r b swpd free buff cache si so bi bo in cs us sy id wa st4 0 0 0 3029876 199616 690980 0 0 0 2 3 2 0 0 100 0 05 0 0 0 3029752 199616 690980 0 0 0 41 1009 39 0 0 100 0 06 0 0 0 3029752 199616 690980 0 0 0 3 1004 36 0 0 100 0 07 0 0 0 3029752 199616 690980 0 0 0 4 1004 36 0 0 100 0 08 0 0 0 3029752 199616 690980 0 0 0 6 1003 33 0 0 100 0 0说明
0 0 0 3029752 199616 690980 0 0 0 5 1003 33 0 0 100 0 0
字段说明:
Procs(进程):
r: 运行队列中进程数量
b: 等待IO的进程数量
Memory(内存):
swpd: 使用虚拟内存大小
free: 可用内存大小
buff: 用作缓冲的内存大小
cache: 用作缓存的内存大小
Swap:
si: 每秒从交换区写到内存的大小
so: 每秒写入交换区的内存大小
IO:(现在的Linux版本块的大小为1024bytes)
bi: 每秒读取的块数
bo: 每秒写入的块数
系统:
in: 每秒中断数,包括时钟中断。
cs: 每秒上下文切换数。
CPU(以百分比表示):
us: 用户进程执行时间(user time)
sy: 系统进程执行时间(system time)
id: 空闲时间(包括IO等待时间),中央处理器的空闲时间 。以百分比表示。
wa: 等待IO时间
备注: 如果 r经常大于 4 ,且id经常少于40,表示cpu的负荷很重。如果pi,po 长期不等于0,表示内存不足。如果disk 经常不等于0, 且在 b中的队列 大于3, 表示 io性能不好。Linux在具有高稳定性、可靠性的同时,具有很好的可伸缩性和扩展性,能够针对不同的应用和硬件环境调整,优化出满足当前应用需要的最佳性能。因此企业在维护Linux系统、进行系统调优时,了解系统性能分析工具是至关重要的。
命令:
xxxxxxxxxx11vmstat 5 5表示在5秒时间内进行5次采样。将得到一个数据汇总能够反映真正的系统情况;
实例二:显示活跃和非活跃内存
命令
xxxxxxxxxx11vmstat -a 2 5输出
xxxxxxxxxx81[root@localhost ~]# vmstat -a 2 52procs -----------memory---------- ---swap-- -----io---- --system-- -----cpu------3 r b swpd free inact active si so bi bo in cs us sy id wa st4 0 0 0 3029752 387728 513008 0 0 0 2 3 2 0 0 100 0 05 0 0 0 3029752 387728 513076 0 0 0 0 1005 34 0 0 100 0 06 0 0 0 3029752 387728 513076 0 0 0 22 1004 36 0 0 100 0 07 0 0 0 3029752 387728 513076 0 0 0 0 1004 33 0 0 100 0 08 0 0 0 3029752 387728 513076 0 0 0 0 1003 32 0 0 100 0 0说明
使用-a选项显示活跃和非活跃内存时,所显示的内容除增加inact和active外,其他显示内容与例子1相同。
字段说明:
Memory(内存):
inact: 非活跃内存大小(当使用-a选项时显示)
active: 活跃的内存大小(当使用-a选项时显示)
实例三:查看系统已经创建进程(fork)了多少次
命令
xxxxxxxxxx11vmstat -f输出
xxxxxxxxxx31[root@SCF1129 ~]# vmstat -f2 12744849 forks3[root@SCF1129 ~]#说明
这个数据是用 /proc/stat 中的 processes 字段里取得的
实例四:查看内存使用的详细信息
命令
xxxxxxxxxx11vmstat -s输出
xxxxxxxxxx271[root@localhost ~]# vmstat -s2 4043760 total memory3 1013884 used memory4 513012 active memory5 387728 inactive memory6 3029876 free memory7 199616 buffer memory8 690980 swap cache9 6096656 total swap10 0 used swap11 6096656 free swap12 83587 non-nice user cpu ticks13 132 nice user cpu ticks14 278599 system cpu ticks15 913344692 idle cpu ticks16 814550 IO-wait cpu ticks17 10547 IRQ cpu ticks18 21261 softirq cpu ticks19 0 stolen cpu ticks20 310215 pages paged in21 14254652 pages paged out22 0 pages swapped in23 0 pages swapped out24 288374745 interrupts25 146680577 CPU context switches26 1351868832 boot time27 367291 forks 说明
这些信息分别来自于 /proc/meminfo,/proc/stat 和 /proc/vmstat
实例五:查看磁盘的读/写
命令
xxxxxxxxxx11vmstat -d输出
xxxxxxxxxx241[root@localhost ~]# vmstat -d2disk- ------------reads------------ ------------writes----------- -----IO------3 total merged sectors ms total merged sectors ms cur sec4ram0 0 0 0 0 0 0 0 0 0 05ram1 0 0 0 0 0 0 0 0 0 06ram2 0 0 0 0 0 0 0 0 0 07ram3 0 0 0 0 0 0 0 0 0 08ram4 0 0 0 0 0 0 0 0 0 09ram5 0 0 0 0 0 0 0 0 0 010ram6 0 0 0 0 0 0 0 0 0 011ram7 0 0 0 0 0 0 0 0 0 012ram8 0 0 0 0 0 0 0 0 0 013ram9 0 0 0 0 0 0 0 0 0 014ram10 0 0 0 0 0 0 0 0 0 015ram11 0 0 0 0 0 0 0 0 0 016ram12 0 0 0 0 0 0 0 0 0 017ram13 0 0 0 0 0 0 0 0 0 018ram14 0 0 0 0 0 0 0 0 0 019ram15 0 0 0 0 0 0 0 0 0 020sda 33381 6455 615407 63224 2068111 1495416 28508288 15990289 0 1049121hdc 0 0 0 0 0 0 0 0 0 022fd0 0 0 0 0 0 0 0 0 0 023md0 0 0 0 0 0 0 0 0 0 024[root@localhost ~]# 说明
这些信息主要来自于 /proc/diskstats
merged :表示一次来自于合并的写/读请求,一般系统会把多个连接/邻近的读/写请求合并到一起来操作
实例六:查看/dev/sda1 磁盘的读/写
命令
xxxxxxxxxx11vmstat -p /dev/sda1输出
xxxxxxxxxx91[root@SCF1129 ~]# df2文件系统 1K-块 已用 可用 已用% 挂载点3/dev/sda3 1119336548 27642068 1034835500 3% /tmpfs 32978376 0 32978376 0% /dev/shm4/dev/sda1 1032088 59604 920056 7% /boot5[root@SCF1129 ~]# vmstat -p /dev/sda16sda1 reads read sectors writes requested writes7 18607 4249978 6 48[root@SCF1129 ~]# vmstat -p /dev/sda38sda3 reads read sectors writes requested writes9 429350 35176268 28998789 980301488[root@SCF1129 ~]#说明
这些信息主要来自于 /proc/diskstats。
reads:来自于这个分区的读的次数。
read sectors:来自于这个分区的读扇区的次数。
writes:来自于这个分区的写的次数。
requested writes:来自于这个分区的写请求次数
实例七:查看系统的slab信息
命令
xxxxxxxxxx11vmstat -m输出
xxxxxxxxxx1431[root@localhost ~]# vmstat -m2Cache Num Total Size Pages3ip_conntrack_expect 0 0 136 284ip_conntrack 3 13 304 135ip_fib_alias 11 59 64 596ip_fib_hash 11 59 64 597AF_VMCI 0 0 960 48bio_map_info 100 105 1064 79dm_mpath 0 0 1064 710jbd_4k 0 0 4096 111dm_uevent 0 0 2608 312dm_tio 0 0 24 14413dm_io 0 0 48 7714scsi_cmd_cache 10 10 384 1015sgpool-128 32 32 4096 116sgpool-64 32 32 2048 217sgpool-32 32 32 1024 418sgpool-16 32 32 512 819sgpool-8 45 45 256 1520scsi_io_context 0 0 112 3421ext3_inode_cache 51080 51105 760 522ext3_xattr 36 88 88 4423journal_handle 18 144 24 14424journal_head 56 80 96 4025revoke_table 4 202 16 20226revoke_record 0 0 32 11227uhci_urb_priv 0 0 56 6728UNIX 13 33 704 1129flow_cache 0 0 128 3030msi_cache 33 59 64 5931cfq_ioc_pool 14 90 128 3032cfq_pool 12 90 216 1833crq_pool 16 96 80 4834deadline_drq 0 0 80 4835as_arq 0 0 96 4036mqueue_inode_cache 1 4 896 437isofs_inode_cache 0 0 608 638hugetlbfs_inode_cache 1 7 576 739Cache Num Total Size Pages40ext2_inode_cache 0 0 720 541ext2_xattr 0 0 88 4442dnotify_cache 0 0 40 9243dquot 0 0 256 1544eventpoll_pwq 3 53 72 5345eventpoll_epi 3 20 192 2046inotify_event_cache 0 0 40 9247inotify_watch_cache 1 53 72 5348kioctx 0 0 320 1249kiocb 0 0 256 1550fasync_cache 0 0 24 14451shmem_inode_cache 254 290 768 552posix_timers_cache 0 0 128 3053uid_cache 0 0 128 3054ip_mrt_cache 0 0 128 3055tcp_bind_bucket 3 112 32 11256inet_peer_cache 0 0 128 3057secpath_cache 0 0 64 5958xfrm_dst_cache 0 0 384 1059ip_dst_cache 5 10 384 1060arp_cache 1 15 256 1561RAW 3 5 768 562UDP 5 10 768 563tw_sock_TCP 0 0 192 2064request_sock_TCP 0 0 128 3065TCP 4 5 1600 566blkdev_ioc 14 118 64 5967blkdev_queue 20 30 1576 568blkdev_requests 13 42 272 1469biovec-256 7 7 4096 170biovec-128 7 8 2048 271biovec-64 7 8 1024 472biovec-16 7 15 256 1573biovec-4 7 59 64 5974biovec-1 23 202 16 20275bio 270 270 128 3076utrace_engine_cache 0 0 64 5977Cache Num Total Size Pages78utrace_cache 0 0 64 5979sock_inode_cache 33 48 640 680skbuff_fclone_cache 7 7 512 781skbuff_head_cache 319 390 256 1582file_lock_cache 1 22 176 2283Acpi-Operand 4136 4248 64 5984Acpi-ParseExt 0 0 64 5985Acpi-Parse 0 0 40 9286Acpi-State 0 0 80 4887Acpi-Namespace 2871 2912 32 11288delayacct_cache 81 295 64 5989taskstats_cache 4 53 72 5390proc_inode_cache 1427 1440 592 691sigqueue 0 0 160 2492radix_tree_node 13166 13188 536 793bdev_cache 23 24 832 494sysfs_dir_cache 5370 5412 88 4495mnt_cache 26 30 256 1596inode_cache 2009 2009 560 797dentry_cache 60952 61020 216 1898filp 479 1305 256 1599names_cache 3 3 4096 1100avc_node 14 53 72 53101selinux_inode_security 994 1200 80 48102key_jar 2 20 192 20103idr_layer_cache 74 77 528 7104buffer_head 164045 164800 96 40105mm_struct 51 56 896 4106vm_area_struct 1142 1958 176 22107fs_cache 35 177 64 59108files_cache 36 55 768 5109signal_cache 72 162 832 9110sighand_cache 68 84 2112 3111task_struct 76 80 1888 2112anon_vma 458 864 24 144113pid 83 295 64 59114shared_policy_node 0 0 48 77115Cache Num Total Size Pages116numa_policy 37 144 24 144117size-131072(DMA) 0 0 131072 1118size-131072 0 0 131072 1119size-65536(DMA) 0 0 65536 1120size-65536 1 1 65536 1121size-32768(DMA) 0 0 32768 1122size-32768 2 2 32768 1123size-16384(DMA) 0 0 16384 1124size-16384 5 5 16384 1125size-8192(DMA) 0 0 8192 1126size-8192 7 7 8192 1127size-4096(DMA) 0 0 4096 1128size-4096 110 111 4096 1129size-2048(DMA) 0 0 2048 2130size-2048 602 602 2048 2131size-1024(DMA) 0 0 1024 4132size-1024 344 352 1024 4133size-512(DMA) 0 0 512 8134size-512 433 480 512 8135size-256(DMA) 0 0 256 15136size-256 1139 1155 256 15137size-128(DMA) 0 0 128 30138size-64(DMA) 0 0 64 59139size-64 5639 5782 64 59140size-32(DMA) 0 0 32 112141size-128 801 930 128 30142size-32 3005 3024 32 112143kmem_cache 137 137 2688 1说明
这组信息来自于 /proc/slabinfo
slab:由于内核会有许多小对象,这些对象构造销毁十分频繁,比如i-node,dentry,这些对象如果每次构建的时候就向内存要一个页(4kb),而其实只有几个字节,这样就会非常浪费,为了解决这个问题,就引入了一种新的机制来处理在同一个页框中如何分配小存储区,而slab可以对小对象进行分配,这样就不用为每一个对象分配页框,从而节省了空间,内核对一些小对象创建析构很频繁,slab对这些小对象进行缓冲,可以重复利用,减少内存分配次数。