OmniOS - Statystyki dysków i systemu plików
Status oraz "zdrowie" dysków
root@test-builder:~# zpool status
pool: rpool
state: ONLINE
scan: resilvered 5,66G in 0h3m with 0 errors on Sun Mar 1 19:06:10 2015
config:
NAME STATE READ WRITE CKSUM
rpool ONLINE 0 0 0
mirror-0 ONLINE 0 0 0
c0t0d0s0 ONLINE 0 0 0
c0t1d0s0 ONLINE 0 0 0
errors: No known data errors
pool: tank
state: ONLINE
scan: none requested
config:
NAME STATE READ WRITE CKSUM
tank ONLINE 0 0 0
raidz1-0 ONLINE 0 0 0
c0t2d0 ONLINE 0 0 0
c0t3d0 ONLINE 0 0 0
c0t4d0 ONLINE 0 0 0
c0t5d0 ONLINE 0 0 0
errors: No known data errors
root@test-builder:~# _
Sprawdzanie statusu i zajętości macierzy dyskowych
root@test-builder:~# zpool list
NAME SIZE ALLOC FREE EXPANDSZ CAP DEDUP HEALTH ALTROOT
rpool 55,5G 7,01G 48,5G - 12% 1.00x ONLINE -
tank 222G 16,6G 205G - 7% 1.00x ONLINE -
root@test-builder:~# _
Listowanie struktury systemu plików
root@test-builder:~# zfs list
NAME USED AVAIL REFER MOUNTPOINT
rpool 8,95G 45,7G 36K /rpool
rpool/ROOT 2,85G 45,7G 31K legacy
rpool/ROOT/omnios 2,84G 45,7G 2,27G /
rpool/ROOT/omnios-backup-1 10,4M 45,7G 1,41G /
rpool/ROOT/omniosvar 31K 45,7G 31K legacy
rpool/dump 4,00G 45,7G 4,00G -
rpool/export 39,5M 45,7G 32K /export
rpool/export/home 39,5M 45,7G 39,5M /export/home
rpool/swap 2,06G 47,6G 129M -
tank 21,6G 142G 46,4K /tank
tank/VM 10,8G 142G 44,9K /tank/VM
tank/VM/WinXP 10,8G 142G 503M /tank/VM/WinXP
tank/VM/WinXP/disk0 10,3G 151G 1,09G -
tank/zones 10,8G 142G 50,9K /tank/zones
tank/zones/dev 2,30G 142G 46,4K /tank/zones/dev
tank/zones/dev/ROOT 2,30G 142G 43,4K legacy
tank/zones/dev/ROOT/zbe 2,30G 142G 2,30G legacy
tank/zones/pkgsrc32 5,20G 142G 46,4K /tank/zones/pkgsrc32
tank/zones/pkgsrc32/ROOT 5,20G 142G 43,4K legacy
tank/zones/pkgsrc32/ROOT/zbe 5,20G 142G 5,20G legacy
tank/zones/pkgsrc64 2,19G 142G 46,4K /tank/zones/pkgsrc64
tank/zones/pkgsrc64/ROOT 2,19G 142G 43,4K legacy
tank/zones/pkgsrc64/ROOT/zbe 2,19G 142G 2,19G legacy
tank/zones/printer 1,12G 142G 46,4K /tank/zones/printer
tank/zones/printer/ROOT 1,12G 142G 43,4K legacy
tank/zones/printer/ROOT/zbe 1,12G 142G 1,12G legacy
root@test-builder:~# _
Listowanie snapshotów
root@test-builder:~# zfs list -t snapshot
NAME USED AVAIL REFER MOUNTPOINT
rpool/ROOT/omnios@install 279M - 1,39G -
rpool/ROOT/omnios@2015-03-01-21:45:48 285M - 1,40G -
root@test-builder:~# _
Włączenie kompresji wybranego zasobu w systemie plików i sprawdzenie
root@test-builder:~# zfs get compression tank
NAME PROPERTY VALUE SOURCE
tank compression off default
root@test-builder:~# zfs set compression=on tank
root@test-builder:~# zfs get compression tank
NAME PROPERTY VALUE SOURCE
tank compression on local
root@test-builder:~# zfs get compression tank/zones
NAME PROPERTY VALUE SOURCE
tank/zones compression on inherited from tank
root@test-builder:~# _
Tutaj słowo wyjaśnienia: włączenie kompresji dla kontenera nadrzędnego jest dziedziczone przez obiekty znajdujące się w jego wnętrzu - dotyczy to również kolejnych systemów plików tworzonych na zasadzie drzewa zależności. Należy to rozumieć w takie sposób, że wszelkie opcje ustawione dla kontenera nadrzędnego stają się ustawieniami domyślnymi dla obiektów podrzędnych - oczywiście można je indywidualnie modyfikować.
Sprawdzenie stopnia kompresji
root@test-builder:~# zfs get compressratio tank
NAME PROPERTY VALUE SOURCE
tank compressratio 1.00x -
root@test-builder:~# _
Słowo wyjaśnienia: włączenie kompresji dla istniejącego systemu plików powoduje zapis danych skompresowanych w przypadku nowo tworzonych plików w tej przestrzeni dyskowej. Dlatego w powyższym przykładzie początkowo kompresja będzie wynosiła szacunkowo 1.00x i dopiero po większych modyfikacjach zawartości tego systemu plików stopień kompresji będzie ulegał zwiększeniu.
Sprawdzenie rozmiaru bieżącego ZFS ARC
root@test-builder:~# kstat -p zfs:0:arcstats:size | cut -f2
4000574624
root@test-builder:~# _
Statystyki ARC w czasie rzeczywistym
root@test-builder:~# arcstat 1 10
time read miss miss% dmis dm% pmis pm% mmis mm% arcsz c
20:20:01 0 0 0 0 0 0 0 0 0 3.7G 7.0G
20:20:02 547 0 0 0 0 0 0 0 0 3.7G 7.0G
20:20:03 0 0 0 0 0 0 0 0 0 3.7G 7.0G
20:20:04 0 0 0 0 0 0 0 0 0 3.7G 7.0G
20:20:05 80 0 0 0 0 0 0 0 0 3.7G 7.0G
20:20:06 410 0 0 0 0 0 0 0 0 3.7G 7.0G
20:20:07 295 0 0 0 0 0 0 0 0 3.7G 7.0G
20:20:08 702 0 0 0 0 0 0 0 0 3.7G 7.0G
20:20:09 200 0 0 0 0 0 0 0 0 3.7G 7.0G
20:20:10 264 0 0 0 0 0 0 0 0 3.7G 7.0G
root@test-builder:~# _
Statystyki odczyt/zapis dla macierzy co 10 sek.
root@test-builder:~# zpool iostat 10
capacity operations bandwidth
pool alloc free read write read write
---------- ----- ----- ----- ----- ----- -----
rpool 7,08G 48,4G 2 5 36,6K 25,8K
tank 16,9G 205G 0 51 20,6K 254K
---------- ----- ----- ----- ----- ----- -----
rpool 7,08G 48,4G 0 0 0 0
tank 16,9G 205G 0 29 0 67,6K
---------- ----- ----- ----- ----- ----- -----
rpool 7,08G 48,4G 0 0 0 0
tank 16,9G 205G 0 35 0 140K
---------- ----- ----- ----- ----- ----- -----
Statystyki odczyt/zapis dla dysków w wybranej macierzy co 10 sek.
root@test-builder:~# zpool iostat -v tank 10
capacity operations bandwidth
pool alloc free read write read write
---------- ----- ----- ----- ----- ----- -----
tank 16,9G 205G 0 51 20,5K 254K
raidz1 16,9G 205G 0 51 20,5K 254K
c0t2d0 - - 0 7 5,65K 89,4K
c0t3d0 - - 0 7 5,51K 88,5K
c0t4d0 - - 0 7 5,59K 89,4K
c0t5d0 - - 0 7 5,61K 88,5K
---------- ----- ----- ----- ----- ----- -----
capacity operations bandwidth
pool alloc free read write read write
---------- ----- ----- ----- ----- ----- -----
tank 16,9G 205G 0 35 0 135K
raidz1 16,9G 205G 0 35 0 135K
c0t2d0 - - 0 13 0 49,5K
c0t3d0 - - 0 13 0 47,5K
c0t4d0 - - 0 13 0 49,3K
c0t5d0 - - 0 12 0 47,6K
---------- ----- ----- ----- ----- ----- -----
capacity operations bandwidth
pool alloc free read write read write
---------- ----- ----- ----- ----- ----- -----
tank 16,9G 205G 0 29 0 86,8K
raidz1 16,9G 205G 0 29 0 86,8K
c0t2d0 - - 0 12 0 32,3K
c0t3d0 - - 0 12 0 30,5K
c0t4d0 - - 0 12 0 32,5K
c0t5d0 - - 0 12 0 31,0K
---------- ----- ----- ----- ----- ----- -----
Ustalenie, czy jakieś maszyny wirtualne są dławione operacjami I/O
istotne kolumny to: d/s oraz del_t
root@test-builder:~# vfsstat -M -Z 10
r/s w/s Mr/s Mw/s ractv wactv read_t writ_t %r %w d/s del_t zone
18.2 5.2 0.1 0.1 0.0 0.0 0.4 0.1 0 0 0.0 0.0 global (0)
4.3 2.0 0.0 0.0 0.0 0.0 0.3 0.2 0 0 0.3 49.7 printer (1)
4.4 2.0 0.0 0.0 0.0 0.0 0.3 0.2 0 0 0.2 18.0 pkgsrc32 (2)
4.2 1.9 0.0 0.0 0.0 0.0 0.4 0.2 0 0 0.3 42.3 dev (3)
751.4 158.6 1.1 0.3 0.0 0.0 0.0 0.0 0 0 0.0 0.0 pkgsrc64 (4)
Sprawdzenie obciążenia dysków
root@test-builder:~# iostat -xzn 5
extended device statistics
r/s w/s kr/s kw/s wait actv wsvc_t asvc_t %w %b device
2,6 2,5 35,6 51,0 1,0 0,0 192,2 8,5 0 1 rpool
1,3 1,3 17,8 25,5 0,0 0,0 2,0 6,1 0 1 c0t0d0
1,3 1,3 17,8 25,5 0,0 0,0 2,4 6,2 0 1 c0t1d0
0,5 8,2 6,0 88,7 0,0 0,1 0,6 6,4 0 1 c0t2d0
0,4 8,0 5,8 87,8 0,0 0,1 0,6 6,5 0 1 c0t3d0
0,5 8,2 5,9 88,7 0,0 0,1 0,7 6,5 0 1 c0t4d0
0,4 8,0 5,9 87,8 0,0 0,1 0,6 6,5 0 1 c0t5d0
1,8 31,4 23,4 353,0 16,6 0,2 501,3 7,4 1 2 tank
Statystyki pamięci przydzielonej dla systemu plików
root@test-builder:~#
echo ::memstat | mdb -k
Page Summary Pages MB %Tot
------------ ---------------- ---------------- ----
Kernel 670795 2620 32%
ZFS File Data 736949 2878 35%
Anon 62889 245 3%
Exec and libs 15102 58 1%
Page cache 263502 1029 13%
Free (cachelist) 69309 270 3%
Free (freelist) 274267 1071 13%
Total 2092813 8175
Physical 2092812 8175
root@test-builder:~# _