Descobri hoje o fio e resolvi fazer alguns testes.
Vai aqui um breve comparativo just-for-fun de um random-read:
Latitude E6400 (meu laptop)
- kernel 2.6.35 (Mint Julia)
- Filesystem EXT4
-
Disco:
description: ATA Disk product: ST9250421ASG vendor: Seagate
read : io=131072KB, bw=589452B/s, iops=143, runt=227699msec
Dell Power Edge T110
- Kernel 2.6.38 (Ubuntu Natty)
- Filesystem Reiserfs
- Disco:
description: ATA Disk product: WDC WD2502ABYS-1 vendor: Western Digital
read : io=131072KB, bw=700945B/s, iops=171, runt=191481msec
- RaidZ (fuse ZFS) composto dos seguintes discos:
*-disk:1 description: ATA Disk product: ST31000524AS vendor: Seagate
*-disk:2 description: ATA Disk product: Hitachi HDS72101 vendor: Hitachi
*-disk:3 description: ATA Disk product: ST31000528AS vendor: Seagate
read : io=262144KB, bw=1066KB/s, iops=266, runt=246014msec
Dell Power Edge 2850
- Kernel 2.6.18-164 (CentOS 5.4)
- Filesystem EXT3/LVM
- Disco:
*-disk ->> Isso é um RAID5 composto de 4 discos SAS 15K description: SCSI Disk product: LD 0 RAID5 559G vendor: MegaRAID
read : io=262144KB, bw=1950.6KB/s, iops=487 , runt=134429msec
UPDATE:
Configuração usada pros testes:
[random-read] rw=randread size=256m directory=/partição/fio/data
E em uma VM, como será que fica?
Bacana!!!
Vejo que aceitou minha sugestão e “aderiu” ao Linux Mint! 😀
É ou n é bom p/ caramba??
Pra ficar mais parecido com os seus testes, que parâmetros passou ao “fio”?
Não achei o iops aqui… Será que a versão é diferente:
random-read: (g=0): rw=randread, bs=4K-4K/4K-4K, ioengine=sync, iodepth=1
Starting 1 thread
random-read: Laying out IO file(s) (1 x 256MiB == 256MiB)
Threads: 1: [r] [100.0% done] [ 12165/ 0 kb/s] [eta 00m:00s]
random-read: (groupid=0): err= 0: pid=10759
read : io=256MiB, bw=10,018KiB/s, runt= 26795msec
clat (msec): min= 0, max= 31, avg= 0.04, stdev= 0.42
bw (KiB/s) : min= 5414, max=14327, per=99.76%, avg=9994.40, stdev=2404.51
cpu : usr=0.86%, sys=21.28%, ctx=62257
IO depths : 1=100.0%, 2=0.0%, 4=0.0%, 8=0.0%, 16=0.0%, 32=0.0%, >=64=0.0%
lat (msec): 2=99.7%, 4=0.1%, 10=0.1%, 20=0.0%, 50=0.0%, 100=0.0%
lat (msec): 250=0.0%, 500=0.0%, 750=0.0%, 1000=0.0%, >=2000=0.0%
Run status group 0 (all jobs):
READ: io=256MiB, aggrb=10,018KiB/s, minb=10,018KiB/s, maxb=10,018KiB/s, mint=26795msec, maxt=26795msec
Disk stats (read/write):
sda: ios=65161/11, merge=2/35, ticks=24404/152, in_queue=24520, util=89.89%