Hey eine Frage: Wenn man dd die Schreib oder Lesegeschwindigkeit misst, muss man ja eine Blocksize mit bs=xx angeben. Welche sollte man da nehmen und wie wirkt sich das auf die Messergebnisse aus? Ich habe verschiedene Benchmarkskripte gesehen und die Werte sind ganz unterschiedlich:
Code:
dd if=/dev/zero of=${USB_DEVICE_MOUNT_PATH}/test bs=8k count=50k conv=fsync
sync && dd if=/dev/zero of=~/test.tmp bs=1M count=512 conv=fsync 2>&1 | grep -v records
Das sind nur zwei Beispiele. Manche benutzen 4k und was ich auch schon gesehen habe ist eine riesige Blockgröße von z.B. 1GB und nur einem Durchlauf. Sind solche Messergebnisse vergleichbar wenn jemand mit bs=4k misst und ich z.B. mit 1MB?
Welche Auswirkungen hat das auf das Ergebnis und mit welcher Blocksize sollte man am besten messen und warum?