?

Log in

No account? Create an account
*nixes
Recent Entries 
18th-Oct-2017 10:47 am(no subject)
[root@wdc-backup11 ~]# mdadm --create --verbose /dev/md128 --level=10 --raid-devices=16 /dev/sda3 /dev/sdb3 /dev/sdc3 /dev/sdd3 /dev/sde3 /dev/sdf3 /dev/sdg3 /dev/sdh3 /dev/sdi3 /dev/sdj3 /dev/sdk3 /dev/sdl3 /dev/sdm3  /dev/sdn3 /dev/sdo3 /dev/sdp3
mdadm: layout defaults to n2
mdadm: layout defaults to n2
mdadm: chunk size defaults to 512K
mdadm: size set to 7761496064K
mdadm: automatically enabling write-intent bitmap on large array
mdadm: Defaulting to version 1.2 metadata
mdadm: array /dev/md128 started.

block size (file system block size, ex. 4096)
stripe size (same as mdadm chunk size, ex. 512k)
stride: stripe size / block size (ex. 512k / 4k = 128)
stripe-width: stride * #-of-data-disks (ex. 4 disks RAID 5 is 3 data disks; 128*3 = 384)

root@space:~# mkfs.ext4 –m 0 -b 4096 -E stripe-width=384,stride=128 /dev/dm_raid/timemachine

To create a new XFS file system for 9 disks (where the number 9 does not include the number of RAID-5 or RAID-6 parity disks) and 64KB chunk size, use:
$ mkfs.xfs -d su=64k,sw=9 -l version=2,su=64k /dev/sdc1

The example below shows the command for creating an XFS partition with larger inodes on 8 disks (where the number 8 does not include the number of RAID-5 or RAID-6 parity disks) and 128 KB chunk size.
$ mkfs.xfs -d su=128k,sw=8 -l version=2,su=128k -isize=512 /dev/sdX

RAID level
10
Number of physical disks
16
RAID chunk size (in KiB)
512
number of filesystem blocks (in KiB)
4
Calculate parameters
mkfs.ext3 -b 4096 -E stride=128,stripe-width=1024


To change Queue Depth of drives to 1 (Basically disables QD)


for drive in {a..p}; do echo 1 > /sys/block/sd${drive}/device/queue_depth; done



[root@wdc-backup11 ~]# mkfs.xfs -d sunit=1024,swidth=8192 -f /dev/md128
meta-data=/dev/md128             isize=512    agcount=58, agsize=268435328 blks
       =                       sectsz=4096  attr=2, projid32bit=1
       =                       crc=1        finobt=0, sparse=0
data     =                       bsize=4096   blocks=15522992128, imaxpct=1
       =                       sunit=128    swidth=1024 blks
naming   =version 2              bsize=4096   ascii-ci=0 ftype=1
log      =internal log           bsize=4096   blocks=521728, version=2
       =                       sectsz=4096  sunit=1 blks, lazy-count=1
realtime =none                   extsz=4096   blocks=0, rtextents=0

dd bs=512 if=/dev/zero of=/dev/sda count=20480 seek=$((`blockdev --getsz /dev/sda` - 20480))
sudo mdadm --stop /dev/md2
sudo mdadm --create /dev/md2 -v --assume-clean --level=raid10 --raid-devices=4 /dev/sdb1 missing /dev/sdd1 /dev/sde1
cisco, network, juniper, zabbix
В сети много инструкций по настройке отправки оповещений мониторинга через СМС. Сам заббикс умеет отправлять сообщения напрямую через подключенный USB свисток или Serial модем. Но, т.к. заббикс не умеет отправлять сообщения на русском языке, лучше использовать скрипт отправки. Но и тут есть несколько подводных камней.

Ниже правильный скрипт отправки.




Дальше...
cisco, network, juniper, zabbix
Оригинал взят у smart_bit в Мониторинг срока действия SSL сертификатов в Zabbix
Есть минимум 2 способа проверки даты протухания SSL сертификата. Через опрос веб сервера или через опрос файлов сертификатов на сервере где они лежат. Первым способом можно мониторить любые хосты, с любых серверов.

Я пошел вторым путем, т.к. в моем случае сертификатов меньше чем хостов и опрос непосредственно файлов сертификатов мне показался более надежным.


Дальше ...
# for p in `dpkg -l | egrep '^ii' | awk '{print $2}'`; do apt-get -y install --reinstall $p ; done
cisco, network, juniper, zabbix
Оригинал взят у smart_bit в Juniper WLC + Zabbix. Автообнаружение и мониторинг точек доступа.

Поскольку не нашел готовый шаблон мониторинга контроллеров Juniper WLC, я сделал свой.
Контроллер опрашивается 2 раза в сутки и обнаруженные WiFi точки доступа добавляются в мониторинг.
Read more...Collapse )

root@stsltp:~# time fio --name=wipe --blocksize=2M --rw=randwrite --direct=1 --buffered=0 --ioengine=libaio --iodepth=1 --filename=/dev/sdc --size=30%
wipe: (g=0): rw=randwrite, bs=2M-2M/2M-2M/2M-2M, ioengine=libaio, iodepth=1
fio-2.1.3
Starting 1 process
Jobs: 1 (f=1): [w] [100.0% done] [0KB/40919KB/0KB /s] [0/19/0 iops] [eta 00m:00s]
wipe: (groupid=0, jobs=1): err= 0: pid=570: Tue Jun  9 17:03:55 2015
write: io=45788MB, bw=40979KB/s, iops=20, runt=1144168msec
  slat (usec): min=94, max=2462, avg=302.98, stdev=117.92
  clat (msec): min=47, max=465, avg=49.66, stdev=11.27
   lat (msec): min=47, max=465, avg=49.96, stdev=11.27
  clat percentiles (msec):
   |  1.00th=[   48],  5.00th=[   48], 10.00th=[   49], 20.00th=[   49],
   | 30.00th=[   49], 40.00th=[   49], 50.00th=[   49], 60.00th=[   50],
   | 70.00th=[   50], 80.00th=[   50], 90.00th=[   50], 95.00th=[   51],
   | 99.00th=[   56], 99.50th=[   58], 99.90th=[  334], 99.95th=[  396],
   | 99.99th=[  453]
  bw (KB  /s): min= 8159, max=42747, per=100.00%, avg=41038.58, stdev=2629.24
  lat (msec) : 50=88.21%, 100=11.68%, 250=0.01%, 500=0.10%
cpu          : usr=0.31%, sys=0.41%, ctx=24825, majf=0, minf=27
IO depths    : 1=100.0%, 2=0.0%, 4=0.0%, 8=0.0%, 16=0.0%, 32=0.0%, >=64=0.0%
   submit    : 0=0.0%, 4=100.0%, 8=0.0%, 16=0.0%, 32=0.0%, 64=0.0%, >=64=0.0%
   complete  : 0=0.0%, 4=100.0%, 8=0.0%, 16=0.0%, 32=0.0%, 64=0.0%, >=64=0.0%
   issued    : total=r=0/w=22894/d=0, short=r=0/w=0/d=0
Run status group 0 (all jobs):
WRITE: io=45788MB, aggrb=40979KB/s, minb=40979KB/s, maxb=40979KB/s, mint=1144168msec, maxt=1144168msec
Disk stats (read/write):
sdc: ios=0/412040, merge=0/0, ticks=0/11300232, in_queue=11299788, util=99.67%
real 19m4.268s
user 0m5.882s
sys 0m7.958s
Генератор find:
http://poplinux.ru/node/340

Генератор crontab:
http://www.corntab.com/pages/crontab-gui

PS: Какие еще кто знает?
This page was loaded Nov 22nd 2017, 3:42 am GMT.