Ceph – Performans (Gozu Kapali) (Referans Amacli)

Bu article tamamen referans niteligi tasiyor , hicbir bilindik benden birsery yok !

Performans

OSD -> cpu , CPU . 2 islemci iyi diyorlar

MDS kullaniyorsan yandin daha da fazal processing power (Bu arada millet ikinci cpu ekleyip compression ve dedup yapiyor ama Ceph bu konuda ilginc duruyor)

RAM olayida guzel avg OSD basina 1G , olmadi 2G iyi olur diyorlar

Networksel olarak public / internal network’u ayirin diyorlar (veri klasik🙂😛 )

Full SSD kullanmiyorsaniz , journal icin mutlaka SSD (eger performans ihtiyaciniz var ise)

Journal SSD icin OSD nin %10 diyenler var , her bir OSD icin 10GB ayiranlar var

Ama dedikleri su journal alani osd oldugu disk de olmasin

Birde bir SSD de 4 OSD ekleyin diyenler var , daha fazlasini koymayin diyorlar

OSD sayisini dusurmek istiyorsaniz bu arada o zaman arkada RAID kullanin derler , az OSD demek daha az deamon demek

Dokumanlari okurken insan diyor ki ah Btrfs production da olsa , ona gelinceyekadar XFS devam olmadi EXT4

RBD Client Side caching , devamli acik “rbd cache = true , rbd cache size = , rbd cache max dirty = , rbd cache max dirty age”

MAX OPEN FILE  olayina dikkat “/var/lib/ceph/osd/ceph-x/current” cunku hersey file ve directory den ibaret

Filestore sycn interval -Journal dan disk e ne zaman yazacagiz , hangi siklikla

filestore min sync interval = 10
filestore max sync interval = 15

Ceph dede heryerde queue olayi mevcut , mesela filestore queue , buna minimal impact diyorlar , filestore queue ile baslayan tum config parametreleri

OSD icin yine queue ve max write parametreleri , journal queue ve journal max ile baslayan tum config parametreleri

Yine OSD icin osd ile baslayan tum config parametreleri “osd max write size , osd op threads , osd map cache size “gibi

Recovery icin , tamam kurtaracagizda bunu hizli yapmak var olan hali hazirda verdigi performansi etkileyeceginden , optimum degeleri bulmak . “osd recovery op priority , osd recovery max active ,osd max backfills

MTU lar 9000 mutlaka

Cok OSD var ise sistemde, isletim sistemini max pid degerini kontrol edip attirin

echo xxxyxxx > /proc/sys/kernel/pid_max

Read ahead ayarlari “echo “8192”>/sys/block/vda/queue/read_ahead_kb

Cold Storage icin Erasure coding kullanilabilir

Ceph Firfly ile gelen eger yanilmiyor isem Cache Tier (write back / read only) olarak kullanabilirsiniz nasil isterseniz. Biri yazmayi digeri okumayi . Cache warm suresi onemli , neyi ne zaman cache’e alacaginiz onemli😦 Bildigim kadariyla hepsi elle ayarlaniyor.

Screen Shot 2016-01-13 at 17.06.39

Benchmarking🙂

rados bench -p <pool_name> <seconds> <write|seq|rand>

OSD Yapisinida bilmek lazim

Screen Shot 2016-01-13 at 17.12.39

Guzel Linkler

http://events.linuxfoundation.org/sites/events/files/slides/optimizing_ceph_flash.pdf

http://www.virtualtothecore.com/en/adventures-ceph-storage-part-3-design-nodes/

http://www.flashmemorysummit.com/English/Collaterals/Proceedings/2015/20150813_S303E_Zhang.pdf

 

 

 

 

Posted on 13/01/2016, in ceph and tagged . Bookmark the permalink. Leave a comment.

Leave a Reply

Fill in your details below or click an icon to log in:

WordPress.com Logo

You are commenting using your WordPress.com account. Log Out / Change )

Twitter picture

You are commenting using your Twitter account. Log Out / Change )

Facebook photo

You are commenting using your Facebook account. Log Out / Change )

Google+ photo

You are commenting using your Google+ account. Log Out / Change )

Connecting to %s

%d bloggers like this: