NSX 6.2 Kurulumu

Baslamadan once ;

  • Bir vCenter Server a sadece bir adet NSX Manager tanitilabilir (1:1)
  • Her bir ESXi host icin bir adet Guest Introspection olabilir (DLP, Activity Monitoring ve diger 3th party servisler icin )
  • Datacenter basina birden fazla NSX Edge olabilir (ESXi host basi max 250)
  • Eger ortaminizdaki her bir bileseni (vCenter,ESXi Host,PSC) FQDN kullanarak kurduysaniz reverse name cozumlemesine dikkat
  • NTP ayarlarina dikkat
  • NSX Manager ile ESX host , vCenter Server ve kurulacak diger NSX cihazlarin 443 uzerinden haberlesebildiklerini dogrulayin.
  • Port gereksinimleri icin ilgili adresi kontrol edin http://pubs.vmware.com/NSX-62/index.jsp?topic=%2Fcom.vmware.nsx.install.doc%2FGUID-E7C4E61C-1F36-457C-ACC5-EAF955C46E8B.html
  • Kurulum sirasinda ve erisimlerde kullanacaginiz vCenter Server kullanicisinin yeni sanal makine yaratma ve calistirabilme , datastore a erisme ve kopyalam haklarinin olmasi lazim
  • IPv4 ve/veya IP6 mi kullanicaksiniz onun kararini verin

Bu makelede kullanilacak bazi terimler ve aciklamalar ;

NSX Domain : NSX etki alani, Microsoft AD gibi , NSX Domain diyince aklimiza register oldugu vCenter Server , NSX Manager , NSX Controller ve hypervisor lar uzerinde kosan NSX vSwitch lerin tamami gelmeli.

NSX vSwitch : vSphere distributed switch (vDS) , distributed firewall ,  router ve logical switch aklimiza gelmeli. Hypervisor da kosan bir yazilim, amaci fiziksel dunya ile sanal dunya arasinda bir gecis noktasi veya bir ayrim noktasi yaratabilmek.

ToR : Top-of-rack , Veri merkezlerinde her bir sunucu kabininin uzerine koyulan L2 ve L2/L3 destegi saglayan bildigimiz fiziksel switchler.

Donanim Gereksinimi ;

Screen Shot 2015-10-16 at 17.40.40

256 Hypervisor uzeri 8vCPU ve 24 GB Ram oneriliyor , eger daha fazla hypervisor desteklenecek ise VMware Support a erismeniz oneriliyor🙂

Yazilim Gereksinimi ;

Screen Shot 2015-10-16 at 17.43.21

Benim kurulumumda ESXi version 6.0 update 1 , VCSA 6.0 update 1 , NSX 6.2 kullanildi.

Universal Logical Switch, DLR ve Firewall testleri icin daha oncesinden cross-vCenter NSX icin gerekli olan asagidaki yapi hali hazirda kurulmustur

Cross vCenter vMotion

Yukardaki yapiyi aciklamak gerekir ise ;

  • Uc adet cluster var (Mng&Edge , Compute Cluster A ve Compute Cluster C)
  • Her cluster da iki adet fiziksel node
  • Her node da iki adet 10 Gbit lik ethernet arabirimi
  • Her bir cluster da bir adet vDS , ilgili fiziksel node lar bu vDS e eklenmis ve ikiser 10 Gbit lik ethernet arabirimleri Uplink portlari olarak eklenmistir
  • Yapi uzerinde hicbir vSS mevcut degil , vSphere kurulum asamasinda yaratilan yonetim vSS switch vDS e migrate edilmistir ve yonetim vmkernel portu ilgili vDS altindaki ilgili portgroup altina tasinmistir (Bu adim icin bir zorunlulugunuz yok)
  • Ilgili tum trafik tipleri icin farkli distributed port grouplar yaratilmistir (Management,vMotion,Internet Access)
  • Izolasyon saglamak icin tum trafik tipleri icin farkli VLAN lar set edilmistir
  • Uplink Portlari Trunk olarak ayarlanmistir
  • Henuz VTEP/VXLAN icin bir ayarlama yapilmamsitir, kurulum sirasinda islemler otomatik olarak yapilacaktir

Asagidak Clusterlarin vDS , port group ve Uplink gorunumleri mevcut

Screen Shot 2015-10-19 at 11.53.11

Komut satirindan bu islemleri gormek icin ;

Var olan vDS leri ve port group lari gormek icin –>

[root@compute1:~] esxcli network vswitch dvs vmware list
IST-COMPUTE-DS
Name: IST-COMPUTE-DS
VDS ID: 23 a4 15 50 8d c7 47 58-07 e5 a8 b5 aa a1 58 e4
Class: etherswitch
Num Ports: 2222
Used Ports: 7
Configured Ports: 512
MTU: 9000
CDP Status: listen
Beacon Timeout: -1
Uplinks: vmnic1, vmnic0
VMware Branded: true
DVPort:
Client: vmnic0
DVPortgroup ID: dvportgroup-79
In Use: true
Port ID: 16

Client: vmnic1
DVPortgroup ID: dvportgroup-79
In Use: true
Port ID: 17

Client: vmk0
DVPortgroup ID: dvportgroup-80
In Use: true
Port ID: 0

Client: vmk1
DVPortgroup ID: dvportgroup-81
In Use: true
Port ID: 13

NSX Kurulumu Icin Izleyecegimiz Islem Sirasi

Screen Shot 2015-10-19 at 13.41.57

Once NSX Manager i kuracagiz , bunu yapmadan once NSX Manager in tum ESXi node larin yonetim arabirimlerinden erisilebilir oldugunu dogrulayin. Ardindan NSX Manager i vCenter Server a link leyecegiz ki NSX Controller lari yukleyebilelim. NSX Controller larda NSX Manager gibi sanal makineler uzerinde kosacak. Daha sonra vSwitch e ek bilesenleri yukleyerekten dagitik swithing , routing ve firewalling ozelliklerini aktive edecegiz. Ardindan yeni VLAN araligimizi ki buna su andan itibaren Virtual Network Interface (VNI) diyecegiz , transparent zone ayarlarini yapip NSX platformunu test edebiliyor olacagiz. Ek olarak cross-vCenter NSX kurulumunuda bundan sonraki makalede anlatilacak.

NSX Manager

NSX Manager bize yapiyi merkezi olarak yonetmek icin bir arayuz, islemleri otomatize edebilmek icin REST API ve ek olarak NSX bilesenlerinin monitor edebilmemizi saglar. VMware tarafindan bir OVF sablon olarak gelir, ek bir uygulama kurulumuna ihtiyac duymaz.

NSX Manager in kurulacagi yer HA & DRS in aktif oldugu bir ESXi Cluster olacak, genelde onerilen workload lari olusturacak cluster in disinda bir cluster a yuklenmesi ve uygulama bazinda HA saglayacak bir yapisi yok.

NSX Manager sanal makinesi uzerinde VMware Tools kurulu olarak gelecektir, diger VM ler uzerine kurulan VMware Tools aksine NSX Manager sanal makinesine ait VMware Tools u upgrade etmeye , kaldirmaya veya yeniden kurmayi denemeyin.

Kuruluma Baslayalim

Oncelike NSX for vSphere 6.2.0 ova dosyasini indirin

Screen Shot 2015-09-12 at 22.18.17

Kurulumu “Edge_Cluster” uzerine yapiyorum

Screen Shot 2015-10-19 at 17.36.04

Download ettiginiz ova dosyasini gosterin

Screen Shot 2015-10-19 at 17.36.46

“Accept extra configuration options” secip Next

Screen Shot 2015-10-19 at 17.38.02

Accept

Screen Shot 2015-10-19 at 17.38.13

NSX Manager in kurulacagi “Datacenter” secildi

Screen Shot 2015-10-19 at 17.38.36

Ilgili DataStore u seciyorum kurulum icin, ek olarak “Thin” diye guncelledim yer sikintintisi olabilir diye

Screen Shot 2015-10-19 at 17.42.15

NSX Manager in kullanacagi network un port grubunu secin

Screen Shot 2015-10-19 at 17.42.45

Sirayla once NSX Manager in CLI ve GUI admin ve Privilege Mode sifre bilgilerini set edin

Screen Shot 2015-10-19 at 17.47.38

Simdi NSX Manager sanal makinesin bir hostname ve ip adresini verelim

Screen Shot 2015-10-19 at 17.51.27

DNS ve NTP ayarlari ek olarak bu sanal makineye SSH ile erismek istiyor ise ki isteyecegiz🙂 ilgili kutucugu dolduralim

Screen Shot 2015-10-19 at 17.52.08

Herseyin ozeti, kisa bir kontrol

Screen Shot 2015-10-19 at 17.52.33

Kurulum basladi ve bitti🙂

Screen Shot 2015-10-19 at 18.18.31

NSX Manager a login olup “show interface” ve “ping” ile test edelim

Screen Shot 2015-10-19 at 18.20.38

Web uzerinden eriselim , login olup “View Summary” dugmesine tiklayin

Screen Shot 2015-10-19 at 18.23.24

vPostgres, RabbitMQ and NSX Manager Servislerin calismasi gerekiyor

Screen Shot 2015-10-19 at 18.29.18

Simdi NSX Manager i vCenter Server ile iliskilendirelim ;

Daha onceden NSX Manager in tek bir vCenter Server ile iliskilendirilebilecegini belirtmistim. Ilgili islemi yapmak icin elimizde “administrator” role une sahip bir kullaniciya ihtiyac olacak ve bu kullanicinin sadece ASCII karakterlerden olusan bir sifresinin olmasi gerekecek.

Burada enteresan bir not dusmek istiyorum, diyelim vCenter Server 1 ile NSX Manager 1 iliskilendirildi , oldu ya arkasindan NSX Manager 2 yine ayni vCenter Server 1 ile iliskilendirdi bu durumda vCenter Server 1 -> NSX Manager 1 kaldirip iliskisini NSX Manager 2 ile kurar fakat NSX Manager 1 e login oldugunuzda hala vCenter Server 1 ile iliskili oldugunu gorecektir.

Bunu yapmadan once NSX imizi syslog server a tanitalim. NSX Manager arayuzune login olup “Manage Appliance Settings” e basin

Screen Shot 2015-10-20 at 10.20.22

Ardindan Syslog Server kismini “Edit” leyip asagidaki degerleri set edebiliriz

Screen Shot 2015-10-20 at 10.20.08

Gerekli syslog bilgilerini girin lutfen

Screen Shot 2015-10-20 at 10.19.44

Simdi vCenter Server a kayit olalim “Manage vCenter Registeration” kismini tiklayin

Screen Shot 2015-10-20 at 10.35.02

vCenter Server kismini “Edit” leyelim

Screen Shot 2015-10-20 at 10.35.41

vCenter bilgilerini verelim , bir kez daha dikkat “admin” role une sahip bir kullanici kullanmayi unutmayin

Screen Shot 2015-10-20 at 10.39.24

Sertifika Sertifika Sertifika

Screen Shot 2015-10-20 at 10.39.34

Sync oldugunu gorelim ve vCenter Server i kontrol edelim

Screen Shot 2015-10-20 at 10.40.22

Eger halihazirda vCenter Web Client uzerinden login durumdaysaniz lutfen cikip tekrar girin , Networking & Security ikonunu goruyorsaniz problem yok🙂 devam

Screen Shot 2015-10-20 at 10.48.35

Isterseniz “Lookup Service” ini de ayarlayabilirsiniz, aslinda zorunlu bir adim degil direkt gecebiliresiniz. vSphere 5.1 ile beraber vCenter Single Sign On (SSO) servisi tanitildi, bu servis sayesinde VMware vSphere yazilimlarinin aralarinda bir token bircok bilesen icin ayri ayri kullanici dogrulama yapmadan daha guvenli ve hizli bir sekilde iletisime gecemleri saglandi. Bunla beraber NSX Manager i “Lookup Service” ile entegre ettiginizde AD , NIS , LDAP tabanli vCenter kullanilarininda NSX tarafindan dogrulanabilmesini saglarsiniz.

Lisans konusunda su andaki kurulumda deneme lisansi kullaniliyor, normalde yukardaki islemden sonra NSX lisansini eklemelisiniz.

NSX Controller Kurulumu

NSX Controller kurulumuna gecemeden once bir iki konu var ;

  • NSX Controller lar tum “control plane” dedigimiz yapiyi tutmak icin Apache ZooKeeper adli yazilim kullaniyor, sistem dagitik ve hizli bir disk yapisinda kosmasi gerekiyor
  • NSX Controller lari kurarken veya oncesinde Controller larin olacagi network den ip verebilmek icin IP Pool yaratabilirsiniz
  • Ilk Controller kurulumunda bize kullanici bilgileri sorulacak , bu kullanici bilgisi controller a login olabilimek icin kullanacagiz, bir sonraki controller kurulumlarinda ayni kullanici adi ve sifre kullanilacak
  • Controller lara verilen isimlendirme otomatik yapilmaktadir , mudahale edemesiniz ve/veya siralamyi degtiremezdiniz. Mesela controller-1, controller-2, controller-3 diye kurulum yaptiniz daha sonra  controller-1 i sildiniz bir tane daha yaratmak istediniz yeni isimlendirme  controller-4 olacaktir,  controller-1 ismi asla geri gelmeyecek

Evet baslayalim , “Networking & Security” tab indan “Installation” sekmesini tiklayin

Screen Shot 2015-10-20 at 18.31.06

NSX Controller in bagli olacagi NSX Manager , Datacenter , uzerinde kosacagi cluster , ilgili controller sanal sunucusunun vNIC inin bagli olacagi port group

Screen Shot 2015-10-20 at 18.38.41

Daha onceden belirtmistim , controller sanal makineler atanacak ip adres araligi

Screen Shot 2015-10-20 at 18.48.33

Yarattiginiz IP Pool u secin

Screen Shot 2015-10-20 at 18.49.27

Sadece ilk controller kurulumunda size sorulacak olan ssh sifre bilgisini girin

Screen Shot 2015-10-20 at 18.49.43

Kurulum baslasin

Screen Shot 2015-10-20 at 18.50.31

Kurulumu bitsin ve bir kontrol yapalim

Screen Shot 2015-10-20 at 18.59.00

SSH ile ilk controller node a baglanip “show control-cluster status” komutunu calistirin, tum rollerin aktif olduguna ve Join ve Majority durumlarinin “join complete” ve “cluster majority e connected” oldugunu gorun.

 

Linux nsx-controller 3.2.39-server-nn23 #1 SMP Mon Sep 23 16:01:54 PDT 2013 x86_64

VMware NSX Controller 4.0.6 (Build 44780)

nsx-controller # show control-cluster status

Type                Status                                       Since

——————————————————————————–

Join status:        Join complete                                10/20 18:51:31

Majority status:    Connected to cluster majority                10/20 18:51:16

Restart status:     This controller can be safely restarted      10/20 18:51:27

Cluster ID:         44ebde67-67a7-450e-948a-9c30289bb2c9

Node UUID:          44ebde67-67a7-450e-948a-9c30289bb2c9

Role                Configured status   Active status

——————————————————————————–

api_provider        enabled             activated

persistence_server  enabled             activated

switch_manager      enabled             activated

logical_manager     enabled             activated

directory_server    enabled             activated

Ardindan “show control-cluster roles” komutunu calistirin , ilk kurdugumuz controller node haliyle tum role lerin sahibi

nsx-controller # show control-cluster roles

Listen-IP  Master?    Last-Changed  Count

api_provider         Not configured      Yes  10/20 18:51:31      2

persistence_server              N/A      Yes  10/20 18:51:31      1

switch_manager            127.0.0.1      Yes  10/20 18:51:31      2

logical_manager                 N/A      Yes  10/20 18:51:31      2

directory_server                N/A      Yes  10/20 18:51:31      2

Simdi yukarda yaptigimiz islemi tekrarlayip controller-2 ve controller-3 u kuralim daha sonra asagidaki komutlari calistirip kontrol edelim

nsx-controller # show control-cluster startup-nodes

10.111.34.210, 10.111.34.211, 10.111.34.212

Uc controller da sistemde gozukuyor

nsx-controller # show control-cluster connections

role                port            listening open conns

——————————————————–

api_provider        api/443         Y         6

——————————————————–

persistence_server  server/2878     Y         2

client/2888     Y         0

election/3888   Y         0

——————————————————–

switch_manager      ovsmgmt/6632    Y         0

openflow/6633   Y         0

——————————————————–

system              cluster/7777    Y         0

Controller cluster node lari arasindaki kominikasyonu yukardaki komut ile gorebilirsiniz. Ufak bir anektot “persistence_server  server/2878     Y         2″    Y degerini gordugunuz cluster node u -cluster majority leader- olanidir.

Birde cluster node unun history sini gormek guzel birsey , ne zaman up oldu cluster a katildi katilmadi , role durumlari hepsini adim adim gosteriyor.

nsx-controller # show control-cluster history 

===================================

Host nsx-controller

Node b77e5677-83f6-4407-a8f4-e84dfa1e0263 (10.111.34.211, nicira-nvp-controller.4.0.6.44780)

  10/21 08:34:42: Node started for the first time

  10/21 08:34:46: Joining cluster via node 10.111.34.210

  10/21 08:34:46: Waiting to join cluster

  10/21 08:34:46: Role api_provider configured

  10/21 08:34:46: Role directory_server configured

  10/21 08:34:46: Role switch_manager configured

  10/21 08:34:46: Role logical_manager configured

  10/21 08:34:46: Role persistence_server configured

  10/21 08:34:47: Joined cluster; initializing local components

  10/21 08:34:47: Disconnected from cluster majority

  10/21 08:34:47: Connected to cluster majority

  10/21 08:34:47: Initializing data contact with cluster

  10/21 08:34:48: Interrupted connection to cluster majority

  10/21 08:34:56: Fetching initial configuration data

  10/21 08:34:58: Connected to cluster majority

  10/21 08:34:58: Role persistence_server activated

  10/21 08:35:03: Join complete

  10/21 08:35:03: Role api_provider activated

  10/21 08:35:03: Role directory_server activated

  10/21 08:35:03: Role logical_manager activated

  10/21 08:35:03: Role switch_manager activated

  10/21 08:38:42: Interrupted connection to cluster majority

  10/21 08:38:52: Connected to cluster majority

Devam etmeden once basit ama controller larin uzerinde kostugu cluster da VM startup/shutdown ayarlarini mutlaka yapin.

NSX platform u sadece logical switch ve routing degil ayni zamanda bize firewall serviside saglayacak fakat kurallari yazarken goruceksiniz kuralin uygulanacagi etki alanlari olacak mesela yazdigimiz kurali tum “datacenter” a belki bir “cluster” a belkide bir “resource group” a bu durumda dikkat etmemiz gereken bir takim onemli sanal makinelere firewall kurallarinin etkimemesini isteyecegiz, kimdir bunlar ;

  • vCenter Server
  • PSC (Eger ayri bir makineye kurulmus ise)
  • SQL Server (Eger Windows tabanli bir makineye kurulmus ise)
  • vCenter Web Server (Eger ayri bir makineye kurulmus ise)
  • Ucuncu parti servislerin kostugu NSX partner sanal makineleri

NSX Manager, NSX Controller ve NSX Edge makineleri otomatik olarak bu korumanin disinda tutulmaktdir.

Dikkat edilmesi gereken husus DFW (Distributed Firewall) vNIC bazinda uygulandigindan eger “Exclude List” e eklediginiz sanal makinelere yeni vNIC eklenmis ise bu durumda ilgili vNIC icin kurallara uygulanmaya baslanacaktir, bu problem gidermek icin asagidaki iki yolu denemelisiniz ;

  • Ilgili sanal makineyi sanal makineyi “Exclude List” den cikartip tekrar eklemek
  • Sanal makineyi “power off” yapip sonra tekrardan “power on” yapmak.

Asagida sirasi ile yapilanlari gorebilirsiniz ;

Screen Shot 2015-10-21 at 09.46.06

Screen Shot 2015-10-21 at 09.54.43

Screen Shot 2015-10-21 at 09.55.18

Screen Shot 2015-10-21 at 10.03.28

Host Cluster i NSX Icin Hazirlamak

Artik sira ESXi node larinda NSX den haberdar olmasina , logical switch (VXLAN Bridging) / routing ve firewall fonksiyonlarini desteklemek icin ilgili modullerin kurulmasina geldi.

Dokumanlarda eger ESX i stateless mode kurduysaniz diye bir ibare var yani eger vCenter Server “Auto Deploy” kullanarak ESXi disk uzerine degil direkt sunucunun memory sine yukluyorsaniz demek oluyor bu durumda ilgili NSX VIB lerini elle daha onceden download edip host imajina eklemelisiniz, bunun icinde NSX Manager a su sorguyu yaparsaniz indirmeniz gereken VIB dosyalarini ilgili ESXi version una gore ilgili linkden bulabilirsiniz.

https://10.111.34.200/bin/vdn/nwfabric.properties

Screen Shot 2015-10-21 at 10.52.40

Biz gerekli ayarlamalari “cluster” bazinda yapacagiz ve bundan sonra her cluster a eklenen ESXi node icin ilgili kernel modul leri otomatik olarak yuklenecek

Hatirlamak acisindan kisa bir checklist yapalim ;

  • vCenter Server ile NSX birbirine bagli
  • Tum yapi FQDN uzerinden kullaniliyor ise reverse IP kontrollerini yapiniz
  • DNS Cozumlemelerini kontrol edin
  • ESXi host lar vCenter a port 80 uzerinden baglanabiliyor olmali
  • NTP ayarlari global olarak tum sistemde ayarli olmali
  • Cluster daki tum ESXi host lar ayni vDS lere baglanmis olmali
  • Eger ortaminizda vSphere Update Manager var ise islem oncesi disable edilmesi gerekiyor (ilginc)
  • Cluster da reboot bekleyen bir node olmamali. Action list de “Resolve” opsiyonu cikmamali

Screen Shot 2015-10-21 at 11.10.46

Kurmaya baslayalim “Networking & Security” -> “Installation” sekmesinden NSX Modul lerini kuracagimiz cluster i secip “Install” diyelim

Screen Shot 2015-10-21 at 11.16.17

Screen Shot 2015-10-21 at 11.16.36

Screen Shot 2015-10-21 at 11.27.30

Ayni sekilde “Compute_Cluster” a da kurulumu yaptiktan sonra simdi ESXi CLI dan birde kontrol edelim

[root@compute1:~] esxcli software vib list | grep vsip

esx-vsip                       6.0.0-0.0.2984108                     VMware  VMwareCertified   2015-10-21

[root@compute1:~] esxcli software vib list | grep vxlan

esx-vxlan                      6.0.0-0.0.2984108                     VMware  VMwareCertified   2015-10-21

Bir dipnot, bu islem host reboot gerektirmemekte ve cluster a yeni eklenen ESXi node lar a otomatik olarak ilgili VIB ler kurulacak.

Eger bir sekilde ESXi node u farkli bir cluster a NSX Manager tarafindan NSX destegi icin iliskilendirilmemis bir cluster a tasirsaniz ilgili VIB ler kaldirilacak ve sunucuyu reboot etmeniz istenecektir eger olurda VIB ler kaldirilmaz ise asagidaki komutu calistirin ve host u reboot edin.

root@compute1:~] esxcli software vib remove –vibname=esx-vxlan

root@compute1:~] esxcli software vib remove –vibname=esx-vsip

VXLAN Kullanimini Aktive Edelim

Simdi sira L2 over L3,  yani logical networkleri yani VNI lari ayarlamaya, VTEP uzerinden Layer 2 logical switching yapmak icin son ayarlamalari yapmaya geldi.

VXLAN ayarlari cluster basina yapiliyor, bir onceki adimda yaptigimiz gibi yine cluster basina NSX bilesenleri kuruluyor ve ayin vDS lerin tum clusterdaki host lar tarafindan kullanabilir olmasi gerekiyor. Zaten ESXi hostlari vDS lere ekleyerek hypervisor i bir logical switch haline getirdik simdide NSX VIB leri ve VXLAN Transport paramterlerini konfigre ederek VXLAN kullanimini baslayacagiz.

Burasi aslinda bir yol ayrimi, sadece distributed firewall kullanmak isteyebilirsiniz eger amaciniz bu ise daha fazla ilerlemenize gerek yok, ama L2 over L3 yapicak isek devam …

Burada birkac onemli konu var devam etmeden once ;

  • NIC teaming policy inizi onceden belirleyin, bir vDS icersinde farkli port grouplar icin farkli teaming policy uygulamayin. Bu trafikte kesintiye ve logical router da routing problemlerine sebebiye verebilir.
  • NIC teaming ayari ayni cluster a uye tum node larda ayni olmali
  • VTEP interface lere vereceginiz IP blogunu belirleyin.
  • VTEP interface ler VLAN destekler yani isterseniz Tagged veya Untagged kullanabilirsiniz
  • ve MTU 1550 veya uzeri olmali , default 1600 olacaktir VTEP interface yaratirken gorecegiz fakat ESXi host un fiziksel portlarin bagli oldugu switch portunun MTU degerleri ve vDS in MTU degerleri yine 1600 ve/veya uzerin olmalidir.
  • Eger VDS MTU degeri VXLAN MTU degerinde dusuk ise otomatik olarak VDS degeri VTEP interface icin set edilmis degere yukseltilecektir
  • Multiple VTEP interface olabilir

VXLAN ayarlamalarini yaparken olasi yanlis vlan set etme ,  DHCP problemleri ile ilgili durumlarda kafaniz rahat olsun kolay bir sekilde “unconfigure” edebilir ve/veya problem giderildiginide mesela VTEP Interface ip alamadigini ve vxlan configrasyon’unun hataya dustugunde sadece DHCP den ip alimini duzeltip Web Client uzerinden refresh etmeniz yeterli.

Screen Shot 2015-11-10 at 13.25.05

Simdi ilgili islemleri yapmaya baslayalim ;

VXLAN kolonunuda “Not Configured” link ine tiklayin

Screen Shot 2015-11-10 at 13.06.54

Evet , VXLAN kosacagi VLAN im 865 , MTU 1600 , DHCP den ip aliyorum , Teaming Policy im “Fail Over” ve tek bir VTEP interface kullanacagim

Screen Shot 2015-11-10 at 13.28.55

Bekliyoruz

Screen Shot 2015-11-10 at 13.13.47

Tamamdir

Screen Shot 2015-11-10 at 13.14.38

ESX Host Cli dan bakalim yeni bir vmkernel interface eklenmis olmali

Screen Shot 2015-11-10 at 13.58.18

Bu islem sirasinda otomatik olarak bir distributed port group yaratildi

Screen Shot 2015-11-10 at 14.00.10

Segment ID / Yeni VLAN Araligimizi Belirtelim

Su ana kadar biliyoruz ki klasik fiziksel switch ortaminda 4096 VLAN limitimiz vardi ve VXLAN ile bu limit 16 milyon gibi bir rakam a kavusut. Burada dikkat etmemiz gereken konu 16 M su an vCenter ortami icin gercekci degil ve vCenter basina limitlenmis 10,000 dvPortgroup nedeniyle limitimiz simdilik 10,000 logical network/switch nasil adlandirirsaniz. Ek olarka farkli NSX kurulumlariniz olacak ise ilerde vermis oldugunuz araliklari farkli ortamlarda kullanmamaya calisin , ornegin 7000 ile 7999 araligini kullanmis iseniz bir sonraki NSX kurulumnda 8000 den baslayin.

Logical Network Preparation -> Segment ID -> Edit

Screen Shot 2015-11-10 at 14.11.16

Bol bulduk ….

Burada dikkat ederseniz “Enable Multicast addressing” secili degil , control plane mode umuz “unicast” olacak cunku

Eger control plane mode olarak “multicast” veya “hybrid” olacak ve switchlerinizde IGMP Snooping ayarlanmis ise o zaman multicast ip blogu set etmelsiniz , kullanilmayacak multicast ip blok larinida http://www.ietf.org/proceedings/59/I-D/draft-ietf-mboned-ipv4-mcast-unusable-01.txt adresinden bulabilirsiniz

Screen Shot 2015-11-10 at 14.14.07

Tamamdir …

Screen Shot 2015-11-10 at 14.15.03

Daha sonra goreceksiniz , her bir yaratilan logical switch icin bir adet segment id yi bu havuzdan cekecegiz

Transport Zone 

Transport Zone ayari hangi logical switch lerin (Segment ID lerin , VXLAN larin) hangi ESX hostlar tarafindan erisilebilecegini belirtir. Cluster lara yayilabilir.

Eskilerden ornek vermek gerekir ise , diyelim bir vSphere Cluster ortamimiz var , vDS kullaniliyor, bir sanal makine var clusterdaki ESX01 node u uzerinde ve bu sanal makinenin vNIC i bagli oldugu dvPortgroup 1000 VLAN inda,  vMotion yapicaksiniz , eger ilgili 1000 VLAN i gecis yapacaginiz ESX02 node un bagli oldugu switch portunda tanimli degil ise sanal makine erisilmez olacak , Transport Zone da bunun gibi ilgili Segment ID lerin cluster veya cluster lar arasinda kullanilabilir kiliyor.

Neler olabilir , Neler olamaz ; 

  • NSX ortaminda birden fazla Transport Zone tanimlanabilir
  • Bir cluster birden fazla  Transport Zone a uye olabilir
  • Logical switch sadece tek bir Transport Zone a atanabilir
  • Farkli Transport Zone lardaki VM ler ayni L2 Network unde olamaz
  • DLR farkli Transport Zone lardaki logical switch lere baglanamaz
  • ESG keza ayni

Yani🙂

  • Eger L3 connectivity e gerek var ise Edge ve Compute cluster lari ayni Transport Zone da olmali
  • Iki farkli cluster mevcut ve buradaki VM lerin ayni L2 Domain i icersinde olmasi gerekiyor ise clusterlar ayni Transport Zone da olmali
  • Eger organisazyon icersinde erilmemesi gereken, gizlenilmesi gereken logical switch ler olacak ise FARKLI Transport Zone lar yaratilmali
  • vDS ile Transport Zone un uygulandigi aralik ayni olmali

Evet artik yaratalim ;

Logical Network Preparation -> Transport Zone  -> +

Screen Shot 2015-11-10 at 14.39.16

Bir isim ve replication mode u secelim benim icin “Unicast”
Transport Zone hangi cluster lara yayilacak ise onu belirleyelim

Screen Shot 2015-11-10 at 14.47.51

Hepsi bu …. : )

Bundan sonraki makalede bir ornek bir yapi uzerinden devem edecegim …. Artik platform uzerinde oynamaya haziriz …..

VM

Guzel Linkler

https://pubs.vmware.com/NSX-6/index.jsp#com.vmware.nsx.admin.doc/GUID-0748C166-5308-45D8-B98E-C46C5C1DADFC.html

 

 

 

 

 

 

 

 

 

 

 

 

 

Posted on 10/11/2015, in NSX and tagged , , , , , , , , , , , , . Bookmark the permalink. 2 Comments.

  1. Eline sağlık, harika bir yazı olmuş🙂

Leave a Reply

Fill in your details below or click an icon to log in:

WordPress.com Logo

You are commenting using your WordPress.com account. Log Out / Change )

Twitter picture

You are commenting using your Twitter account. Log Out / Change )

Facebook photo

You are commenting using your Facebook account. Log Out / Change )

Google+ photo

You are commenting using your Google+ account. Log Out / Change )

Connecting to %s

%d bloggers like this: