Author Archives: vmknowledge

BGP ve NSX-T T0 Router’ı Provider Router’a Bağlamak

NSX-T ile beraber dinamik routing protokollerindede, yapıdada bir sadeleşme oldu. Artık OSPF veya IS-IS gibi protokoller, Logical Router Control VM’ler yok. Tek haşır neşir olacağımız BGP ve VRF ki VRF’lede bizim görünürde aktif olarak üzerinde yaptığımız bir şey yok.

Sistemciler için kısa bir özet geçelim BGP hakkında ;

*Not: Belirtilenlerin genel olarak BGP’i anlamak, birtakım terimlerden uzak kalmamak için yazılmıştır.
*Not : Aşağıdaki resimler açıklamalarda kullanılacaktır.

Resim 1
Read the rest of this entry
Advertisements

Daha yeni, daha yardım sever :) , GUI’si değişmiş :( , yeni Policy API’li NSX-T 2.4.1

Her versiyon yapılan GUI değişiklikleri aslında çok da iyi bişey değil gibi geliyor bana, insan bir interface’e alışıyor sonra birden hersey değişiyor, sizde kendinizi yeniden adapte etmek zorunda kalıyorsunuz.

Daha önceden NSX-T Manager ile üç adet Controller kuruyorduk, artık bu iki rolü birleştirmişler 😀 Artık bir VM kardayız. NSX-T Manager’ı kurduğunuzda ilk controller’ıda kurmuş oluyorsunuz.

Eksikleri anında görüp 🙂 sizi yönlendirmeye başlıyor, örneğin elimizde üç adet NSX-T Controller olması lazım bunu için hemen “Deploy Nodes” ‘a basıyoruz, bizi hemen yeni ekleyeceğimiz ekrana yönlendiriyor.

Read the rest of this entry

1500 MTU NSX-T Ortamında BAŞınıza Nasıl Dert AÇAbilir kİ ?!

Evet, daha önceki makalelerimde belirttiğim, ama böylede çalışıyor dediğim MTU konusunda baltayı taşa nasıl vurmuş olduğumu göstermek istedim.

Güzel güzel ping atabilirkene 1600 – 1500 sadece 100 birimlik bir fark fregmantasyonda nasıl bu kadar derin etki yapabilirdi ki ?

Bunu okuyan networkçü arkadaşlarımın aklından neler geçiyor acaba, hepsinde bin tane MTU problemi hikayesi vardır !

yum update sizlere ömür …

Gördüğünüz gibi “yum update” sırasında network bağlantı hatları alıyorsunuz, metadata dosyalarının index ve checksum dosyasını tutan repomd.xml’i bile indiremiyorum !!

Şimdi gerekli MTU değerini düzeltelim bakalı neler oluyor 😀

Hersey istediğimiz gibi …

NSX-T Edge Node kendi üzerinde enkapsülasyon yaptığı için bağlı olduğu vSwitch’de ilgili VSS veya VDS’de ve üzerinde koştuğu ESXi host’un bağlı olduğu switch port’larda MTU 9000 olarak set edilmeli ki bu tip durumlarla karşılaşılmasın.

VM

PKS’e (Pivotal Container Service) Başlarken

Çılgınlığın hali -Container-, adı ise -Kubernetes-, namı değer K8s.
Google Borg system dediler, Yunancadan çevirisi “helmsman of a ship” dediler, development CNCF’e verildi, CNCF’ide TMSF’e benzetiyorum bir zamanların Apache Software Foundation’ı gibi parlıyor.

Herkes tuttu bir yerinden, Public Cloud Sağlayıcıları AKS, EKS, GKE sonra Rackspace, DigitalOcean’lar sonra Heptio, Platform9, Rancher Lab gibi firmalar derken rakip yazılımlar bile örneğin Docker “App Scheduler” olarak “Swarm” mı yoksa “K8s” mi kullanacaksın diye soruyor, Mesosphere DC/OS benimle K8s kur diyor, bana göre PaaS dediğimiz Cloud Foundry, Openshift’ler bile tam kalbine koydular K8s kendilerinin benzer yapıları olmasına rağmen. Yani K8s bir rockstar, herkeste onunla resim çektirmek istiyor diyebiliriz.

PaaS servislerini inceleyen, bilen, kullananlar aslında şu soruyu sorabilirler kendilerine 😀 K8s’in yapıpta CF/PCF’nin, Openshift’in yapamadığı nedir diye ?! Angela Chin’e de soruyorlar bu soruyu dakka 18:30.

Read the rest of this entry

Kısa Kısa NSX-T Datacenter Tasarım, Kurulum, Ortamın Hazırlanması

Öncelikle bu makaleyi okurken eğer takıldığınız bişey olur ise bir önceki makaleye bir göz atmanızı tavsiye ederim.

Bu makalenin sonunda NSX-T için gerekli olan ortamı hazırlamış ve bir sonraki adıma geçmek için yani T0 Router, T1 Router, Provider ile BGP, Distributed veya Edge FW, Load Balancer , Logical Switch , PKS , vCD testlerine hazır hale geleceksiniz.

Hemen başlayalım ….

Fiziksel alt yapıdan başlarsak, “underlay” bağımsız sadece çalışır ip bağlantısı ve doğru mtu değerleri ile (ki yanlış MTU değerlerindede çalışıyor 😀 ) hatta başka bir SDN yapısı üzerine bile NSX-T kurulup çalıştırabilirsiniz.

Underlay olarak dizayn bağımsız bir şekilde en son networkcülerin hayali Layer 3 (Leaf and Spine) veya eski yöntemlerle Layer 2 tabanlı MLAG veya Cisco ACI üzerinde bile koşabilir. Okumak isterseniz Layer 2/3 ve NSX on Cisco ACI dökümanına ilgili linklerden ulaşabilirsiniz.

Read the rest of this entry

Virtual Cloud Network ve NSX Datacenter (NSX-T)

Bu makalenin amacı sadece ve sadece pratik olarak NSX-T hakkında bilgi vermek, şu ana kadar NSX-T ile uğraşmamış, yeni uğraşacaklar veya NSX-V bilgisi olanlar, NSX-V ile arasındaki farkları bilmek isteyenler için flash hızında ne olup, ne bittiğini neyi nasıl ne şekilde yapılabileceği bununla beraber yine sadece NSX-T hakkında değil ama NSX-T ile beraber kullanacağınız bir takım gereksinimler içinde bilgiler buluyor olacaksınız.

Hemen başlayalım, VMware için “Virtual Cloud Network”  NSX tabanlı sadece NSX-T değil birden fazla bileşen içeren bir yapı ki bu bileşenler NSX Datacenter (NSX-T/NSX-V), SD-WAN, App Defence, NSX Cloud ve Hybrid Connect.

VMware için bu kol oldukça önemli, bunu Saurabh Shah’ın VMworld NET1549BU oturumunda dediği gibi ; 
    -Bu VMware için bir geçiş, ana işi sanallaştırma ve belli başlı networking özelliklerine sahip olan bir firmadan, müşterilerin networking konusunda yaşadığı önemli zorlukları adresleyecek ve dijital dönüşümü destekleyecek bir network çözüm firmasına doğru olan geçiş.

Bu aynı zamanda benim gibi sistemci arkadaşlarım ve networkçü arkadaşlarım içinde benzer geçişlerin olacağını ve bununda hızlanacağının göstergesi. Bizlerde değişeceğiz, sistemcilerin daha çok BGP, VRF bilmemiz gerekecek, networkcü arkadaşların NSX özelinde ilgili bileşenleri bilmek, kendilerini python, ansible, terraform hatta AWS, Azure özellinde geliştirmeleri gerekecek, iki gurup yeri gelecek ileride birleşecek.

Read the rest of this entry

Yarım milyon+ IOPS :D :P

Evet, komik bir başlık oldu farkındayım ama milyon kelimesini bir yerden yakalamak gerektiğinden ancak bu şekilde bir başlık atabildim, neyse önemli olan IOPS değeri değil zaten, ona etki edenler 😉

VMware’in dökümanlarına baktığımızda 2012 tarihli milyon IOPS’luk pdf’ler, yazılar var , tabi bunun zamanı geçmiş gibi artık üzerinde pek konuşulmuyor gibi derken birde Nutanix’in 2017 tarihli Michale Webster’ın bir yazısını yakaladım o da zaten bir milyon IOPS’u yapacak bir VM’e ihtiyaç var mı diye belirtmiş makalesinde.

Yaptığım testleri NVMe destekli all flash bir storage üzerinde gerçekleştirdim. Hala gelenekseliz, halen FC altyapısı üzerinde yol almaya devam ediyoruz, herhangi bir HCI veya NVMeoF üzerinde yapılmış bir test değil yaptıklarım. Bu yazıdada sadece dikkat edilmesi gereken birkaç konunun altının çizmek istedim.

Tüm testler VMware vSphere 6.7 Update 1 üzerinde yapılmış olup test için IO Meter yazılımı kullanılmıştır.

Performans’a Etki Eden Bileşen ve Ayarlar ;

  1. Gerçek Multipathing ve  Multipathing ayarları
  2. Yeni jenerasyon FC HBA’ler
  3. Node üzerinde FC HBA Sayısı
  4. SCSI Controller Sayısı
  5. PVSCSI ve LSI SAS Controller Arasında
  6. IO Meter Outstanding I/O Adedi
  7. Disk.SchedNumReqOutstanding Parametresi
  8. FC HBA göre Queue Depth Ayarı

Tersten başlayalım … Read the rest of this entry

Güle Güle 2018 , Hoş Gelesin 2019

Merhaba ,

İyisi ile kötüsü ile bir yıl daha geçiyor, geçti, geçmek üzere hatta geçti bile 😀

Kimilerine göre yeni bir sayfa açmanın, kimilerine göre anlamı olmayan bir döngü.

Dinsel anlamlar bir yana en azından bir motivasyon kaynağı olarak bile bir anlamı olabilir.

Bazıları için ise anılarda kalan eski günlerin, geleceğin belirsizliği içersinde sahilden açığa giden dalgalar gibi kayboluşun habercisi olabilir.

Yeni doğacakları bekleyenler için ise güneşten bile daha sıcak olabilir.

Şu gerçek ki artık dayanışma zamanı, edindiklerimizin, sahip olduklarımızın değil, o güzel gelecek var ise onun uğruna taşın altına eline koymanın zamanı.

Neyse, bu bir IT bloğu ve o şekildede sonlanmalı , yeni yılda kimler için artık eskimiş bile olabilir ama benim için yeni, keşfedilip üzerinde oynama zamanı.

NSX-T

Screen Shot 2018-12-31 at 12.22.31

PKS

Screen Shot 2018-12-31 at 18.53.01

 

 

Microsoft SQL Server 2017 on Linux AG Cluster Type None and External

Merhaba,

Bu makale Pacemaker ve Microsoft SQL Server on Linux yazılarının devamı niteliğinde olup, öncesinde bir göz atmanızda fayda olacağı düşüncesindeyim çünkü ilgili yazılardaki cluster kurulumu veMicrosoft SQL Server kurulumları bu makalede yok. Biraz uzun ama keyifli bir yazı olduğunu düşünüyorum.

Windows üzerindeki Availability Group (AG) yaratabilmek için Windows Server Failover Cluster (WSFC), Linux üzerinde ise WSFC’e karşılık Pacemaker kullanılıyor.

Windows üzerinde WSFC rolü çok büyük;  failover, health monitoring ve resource management dışında metadata bilgisinin ki içersinde hem WSFC konfigürasyonu, host edilen uygulama konfigürasyonu, node’lardaki değişikliklerin güncellenmesi ve bunların cluster’a yayılması gibi işlevleri var.

Linux üzerinde Microsoft SQL Server 2017 AG konfigürasyonu için iki tip cluster tipi mevcut, bunlardan biri EXTERNAL diğeri ise NONE. Aralarındaki fark ise kısaca ;

  • NONE, pacemaker ihtiyacı olmadan, sadece read scale ve manuel failover için kullanılıyor.
  • EXTERNAL, pacemaker kullanarak, otomatik failover sağlamak ve devamlığı artırmak için kullanılıyor.

Linux üzerinde WSFC servisi olmadığından bu konfigürasyon bilgileri (metadata) SQL Server instance tarafından master database’inde tutulmaya başlıyor buda bize herhangi bir witness olmadığında (file-share witness gibi) konfigürasyonun tutulacağı problem anında cluster’ın ayakta kalmasını sağlayacak üçüncü bir üyenin olması gerekliliğini yaratıyor, böylece bu üç node’a dağıtık bir metadata bilgisinin olmasını sağlıyor.

Yani kısacası, EXTERNAL tipinde yani Linux üzerinde otomatik failover olacak şekilde bir AG kuracaksanız, üç adet node’a ihtiyacınız var. Buda size üç adet lisans anlamına geleceğinden gözleriniz parlayabilir fakat şöyle bir hinlik yapılmış 🙂

Read the rest of this entry

Microsoft SQL Server 2017 on Linux

Merhaba,

Sonunda Active Directory olmadan, WSFC olmadan, Windows işletim sistemi olmadan Linux üzerinde MS SQL Server 2017 kurmak ve Availability Group oluşturmak mümkün sadece bazı desteklenmeyen özellikler ve servisler dışında ki MS SQL Server 2019 Preview’de gözüken bu engellerin çoğunun kalkıyor olması.

AD olmaması ve WSFC olmaması güzel fakat bir sonraki Availability Group kurulumlarında göreceksiniz ki bize ekstra birkaç kuruluma sebebiyet verecek.

Dikkat edilmesi gereken konulardan biri yedekleme, burada DPM gibi Veeam gibi Microsoft’un VSS’ini kullanan teknolojiler buraya uymuyor. Yedekleme metodlarınızı gözden geçirmelisiniz.

Screen Shot 2018-10-10 at 11.32.46

Read the rest of this entry