vcsa 6.5 installer error – There is no ovftool :)

When tried to install vcsa 6.5 from my mac , i got an error like below , i guess each time install everybody will be faced with it

Copy “vcsa” folder inside the iso to related folder in the installer logūüôā

/private/var/folders/sl/dfqvsnj548g7wsq94wrmn3tm0000gn/T/AppTranslocation/

Then get back and click next again , also in vcsa folder you will see the vcsa.ova file too !

VM

Parted util failed with message: Error: The primary GPT table states that the backup GPT is located beyond the end of disk

Bu hatayi ilk kez vSphere 6.5 ile VSAN testi yapmak istedigimde daha onceden tanimli olan bir RAID0 konfigrasyonunu sifirladigimda karsilastim.

Haliyle akla gelen LiveCD ile acmak , Hiren’s.BootCD kullanmak veya daha otesi Windows makineye diskleri baglayip diskleri sifirlamak gibi seyler …

Daha enteresan olan ise vmware’in vSAN kurulumlarinda ilgili diskleri sisteme ekleme durumlarinda problemle karsilasildiginda (uzerinde partition var ise) onedigi partedUtil

Ne yalan soyliyim daha once kurulum sirasinda Alt+F1 ile konsola dusup hic default username/password ne diye aklima gelememisti, kendileri root ve enter ile bos gecin oluyorlar.

Sonrasi daha guzel diskler nerede ?

ls /vmfs/devices/disks/

Diskleri naa.xxxxxx.xxxxx , partitionlari :1  , :2 olarak goreceksiniz.

partedUtil ile yapilan fix , delete gibi gereksiz denemeler hic bir ise yaramdi , hep silmeye konsantre oldugumdan uzerine yazabilecegim aklima bile gelmemisti. Ilgili diski kullanarak bir msdos partition yaratalim.

partedUtil setptbl /vmfs/devices/disks/naa.600508b1001ce940a7831ba05a5475d3 msdos

Simdi tekrar ls cekin ve partitionlar nasil gitmis gorun

Gerekli diger disklerdeki problemleri giderdikten sonra Alt+F2 ile yola devam ..

VM

Save money from Windows Licensing on Openstack

With Windows 2016 a big licensing change happen , pls read from here

What should you do ?  You have two ways ..

First way is using Isolation Filter

This is very static and painful because each time you need to update something like which image which host not easy configurable and i guess its useful when very very specific things need to manage.

We need to check/modify our nova.conf first, for to do this jump in your terminal screen and connect your one of management client/server or for HPE Helion users Lifecycle Manager.

Set environment variables by hand or execute Openstack OpenRC file (We need administrator credentials)

i will continue with HPE Helion way but its not much more then update nova.conf and execute some manual commands for others.

Edit you nova.conf and find out related line “scheduler_default_filters”

You should have “IsolatedHostsFilter” option set as a¬†scheduler_default_filters¬†and need more two configurations which are “isolated_hosts”¬†and “isolated_images

Read the rest of this entry

Dorukcloud uzerinden Docker Calistirmak – Openstack

Docker herkesin ilgilisini ceken , anlatmak istedigi, kullanmak istedigi, uygulamak istedigi fenomen birsey.

Bende bu makalede size DorukNet’in Openstack Cloud’u uzerinde nasil Docker calistirabileceginizi kisaca anlatacagim.

Docker-machine Openstack¬†driver’i sayesinde¬†Docker icin gidip elle bir instance (VM) yaratmayip , docker-machine kullanarak herseyi uzaktan yapicak olmamiz. Elimde bir adet Windows Enterprise 10 ve/veya Mac OS X ve uzerine docker-toolbox kurulu, icersindede docker-machine bileseni var. Ilgili bilesenleri kurmadiysaniz kurulum sekli ilgili makalede mevcut.

docker-machine create komutu –driver parametresi size ister Digital Ocean ister Amazaon , ister Azure ve Openstack ile isterseniz dorukcloud uzerindede diger cloud saglayicilar gibi Docker nodelarini otomatik kurmanizi ve uzaktan yonetmenizi saglar. Tum driver listesi icin bakiniz. Openstack parametreleri icin bakiniz.

Baslamadan once bilmemiz gereken birkac sey var ; 

  • dorukcloud openstack kullanici adiniz : demo_user1
  • dorukcloud openstack kullanici sifreniz : demo_user1_sifre
  • dorukcloud openstack auth-url :¬†https://o.dorukcloud.com:5000/v2.0
    • istenir ise identity version 3 kullanilabilir
  • dorukcloud openstack tenant adi : Ilgili Docker instance’ini kuracaginiz proje adi , benim icin demo
  • dorukcloud openstack imaj adi : Ubuntu-Xenial (Ubuntu 16.04)
  • dorukcloud openstack flavor id : m1.medium (2 vcpu 4 gb ram 40 gb disk alani)
  • Ubuntu-Xenial imajinin varsayili kullanici adi¬†: ubuntu (Sifreye gerek yok key based auth yapilacak)
  • dorukcloud openstack network adi : Demo-DBServers-Network1¬†(Docker instance’in ip alacagi sanal/gercek network (vxlan/GRE/VLAN))
  • dorukcloud openstack floating ip pool : ext-net¬†(Instance’in internet’den erisilebilir olmasi icin atanacak gercek ip)
  • dorukcloud openstack instance adi : DockerSunucu1

Once Security Group Read the rest of this entry

Docker Docker-Toolbox Windows/Mac/Ubuntu

Docker-Toolbox for Windows Kurulumu

Alti seneden beridir ilk kez bir Microsoft Desktop isletim sistemi olan W10 Enterprise kurdum bu is icin, gulzemis Mac den sonra hala yeterince etkileyici degil ama dolar sagolsun ilerde bizi MACsiz birakabilir bizi ama halen alternatifler mevcut.

Bu toolbox icersinde ne var ?

  • Docker CLI client for running Docker Engine to create images and containers
  • Docker Machine so you can run Docker Engine commands from Windows terminals
  • Docker Compose for running the¬†docker-compose¬†command
  • Kitematic, the Docker GUI
  • the Docker QuickStart shell preconfigured for a Docker command-line environment
  • Oracle VM VirtualBox

Oncelikle¬†https://github.com/docker/toolbox/releases/tag/v1.12.2 adresiden DockerToolbox-1.12.2.exe ‘yi indirin.

Read the rest of this entry

Openstack Networking VLAN , sadece cli !

Openstack Provider Network olarak gecen , bildigimiz vlan’in Openstack ortaminda nasil kullanildigina bakacagiz.

Bizim icin onemli olan konfigrasyon dosyalari var, bunlara bakmadan once mechanism_driver olarak veya yapimizda Open vSwitch oldugun belirtmeliyim ;

  • ml2_conf.ini
  • ML2 –> Modular Layer 2 Plugin
    • [ml2] –> Kisminda
      • type_drivers : vlan (Openstack destekleyecegi network suruculeri)
      • tenant_network_types : vlan (Organizasyonlari atanacak network tipleri bu sekilde birden fazla aralarinda virgul kullanilarak burada tanimlaniyor)
    • [ml2_type_vlan]
      • network_vlan_ranges = physnet1
        • Burada dokumantasyona baktigimizda “<physical_network>:<vlan_min>:<vlan_max> or <physical_network>” seklinde bir kullanimdan bahsediyor.
        • physnet1 bir alias , kisaca fiziksel ethernet kartini belirtiyor , birden fazla belirtilebilir.
        • istenir ise¬†physnet1:300:1000 –> Seklinde yazilabilir yani uzerinde 300 ‘den baslayip 1000’e kadar butun vlan’lar gececek demek oluyor,¬†birden fazla belirtilebilir.
    • ¬†[OVS]
      • bridge_mappings = physnet1:br-bond0
        • Burada daha onceden provider networks yani vlan’larin gececegi interface olarak¬†br-bond0 tanimlanmis bir interface veriyoruz , burada fiziksel bir interface de olabilir , eth0 gibi , bond edilmis bir interface olabilir veya OVS uzerinde yaratilmis bir bridge port olabilir keze¬†br-bond0 bir bridge port
  • Bundan sonra yapmamiz gereken sey arka tarafin yani network switch vlan konfigrasyonlarinin , sunucu port vlan konfigrasyonlarinin dogru bir sekilde ayarli olmasi
  • Administrative role’e sahip bir kullanicinin ilgili network’u olusturup , sanal makineye atanmasi
    • Komut satirinda ilgili Openstack RC dosyasini calistirin (ilgili¬†proje, kullanici bilgilerini environment variables olarak atanmasi)
      • Kisaca komut satirinda
        • stack@helion-cp1-c0-m1-mgmt:~$ source service.osrc
        • stack@helion-cp1-c0-m1-mgmt:~$ export OS_PROJECT_NAME=”demo” veya hangi proje ise
    • stack@helion-cp1-c0-m1-mgmt:~$ neutron net-list ¬†–> Diyerek isinalim
    • Network tipi vlan olan bir network yaratalim
      • stack@helion-cp1-c0-m1-mgmt:~$ neutron net-create vlan185 –provider:network_type vlan –provider:physical_network physnet1 –provider:segmentation_id 185 –router:external false
      • Burada –router:external onemli , eger true derseniz bu degere bu durumda ilgili IP blogu floating IP icin kullanilacagini , herhangi VM’e set edilemeyecegini, yeni router yaratilip bu network’e baglayabileceginizi gosteriyor
    • Subnet yaratalim, yaratirken gw adresini set edelim
      • stack@helion-cp1-c0-m1-mgmt:~$ neutron subnet-create –name subnetvlan185 vlan185 212.58.25.160/28 –gateway 212.58.25.161
      • Subnet yarattiktan sonra DHCP aktive olacagindan siradan iki ip yani 212.58.25.162 ve¬†212.58.25.163 devreye girecektir.
      • Eger DHCP kullanmak istemiyorsaniz –disable-dhcp¬†diyebilirsiniz.
    • Port yaratalim , dikkat tenant ve daha onceden yarattigim network’u kullandim
      • stack@helion-cp1-c0-m1-mgmt:~$¬†neutron port-create –tenant-id 48bf85bade894282a9f8c44d7802f4e7 –name vlantestport vlan185
      • Port-ID not edin (358a66d9-258a-42db-93c3-2e978259858c)
      • Ayni zamanda port-id’nin ilk 11 hanesini (358a66d9-25)
      • Ek olarak network_id not edin (2bd6c596-df9b-4beb-abfb-69f8995104d2)
      • Birde security_groups degerini not edin (0101df20-a25d-48ae-a6f7-0a9b2149f217)
    • Instance yaratalim
      • nova boot –flavor m1.tiny –image cirros-0.3.3-x86_64 –nic port-id=358a66d9-258a-42db-93c3-2e978259858c vlantestvm
      • Yarattigimiz instance hangi host uzerinde yaratildigina bakalim
      • stack@helion-cp1-c0-m1-mgmt:~$ nova show 15114f09-030f-44f8-ae33-1543b518c613
        • OS-EXT-SRV-ATTR:hypervisor_hostname¬† | helion-cp1-compute0002-mgmt
        • OS-EXT-SRV-ATTR:instance_name | instance-0000003c
      • Host’a baglanip kontrol edin/dogrulayin
        • stack@helion-cp1-compute0002-mgmt:~$ sudo virsh list
        • 5 ¬† ¬† instance-0000003c¬† ¬† ¬† ¬† ¬† ¬† ¬† running
      • Simdi openvswitch kullandigimizi soylemistik, bakalim oradan neler olmus, ovs-vsctl komutunu calistirin instance’in acildigi host uzerinde.
        • stack@helion-cp1-compute0002-mgmt:~$ sudo ovs-vsctl show | grep 358a66d9-25
          • veya
        • stack@helion-cp1-compute0002-mgmt:~$¬†sudo ovs-vsctl show | sed -n “/358a66d9-25/,/358a66d9-25/p”
        • br-int altinda ilgili bilgiler goreceksiniz, burada tag 6 diyor , aslinda bizim vlan185 idi
        • Port “qvo358a66d9-25”tag: 6Interface “qvo358a66d9-25”
        • Artik hardware degil software switch kullaniyoruz ve arp / switching tablosu degil flow tablosu ile ilgileniyoruz, bunun icin br-int¬†bridge interface’ine ait tanimlanmis flow’lari listelemeliyiz
        • ovs-ofctl dump-flow¬†komutunu¬†flow bilgisin almak icin kullanacagiz
        • mod_vlan_id, openvswitch’in kendi¬†icinde¬†kullandigi bir etiketleme , dis dunyada VLAN icinde ise farkli bir vlan kosuyor.
        • dl_vlan ise dis dunyada kullanilan vlan , yani instance disari cikmak veya disardan instance’i bulmak istenildiginde 185 vlan’ina gelen paketler 6 vlan’ina , instance’da disari biryere paket gonderilmek isteniyor ise 6 vlan’indan 185 vlan’ina iletiliyor paketler
        • stack@helion-cp1-compute0002-mgmt:~$ sudo ovs-ofctl dump-flows br-int | grep mod_vlan_vid:6
        • ¬†cookie=0x9dfdd283abb52bc6, duration=3143.625s, table=0, n_packets=7, n_bytes=420, idle_age=1971, priority=3,in_port=1,dl_vlan=185 actions=mod_vlan_vid:6,NORMAL
      • Birde Openstack’de network sanallastirma nasil yapiliyor’a bakalim , benim kurulumumda 3 adet¬†Network Node’u var, ben ucune birden baglandim cunku networkler bu node’lar arasinda loadbalance edildiginden hangisinde acildigini bilmiyorum (Eger subnet yaratirken bu –disable-dhcp kullandiysaniz bundan sonrasi isinize yaramayacak)
        • Burada bilmemiz gereken sey Linux ve Namespaces , network sanallastirma network namespace’den geliyor ve ip netns komutuyla gorebiliyorsunuz. Bunun disinda mount , Cgroup , User , pid gibi namespaces’lar var. Ornegin Pid¬†Namespace , container’lari dusunun her bir container’in kendine ait calisan process’leri mevcut ve bunlar birbirinden izole.
        • Openstack ve network sanallastirma adina konusursak , her bir network icin tum TCP/IP katmaninin bir klonu aliniyor bunun icinde interface/nic ve routing table’larin oldugunu dusunun boylece istenir ise her bir network ayni IP blogu ile calisabiliyor , mesela herkesin 10.0.0.0/24 network’unu kullaniyor gibi ama birbirlerine karismiyorlar, izole sekildeler.
        • stack@helion-cp1-c1-m1-mgmt:~$ sudo ip netns | grep 2bd6c596-df9b-4beb-abfb-69f8995104d2
        • qdhcp-2bd6c596-df9b-4beb-abfb-69f8995104d2
        • qdhcp , dhcp interface’inin baglandigi sanal bir network ve bir interface iceriyor , bakalim nasil bisiy
        • stack@helion-cp1-c1-m1-mgmt:~$ sudo ip netns exec qdhcp-2bd6c596-df9b-4beb-abfb-69f8995104d2 ifconfig
          • Ciktisinda tap interface olarak gordugunuz dhcp interface’i ve ip’si
        • Ayni network nodu uzerinde tap device’in bilgisini not alarak calisan dnsmasq uygulamasini kontrol edelim
        • stack@helion-cp1-c1-m1-mgmt:~$ ps -fe | grep dnsmasq | grep tapa5d7544f-9b
        • nobody¬† ¬† 2524 ¬† ¬† 1¬† 0 14:08 ?¬† ¬† ¬† ¬† 00:00:00 dnsmasq –no-hosts –no-resolv –strict-order –except-interface=lo –pid-file=/var/run/neutron/dhcp/2bd6c596-df9b-4beb-abfb-69f8995104d2/pid –dhcp-hostsfile=/var/run/neutron/dhcp/2bd6c596-df9b-4beb-abfb-69f8995104d2/host –addn-hosts=/var/run/neutron/dhcp/2bd6c596-df9b-4beb-abfb-69f8995104d2/addn_hosts –dhcp-optsfile=/var/run/neutron/dhcp/2bd6c596-df9b-4beb-abfb-69f8995104d2/opts –dhcp-leasefile=/var/run/neutron/dhcp/2bd6c596-df9b-4beb-abfb-69f8995104d2/leases –dhcp-match=set:ipxe,175 –bind-interfaces –interface=tapa5d7544f-9b –dhcp-range=set:tag0,212.58.25.160,static,172800s –dhcp-lease-max=16 –conf-file=/opt/stack/service/neutron-20160722T142043Z/etc/dnsmasq/dnsmasq-neutron.conf –domain=openstacklocal
        • Simdi ovs-vsctl show ve ovs-oflow dump-flows komutlari ile sizdeki tap portunu bulmaya calisin.
    • DHCP icin atanan ip adreslerini ping’leyip test edelim
      • PING 212.58.25.162 (212.58.25.162): 56 data bytes64 bytes from 212.58.25.162: icmp_seq=0 ttl=60 time=12.641 ms
    • Instance ping’lenmeyecek , instance yarattigimizda default¬†security-group atandi instance’a
      • default¬†security-group disari any, iceri dogru ise hicbir erisime izin vermez
      • Iceriye dogru All ICMP izni verin ve test edin
      • 64 bytes from 212.58.25.164: icmp_seq=90 ttl=60 time=0.840 ms

 

Openstack Security Group ve FWaaS , sadece cli !

Openstack neutron iki farkli¬†katmanda guvenlik saglar. Ilki¬†port bazli ki instance yaratilirken oncelike port yaratilir¬†ve bu port’a atanan Security Group dogrultusunda VM-to-VM ayni L2 networkunde dair koruma saglayabilirsiniz. Ikincisi ise Router uzerinde, ne zamanki iki farkli network’u veya instance’lari internet’e ve/veya internet’den instance’lara dogru erisim soz konusu oldugunda Router uzerinde uygulanan firewall kurallari devreye girer. Baska bir deyisle Neutron NSX gibi kuzey-guney ve bati-dogu yollari uzerinde koruma saglar.

Security Groups

Security Group(SG), nova security group(NSG) uyumludur, ingress(giris)/egress(cikis) yonunde kural tanimlamanizi bunuda ilgili neutron portlarina uygulamaniza, gercek zamanli kural degisiklikleri uygulamaniza izin verir.

Davranis sekli giris yonunde sadece matched(uyan) aksi taktirde drop. Egress keza ayni fakat her yeni Security Group yaratildiginda disariya dogru tum trafik izinlidir.

Openstack uzerinde varsayili olarak “default security group” mevcut olup disa dogru tum trafik , security group icersinde tum trafik izinli olup disardan gelecek tum trafige karsi kapalidir.

Security Group sonuc olarak bir iptables uyarlamasidir fakat ML2 + OVS entegrastonu biraz karisiktir ve sirf iptables uygulanabilsin diye OVS ile instance arasinda linux bridge entegre edilmistir, ornek bir cizimi asagida gorebilirsiniz.

screen-shot-2016-10-18-at-11-25-05

Read the rest of this entry

Openstack Networking Router , sadece cli !

Islemlere baslamadan once ilgili komutlari calistiracaginiz sunucuda veya client’da ilgili Openstack RC (environment variables) dosyasini ayarlayin ve calistirin. Daha fazla bilgi icin bakiniz Openstack Networking VXLAN , sadece cli!

Amacimiz elimizdeki VXLAN networklerini internete ve/veya birbirleri arasinda eristirebilmek. Openstack’de bu islem icin Network Node‘lar kullaniliyor.¬†Network Node’lari ile Controller Node’lari ayni yerde kosabildikleri gibi birbirlerinden izole sekildede calisabilirler. DVR (Distributed Virtual Router) olmadan once tum trafigin Network Node’lar uzerinden gecmesi gerekiyor idi fakat DVR’dan sonra Computer Node’larda devreye girdi ve trafik artik dagitik bir sekilde islenmeye basladi fakat¬†burada trafigi SNAT ve DNAT olarak ayirmakta fayda var, SNAT trafigi halen Network Node uzerinden, DNAT trafigi ise Compute Node uzerinden ilerlemekte.

Openstack networking router konusurken ayni zamanda linux networking namespaces hakkinda bilgimiz ve ip netns cli komutlarinin kullanimi bizim icin onemli. Linux Networking Namespace bizim¬†tcp/ip stack’inin ayni isletim sistemi uzerinde clone’lanmasi , bu clone’lari domain olarak nitelendirsek , her domain icersinde overlap networkler gibi tamamen birbirinden bagimsiz , loopback interface’ler , ethernet interface’ler , iptables tablolari ve routing tablolari icermekte , ip komutunun netns parametreside bu farkli domainlerdeki/namespace’lerdeki tcp/ip stack’ini yonetmek icin kullandigimiz cli komutu.

Router diyince artik ML2 scope’undan cikmis oluyoruz , yeni scope’umuz L3. Konfigrasyonlarimiz Neutron Server (neutron.conf) ve L3_Agent(l3_agent.ini) uzerinde olacak.

  • Oncelikle /opt/stack/service/neutron-20160722T142043Z/etc/neutron.conf¬†bakalim
    • Dikkat edilmesi gereken konu l3_router plugin’in set edilmis olmasi
    • [DEFAULT]
      service_plugins = neutron.services.l3_router.l3_router_plugin.L3RouterPlugin
    • Eger service_plugin tanimli degil ise Horizon GUI’de my.sa¬†goremeyebilirsiniz
  • Bir sonraki konfigrasyon dosyasi sudo vi /opt/stack/service/neutron-20160722T142043Z/etc/l3_agent.ini
    • Burada iki onemli parametre var biri interface_driver digeri ise external_network_bridge ek olarak agent_mode‘da bizim icin onemli.
    • interface_driver kullandiginiz mechanism_driver ne ise o set edilmis olmali ornegin linux bridge veya OpenvSwitch(OVS)
    • external_network_bridge onemli cunku sisteme disariya dogru cikisin hangi interface’den yapilacagini belirtiyor
    • agent_mode ile DVR kullanip kullanmayacaginizi belirtiyor
  • Cli’da Router yaratmak icin
    • Oncelikle bir halihazirda elimizde Router var mi bakalim ?
      • stack@helion-cp1-c0-m1-mgmt:~$ neutron router-list
    • Simdi yaratalim bir tane, asagidaki ornekte demo projesi icin bu islem yapilmakta
      • stack@helion-cp1-c0-m1-mgmt:~$ neutron router-create Router1_demoprj –tenant-id 68ca3d8aa2294bc1bc606acbb8b9405a
    • Eger silmek isterseniz router-delete paramteresini kullanabilirsiniz.
    • Bir sonraki adima gecmeden once yarattigimiz router’in id‘sini not edelim neutron router-list komutu ile –> d4fe02b8-0cc0-4662-8573-b3b3f783baaf
  • Yukarda belirttigimiz gibi Router hem farkli network’leri birbiri ile konusturmakta hemde internet’e dogru cikislari saglamakta.
    • Once network’ler arasi konusmayi gorelim. Bir onceki Openstack Networking VXLAN , sadece cli!¬†da sadece Demo-WebServers-Network1 (10.10.1.0/24) networku icin instance yaratmistik, bir tanede Demo-DBServers-Network1(10.10.2.0/24) icin yaratalim. Bu kez port yaratmayacagiz , instance yaratilirken otomatik olarak yaratilacak.
      • Asagidaki komutu calistirmadan once ortam degiskeni olan ¬†OS_PROJECT_NAME ‘i guncelelyin
      • stack@helion-cp1-c0-m1-mgmt:~$ nova boot –flavor m1.tiny –image cirros-0.3.3-x86_64 DBServer1 –nic net-id=bb8dd87f-466e-4082-b69b-c6436bb12a18
      • Elimizde iki adet instance var biri WebServer1 10.10.1.6 digeri ise DBServer1 10.10.2.4
      • Ek olarak daha sonra kullanacagimiz ilgili subnet’lerin id’lerini not edelim neutron subnet-list komutu ile
        • dbsubnet –> fcf2a7da-9cda-45f9-9c9b-51750ca6d1bf
        • web-subnet –> fdb33ffc-43d5-415a-a090-fc8ccb37684d
      • Baslamadan once durumu resmeder isek, iki network var , her ikisine birer instance bagli.
        DUNYA/Internet mevcut , birde biraz once yarattigimiz router’imiz . Bir sonraki adimda router’i DB ve WEB subnet’lerine baglayacagiz
        screen-shot-2016-10-17-at-11-43-57
      • stack@helion-cp1-c0-m1-mgmt:~$ neutron router-interface-add d4fe02b8-0cc0-4662-8573-b3b3f783baaf fcf2a7da-9cda-45f9-9c9b-51750ca6d1bf
      • stack@helion-cp1-c0-m1-mgmt:~$ neutron router-interface-add d4fe02b8-0cc0-4662-8573-b3b3f783baaf fdb33ffc-43d5-415a-a090-fc8ccb37684d
      • Yarattiginiz interface/port’lari silmek icin herzaman¬†router-interface-delete komutunu kullanabilirsiniz.
      • Yeni resim asagidaki gibi oldu ,eger Security Group bazinda bir sikinti yok ise DB ile Web sunuculari birbirleri ile konusabilecekler
        screen-shot-2016-10-17-at-12-01-53
      • Ayni goruntuyu cli’danda alabiliriz
        • stack@helion-cp1-c0-m1-mgmt:~$ neutron router-port-list d4fe02b8-0cc0-4662-8573-b3b3f783baaf
    • Neutron Router sadece neutron networkler arasinda degil ayni zamanda instance’larin internet erisimleri icinde kullanilmakta ki buna Openstack’de external network olarak adlandiriliyor. Genelde bu network daha onceden yaratilmistir , eger¬†hangi network’un external network oldugunu bilmiyorsaniz oncelikle neutron net-list yapip¬†neutron net-show komutu ile router:external¬†parametresi True olan network¬†external network olacaktir.
    • Yukardaki eforu harcamaktansa sadece benim floating ip pool’um var mi acaba diyede bakabiliriz , buda bize ilgili external networkleri direkt verecektir.
    • stack@helion-cp1-c0-m1-mgmt:~$ nova floating-ip-pool-list
      • Simdi yukarda yaptigimiz gibi benzer bir islem yapacagiz , sadece bu kez komut biraz degisecek ama yine bizim router_id‘sine , external_network_id‘sine ihtiyac olacak . Ilgili komutu calistirdigimizda external network’den bir ip adresi alacagiz ve bu ip adresi bizim instance’larimiz icin SNAT konfigrasyonu tanimlanmis olacak fakat bunun disinda internet’den instance’larimiza dogru hicbir erisim acilmayacak
      • Router_id –>¬†d4fe02b8-0cc0-4662-8573-b3b3f783baaf
      • External_Network_id –>¬†efb5448d-7593-46f7-90ad-bd33206c2c7b
      • stack@helion-cp1-c0-m1-mgmt:~$ neutron router-gateway-set d4fe02b8-0cc0-4662-8573-b3b3f783baaf efb5448d-7593-46f7-90ad-bd33206c2c7b
      • Yaptiginiz konfigrasyonu geri almak icin her zaman¬†neutron router-gateway-clear¬†parametresini kullanabilirsiniz.
      • Iste , yeni network baglanti semamiz , time to ping google.comscreen-shot-2016-10-17-at-14-47-51
    • Bu islemlerden sonra sira eger disaridan ilgili instance’a erisilmek istenir ise ne olacak konusu var. Burada floating ip denilen bir kavram isin icine giriyor.
      • Floating IP adresi direkt instance‘a atanabildigi gibi bir proje icin yaratilip instance’a atanmaya hazir halde bulundurulabilir.
      • Once sistem uzerinde halihazirda floating ip var mi bakalim
        • stack@helion-cp1-c0-m1-mgmt:~$ neutron floatingip-list
      • Bir tane yaratalim , ext-net bizim enternal network’un adi
        • stack@helion-cp1-c0-m1-mgmt:~$ neutron floatingip-create ext-net
      • Silmek icin floating ip id’sine ihtiyac var , floatingip-list diyerek elde edebilirsiniz
        • stack@helion-cp1-c0-m1-mgmt:~$ neutron floatingip-delete 89ce7905-0fb5-445c-b8b6-f8f5ff45a166
      • Bundan sonra ilgili floating ip adresini ilgili instance’a atamaya geldi sira. Bunun icin ilgili instance’in hangi port’una karsilik gelen id bilgisini kullanacagiz , diyelimki bizim web server’a floating ip atayacagiz. Ilgili sunucu ip adresi 10.10.1.6 idi, once bu ip adresinin atandigi neutron port id_sini bulalim
        • stack@helion-cp1-c0-m1-mgmt:~$ neutron port-list | grep 10.10.1.6
        • –> 9759d23d-7863-497d-88c3-02067af12714
      • Atayacagimiz floating ip adresinin id’sini bulalim.
        • stack@helion-cp1-c0-m1-mgmt:~$ neutron floatingip-list
        • –> 54096c72-64f2-4133-984c-2061d4ba2b5a
      • Birbirlerine baglayalim
        • stack@helion-cp1-c0-m1-mgmt:~$ neutron floatingip-associate 54096c72-64f2-4133-984c-2061d4ba2b5a 9759d23d-7863-497d-88c3-02067af12714
        • Daha sonra eger security group’lardan ilgili izinler mevcut ise ilgili servis icin ilgili erisimler acilmis olacak.
      • Floating ip baglantisini kaldirmak icin neutron floatingip-disassociate

Kolay gelsin

VM

Openstack Networking VXLAN , sadece cli !

Islemlere baslamadan once ilgili komutlari calistiracaginiz sunucuda veya client’da ilgili Openstack RC (environment variables) dosyasini ayarlayin ve calistirin. Asagida bir ornek mevcut , bunun disinda Horizon’a ilgili kimlik bilgileri ile login olup Project –> Compute –> Access & Security tab’indan indirebilirsiniz.

Cli uzerinden islem yapmak icin Openstack-client kurulu olmali , eger kurulu degil ise kullandiginiz ilgili link’den gerekli paketleri kurabilirsiniz.

Ek olarak asagida calistiracaginiz tum komutlarin parametre bilgilerini vermeden once –debug yazarak calistirdiginizda (ornegin nova –debug list , openstack –debug project list) Openstack REST API‘de kesfetmeniz mumkun.

VXLAN icin on bilgiye ihtiyaciniz var ise bu makaleyi inceleyebilirsiniz , VMware/NSX olmus , OpenvSwitch (OVS), Hyper-V/NVGRE olmus cok onemli degil, prensipte birbirlerine yakin calisiyorlar.

Benim icin ;  Read the rest of this entry