Antes de mais gostaria de pedir desculpa pelo atraso na publicação deste artigo. Mas entre trabalho, viagens e umas miniférias, houve muito pouco tempo para escrever este artigo.

No artigo de hoje vou-me focar nas comunicações de rede (Networking) do ESXi e no espaço em disco (Storage).

 

No último artigo ficámos na parte onde o ESXi ficou instalado e fizemos a ligação ao mesmo com o vSphere Client.

No quadro seguinte (opção Tab Summary no vSphere Client) irei detalhar algumas das informações (não todas, pois são muito extensas e desajustadas para estes artigos iniciais) que temos no vSphere Client do nosso ESXi.

 

Summary

 

Nota: Entretanto aqui nestes links poderão tirar mais alguma informação em relações às diversas features que indiquei no quadro em cima, mas que falaremos mais tarde.

 



Configuration

Nesta tab do vSphere Client temos acesso a todas as configurações necessárias para o nosso ESXi.

Nesta primeira opção temos o Helth Status. Tal como o nome diz, é um relatório da saúde do nosso ESXi e de todos os seus componentes (drivers e/ou VIBs). Se algum componente tiver com algum problema aqui podemos validar o seu estado.

 

No seguinte quadro iremos ver as redes existentes no ESXi e iremos igualmente apreender como criar novas redes, adicionar mais placas de rede a cada rede interna etc.

Na tab “Configuration” e na opção “Networking” vemos o Virtual Switch (chamado vSwitch) existente no nosso ESXi.

 

Como podemos ver no quadro em cima, temos um vSwitch e 2 PortGroups (VM Network e Management Network). Todas estas redes são criadas por default na instalação do ESXi.

VM Network – Rede/PortGroup para funcionar com as VMs (acesso interno e externo à VM)

Nota: Irei apagar esta rede e iremos configurar uma nova mais ‘a frente.

 

Network Management – Rede/PortGtoup que usamos para comunicarmos com o ESXi e também pode ser activado no mesmo PortGroup a feature vMotion (para implementações grandes e produção, não é recomendado. Devera ser criado um PortGroup isolado e com placas de rede especificas para usar nesta feature. Voltaremos a esta tema mais à frente).

 

Como funciona a rede virtual no ESXi?


Numa explicação simples, podemos dizer que o vSwitch funciona como um Switch físico interno no ESXi. Os PortGroups (símbolos azuis), funcionam como se fosse uma porta dum Switch físico.

O vSwitch que é criado por default (vSwitch0) tem 128 portas por default. Assim sendo, podemos criar 128 PortGroups neste vSwitch. Cada PortGroup é uma rede (isolada ou não, depende da configuração) que podemos usar para ligar as VMs, ou usar para criar uma rede de Storage iSCSI/NFS (falaremos disso mais tarde), ou para criarmos redes específicas como para o vMotion, FT, etc. Estes últimos PortGroups são chamados de VMKernel. São PortGroup de redes de sistema.

Apesar de o default ser de 128 portas, eu pessoalmente apenas crio vSwitch manualmente com 48 portas. A não ser que precise mesmo de 128 portas.

Se queremos que os nossos vSwitch tenham rede interna e externa (que funciona internamente, mas também consiga comunicar com o exterior) tem de adicionadas placas de rede física aos mesmos.

As placas de rede podem ser partilhas por diversos PortGroups, mas não por vSwitch. Se adicionarmos placas de rede a um vSwitch, já não será possível adicionar as mesmas placas de rede a outro vSwitch.

Mas como disse, na criação de um vSwitch adicionar placas de rede não é mandatário, porque podemos criar redes internas com vSwitch onde as VMs conseguem comunicar umas com as outras, mas não existe comunicação externa a essas VMs (ou ao vSwitch).

Iremos falar e criar alguns exemplos de vSwitch e PortGroups internos/externos em artigos mais ‘a frente.

Existem 2 tipos de vSwitch:

  • vNetwork Standard Switch(vSwitch) - Apenas funcionam no ESXi em que foram instalados/criados. Não podem ser partilhados com outros ESXi.
  • vNetwork Distributed Switch (vDS) - São Switch que podem ser partilhados com todos os ESXi. Quando criados num vCenter todos os ESXi podem ser adicionados ao mesmo, sem ser preciso criar o vDS por ESXi.

Nota: vDS apenas podem ser usados/criados quando existe instalado um vCenter e são geridos apenas e só pelo vCenter. vDS não podem ser criados isoladamente num ESXi. Os vDS só funcionam igualmente nos ESXi com licenças Enterprise Plus.

Podemos ver aqui as diferenças entre os 2 tipos de vSwitch e quais as características de cada um: http://kb.vmware.com/kb/1010555


 1.    Configuração das Redes.

 

Como não alteramos nada a nível de placas de rede na instalação inicial e a sua configuração, bem como na pós-instalação, a rede “Network Management” apenas tem incluída uma placa de rede física.

 

Numa instalação ideal, cada rede/PortGroup devera sempre ter no mínimo duas placas de rede. Seja para uma eventual “failure” duma placa de rede, seja para o balanceamento das comunicações entre as placas para uma melhor performance.

 

Antes de fazermos as alterações necessárias, vamos dar uma vista de olhos nas diversas configurações existentes num PortGroup.

 

Escolhemos o PortGroup que queremos alterar/configurar e carregamos na opção “edit”. O seguinte quadro é apresentado.

 

1)   General

 

Na tab “General” podemos validar o nome que demos (e que pode ser alterado) ao PortGroup (neste caso é o default Management Network da gestão do ESXi).

 

Igualmente aqui podemos definir uma VLAN para esta rede (neste caso não usamos nenhuma VLAN, mas iremos falar mais à frente na implementação de VLANs no ESXi).

 

Como podemos ver mais abaixo, podemos activar neste PortGroup vMotion, ou Fault Tolerance Logging. iSCSi Port Bidding ‘e uma rede diferente e falaremos em artigos mais ‘a frente.

 

Neste caso apenas esta ativado o “Management Traffic”

 

A opção MTU por default ‘e 1500, a não ser que seja necessário para casos especiais (e o hardware suporte valores mais elevados), este valor não deve ser alterado. Por exemplo em rede para Storage (como iSCSI, NFS etc.) se tivermos Switch e placas de rede que suportem, podemos e devemos usar pacotes maiores como “Jumbo Frames” que usa 9000 MTU.

 

 

2)   IP Settings

 

No segundo quadro temos a tab “IP Settings“. Estes valores que aqui vemos são os que introduzimos na configuração do ESXi na pós-instalação.

 

Nota: Esta tab apenas se encontra nos PortGroups VMKernel (que precisam de IP Settings para funcionar). Nos PortGroups/Redes ou vSwitch, esta tab não existe.

 

Podemos alterar os valores, mas temos de ter em atenção que ao mudarmos o IP e restantes dados da rede (neste caso do “Management Network”) iremos perder a ligação ao ESXi e não será mais possível ligarmo-nos ao ESXi através do vSphere Client e temos de fazer as devidas correção na consola do ESXi e usar os comandos na Shell para podermos ativar novamente o “Management Network”. Assim sendo, a não ser que saibamos o que estamos a fazer, estes valores não devem ser alterados.

 

Nota: Se queremos alterar IP, ou outros valores do ESXi, deve ser feito diretamente no ESXi (como mostrado no artigo inicial da instalação do ESXi nos procedimentos pos-install).

 

As tabs “Permissions” e “Traffic Shaping” são opções que estão um pouco fora do âmbito deste artigo, não valera a pena estar a detalhar essas informações, por isso passamos para a próxima tab “NIC Teaming”.

 

3)   NIC Teaming

 

Como podemos verificar apenas temos uma placa de rede (vmnic0). Em caso desta placa de rede falhar, ou mesmo a porta do Switch (físico) onde esta ligada falhar, perdemos o acesso ao ESXi. Como ‘e óbvio, isto em produção e num ambiente de High Availability, nunca pode acontecer.

 

Antes de passarmos as alterações, vamos dar uma olhada em cada opção desta tab.

 

Load Balancing 

 

Esta ‘e umas das opções mais importantes nas redes virtuais. Load Balancing e Network Load Balancing (NLB) são importantes para gerir o tráfego da nossa rede. Se temos Switches com Port Aggregation Protocol(PAgP), ou Link Aggregation Control Protocol(LACP) ativado ainda mais importante ‘e a escolha desta opção.

 

 

Existem diversos tipos de Load Balacing. No seguinte quadro visualizamos as diversas opções que temos no Load Balacing.

 

  • Route based on the originating port ID: O sistema escolhe um uplink (uma das placas de rede) baseado na porta virtual onde o tráfego entrou no vSwitch.
  • Route based on an IP hash: O sistema escolhe um uplink com base no hash dos endereços IP de origem e destino de cada pacote. Para os pacotes non-IP, escolhe os offsets que são usados para calcular o hash.
  • Route based on a source MAC hash: O sistema escolhe um uplink com base em no hash da placa de rede.
  • Use explicit failover order: O sistema escolhe sempre um uplink da ordem da lista de adaptadores activos que estão nas opções do “Failover Order”
  • Route based on physical NIC load (Disponível apenas nos vDS): O sistema escolhe um uplink com base no tráfego das placas de rede. Balanceando assim o tráfego entre as placas de rede.


Informações mais detalhadas podem ser visualizadas em http://kb.vmware.com/kb/2006129 e em http://kb.vmware.com/kb/1004088

 

Com o “Load Balancing” bem aplicado o tráfego da nossa rede ‘e distribuída por duas ou mais placas de rede e temos um trafego bem gerido pela rede virtual.

 

Em grandes Infraestruturas Virtuais este ‘e um tema muito importante devido ao trafego que ‘e gerado. Principalmente nos PortGroups/Redes que criamos para as nossas VMs e os PortGroups VMKernel(como vMotion e Storage que geram grandes quantidades de trafego e pacotes de dados e tem de ser devidamente balanceados para não haver congestionamento de trafego)

 

 

  • Network Failover Detection: Valida se o link fisicamente esta activo ou não (se foi retirado o cabo, porta do Switch bloqueada por spanning tree, power failure do Switch, etc).
  • Notify Switches: Quando ativado envia notificações de rede para os Switches físicos e atualiza as lookup tables sobre failovers da rede que possam ter acontecido.

 

Importante: As definições e configurações do “NIC Teaming”, ou “Load Balancing”, podem ser efetuadas por vSwitch, ou por PortGroup (exemplo no “Network Management”).

Se efetuarmos as definições apenas e só ao nível do vSwtich todos os PortGroups existentes no vSwitch ficarão com essas definições. Mas as definições (iguais ou diferentes) poderão ser igualmente alteradas ao nível do PortGroup (sem influencia no vSwitch, ou noutros PortGroups existentes no vSwitch).

Podemos assim definir para toda a infraestrutura do vSwitch, ou isoladamente por PortGroup. Tudo depende das nossas configurações de rede física (Switches, VLANs, roteamentos etc.)

 

Nota: Esta secção foi apenas uma explicação num modo simplificado de como funciona os vSwitch vs PortGroups e o “NIC Teaming”, ou “Load Balancing”. Muita desta informação podemos encontrar na documentação online da VMware(vSphere Client tool opção “help -> documentation”)

 

  • Ativar o “NIC Teaming”, ou “Load Balancing” – Adicionar placas de rede ao vSwitch

 

Depois desta explicação a respeito do “NIC Teaming”, iremos adicionar mais uma placa de rede ao nosso PortGroup “Network Management” e assim ter High Availability activa neste PortGroup.

 

Para o “Network Management” o “NIC Teaming”, ou “Load Balancing” não ‘e importante, visto que não existe trafego suficiente nesta rede para termos de balancear o trafego, mas ter no mínimo duas placas de rede para o caso da falha de uma das placas de rede (ou problemas no cabo rede, porta do Switch físico etc.) ‘e importante (em diversas Infraestruturas virtuais mandatário).

 

Antes de adicionarmos placas de rede ao vSwitch, vamos validar quantas placas de rede existem no nosso ESXi e as que já estão a ser usadas neste vSwitch0, ou noutros.

 

Como podemos ver no quadro em cima e na coluna “Switch”, temos 4 placas de rede. Como expliquei as placas de rede no ESXi são identificadas por vmnic(x), neste caso temos vmnic0, vmnic1, vmnic2, vmnic3. Destas 4 apenas uma esta atribuída a um vSwitch (neste caso ao vSwitch0), as restantes não tem nenhum Virtual Switch atribuído e assim sendo podem ser usadas para adicionar ao vSwitch0, ou para criar novos vSwitch.

 

No mesmo quadro, e na coluna “Speed”, podemos validar a velocidade de cada interface e se estão a funcionar (cabos ligados, portas do Switch fisco bem configurado etc.). Se não for o caso, aparece o status “down”. Referindo que a interface não esta funcionar, ou mesmo com problemas.

 

Voltando ao tab do ESXi -> Configuration -> Networking e clicar em “Properties” no Standard Switch: vSwitch0 existente.

 

 

 

No quadro do vSwitch (que temos estado a usar nas explicações anteriores) devemos clicar na tab Network e a seguir add (para adicionar mais uma placa de rede ao nosso vSwitch)

 

Com podemos verificar no quadro seguinte, temos as placas de rede livres para escolher e adicionar ai nosso vSwitch0. Podemos escolher qualquer uma que esteja na secção “Unclaimed Adapters”. No nosso caso vamos adicionar a vmnic1.

De seguida apenas temos de seguir os passos (mostrado nas imagens seguintes).

 

No quadro seguinte podemos definir se a placa de rede ‘e para ficar ativo, ou em standby. No nosso caso iremos por todas ativas. Iremos discutir os active e standby em artigos posteriores.

 

 

No quadro seguinte já podemos ver as duas placas de rede incluídas no vSwitch, bem como com o “NIC Teaming ativo. Onde as duas placas de rede têm o balanceamento (as linhas verdes) ativo sobre o vSwitch.

 

 

Voltando as configurações do vSwitch para validar o “NIC Teaming” podemos validar no quadro seguinte as duas placas de rede activas (vmnic0 e vmnic1). Seja para o “NIC Teaming”, seja para o caso de failover.

 

Apenas como informação, porque iremos voltar a este assunto mais tarde, se passarmos uma das placas de rede para standby. Não existe balanceamento do trafego (excepto se houver problemas na rede) mas sim e apenas failover. Porque a segunda placa rede está em standby e apenas passara ao estado activo se houver algum problema com a placa que se encontra ativa.

 

 

Apenas como exemplo, se pusermos uma das placas de rede em StandBy ao nível do vSwitch (e não PortGroup) será assim que ficara as ligações virtuais (entre Placas de rede físicas e o Switch Virtual).

Quando anteriormente tínhamos as linhas verdes (as conexões virtuais) em ambas as placas de rede, neste caso teremos apenas uma ligação virtual estando a outra em standby (como se pode validar no quadro seguinte).

 

 

Nota: Podemos igualmente ver no quadro em cima, o PortGroup( como informado anteriormente ‘e um VMKernel) ‘e apresentado com o vmk(no caso vmdk0). São PortGroups de sistema que tem IP associado (fixo ou DHCP).

 

  • Como criar PortGroup (rede) para VMs no vSwitch

 

Depois de termos falado do “NIC Teaming” e “Load Balancing” vamos nos debruçar sobre como criar uma rede para as nossas Maquinas Virtuais (VMs).

 

Esta rede será a rede que o Sistema Operativo das VMs ira usar. O “NIC Teaming”, ou “Load Balancing” podem igualmente ser configuradas neste tipo de rede (estas duas configurações podem ser configuradas em qualquer vSwitch ou PortGroup).

 

Neste caso iremos criar um novo vSwitch (vSwitch1) e um novo PortGroup.

 

Nota: Numa configuração ideal, devemos sempre separar as nossas redes. Dentro do vSwitch que temos (e usando as mesmas placas de rede), não devemos usar VMKernel PortGroups juntamente com redes de VMs. Podemos sempre separar as redes por VLANs e usar o mesmo vSwitch e em diferentes PortGroups, mas em Infraestruturas de milhares de VMs e onde vMotion migra VMs dezenas de vezes diariamente, não ter estas redes isoladas, ou em conjunto com as redes das VMs, provocara como ‘e obvio um congestionamento do trafego e uma carga excessiva nas placas de rede, bem como na rede VM.

 

Voltando ao tab do ESXi -> Configuration -> Networking. Mas desta vez clicamos na opção “add networking” que se encontra no canto superior direito.

 

Nota: Nesta opção ao criarmos a rede (seja um VMKernel, seja uma rede VM), o ESXi cria a rede e automaticamente um novo vSwitch, neste caso criara o vSwitch1 (como mostramos num dos quadros seguintes). Se não quisermos criar um novo vSwitch, então devemos entrar num vSwitch existente (ESXi -> Configuration -> Networking e escolher a opção “Properties” do vSwitch onde queremos criar a nova rede) e escolher a opção “Add”.

 

Depois de escolhermos a opção para adicionar uma nova rede, temos de escolher o tipo de rede vamos usar. Neste caso será uma rede para as nossas VMs, assim sendo será a opção “Virtual Machine”.

 

Aqui podemos ver as placas de rede disponíveis nosso ESXi e que vamos usar nesta nova rede. Podemos usar apenas uma, mas no caso iremos usar as duas placas de rede existentes (a vmnic2 e vmnic3 para NIC Teaming e Load Balancing), na nossa rede de VMs. As outras duas (vmnic0 e vmnic1) como podemos ver estão a ser já a ser usadas pelo vSwitch0

 

 

Iremos chamar ‘a nova rede “VMs Local Network”. Podemos usar o nome que entendermos. Mas em Infraestruturas muito grandes com dezenas de redes, um nome que identifique a rede e o seu uso ‘e sempre aconselhável.

 

Podemos igualmente definir a VLAN que queremos usar, neste caso não temos VLANs, assim sendo o VLAN ID 0, será sempre VLAN disable.

 

Como podemos verificar no seguinte quadro, o novo vSwitch (vSwtich1) está criado com um novo PortGroup (rede). Esta será a rede que vamos usar futuramente nas nossas VMs que vamos criar.

 

E assim finalizamos a parte da configuração das redes do nosso ESXi.

Em resumo

  1. Foi explicado num modo simples como funciona as redes no VMware/ESXi entre as redes físicas e redes Virtuais.
  2. Adicionar ao PortGroup “Network Management” uma placa de rede extra para configurar o“NIC Teaming” e “Load Balancing”
  3. Criar um novo vSwitch juntamente com uma nova rede (PortGroup) para as nossas VMs.

 

2.    Adicionar/Configurar Storage no ESXi

 

Como se devem lembrar no artigo inicia de instalação do nosso ESXi tínhamos 2 discos:

1 HD de 8Gb (que vamos usar como se fosse um cartão SD para instalar o Hypervisor)

1 HD 200Gb – Storage interna para alojar as VMs.

 

No seguinte quadro vemos um datastore (nome dado pelo ESXi aos discos e Storage existente) com apenas 500Mb e 496Mb livres. ‘E o espaço restante que o ESXi criou como default do nosso disco inicial de 8Gb (onde esta instalado o ESXi).

O espaço ‘e pequeno e pouco servira, mas podemos usa-lo para guardar algumas configurações (discutiremos quais e como, em artigos posteriores)

 

Por agora iremos ignorar este datastore e nos focarmos num novo para alojar as nossas VMs.

 

Os datastore (ou volumes) no ESXi têm o formato VMFS”(Virtual Machine File System). Na versão ESXi 6.x a versão do VMFS ‘e o 5.

 

No seguinte quadro podemos ver as diferenças vs limitações, ou mesmo a evolução do VMFS entre as versões v3 (do ESXi 3x,4x) e versão v5(ESXi 5.0 e 5.1 no ESXi 5.5 e ESXi 6.x a versão do vmfs ‘e 5.61)

Capability

VMFS 3

VMFS 5

Maximum single Extend size

2 TB  less 512 bytes

64 TB

Partition Style

MBR (Master Boot Record) style

GPT (GUID Partition Table)

Available Block Size

1 MB/2MB/4MB/8MB

only 1 MB

Maximum size of RDM in
Virtual Compatibility

2 TB  less 512 bytes

2 TB  less 512 bytes

Maximum size of RDM in
Physical Compatibility

2 TB  less 512 bytes

64 TB

Supported Hosts versions

ESX/ESX 3.X, 4.X & 5.x

Only ESXi 5 is supported

Spanned Volume size

64 TB (32 extends with max
size of extent is 2 TB)

64 TB (32 extends with
any size combination)

Upgrade path

VMFS 3 to VMFS 5

Latest Version. NO upgrade
 available yet.

File Limit

30,000

100,000

Sub-Block size

64 KB

8 KB


Nota:
Entre o ESXi 5.0/5.1 e a versão 5.5 e ESXi 6, o vmfs teve diversas alterações ao nível do tamanho dos volumes e vmdk (disco virtual das VMs) que se podem usar. Por exemplo passou de 2TB para 64Tb. Mais informação e novas alterações aos limites do VMFS em: http://kb.vmware.com/kb/1003565

 

 

Para adicionarmos o disco de 200Gb que temos no nosso ESXi, clicamos no “Add Storage” que fica no canto superior direito (verificar o quadro em cima).

 

Neste caso como ‘e um disco local escolhemos a opção Disk/LUN. Também se usa esta opção se vamos usar Storage iSCSI ou Storage Fiber Channel. Network File System usasse para Storage NFS.

 

No seguinte quadro podemos ver os discos/volumes disponíveis e que podemos escolher para adicionar ao nosso ESXi. Neste caso temos apenas o nosso disco 200Gb, clicamos no volume a adicionar e “Next”.


Nota:
Podemos validar no nome (coluna name) do datastore que ‘e um disco local. Se fosse um volume de uma Storage (tipo iSCSI ou NFS, ou mesmo uma LUN Fiber Channel, seria fácil de validar no nome/tipo datastore)

 

Como podemos ver no quadro seguinte, datastore (nome que se da aos disco no ESXi depois de adicionado ao mesmo) ira ficar na estrutura VMFS no seguinte caminho /vmfs/devices/disks/mpx.vmhba1:C0:T1:L0

 

Se mais tarde queremos ter acesso ao datastore na linha comandos (ESXi Shell), esse será o caminho onde se encontra o datastore (todos os datastore encontram-se em /vmfs/devices/disks/…)

 

No seguinte introduzimos o nome que queremos que o nosso datastore tenha (novamente o nome vs nomenclatura em Infraestruturas muito grandes e importantes)

 

No quadro seguinte podemos definir quanto espaço queremos usar no novo datastore. Podemos escolher o espaço total (default) ou apenas uma parte. No nosso caso iremos escolher o total dos 200Gb do disco que vamos adicionar.

 

Finaliza e o novo datastore será adicionado ao ESXi (como podemos verificar no quadro seguinte).

Como podemos verificar temos neste momento 2 datastore no nosso ESXi.

 

No futuro para as nossas VMs, iremos apenas usar o datastore criado para efeito nesta secção.

 

Feito isto, finalizamos a secção de adicionar/criar novos datastore no ESXi.

 

 

 

 

 

 

 

Para concluir este artigo, podemos agora ver no Summary do nosso vSphere Client a rede que criamos (nesta secção apenas aparecem as redes de VMs, nunca PortGroups VMkernel) e os datastore existentes no ESXi.

 

E assim terminamos este segundo artigo na Instalação e Configuração do ESXi 6.0.

 

Termino como sempre a informar que poderão utilizar o Este endereço de email está protegido contra piratas. Necessita ativar o JavaScript para o visualizar. para quaisquer duvidas, ou perguntas especificas que tenham sobre algo que se vai discutindo nos diversos artigos.

 

Próximo artigo: “Configurar ESXi 6.0 (Criar/Configurar VMs e Instalar Sistema Operativo nas VMs)”.

 

Até lá, um abraço Virtual

 

Luciano Patrão

Classifique este item
(0 votos)
Ler 6599 vezes Modificado em Ago. 05, 2015
Top