Nutanix

Configuración de red específica para un Cluster Nutanix

Por Miguel Angel Ayllon: Actualmente estoy inmerso en un proyecto en el que todo el entorno virtual corre sobre dos clústeres de Nutanix utilizando como hipervisor AHV. La configuración de las redes que se realiza por defecto al instalar y configurar NOS/AHV no es la que se adapta a las necesidades de red del cliente ya que es necesario separar físicamente las redes de producción de las de gestión del entorno.

Por defecto, al instalar y configurar cada clúster se crea un solo bridge (br0) con un solo bond asociado a él (bro-up) que contiene todas las tarjetas de red de cada uno de los nodos.

El entorno del que dispongo en cada clúster es:

  • 3 nodos Lenovo HX3320 por clúster
  • Cada uno de los nodos consta de las siguientes tarjetas de red:
    • 4 x 10Gb Ethernet Base-T en placa base (LOM)
    • 2 tarjetas PCI que cada una lleva 2 x 10Gb Ethernet SFP+
  • La distribución de las tarjetas de red que ha hecho el foundation por defecto es la que se puede ver en la siguiente imagen:

  • Las versiones que estoy utilizando son AOS 5.5.5 e hipervisor 20170830.157

Como he comentado, por necesidades del cliente, esta configuración no nos es válida, el diseño final de las redes debe ser como se ve en la siguiente imagen.

Es decir:

  • Las tarjetas de red eth0 y eth6 de cada nodo deben formar un único bond, conectarse a un switch independiente y son las que se utilizarán para toda la gestión del clúster.
  • Las tarjetas de red eth2, eth3, eth4 y eth5 de cada nodo deben formar un único bond y conectarse a un switch independiente del anterior formando una red para producción.
  • Por último, las tarjetas de red eth1 y eth7 de cada nodo deben formar un único bond y conectarse al switch de producción formando otra red para otro tipo de producción.

Para poder conseguir esta configuración es necesario realizarla por comandos desde una de las CVM y, ya que estamos tocando la configuración de red, es muy aconsejable realizarla desde la consola de uno de los nodos de cada clúster.

En mi caso, la configuración la he realizado utilizando la consola remota del IPMI de los nodos Lenovo ya que la configuración de dicho entorno no se va a modificar. Recuerdo que, al tener dos clústeres, esta configuración debe realizarse en los dos con lo que debemos tener acceso a las consolas de uno de los nodos de cada clúster.

Vamos a ello:

Lo primero es explicar algunos de los comandos que vamos a utilizar, todos ellos son comandos del OVS que es el gestor de swithes virtuales que utiliza AHV. El comando que gestiona esta parte es manage_ovs

Como he comentado antes, todos los comandos deberían ejecutarse en cada uno de los nodos de cada clúster ya que la configuración de red es propia de cada uno de ellos. Para facilitar este trabajo existe un comando llamado allssh que permite ejecutar el comando que se le pasa como parámetro a todos los nodos de un clúster, este es el comando que vamos a utilizar.

Como ejemplo, para que nos muestre todos los interfaces de cada nodo, desde la CVM ejecutaríamos el comando:

allssh “manage_ovs show_interfaces”

Lo que nos mostraría lo siguiente:

Una vez tenemos esto claro, comenzamos la configuración.

Nos conectamos a la consola de uno de los hipervisores de uno de los clústeres y una vez dentro haremos lo siguiente:

  1. Conectarnos por la IP interna de cada nodo a su CVM utilizando el comando:

ssh nutanix@192.168.5.254

  1. Nos solicitará la contraseña, por defecto es nutanix/4u
  2. Comprobamos cuales son las tarjetas de red asociadas al bridge por defecto, simplemente por comprobar.

allssh “manage_ovs –bridge_name br0 show_uplinks”

  1. Para modificar la configuración de las redes es recomendable parar los servicios del clúster, para ello ejecutamos:

Cluster stop

  1. Una vez parado el clúster, crearemos los dos bridges br1 y br2.

allssh “manage_ovs –bridge_name br1 create_single_bridge”

allssh “manage_ovs –bridge_name br2 create_single_bridge”

En los resultados que nos muestra debemos ver que los ha ejecutado en los tres nodos.

  1. Ahora debemos dejar únicamente eth0 y eth6 dentro del bridge br0 con lo que liberaremos todas las demás tarjetas de red.

allssh “manage_ovs –bridge_name br0 –-bond_name br0-up -–interfaces eth0,eth6 –require_link=false update_uplinks”

Nota: Añadimos la opción –require_link=false para que no ignore las tarjetas de red que no están conectadas.

  1. Ahora debemos añadir las tarjetas de red necesarias a br1. Este comando también nos creará el bond necesario, en nuestro caso le hemos llamado br1-up

allssh “manage_ovs –-bridge_name br1 –-bond_name br1-up -–interfaces eth2,eth3,eth4,eth5 –require_link=false update_uplinks” 

  1. Ahora nos queda añadir las tarjetas de red necesarias a br2. Este comando también nos creará el bond necesario, en nuestro caso le hemos llamado br2-up

allssh “manage_ovs –-bridge_name br2 –-bond_name br2-up -–interfaces eth1,eth7 –require_link=false update_uplinks”

  1. Comprobamos que la configuración se ha realizado correctamente, para ellos mostramos los uplinks de cada uno de los bridges.

allssh “manage_ovs –bridge_name br0 show_uplinks”

allssh “manage_ovs –bridge_name br1 show_uplinks”

allssh “manage_ovs –bridge_name br2 show_uplinks”

  1. Si todo es correcto, arrancamos de nuevo el clúster y esperamos que esté todo arrancado.

Cluster start 

  1. Como último punto nos queda crear las redes asociadas a cada uno de los bridges creados, cabría esperar que esto se pudiera crear por la GUI pero no he sido capaz de hacerlo con lo que lo he creado por comandos.

Para crear las redes se debe usar ACLI que es el entorno de programación para el cluster con lo que desde cualquiera de las CVM del clúster (Si hemos seguido este tutorial, seguimos conectados a una) ejecutamos los comandos siguientes:

acli net.create br1_produccion vswitch_name=br1 vlan=21

acli net.create br2_produccion vswitch_name=br2 vlan=1001

Las vLAN creadas son ejemplos.

Una vez creadas ya podremos verlas desde la GUI y podremos trabajar y asociar VMs a ellas.

Gracias por tomarse el tiempo de leer y compartirlo

Leandro Ariel Leonhardt es experto en Virtualización de Sistemas especializado en Nutanix y VMware. Autor del curso online "Hiperconvergencia con Nutanix: aprende a instalar y configurar" desde cero: https://www.udemy.com/hiperconvergencia-con-nutanix-instalacion-y-configuracion/. Nutanix NPP 5.0 & 4.5, NSEC, NSES, NSEN & Nutanix Technology Champions (NTC) 2017/2018. Nombrado vExpert PRO y vExpert desde el año 2013, vExpert vSAN 2019/18/17/16 & vExpert Cloud 2017. Ex-VCI, VCAP-DCA, VCP-DCV & VCP-NV. Más información sobre su trayectoria en: http://www.leandroleonhardt.com

Deja un comentario

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.