Nutanix

Acerca de la red en Nutanix AHV

La red de AHV (Acropolis Hypervisor) al igual que en VMware (vSwitch Standard) ambos de capa 2, cumplen la función de gestionar el tráfico de máquinas virtuales con máquinas físicas, balanceo de cargas, vLans, LACP, gestión de los host, etc. AHV utiliza Open vSwitch (OVS) para conectar el CVM de cada nodo, el hipervisor, las máquinas virtuales entre sí y la comunicación con el exterior (entorno físico).

Acerca de la red en Nutanix AHV:

La red en Acropolis Hypervisor está compuesta de: Open vSwitch, Bridges, Ports y Bonds:

  • Open vSwitch: Open vSwitch (OVS) es un switch basado en software de código abierto implementado en el kernel de Linux y diseñado para trabajar en un entorno de virtualización multiservidor. De forma predeterminada, OVS se comporta como un switch de capa 2 que mantiene tablas de direcciones MAC. El hipervisor y las máquinas virtuales se conectan a los puertos virtuales de este switch.
    OVS soporta vLAN, balanceo de carga y protocolo de control de agregación de enlaces (LACP). Cada servidor AHV mantiene una instancia OVS y todas las instancias OVS se combinan para formar un único switch lógico. Los Bridges gestionan/administran las instancias de switches que residen en los hosts AHV.
  • Bridges: Los llamados Bridges actúan como switches virtuales para gestionar el tráfico entre las interfaces de red físicas y las virtuales. La configuración AHV predeterminada incluye un “puente” OVS llamado br0 y un “puente (bridge)” nativo de Linux llamado virbr0. El puente virbr0 Linux lleva exclusivamente el switch de gestión entre el CVM y el host AHV. El resto del tráfico de almacenamiento, host y tráfico de la red VM fluye a través del puente br0 OVS. El host AHV, las máquinas virtuales y las interfaces físicas utilizan “puertos” para la conectividad al Bridge.
  • Ports: Los puertos son construcciones lógicas creadas en un Bridge que representan la conectividad al switch virtual. Nutanix utiliza varios tipos de puertos, incluyendo internos, tap, VXLAN y enlace (bond).
    – Un puerto interno con el mismo nombre que el bridge predeterminado (br0) – proporciona acceso para el host AHV.

    Los puertos de conexión (tap) actúan como conexiones de puente para los NIC virtuales presentados a las máquinas virtuales.
    – Los puertos VXLAN se utilizan para la funcionalidad de gestión de direcciones IP proporcionada por Acropolis.
    – Los puertos enlazados (bond) proporcionan NIC Teaming para las interfaces físicas de AHV host.dge.
  • Bonds: Los puertos enlazados (bonds) agrupan las interfaces físicas al host AHV. De forma predeterminada, el sistema crea un enlace denominado br0-up en bridge br0 que contiene todas las interfaces físicas.
     Los OVS bonds permiten varios modos de equilibrio de carga, incluyendo el activo-stand-by , el balance-slb y el equilibrio-tcp. También es posible activar LACP la agregación de enlaces con un switch físico. Debido a que no se especifica el valor de bond_mode durante la instalación, el valor predeterminado es activo-stand-by, y es la configuración recomendada por Nutanix, utilizando las redes de 10 GB y las de 1 GB deshabilitadas.

AHV admite el uso de VLAN para el CVM, host AHV y máquinas virtuales. Es posible crear y administrar fácilmente las redes virtuales para VM desde la GUI Prism, la CLI de Acropolis (aCLI) o utilizando REST APIs.
Cada red virtual en AHV se asigna a una sola VLAN y bridge.

De forma predeterminada, se crean en el modo “acceso”, que permite sólo una VLAN por red virtual. Sin embargo, también es posible configurar un NIC virtual en modo “trunked”.

Si observáis la imagen anterior, existe la posibilidad de gestionar direcciones IP (IPAM). IPAM permite a AHV asignar direcciones IP automáticamente a las máquinas virtuales mediante DHCP. Podemos configurar cada red virtual con una subred IP específica, configuración de dominio y grupos de direcciones IP disponibles para la asignación.

AHV utiliza las reglas de VXLAN y OpenFlow en OVS para interceptar las solicitudes de DHCP de las máquinas virtuales y rellenar esas solicitudes con los conjuntos de direcciones IP configuradas.

Esto ha sido todo por esta semana, espero que te haya parecido de interés, recuerda que si os gusta y apasiona la hiperconvergencia y el sddc, tenéis a vuestra disposición en Udemy el Curso online de Nutanix: Aprende a instalar y configurar desde cero y que cuenta con más de 30 alumnos satisfechos!

Gracias por leer y compartir.

¡Se sociable!Tweet about this on Twitter0Share on LinkedIn22Share on Google+2Share on Facebook0Share on Reddit0Share on Tumblr1Buffer this pageEmail this to someonePrint this page

Leandro Ariel Leonhardt es especialista en Virtualización de Sistemas y Cloud Computing. Autor del curso online "Hiperconvergencia con Nutanix: aprende a instalar y configurar" desde cero: https://www.udemy.com/hiperconvergencia-con-nutanix-instalacion-y-configuracion/. Nutanix NPP/NSEN & Nutanix Technology Champions (NTC) 2017. Nombrado vExpert por VMware desde el año 2013 & vSAN vExpert 2016. VCI, VCAP & VCP5/6. Experto en almacenamiento definido por software (SDS) y sistemas de tipo hiperconvergente (HCI). Más información sobre su trayectoria en: http://www.leandroleonhardt.com

Leave a Comment

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *