Cómo solucionar el problema de latencia de Azure

Cómo solucionar el problema de latencia de Azure

Las empresas no siempre aprovechan al máximo sus redes en la nube. En ocasiones, la necesidad supera la capacidad, y las redes sufren problemas de latencia. Si estás leyendo este blog, probablemente ya sabes lo problemática que puede ser la latencia para un negocio y que la ineficiencia en este aspecto se convierte rápidamente en pérdida de ingresos. Según un reciente informe de Gartner, los tiempos de inactividad cuestan a las empresas, de media, 5600 USD por minuto , y una latencia poco fiable es uno de los principales causantes de esto. Así que, cuando las necesidades de la red superan la capacidad de dicha red, ¿cómo puedes evitar problemas de latencia?

La buena noticia es que, para el 70 % de las empresas que confían en Microsoft Azure para sus redes en la nube, existen formas sencillas de reducir la latencia que no aumentan los costes y, en la mayoría de los casos, permiten aprovechar al máximo los activos existentes. Te mostramos los tres principales métodos para reducir la latencia de Azure y mejorar el rendimiento de red.

Método 1: redes aceleradas

Las redes aceleradas, también denominadas virtualización de entrada/salida de raíz única (SR-IOV), son el método más común para reducir la latencia. En términos sencillos, las redes aceleradas buscan la ruta de red más corta entre A y B.

El problema es que muchas configuraciones de nube dependen demasiado de un host para la administración. Sin embargo, con las redes aceleradas, el tráfico fluye directamente desde la interfaz de red de la máquina virtual (VM) y ya no pasa por el host y el conmutador virtual. El resultado es que se reducen la latencia, el jitter y el uso de CPU de las cargas de trabajo más exigentes.

Las redes aceleradas son importantes porque eliminan la complejidad innecesaria de la red (sobre la que ya hemos eliminado las conjeturas en nuestro blog ). Sin las redes aceleradas, el tráfico que entra en la VM y sale de ella debe pasar por el host y el conmutador virtual. Las redes aceleradas reducen el número de saltos que debe dar el tráfico para llegar a su destino.

Si se hace bien, el conmutador virtual proporciona todo el cumplimiento de políticas que antes proporcionaba el host, como el control de acceso y la seguridad de red.

Un ejemplo perfecto de caso de uso es la recuperación ante desastres, la pesadilla de los especialistas en redes y un evento costoso para las empresas. Es en esta situación en la que un método como las redes aceleradas muestra lo que puede hacer para restaurar el funcionamiento de las redes cuando el host central deja de ser una opción y los conmutadores virtuales deben asumir su rol.

Microsoft posee una amplia documentación sobre este caso de uso, que cualquier persona realmente interesada no solo en la latencia, sino en el estado y el bienestar de su red en la nube, debería conocer a fondo. Para cualquiera que busque información técnica detallada, la explicación de Microsoft sobre las redes aceleradas es esencial .

¿Los costes de salida de Azure son elevados? Descubre cuatro formas de reducirlos en nuestro blog.

Método 2: ajuste de escala en lado de recepción (RSS)

Obviamente, las redes aceleradas no son para todo el mundo. Para las organizaciones cuya VM no sea apta para los casos que permiten las redes aceleradas, el ajuste de escala en lado de recepción (RSS) es la mejor apuesta para reducir el rendimiento de red en general, incluida la latencia. Con el RSS, un objetivo fundamental es encontrar la ruta más corta entre A y B. Sin embargo, la diferencia es que, en lugar de omitir el host, el RSS busca la distribución más eficiente del procesamiento de red entre varias CPU.

El RSS actúa como “guardia de tráfico” en tu red: permite el paso de determinado tráfico y a otro tipo de tráfico le asigna menor prioridad. Sin el RSS, la red intenta procesar el tráfico con una sola ruta de red, y la latencia es el efecto natural de que todo intente suceder al mismo tiempo.

Azure ofrece una forma sencilla de implementar el RSS. Los administradores solo tienen que configurar la tarjeta de interfaz de red (NIC) y el controlador de minipuerto para recibir las llamadas a procedimiento diferidas (DPC) en otros procesadores. Lo siguiente también resulta práctico: el RSS garantiza que el procesamiento asociado a una conexión concreta permanezca en la CPU asignada. Los especialistas en redes solo tienen que realizar la configuración una vez y, luego, pueden dedicarse a otras tareas, pues la NIC se ocupa del resto.

El RSS es una bendición para reducir los retrasos del procesamiento enrutando el procesamiento de recepción procedente de la NIC por varias CPU. El objetivo aquí no es solo reducir la latencia; también queremos crear una mejor inteligencia de red para que una CPU no se vea sobrepasada por las solicitudes mientras las demás permanecen inactivas.

Este método de reducción de la latencia es una buena noticia sobre todo para las empresas con grandes volúmenes de tráfico de red, como agentes de bolsa, proveedores de comercio electrónico y organizaciones que requieren una alta capacidad de red de inmediato. Como sucede con las redes aceleradas, Microsoft ofrece documentación útil que las organizaciones pueden utilizar para implementar el RSS de forma rápida y eficiente.

Compara la conectividad privada de Microsoft Azure, AWS y Google Cloud con nuestra guía.

Método 3: grupos con ubicación por proximidad

Los grupos con ubicación por proximidad son el método más sencillo de reducción de la latencia, y tienen que ver, básicamente, con la coubicación. Sin embargo, en este caso, la coubicación no es simplemente alojar activos de red en las mismas instalaciones: aquí el término se aplica en un sentido más general, y hace referencia a la reducción de la distancia entre los recursos de computación de Azure para reducir la latencia total de la red.

Los grupos con ubicación por proximidad pueden reducir la latencia entre VM locales, VM en varias ubicaciones (es decir, conjuntos de disponibilidad) o varios grupos de redes (conjuntos de escalado). Por supuesto, cuanto más lejos estén los activos unos de otros, mayores probabilidades hay de sufrir latencia y otros problemas. El objetivo de los grupos con ubicación por proximidad es pensar en cómo enrutar las tareas de red utilizando los activos que se encuentren a la menor distancia física.

Para incorporar inteligencia a este método, Microsoft recomienda combinar los grupos con ubicación por proximidad con las redes aceleradas. La idea aquí es asegurarse de que, al solicitar la primera máquina virtual del grupo con ubicación por proximidad, se seleccione automáticamente el centro de datos.

La única precaución que hay que tener en cuenta es que, en el caso de las cargas de trabajo elásticas, cuantas más restricciones se apliquen al grupo con ubicación, mayores probabilidades hay de que se produzcan errores de asignación y latencia. Recomendamos que, aunque las redes aceleradas se ocupen del tráfico, los administradores de red permanezcan atentos. Por ejemplo, la capacidad no se conserva cuando se detiene (desasigna) una VM.

Los grupos con ubicación por proximidad son la mejor solución para organizaciones que quieran optimizar el funcionamiento de la red en su propia región y asegurarse de no gastar de más en capacidad en nuevos mercados.

La documentación de Azure de Microsoft incluye prácticas recomendadas adicionales sobre los grupos con ubicación por proximidad, sobre todo para especialistas en redes que se toman suficientemente en serio la latencia y las redes inteligentes como para aumentar sus capacidades con las redes aceleradas.

Conectividad de Azure más rápida con la red como servicio

Para acelerar tu red, los métodos de Azure que hemos comentado pueden suponer una enorme diferencia, pero lo mejor que puedes hacer para empezar es examinar la red de tu negocio en su conjunto.

Utilizar la Internet pública deja tu red a merced de las fluctuaciones del tráfico, que pueden afectar gravemente a la velocidad y al rendimiento, lo cual, a su vez, puede dañar tu negocio . Los proveedores tradicionales de telecomunicaciones pueden ser una alternativa problemática, pues obligan a los clientes a aceptar contratos en los que el ancho de banda no se puede aumentar en períodos de demanda máxima. El resultado: un rendimiento de red lento y poco fiable, y la necesidad de mitigar constantemente los desastres recurriendo al departamento de TI.

Si usas la red como servicio (NaaS) como método de conectividad de Azure, puedes omitir la Internet pública y cambiarte a una ruta de red privada. Además, si aprovisionas conectividad NaaS con Megaport, te beneficiarás de lo siguiente:

  • Mejor rendimiento: evita los cuellos de botella y los tiempos de inactividad causados por las fluctuaciones del tráfico de Internet. Con tu propia conexión a AWS en la red troncal privada de Megaport, tu conectividad será rápida y homogénea.
  • Ancho de banda escalable: aprovisiona conexiones y aumenta el ancho de banda (en algunos casos, hasta 100 GB) a la carta con el portal de Megaport para ofrecer el rendimiento que necesitas en períodos críticos y, luego, redúcelo cuando ya no sea necesario para empezar a ahorrar al instante.
  • Redundancia “siempre activada”: con más de 700 vías de acceso en total, tienes protección frente a los tiempos de inactividad gracias al objetivo de disponibilidad del servicio de Megaport del 100 %.
  • Megaport Cloud Router (MCR) : el servicio de enrutamiento virtual de Megaport proporciona conectividad privada a la carta en la capa 3 para un enrutamiento de nube a nube de alto rendimiento sin redirección a tus entornos locales.
  • Megaport Virtual Edge (MVE) : para llevar las ventajas de una red de baja latencia al perímetro, usa MVE, el servicio de virtualización de funciones de red (NFV) de Megaport, para obtener conectividad privada directa desde la sucursal hasta la nube, lo que reduce la latencia y el jitter en tus aplicaciones estratégicas.

Usa un método o úsalos todos; con Azure, puedes aprovechar cualquier combinación de estas herramientas para reducir la latencia de tu red. Si cuentas con el respaldo de una NaaS como la de Megaport, te beneficiarás de una red más rápida de un extremo a otro para que tu negocio sea más productivo y rentable.

Etiquetas:

Publicaciones relacionadas

Tres razones por las que debes interconectar tus nubes

Tres razones por las que debes interconectar tus nubes

En una entrada del blog de Megaport , se señala que «Gartner calcula que el coste medio del tiempo de inactividad de una empresa puede llegar a ser de 5600 USD por minuto ».

Más información
Comparativa de los métodos de conectividad de último tramo

Comparativa de los métodos de conectividad de último tramo

Las opciones de conectividad, así como Internet en general, cambian constantemente.

Más información
¿Qué proveedor de SDCI es el adecuado para ti?

¿Qué proveedor de SDCI es el adecuado para ti?

La interconexión en la nube definida por software (SDCI) se está volviendo tan popular que, según Gartner, «a finales de 2024, el 30 % de las empresas utilizarán servicios SDCI para conectarse a los CSP públicos, frente a menos del 10 % en 2020».

Más información