¿Qué son las divisiones QOS y V-LAN?

Resumen

Las redes IP se están convirtiendo gradualmente en una plataforma de comunicación básica. Cada vez más servicios de valor agregado, especialmente servicios multimedia, se ejecutarán en redes IP. Por lo tanto, no se sabe cómo garantizar la calidad del servicio en las redes IP. convertirse en una nueva cuestión clave para el desarrollo de negocios. Este artículo presenta la arquitectura principal actual para implementar QoS en redes IP, enfocándose en los principios de la arquitectura principal DiffServ y las capacidades de soporte de QoS de la nueva generación de equipos de red orientados a negocios representados por el enrutador de servicio Alcatel 7750 SR.

Palabras clave: IP; servicios diferenciados QoS; 7750 SR

Con el rápido desarrollo de Internet en todo el mundo, la tecnología IP se ha convertido gradualmente en una plataforma de red generalizada y universal. Su economía, flexibilidad y capacidad para admitir múltiples servicios no tienen comparación con la red de conmutación de circuitos original. Sin embargo, la tecnología IP tradicional solo puede reenviar paquetes de datos de la mejor manera posible y solo transmitir paquetes de datos lo más rápido posible dentro de sus propias capacidades. No hay garantía de rendimiento, retraso, fluctuación de retraso y tasa de pérdida de paquetes. queda en manos del sistema final.

Este modo de transferencia de mejor esfuerzo solía ser apropiado porque la mayoría de las aplicaciones tradicionales basadas en IP (como Telnet, FTP, etc.) pueden tolerar grandes retrasos y fluctuaciones de retardo. Sin embargo, la situación está cambiando rápidamente. Se están utilizando ampliamente nuevos servicios, como la telefonía, el vídeo e Internet. Los nuevos servicios multimedia requieren grandes cantidades de ancho de banda y estrictas limitaciones de tiempo. Además, el crecimiento exponencial de los usuarios de Internet también provocará retrasos y congestión de la red más graves;

Si bien ampliar la capacidad de los nodos y enlaces de la red es parte de la solución, simplemente invertir en ancho de banda cuando ocurren problemas no es suficiente porque no se puede eliminar la congestión temporal y repentina de la red en Internet. La nueva generación de Internet debe ser capaz de proporcionar diferentes niveles de protección para determinadas aplicaciones y usuarios y lograr calidad de servicio (QoS) para las redes IP. Al mismo tiempo, combinado con la implementación de SLA (Acuerdo de Nivel de Servicio), los proveedores de servicios IP pueden realmente obtener ganancias brindándoles servicios diferenciados.

Modelo QoS IP

Actualmente, IETF ha definido muchos modelos y mecanismos para implementar QoS en IP. Los modelos principales son los siguientes:

1. Modelo de marcado de prioridad relativa [1]

El modelo de marcado relativo es el modelo de QoS más antiguo. El mecanismo consiste en establecer una prioridad relativa para su flujo de datos a través de la aplicación terminal o proxy y marcar el encabezado del paquete correspondiente, y luego el nodo de red lo reenviará de acuerdo con la etiqueta del encabezado del paquete. Este modelo es muy simple de implementar, pero es de grano grueso y carece de procesos avanzados de procesamiento de QoS (como comentarios, políticas y configuración), por lo que no puede lograr garantías de QoS detalladas y diversas. La tecnología actual que adopta este modelo es IPv4 primero (RFC791). Además, la prioridad Token Ring (IEEE 802.5) y la clase de tráfico Ethernet (802.1p) también utilizan esta arquitectura.

Dos. Modelo de servicio integrado (servicio interno) [2]

Su idea de diseño es definir una serie de características extendidas basadas en el modelo de servicio de mejor esfuerzo, que puede proporcionar QoS basado en aplicaciones para cada conexión de red, utilizando señalización El protocolo crea y mantiene el estado de un flujo específico en cada enrutador de la red para cumplir con los requisitos del servicio de red correspondiente.

El sistema puede distinguir y garantizar claramente la calidad del servicio de cada flujo comercial, proporcionando a la red la distinción de calidad del servicio más granular. Sin embargo, existe un problema en la implementación de la red central IP, porque la implementación de Inter-Serv requiere que cada nodo de la red proporcione una cantidad considerable de cálculo y procesamiento para cada flujo. Esto incluye señalización de extremo a extremo e información relacionada para diferenciar cada flujo, seguimiento, consumo de recursos informáticos, control de políticas y programación del tráfico empresarial. A medida que aumenta el número de flujos entre servidores, el procesamiento y almacenamiento de la señalización entre servidores consume rápidamente los recursos del enrutador y aumenta en gran medida la complejidad de la gestión de la red, por lo que la escalabilidad de este modelo es pobre. Actualmente, la tecnología que adopta este modelo es MPLS-TE (RSVP), y otras tecnologías típicas incluyen ATM y frame Relay.

Tres. Servicios Diferenciados)[3] 3]

En comparación con IntServ que actúa sobre cada flujo, en la arquitectura DiffServ los flujos de negocio se dividen en diferentes clases de servicios diferenciados (hasta 64 tipos). La clase de servicios diferenciados de un flujo de tráfico se indica mediante el punto de código de servicios diferenciados (DSCP) en su encabezado IP.

En una red DiffServ, cada enrutador reenviará paquetes según el campo DSCP, que es PHB (Per-Hop Behavior).

Aunque DiffServ no puede garantizar una calidad de servicio diferente para cada flujo de negocio. Sin embargo, debido al uso de la tecnología de clasificación de flujo empresarial, no es necesario utilizar protocolos de señalización en cada enrutador para establecer y mantener el estado del flujo, lo que ahorra recursos del enrutador y, por lo tanto, la escalabilidad de la red es mucho mayor. Además, mediante el mapeo de etiquetas DSCP y MPLS y el campo EXP en el encabezado de la etiqueta, la tecnología DiffServ se puede utilizar no solo en redes IP puras, sino también en redes MPLS que utilizan tecnología de conmutación de etiquetas multiprotocolo.

La arquitectura principal de DiffServ se divide en dos capas: capa de borde y capa central.

La capa de borde completa las siguientes tareas:

-Identificación y filtrado del tráfico: cuando el tráfico del usuario ingresa a la red, el dispositivo de la capa de borde primero identificará el tráfico de acuerdo con reglas predefinidas y lo filtrará. eliminar el tráfico ilegal y luego asignar el tráfico a diferentes niveles de servicio según la información contenida en el paquete de datos (como dirección de origen/destino, número de puerto, DSCP, etc.).

-Política y configuración de tráfico: cuando el tráfico del usuario se asigna a diferentes niveles de servicio, el dispositivo de capa perimetral dará forma al tráfico de acuerdo con los parámetros de QoS en el SLA firmado con el usuario, como CIR (Committed Velocidad de información), PIR (Velocidad máxima de información) para garantizar que el tráfico que ingresa a la red no exceda el rango establecido en el SLA.

-Observación del tráfico: el dispositivo de capa perimetral establecerá una marca de nivel de servicio en su paquete de acuerdo con su nivel de servicio, como el campo DSCP en el encabezado IP o el campo EXP en el encabezado MPLS, por lo que que la identificación y procesamiento del dispositivo de capa central.

En comparación con la capa marginal, el trabajo que debe realizar la capa central es mucho más sencillo. El equipo de capa central identifica principalmente los campos de QoS relevantes en el paquete de datos de acuerdo con la política de QoS preestablecida y realiza el procesamiento de QoS correspondiente. A través de esta estructura en capas, se forma una arquitectura de red QoS de "borde inteligente + núcleo simple", que no solo mejora la escalabilidad de la red, sino que también mejora en gran medida la flexibilidad del procesamiento de QoS.

Los equipos de red IP implementan servicios diferenciados

Debido a la flexibilidad y escalabilidad de DiffServ, casi todos los equipos de red IP actualmente soportan la arquitectura DiffServ.

El soporte de la arquitectura DiffServ en equipos de red generalmente requiere las siguientes funciones:

-Diferenciación de tráfico de múltiples condiciones

La diferenciación de tráfico de múltiples condiciones se refiere a la diferenciación del tráfico de múltiples condiciones. recibido Se utiliza información de condición diferente y reglas de diferenciación predefinidas contenidas en el tráfico del cliente para clasificar el nivel de reenvío del tráfico. El formato de las reglas de diferenciación es similar a una lista de control de acceso (ACL) y cada regla contiene diferentes condiciones coincidentes y niveles de reenvío correspondientes. Cuando el tráfico de clientes cumple las condiciones coincidentes de las reglas de diferenciación, el tráfico se clasifica en el nivel de reenvío correspondiente. Las condiciones coincidentes mencionadas aquí pueden ser puertos físicos, VLAN, varios campos de IP o varios campos de MAC.

-Etiquetado de tráfico y mapeo de clases de reenvío.

El tráfico diferenciado por reglas de diferenciación se asignará a diferentes niveles de reenvío. DiffServ define varios niveles de reenvío estándar:

-Clase de reenvío acelerado.

El nivel de reenvío acelerado tiene la prioridad de reenvío más alta. El dispositivo debe garantizar que el tráfico de otros niveles de reenvío no pueda afectar el retraso y la fluctuación del tráfico del nivel de reenvío acelerado. Por lo tanto, a menudo se utiliza el nivel de reenvío acelerado. para el tráfico de control de red y el tráfico sensible a la fluctuación, como VOIP.

-Nivel de reenvío garantizado.

El nivel de reenvío garantizado es muy similar a la QoS de Frame Relay. Frame Relay proporciona configuraciones de parámetros para PIR (velocidad máxima de información) y CIR (velocidad de información comprometida) para el tráfico empresarial. Cuando el caudal del cliente es menor que el CIR, se marca como "engranaje interior"; cuando el caudal del cliente supera el CIR, se marca como "engranaje exterior". Con esta distinción, cuando se produce congestión en la red, el tráfico que "fuera del contorno" se eliminará antes que el tráfico que "se ajuste al contorno".

-Categoría de entrega de mejor esfuerzo.

El mejor esfuerzo es el nivel de reenvío de menor prioridad. El tráfico con nivel de reenvío de mejor esfuerzo se procesará solo cuando se reenvíe el tráfico con nivel de reenvío acelerado y nivel de reenvío garantizado.

Cuando se determina el nivel de reenvío del tráfico, el dispositivo marcará el tráfico en consecuencia para que los dispositivos de red descendentes puedan identificar y procesar el tráfico de la misma manera e implementar una política de QoS unificada.

Los campos de marca definidos en el estándar DiffServ son el campo DSCP en el encabezado IP y el campo EXP en el encabezado MPLS.

-Colas y programación

El procesamiento de reenvío de cada nivel de DiffServ se implementa mediante colas y programación. La cola es un concepto lógico. En realidad, es un caché en la memoria de alta velocidad del dispositivo y sigue la regla de "primero en entrar, primero en salir". A menudo hay varias colas en el sistema, por lo que para múltiples niveles de reenvío, cuando se determina que un paquete tiene un determinado nivel de reenvío, se almacenará en la cola correspondiente y luego el sistema lo procesará de acuerdo con diferentes niveles de reenvío y diferentes. Configure los parámetros (PIR, CIR) para programarlo. Los diferentes niveles de reenvío a menudo utilizan diferentes algoritmos de programación, como la programación de "prioridad estricta" del nivel de reenvío acelerado, es decir, los paquetes de datos en la cola del nivel de reenvío acelerado siempre se programan primero para garantizar su máxima prioridad. Para el nivel de reenvío garantizado, se utiliza un algoritmo de programación recursivo ponderado, que primero programa todo el tráfico "dentro del contorno" y luego programa todo el tráfico "fuera del contorno" para garantizar que cada cola de nivel de reenvío garantizado pueda programarse de acuerdo con su CIR y PIR.

-Control de Congestión

Cuando el buffer de la cola está lleno, el sistema se congestionará. En este momento, se descartará una gran cantidad de paquetes de datos recién recibidos hasta que la fuente de datos detecte la pérdida de paquetes a través del mecanismo de control de flujo de TCP (protocolo de ventana deslizante), reduzca la velocidad de envío, eliminando así la congestión y reinicie el reenvío. Sin embargo, a medida que aumenta la velocidad de la fuente de datos, se producirá congestión y descarte en el sistema, lo que tendrá un gran impacto en el rendimiento general de la red. Por lo tanto, los mecanismos de control de congestión a menudo se introducen en la arquitectura DiffServ y los algoritmos comúnmente utilizados incluyen RED y WRED. El llamado RED se refiere al algoritmo de detección temprana aleatoria, que reduce la velocidad de transmisión del remitente TCP al descartar aleatoriamente algunos paquetes de datos antes de que se produzca la congestión. La probabilidad de pérdida de paquetes aumenta a medida que se ocupa el búfer de la cola, evitando así grandes cantidades de pérdida de paquetes.

- Servicios diferenciados MPLS

Con la aplicación generalizada de la tecnología MPLS, el grupo de trabajo MPLS del IETF ha definido dos métodos para mapear la capa DiffServ de IP a MPLS LSP:

-Proveedor de servicios de logística electrónica

Es relativamente sencillo utilizar el campo EXP en el encabezado MPLS para asignar niveles de IP DiffServ, pero dado que el campo EXP tiene solo 3 bits de largo, solo puede representar 8 niveles.

L-LSP

Este método no solo utiliza el campo EXP, sino que también utiliza etiquetas MPLS para el mapeo, lo que amplía enormemente la cantidad de niveles que se pueden representar, pero la desventaja es que consume una gran cantidad de recursos limitados de etiquetas MPLS.

Vale la pena mencionar que otra forma de admitir QoS en la tecnología MPLS es utilizar tecnología de ingeniería de tráfico, concretamente RSVP-TE. Durante el proceso de establecimiento de un LSP, RSVP-TE puede reservar ancho de banda en los nodos a lo largo del camino. Como arquitectura entre servicios, esta tecnología se utiliza a menudo junto con la arquitectura DiffServ para proporcionar ancho de banda de enlace troncal para servicios.

A medida que más y más servicios multimedia se ejecutan en redes IP, se plantean requisitos de QoS más altos para las redes IP, mientras que los enrutadores o conmutadores IP tradicionales solo pueden proporcionar servicios de conexión simples. Aunque la mayoría de ellos también admiten la arquitectura DiffServ, están limitados por la arquitectura y la tecnología de hardware tradicionales y no pueden proporcionar un soporte de nivel de servicio diferenciado completo. Por ejemplo, muchos dispositivos tradicionales solo admiten unas pocas colas en cada puerto físico, lo que no puede satisfacer las necesidades del desarrollo empresarial a gran escala; activar la función DiffServ en algunos dispositivos afectará en gran medida el rendimiento de reenvío del sistema y solo en algunos dispositivos; admiten limitaciones de tráfico simple, no se admiten niveles de reenvío o, incluso si se admiten niveles de reenvío, el ancho de banda disponible no se puede asignar de manera flexible entre diferentes niveles de reenvío. Las limitaciones de estos dispositivos han restringido en gran medida el desarrollo de varios nuevos servicios IP.

Por ello, Alcatel Shanghai Bell lanzó una nueva generación de productos IP, incluido el enrutador de servicios IP 7750 SR y el conmutador de servicios Ethernet 7450 ESS. La diferencia esencial con respecto a los equipos tradicionales es que Alcatel 7750 SR y 7450 ESS están completamente diseñados para nuevos servicios IP/MPLS. Ambas líneas de productos cuentan con potentes y completos sistemas QoS basados ​​en servicios.

Tome el 7750 SR como ejemplo:

El 7750 SR admite políticas de QoS basadas en servicios. Se puede definir una política de Qos dedicada para cada instancia de servicio (como cada servicio VPN) en el 7750 SR (Múltiples. usuarios/servicios conectados al mismo puerto físico), cada tráfico de aplicación de cada usuario puede recibir una forma independiente de entrada y salida. Cada tráfico de aplicación puede obtener su propio espacio de cola de búfer independiente, y cada cola independiente puede configurarse. Parámetros de configuración de tráfico independientes, como. como CIR, PIR, MBS, CBS, etc. y admite tecnología de programación Qos jerárquica líder en la industria. Cada tarjeta de línea del 7750 SR puede admitir 32 000 colas, una cifra mucho mayor que la de los equipos tradicionales. Los paquetes de unidifusión y los paquetes de multidifusión/difusión se pueden procesar en diferentes colas, lo que evita que los datos de difusión o multidifusión ocupen los recursos de los datos de unidifusión. Además, para los flujos de datos de los clientes, el procesamiento de Qos se puede realizar no sólo en la entrada, sino también en la salida, lo que mejora en gran medida la flexibilidad de la política de Qos.

El sistema Qos del 7750 SR consta principalmente de tres partes: clasificación del tráfico, gestión de caché y programación del tráfico.

1. Según políticas de clasificación predefinidas, el tráfico de usuarios se divide en diferentes niveles de servicio. 7750 SR admite políticas de clasificación potentes y flexibles, que pueden clasificar el tráfico de usuarios en función de la siguiente información:

IP ACL: dirección/rango IP de origen/destino, puerto/rango de origen/destino, fragmento de IP, tipo de protocolo , prioridad IP, DSCP

MAC ACL: 802.1p, dirección/máscara MAC Src/Dest, valor de tipo Ethernet, valor/máscara SSAP/DSAP/SNAP 802.2 LLC

MPLS: E -LSP (salida)

2. A cada nivel de servicio se le asigna una cola especial y cada cola tiene los parámetros Qos configurables correspondientes.

CIR (tasa de información de confirmación): cuando la tasa de retirada de una cola es menor que el CIR, el tráfico de la cola se marca como "dentro del perfil". Si la tasa de retirada de la cola excede el CIR, se marca. como "dentro del perfil". El tráfico dentro del contorno se programará antes que el tráfico fuera del contorno al mismo nivel.

PIR (Velocidad máxima de información): cuando la velocidad de eliminación de una cola excede el PIR, el sistema dejará de programar paquetes para la cola.

3. Las colas se asignan desde el grupo de caché en cada tarjeta de línea y cada cola tiene dos parámetros configurables con respecto a la asignación de caché.

CBS: Longitud de cola garantizada. Una vez que la longitud de la cola excede CBS, el sistema no puede garantizar que los datagramas solicitados se puedan distribuir al caché.

MBS: El valor de MBS es la longitud máxima de la cola. Cuando la longitud de la cola excede MBS, los paquetes recién ingresados ​​se descartarán. Este valor sirve para evitar que una cola se elimine más rápido que el PIR durante mucho tiempo y no se pueda programar, lo que provoca que la longitud de la cola siga creciendo y, finalmente, consuma los recursos de caché de otros paquetes.

4. El programador controla la programación de eliminación de colas.

El 7750 SR admite la tecnología de programación de colas jerárquicas más avanzada de la industria. No solo puede controlar el ancho de banda total de uno o varios servicios, sino que también puede subdividir aún más el ancho de banda de cada servicio según el control. el ancho de banda total. Qos realmente logra una garantía SLA potente y flexible. La programación jerárquica configura programadores lógicos de varios niveles. El programador de capa superior controla el ancho de banda total de un grupo de programadores de capa inferior. El programador de capa superior puede asignar razonablemente el CIR y PIR del programador de capa inferior de acuerdo con el nivel. y peso del programador de capa inferior. La aplicación real es la siguiente:

El usuario firmó un SLA con el operador, con un ancho de banda total de 10 M, incluidos tres tipos de tráfico, a saber, voz: CIR = PIR = 2 m, video PIR = CIR = 2M e Internet CIR = 0, PIR = 10 m. Si no se utiliza la programación jerárquica, en este caso, cuando los tres tipos de tráfico alcanzan repentinamente el máximo, el ancho de banda real consumido es 2+2+10=14M, lo que Consume excesivamente los recursos de red del operador. Si se utiliza la programación jerárquica, podemos configurar un programador de dos niveles en el enrutador.

La primera capa es responsable de la garantía de QoS independiente de cada flujo de servicio. El programador de la segunda capa controla los tres flujos de servicio para que no excedan los 10 M en ningún momento. Cuando no hay tráfico de voz y solo 2 M de tráfico de video, el tráfico de Internet puede explotar. 8M Esto no solo garantiza de forma independiente la calidad del servicio de cada empresa, sino que también asegura el ancho de banda total de 10M.

Conclusión

Con la expansión de la escala de Internet y la rica variedad de servicios de valor agregado, la garantía de QoS de la nueva Internet IP mostrará cada vez más su importancia estratégica y económica. significado. Creemos que el 7750 SR y el 7450 ESS diseñados por Alcatel Shanghai Bell para empresas pueden ayudar a los operadores a construir una nueva generación de redes IP rentables.

Referencias

[1] Almquist, p., "Service Types in the Internet Protocol Suite", RFC 1349, julio de 1992.

[2] R. Braden, D. Clark y S. Shenker, "Servicios integrados en la arquitectura de Internet: descripción general", RFC 1633, julio de 1994.

[3] S. Blake, D. Black, M. Carlson, E. Davies, Z. Wang, Arquitectura de servicios diferenciados, RFC2475, diciembre de 1998