Red de conocimientos sobre prescripción popular - Colección de remedios caseros - ¿Cuál es el nivel de servicio Qos de acceso de banda ancha?

¿Cuál es el nivel de servicio Qos de acceso de banda ancha?

En las redes IP, hay tres formas de transportar etiquetas de prioridad QoS en paquetes IPv4, que son prioridad basada en el campo CoS de la capa 2 (IEEE802.1p) y prioridad IP basada en el campo de capa IP. Prioridad ToS y prioridad de campo DSCP (punto de código de servicios diferenciados) basado en capa IP. La definición de cada prioridad es la siguiente:

(1) Prioridad IEEE802.1p

Es el campo CoS de la trama Ethernet etiquetada de capa 2, junto con el ID de VLAN utilizado. la posición en los bytes es la siguiente:

Entre ellos: Prioridad IEEE802.1p: 3 bits (P2-P0)

No utilizados (CU): 1 bit

ID de VLAN: 12 bits (V11-V0)

Hay 8 valores de prioridad IEEE802.1p (0-7), 0 tiene la prioridad más baja y 7 tiene la prioridad más alta. Los mensajes se dividen en tres situaciones: mensajes etiquetados con prioridad e ID de VLAN, el valor de prioridad es el valor que lleva él mismo los mensajes etiquetados con solo prioridad, en este momento el ID de VLAN es 0 y el valor de prioridad es El valor que lleva; para paquetes sin etiquetar, el valor de prioridad predeterminado es generalmente 0, pero también se puede cambiar para especificar una nueva prioridad.

(2) Prioridad IP

Consta de 3 bits en el byte Tipo de Servicio (ToS) en el encabezado del paquete IP, y su posición en el byte es la siguiente:

P2 P1 P0 T3 T2 T1 T0 CU

Entre ellos: Prioridad IP: 3 bits (P2-P0)

Tipo de servicio (ToS): 4 bits (T3- T0)

Sin usar (CU): 1 bit

Hay 8 valores de prioridad IP (0-7), 0 tiene la prioridad más baja y 7 tiene la prioridad más alta. De forma predeterminada, las prioridades IP 6 y 7 se utilizan para las comunicaciones de control de red y no se recomiendan para los usuarios. El tipo de servicio en el campo ToS no se usa ampliamente en las redes IP existentes.

(3) Prioridad DSCP

Consta de 6 bits en el encabezado del paquete IP, utilizando el byte ToS, por lo que después de usar DSCP, este byte también se denomina byte DSCP. Su posición en los bytes es la siguiente:

DS5 DS4 DS3 DS2 DS1 DS0 CU CU

Entre ellos: Prioridad DSCP: 6bit (DS5-DS0)

Sin usar (CU): 2 bits

Hay 64 valores de prioridad DSCP (0-63), 0 tiene la prioridad más baja y 63 tiene la prioridad más alta. De hecho, el campo DSCP es un superconjunto del campo de prioridad de IP y la definición del campo DSCP es compatible con versiones anteriores del campo de prioridad de IP. El DSCP actualmente definido incluye el DSCP predeterminado con un valor de 0; el selector de clase DSCP, que se define como compatible con versiones anteriores de la prioridad IP y tiene un valor de (8, 16, 24, 32, 40, 48, 56); reenvío acelerado (EF), generalmente utilizado para servicios de baja latencia, el valor recomendado es 46 (101110 el reenvío determinado (AF) define 4 niveles de servicio, cada nivel de servicio tiene 3 procesos de degradación, por lo que se utilizan 12 valores DSCP ( (10, 12, 14), (18, 20, 22), (26, 28, 30), (34, 36, 38)).

Dado que hay tres prioridades, existen 6 relaciones de mapeo de prioridades correspondientes, a saber: Dot1p-DSCP, DSCP-Dot1p, IP Pri-DSCP, DSCP-IP Pri, Dot1p-IP Pri e IP Pri-Dot1p. , las más utilizadas son las relaciones de mapeo Dot1p-DSCP y DSCP-Dot1p.

En las redes IP, IPv6 proporciona ciertas estrategias de control de QoS. El encabezado del paquete IPv6 define un área de prioridad de 4 bits que puede indicar 16 niveles de prioridad, similar al byte ToS de la plataforma IPv4. Nueve de los 16 niveles de prioridad se utilizan para servicios de transmisión en tiempo no real y los ocho restantes se utilizan para servicios de transmisión en tiempo real. Sin embargo, el protocolo no estipula estrictamente cómo los enrutadores IPv6 deben utilizar esta área de prioridad.

En las redes IP futuras, las etiquetas de prioridad no son la única forma en que IPv6 identifica la QoS de los paquetes. El encabezado del paquete IPv6 también incluye una etiqueta de flujo de información de 24 bits. El programa puede configurar esta etiqueta para indicar que un determinado grupo de paquetes de datos pertenece a un flujo de información IP específico. De esta forma, el dispositivo no necesita comprobar la dirección, puerto u otra información para clasificar el paquete de datos. Sin embargo, la etiqueta del flujo de información no especifica cómo se proporciona la QoS, por lo que aún es necesario utilizar RSVP y otros protocolos de reserva.

3 Selección de modelos de servicio QoS en redes IP

Basado en la arquitectura de red IP QoS, IETF ha recomendado muchos modelos y mecanismos de servicio para cumplir con los requisitos de QoS. Entre los más famosos se encuentran: modelo de servicio integrado IntServ (Servicio Integrado), modelo de servicio diferenciado DiffServ (Servicio Diferenciado), conmutación de etiquetas multiprotocolo MPLS, ingeniería de tráfico TE (Ingeniería de Tráfico) y enrutamiento restringido, etc.

En la actualidad, los principales modelos de servicio de QoS IP se describen a continuación:

(1) Modelo de servicio Best-Effort

Best-Effort Con un único modelo de servicio, la red hace todo lo posible para enviar mensajes sin ofrecer ninguna garantía de rendimiento, como latencia y confiabilidad. Este modelo es el primer modelo de servicio sin garantía de QoS, que también está determinada por las características más básicas de las redes IP.

(2) Modelo integral de servicios comerciales de IntServ

La idea básica es que "toda la información de estado relacionada con el flujo debe estar en el sistema final", que se basa en cada flujo (único o es convergente) para proporcionar servicios de carga controlados o garantizados de extremo a extremo. IntServ utiliza el Protocolo de reserva de recursos (RSVP) como señalización para cada flujo. La información de RSVP abarca toda la red y cada enrutador en el camino desde el receptor hasta el remitente debe reservar recursos para cada flujo de datos que requiera QoS.

En el flujo de IntServ se definen tres tipos de servicios: servicios garantizados, servicios de carga controlada y servicios de mejor esfuerzo. Al mismo tiempo, IntServ define cuatro componentes funcionales: Protocolo de reserva de recursos RSVP (RFC2205), control de acceso, clasificador y programador de colas.

Las ventajas de este modelo son: puede proporcionar una calidad de servicio QoS de extremo a extremo absolutamente garantizada; RSVP puede utilizar protocolos de enrutamiento existentes entre el origen y el destino para determinar la ruta de flujo que este modelo permite QoS; Se puede implementar tanto en Unicast como en Multicast.

Las deficiencias de este modelo son: el problema más fatal de la estructura IntServ es su escasa escalabilidad, porque todos los enrutadores deben implementar RSVP y control de acceso, y sus requisitos para el enrutador también son muy altos. para transmisiones de corta duración.

(3) Modelo de servicio empresarial diferenciado de DiffServ

La idea básica es: marcar cada paquete en la entrada de la red para generar diferentes niveles, y los paquetes en cada nivel reciben diferentes niveles de servicios. Este modelo se desarrolló a partir de IntServ, que adopta el estándar de clasificación de servicios basado en RSVP del IETF y abandona la reserva de recursos en los nodos a lo largo del flujo de paquetes. Los servicios empresariales diferenciados reemplazarán efectivamente el uso de RSVP en grandes áreas.

Los principales integrantes del área de servicios diferenciados son: enrutador central, enrutador de borde y controlador de recursos. En los servicios diferenciados, el dispositivo de borde de la red clasifica cada paquete, marca el campo DS y utiliza el campo DS para transportar la información de requisitos de servicio del paquete IP. En el nodo central de la red, el enrutador selecciona el procesamiento de reenvío correspondiente al punto de código en función del punto de código DS (Punto de código) en el encabezado del paquete. El controlador de recursos está configurado con reglas de administración para asignar recursos a los clientes. Puede coordinarse con los clientes a través de acuerdos de nivel de servicio (SLA) para compartir el ancho de banda especificado.

DiffServ también define tres tipos de servicio: servicio óptimo, servicio jerárquico y servicio de mejor esfuerzo. DiffServ proporciona una forma sencilla de clasificar varios servicios.

El estándar actual PHB (Per-hop Behavior) de comportamiento de un solo salto estipula los dos niveles de servicio más representativos:

Reenvío rápido EF (Reenvío acelerado): hay un punto de código separado (valor DiffServ). EF puede minimizar los retrasos y las fluctuaciones, proporcionando así el más alto nivel de calidad general del servicio. Se elimina cualquier negocio que exceda el alcance del servicio (determinado por la política de servicio local).

Reenvío garantizado AF (Assured Forwarding): Hay cuatro niveles, cada nivel tiene tres procesos de descenso (un total de 12 puntos de código). Los servicios más allá del rango AF no se transmitirán con la mayor probabilidad posible como los servicios dentro del "rango de servicio". Esto significa que el volumen de negocio puede disminuir, pero no está garantizado.

Las ventajas de este modelo son: buena escalabilidad, el campo DS solo especifica un número limitado de niveles de negocio, la cantidad de información de estado es proporcional al nivel de negocio, no al número de flujos, es fácil; implementar, solo en la red. Se requieren operaciones complejas de clasificación, etiquetado, control y configuración solo en los límites. El enrutador central solo necesita implementar la clasificación de agregación de comportamiento (BA), por lo que es más fácil implementar e implementar servicios diferenciados.

La desventaja de este modelo es que no puede confiar completamente en sí mismo para proporcionar servicios QoS de extremo a extremo. Se requieren acciones coordinadas de una gran cantidad de unidades de red para brindar calidad de servicio de extremo a extremo a los usuarios. Hay dos formas de resolver este problema: una es utilizar un potente administrador de políticas global para completar esta tarea y la otra es utilizar MPLS para convertir la QoS de la tercera capa en la QoS de la segunda capa a través de la red operativa. para lograr el aseguramiento de la calidad del servicio de extremo a extremo.

(4) Modelo de servicio MPLS

La idea básica es: MPLS es una estrategia de reenvío. Al ingresar al alcance de MPLS, se le asigna una determinada etiqueta al paquete y luego se le asigna una determinada etiqueta. El paquete está clasificado, el reenvío y el servicio se realizarán en función de las etiquetas. MPLS utiliza las ideas principales y las ventajas de las tecnologías existentes en el modelo IntServ para formular un estándar de tecnología de conmutación de tercera capa unificado y completo. MPLS especifica un conjunto completo de protocolos y procedimientos operativos para lograr una conmutación rápida dentro de la red IP. El concepto clave en MPLS es utilizar etiquetas para identificar y marcar paquetes IP y reenviar los paquetes etiquetados a conmutadores o enrutadores actualizados y mejorados, que continuarán intercambiando etiquetas y reenviando paquetes dentro de la red.

Hay dos formas de implementar la señalización en MPLS. Una es LDP/CR-LDP, que se basa en la red ATM. El otro tipo es RSVP, que se basa en la red IP tradicional. RSVP y LDP/CR-LDP son dos protocolos diferentes. Tienen diferentes características de protocolo, diferentes conjuntos de mensajes y procedimientos de procesamiento de señalización.

La red MPLS consta de Label Edge Router (LER) y Label Switching Router (LSR). Dentro del LSR, el módulo de control MPLS se centra en la función IP y el módulo de reenvío se basa en el algoritmo de conmutación de etiquetas y completa el envío de información de etiquetas y señalización relacionada entre nodos a través del Protocolo de distribución de etiquetas (LDP).

La ventaja del modelo de servicio MPLS es que MPLS tiene funciones que no se pueden lograr con la tecnología IP tradicional y puede combinar bien ATM e IP; la desventaja es que las etiquetas especificadas por el protocolo MPLS solo tienen significado local; , y los comandos de información LDP y la información de vinculación de etiquetas solo se pueden transferir entre nodos MPLS adyacentes. Aún es necesario ejecutar protocolos de enrutamiento estándar entre LSR o entre LSR y LER para obtener información de topología.

Otros modelos de servicio: la ingeniería de tráfico es un proceso de organizar cómo el tráfico de comunicación pasa a través de la red; el enrutamiento restringido estará sujeto a ciertas restricciones al buscar rutas, como el ancho de banda o los requisitos de retraso.

A través del análisis anterior de varios modelos importantes de servicios de QoS, se debe considerar lo siguiente al implementar mecanismos de servicios de QoS en redes IP operables de nivel de operador:

(1) Núcleo/QoS de redes backbone

Actualmente, debido al desarrollo de tecnologías como DWDM, el ancho de banda de las redes core/backbone ha aumentado significativamente. El crecimiento del ancho de banda reduce la presión sobre la calidad del servicio QoS. Sin embargo, con el aumento del tráfico de red, especialmente la incertidumbre de la ruta de las redes IP y el comportamiento repentino del tráfico, el tráfico de red se ha vuelto más repentino y desequilibrado. Por lo tanto, depender únicamente del ancho de banda no es suficiente para proporcionar una buena calidad de servicio QoS.

Hay dos formas de proporcionar calidad de servicio QoS en la red central/backbone: una es utilizar ingeniería de tráfico y la otra es implementar el modelo de servicio diferenciado DiffServ. En la actualidad, la implementación de la ingeniería de tráfico es generalmente estática y manual o semiestática, y faltan herramientas de ingeniería de tráfico dinámicas y en tiempo real. Por lo tanto, es difícil para la función de tráfico regular comportamientos inesperados a corto plazo. A largo plazo, los servicios diferenciados tienen capacidades de aprovisionamiento de QoS más completas y pueden desempeñar un papel más importante combinándolos con ingeniería de tráfico, MPLS y otros mecanismos.

(2) QoS de la red de agregación/acceso

Porque en la capa de agregación y la capa de acceso, por un lado, el ancho de banda de la red es pequeño, por otro lado, La situación de la red también es relativamente compleja e involucra una variedad de tecnologías de acceso, como Ethernet, ATM, FR, etc. Por lo tanto, la implementación de QoS de redes de agregación/acceso es una cuestión relativamente compleja.

Para implementar y lograr la calidad del servicio QoS de manera rápida, simple y efectiva, la idea de servicios diferenciados generalmente se usa para implementar QoS en este nivel de red de agregación/acceso, es decir, a través de la clasificación del tráfico y procesamiento prioritario. De hecho, varias tecnologías de red, incluidas Ethernet, ATM y MPLS, admiten capacidades de marcado de paquetes, lo que proporciona una base para la diferenciación y el marcado de paquetes. Los equipos de red, especialmente los equipos de acceso, generalmente brindan la capacidad de clasificar, marcar y limitar el tráfico. Por lo tanto, implementar un modelo de servicio diferenciado en la red de agregación/acceso es una solución factible y una tendencia de desarrollo inevitable.

4 Modelo de servicio DiffServ para implementar QoS en equipos de agregación/acceso

A través del análisis anterior, en una red IP de nivel operador operable, los equipos en el nivel de agregación/acceso Implementando el El modelo de servicio DiffServ en China es la solución más adecuada para implementar un mecanismo de servicio QoS completo.

Debido a la diversidad y complejidad de los dispositivos de nivel de agregación/acceso, al implementar el modelo de servicio QoS DiffServ, debe ser simple, efectivo y práctico. Por lo tanto, en referencia a la arquitectura de red QoS IP, primero se deben considerar las siguientes funciones QoS en el equipo de agregación/acceso: gestión del buffer del plano de datos, prevención de congestión, etiquetado de paquetes, colas y programación, clasificación del tráfico, política de tráfico y configuración del tráfico; gestión y gestión de políticas del plano de gestión, etc.

(1) Gestión de búfer (Buffer Managment)

El dispositivo de agregación/acceso debe tener búfer para enviar, recibir e intercambiar mensajes, y puede configurarlos y administrarlos. Realice el control de congestión de pares (HOL), la contrapresión y otras funciones de control.

(2) Evitar la congestión (Evitar la congestión)

La prevención de la congestión consiste en utilizar algunos algoritmos para descartar algunos mensajes en la cola de reenvío cuando hay muchos mensajes y, por lo tanto, excede la tasa de reenvío. evitando la aparición de congestión. Los algoritmos para evitar la congestión incluyen Tail-Drop, Detección temprana aleatoria (RED) y Detección temprana aleatoria ponderada (WRED). La compatibilidad con Tail-Drop y la detección temprana aleatoria ponderada (WRED) debe considerarse en primer lugar en los equipos de agregación/acceso.

(3) Marcado de paquetes (Packet Marking)

A través de los pasos anteriores, hemos aprendido que existen tres tipos de etiquetas de prioridad QoS transportadas en paquetes IP: Prioridad IEEE802.1p ( campo CoS), prioridad IP (campo ToS) y prioridad DSCP (campo DSCP). Por lo tanto, el equipo de agregación/acceso debe admitir las siguientes funciones:

Agregar varias etiquetas de prioridad nuevas a los paquetes sin etiquetas de prioridad en la entrada;

Para paquetes que llevan etiquetas de prioridad en la entrada pueden cambiar sus diversas etiquetas de prioridad y convertirse en nuevas etiquetas de prioridad;

Admite que los paquetes que llevan nuevas etiquetas de prioridad salgan de la salida;

Admite el mapeo entre varias prioridades de acuerdo con una determinada relación de mapeo, especialmente entre la prioridad IEEE802.1p y la prioridad DSCP.

(4) Colas y programación (Colas y programación)

Para lograr un mecanismo de servicio QoS más completo, admite VoIP, IPTV, videoconferencias y otros servicios. El dispositivo de agregación/acceso debe soportar múltiples mecanismos de cola y, en general, debe soportar al menos 4 colas.

Existen muchos algoritmos para la programación de colas. Los que son más adecuados para equipos de agregación/acceso son: programación de colas con prioridad estricta (PQ), programación de colas por turnos ponderada (WRR) y programación de colas justa ponderada (. WFQ). Al mismo tiempo, también se debe admitir la función de configurar el peso de la cola WRR y los parámetros WFQ.

(5) Clasificación del tráfico

Los equipos de agregación/acceso se encuentran en el borde de la red, por lo que clasificar los flujos de datos es una función muy importante. Al hacer coincidir los flujos de datos entrantes según ciertas reglas, se distinguen los flujos comerciales que requieren garantía de QoS. Los campos generalmente utilizados para las reglas de coincidencia deben ser:

eth-type: tipo de paquete Ethernet (IP/ARP/RARP)

ip-type: tipo de paquete ip (ICMP /IGMP/ TCP/UDP)

source-ip: coincidencia de dirección IP de origen

dest-ip: coincidencia de dirección IP de destino

source-mac: coincidencia de dirección MAC de origen

dest-mac: Coincidencia de la dirección MAC de destino

source-port: Coincidencia del puerto de origen

dest-port: Coincidencia del puerto de destino

cos: Coincidencia de prioridad CoS

dscp: Coincidencia de prioridad dscp

vlan: Coincidencia de VLAN

(6 ) Vigilancia de tráfico

El dispositivo de agregación/acceso debe soportar el procesamiento de flujos de servicios diferenciados de acuerdo con ciertas políticas. Es decir, se realiza un control de comportamiento sobre la clase de flujo de servicio después de pasar la clasificación del tráfico. Las acciones sobre el flujo en la política general incluyen: límite de velocidad en el flujo, cambio de etiqueta de prioridad, cambio de VLAN, descartando exceder la velocidad. o cambiar la prioridad, etc.

(7) Conformación del tráfico

En la entrada y salida del dispositivo de agregación/acceso, se debe admitir la conformación del tráfico de los flujos de datos y se puede establecer la granularidad de la conformación del tráfico. , logrando así almacenar en búfer y dar forma a los flujos de datos en ráfaga entrantes o salientes.

(8) Gestión de medición (Metering)

En el equipo de agregación/acceso, debe admitir la gestión de medición de tarifas de los flujos de servicio después de la clasificación del tráfico, para lograr el objetivo de medición precisa. y gestión de diversos servicios para garantizar la calidad del servicio QoS de diversos servicios.

(9) Gestión de políticas (Política)

En el dispositivo de agregación/acceso, debe admitir la gestión unificada de varias clasificaciones de tráfico, es decir, la gestión de políticas, para lograr la gestión general del dispositivo, la programación unificada de recursos y la coordinación unificada de varios flujos de negocios garantizan la aplicación racional de los recursos y la calidad del servicio QoS de varios negocios.

Materiales de referencia: /Events/ChinaDSLConference2005/pro/pro-3.htm