| Artículos | 01 DIC 2007

Qos: calidad de servicio o cómo optimizar la capacidad de la red

Tags: Histórico
Juan Blázquez.
En el ancho de banda disponible se identifica normalmente la raíz de todos los problemas de congestión y lentitud de los programas y la única solución posible: incrementarlo. Pocos son los que se plantean si sus problemas de congestión son debidos realmente a un caudal insuficiente o podrían resolverse con una gestión eficaz de este preciado recurso.

Los modernos programas y servicios disponibles en red tienen unos requerimientos de ancho de banda elevados. Pero estas exigencias no justifican los problemas de lentitud y congestión que se producen con frecuencia, cuando, además, sobre el papel, en la mayoría de los casos, se dispone de un caudal más que suficiente para soportarlos en buenas condiciones. En multitud de escenarios, tanto en entornos de pequeño y gran tamaño, los problemas achacables al ancho de banda son consecuencia directa no de una insuficiente capacidad, si no por su gestión: bien porque no se aplica ninguna medida de control, bien porque las que se aplican no son las más adecuadas, bien porque resultan incompletas.
Para ajustar el ancho de banda disponible, se siguen actualmente dos criterios que se podrán considerar contrapuestos. Por un lado, sobredimensionar la capacidad de la red, lo que se conoce eufemísticamente como “sobreingenería de red”. Es decir, tratar de sobreponerse a la congestión aumentando la capacidad de los equipos de conexión de red, conmutadores y enrutadores, principalmente, y aumentar el caudal disponible. Suele ser el criterio más seguido, puesto que es el más sencillo e inmediato de implementar y sus resultados se perciben muy pronto por el usuario final. Sin embargo, cuando se aplica esta estrategia para solventar los problemas de congestión, sin hacer un análisis adecuado de cuáles son las verdaderas causas que la provocan, las complicaciones de fondo no desaparecen y la amenaza de congestión planea para presentarse de forma esporádica, para desesperación de los responsables de infraestructura y usuarios. Asimismo, si el aumento de capacidad sólo tiene en cuenta las necesidades del momento, a poco que se incremente la explotación de los servicios, como puede ocurrir si se da la implantación de nuevas aplicaciones, la actividad de la organización crece o se incorporan nuevos usuarios, se vuelve a la situación anterior.
La alternativa a la “sobreingenería de red” está en aplicar medidas de gestión que permitan controlar cómo se utilizan los recursos disponibles, tanto en el ámbito LAN como en WAN. La medida más utilizada para tratar de paliar los problemas derivados de un tráfico denso es la segmentación. Una compartimentación que puede ser física, estableciendo subredes físicamente independientes que aíslen las distintas clases de tráfico. O lógica, estableciendo distintos “canales” lógicos sobre una misma infraestructura de red física, lo que se denomina Redes Virtuales, VLAN. Divisiones ambas, que se suelen hacer según criterios funcionales o de ubicación, según el trabajo de los usuarios, desempeño de los equipos o donde se encuentren situados. Esta vertebración de la red se complementa con el control de acceso a los servicios y contenidos a los que pueden acceder los usuarios, para limitar el tráfico que los usuarios pueden introducir en la red. Ambas medidas alivian los problemas de congestión, pero no los elimina. Complican la topología de conectividad, obligan a un mayor esfuerzo de administración y provocan continuos conflictos sobre las competencias e intereses profesionales de los usuarios y de la propia compañía.
Cuando se trata de gestionar los recursos de red, la forma más completa y eficaz se consigue aplicando técnicas de Calidad de Servicio, QoS, Quality of Service, sus siglas en inglés. En términos de conectividad, Calidad de Servicio se refiere a la capacidad de una determinada red de distribuir el ancho de banda disponible entre los distintos servicios que operan sobre ella, para que se produzcan según unas determinadas condiciones.
No obstante, nadie debe confundirse y pensar que aplicar medidas de gestión de red es, por sí misma, la solución perfecta. Lógicamente, los servicios disponibles en una red necesitan de un ancho de banda adecuado para que se desenvuelvan correctamente. Si no se dispone de los recursos necesarios, implementar QoS, conseguirá que la red funcione en mejores condiciones, pero no acabará con los problemas de congestión que puedan existir. No hay que olvidar que la filosofía de la Calidad de Servicio es hacer la mejor distribución de los recursos disponibles, no proporciona mayor capacidad a la red.
Las posibilidades de distribución del ancho de banda mediante Calidad de Servicio proporcionan un medio de optimización de la red muy interesante. Para cualquier organización, QoS representa la oportunidad para poder priorizar el tráfico y evitar que servicios críticos como CRM o ERP se vean afectados por otras aplicaciones insustanciales para su actividad. Las conexiones con oficinas o agentes remotos pueden tener garantizado un mínimo caudal que las hagan más eficaces para acceder a las aplicaciones de la compañía sin recurrir a complejas soluciones. Y una adecuada asignación del ancho de banda también permite plantear nuevos servicios que, sin gestión, no resultaban viables. Aquellas otras empresas que ofrecen servicios de hosting y aplicaciones en servidor, Terminal Server, tienen en QoS un excelente medio para proporcionar cuotas de ancho de banda a sus clientes y tarificar según necesidades, con oportunidades reales de garantizar dicho caudal y ofrecer así servicios a la medida de cualquier cliente. El usuario doméstico en más de una ocasión habrá visto complicada su navegación web, cuando mantiene activas conexiones P2P para el intercambio de archivos voluminosos, que podría solucionar dando preferencia a su navegador sobre el intercambio de archivos, mediante QoS.

Necesidad de QoS
QoS surge como respuesta a las evidentes carencias que la transmisión IP tiene para asumir en óptimas condiciones las exigencias de conexión que presentan las aplicaciones actuales y las que están en ciernes. Un problema acrecentado por la amalgama de infraestructuras autogestionadas que es internet. El modelo de servicio con el que surgió IP, basado en el “mejor esfuerzo”, es adecuado para las aplicaciones orientadas a datos que surgieron en paralelo al desarrollo de este modelo de conexionado. Web, FTP e, incluso, el correo electrónico, son servicios tolerantes a los retardos que sufren los paquetes, consecuencia de los distintos caminos, mejor ruta, que puede seguir la secuencia de paquetes para alcanzar su destino. Un modo de funcionamiento clave en el éxito del despegue de internet, puesto que el tráfico que genera este tipo de aplicaciones es muy flexible para adaptarse a las condiciones de red de cada momento, no dejan de funcionar aún cuando en el recorrido existan puntos muy congestionados. Por otro lado, aunque estas aplicaciones son muy sensibles a la pérdida de paquetes, la fiabilidad de la conexión entre los extremos queda resuelta con TCP, que proporciona las funciones de control y retransmisión que no implementa IP.
No ocurre lo mismo con otro tipo de aplicaciones como aquellas que tratan multimedia, voz o servicios interactivos, que, por el contrario, son tolerantes a la pérdida de paquetes, pero dejan de funcionar correctamente si se produce retardo en los pa

Contenidos recomendados...

Comentar
Para comentar, es necesario iniciar sesión
Se muestran 0 comentarios
X

Uso de cookies

Esta web utiliza cookies técnicas, de personalización y análisis, propias y de terceros, para facilitarle la navegación de forma anónima y analizar estadísticas del uso de la web. Consideramos que si continúa navegando, acepta su uso. Obtener más información