| Noticias | 14 MAY 2009

JavaScript dificulta el rendimiento de los servidores Web

Los desarrolladores deberían reducir la cantidad de JavaScript en sus páginas Web si desean incrementar su rendimiento. Así al menos lo cree un gurú de Internet.
Paula Bardera

De hecho, algunas páginas Web líderes, entre las que se encuentran nombres como Apple.com o la Wikipedia, consiguen bajos rendimientos y deberían ser revisados, explica Steve Souders, ingeniero jefe de rendimiento en Google.

Según este responsable, quien ha dado una conferencia en el TechEd de Microsoft, aunque los desarrolladores están al tanto de la necesidad de incrementar el rendimiento de sus webs, están tomando las medidas erróneas. Así, han reducido el número de peticiones al servidor web, han disminuido el tamaño de los archivos JPEG o han contratado a proveedores de redes como Akamai Technologies. Pero todas estas medidas tienen mínimos efectos en el rendimiento de los servidores.

“Solíamos separar el código Apache para calcular qué estaba haciendo Yahoo”, explica Souders, que anteriormente trabajaba en Yahoo.

Pero tras realizar un análisis detallado al respecto, Souders descubrió algo extraordinario: sólo el 10 por ciento del 20 por ciento del tiempo que les llevaba cargar una página web podría atribuirse al servidor web.

De hecho, según este responsable, el código culpable de ello solía ser JavaScript, no porque los archivos JavaScript en páginas Web sean especialmente grandes, sino por el modo en que los navegadores manejan este tipo de código. “La primera generación de navegadores web decidió hacer las cosas así porque tenían que ejecutar todos los archivos JavaScript en orden, además, para ejecutar uno debíamos paralizar el resto de descargas”.

Hace una década, ese modo de hacer las cosas tenía sentido, pero actualmente, en una era en la que los PC están equipados con CPU con dos e incluso con cuatro núcleos, no lo tiene. Además, el coste de los retrasos puede ser muy alto también.

Google ha descubierto unos retrasos de 500 milisegundos en un 20 por ciento del tráfico web, mientras que Amazon ha tenido unos retrasos de 100 milisegundos, lo que ha supuesto un descenso en las ventas del 1 por ciento.

Los nuevos y futuros navegadores web podrán descargarse archivos JavaScript y ejecutarlos al mismo tiempo. Internet Explorer 8, lanzado el mes pasado, cuenta con esta capacidad y también lo harán los futuros Firefox 3.5  y Chrome 2.0.

A menos que se realice una revisión de JavaScript, el empuje seguirá siendo pequeño. Para solucionarlo, Souders recomienda una herramienta gratuita creada por él mismo, llamada Yslow, que analiza y clasifica cómo ha sido diseñada una página web para conseguir la mayor velocidad. Originalmente fue diseñada para Internet Explorer  , Yslow 2.0 es un add-on para Firefox integrada con la herramienta de desarrollo web Firebug.

Utilizando Yslow, los usuarios pueden ver cómo se carga JavaScript al principio y cómo crea un cuello de botella. Los usuarios pueden entonces separar los archivos JavaScript, cargando sólo los que sean necesarios al principio y dejando el resto para el final, una vez que estén cargados los textos e imágenes.

Yslow analiza 22 criterios en total. Así, páginas Web tan populares como Apple.com, ESPN.com y Wikipedia, han recibido una “C” de Yslow, mientras que otras han estado peor clasificadas, con una “E”.

“Cuando lo veo, me siento como un profesor que tiene que repartir los exámenes con muy malas notas”. Los motores de búsqueda con mínimos contenidos en sus páginas, como Google y Live.com, están entre los pocos que han logrado una calificación “A” de Yslow.

Contenidos recomendados...

Comentar
Para comentar, es necesario iniciar sesión
Se muestran 0 comentarios
X

Uso de cookies

Esta web utiliza cookies técnicas, de personalización y análisis, propias y de terceros, para facilitarle la navegación de forma anónima y analizar estadísticas del uso de la web. Consideramos que si continúa navegando, acepta su uso. Obtener más información