Aunque las conexiones ADSL y de cablemódem continúan aumentando, la actividad y la experiencia de los usuarios en Internet será cada vez más móvil, al poder los ordenadores portátiles, dispositivos de mano y teléfonos móviles conectarse desde prácticamente cualquier parte.

La mayoría de los usuarios deberán elegir entre rapidez y disponibilidad, afirma Adam Zawel, analista de Yankee Group. Por ejemplo, ¿conviene más comunicarse a través de una conexión de bajo ancho de banda pero de amplia difusión, o será mejor buscar un hot-spot Wi-Fi y conectarse a velocidades de banda ancha? “Lo ideal sería disponer de ambas opciones, para poder conectarse a la red más rápida disponible,” dice Zawell.

A corto plazo, dominarán las redes de área local con el estándar 802.11 (o Wi-Fi). Las redes LAN Wi-Fi alcanzan con facilidad la velocidad necesaria para funcionar con cable o línea ADSL. Según la Alianza Wi-FI, la cantidad de dispositivos con capacidad 802.11 aumentará de unos 25 millones en 2003 a 60 millones en 2007; y los puntos Wi-Fi de acceso público o “hot spots” pasarán de unos 30.000 a casi 150.000, según In-stat/MDR.

Pronto será posible disfrutar de conexiones de alta velocidad mientras uno se mueve a altas velocidades; NEC ha realizado recientemente demostraciones de una tecnología que permitió a un usuario en pruebas cambiar sin interrupción de una red 802.11 a otra en un Porsche viajando a 370 kilómetros por hora.

A partir de 2005, comenzarán a aparecer las redes WiMAX basadas en la especificación 802.6a (ver cuadro Comunicación inalámbrica WiMAX). “Consideramos a 802.16a como una especie de solución mágica, que ofrece toda la gama de una red de área local con el alto rendimiento global de una red Wi-FI,” dice Clint Wheelock, director de investigaciones inalámbricas de In-stat/MDR, y añade que “será especialmente buena para áreas a las que no pueda llegar el cable-módem o ADSL. Pero no es todavía un mercado real.”

¿Llegará por fin la 3G?

Mientras 802.11 continúa explosionando, se observará un crecimiento gradual del acceso inalámbrico a Internet a través de la red celular. Después de dos años de arranques en falso, la transición a redes de datos de tercera generación (3G) podría estar finalmente en camino. Sin embargo, la adopción de este servicio se ha retrasado a causa de la variedad de estándares celulares incompatibles, costosos dispositivos manuales y velocidades limitadas. “No hay aplicaciones suficientes para promover una demanda por acceso de datos 3G,” dice Wheelock. Wi-Fi es una extensión mucho más lógica de la banda ancha.”

Entretanto, la firma japonesa DoCoMo (el primer proveedor de datos inalámbricos del mundo) está realizando pruebas de campo con redes 4G, que en teoría transmitirán datos a velocidades de 100 Mbps, aunque no habrá una red operacional instalada antes de 2010.

Un mundo inalámbrico

Estas redes inalámbricas darán lugar a una serie de potentes ordenadores portátiles. Intel está requiriendo soporte Wi-FI en portátiles Centrino, y ha anunciado un nuevo chip Xscale para PDA y teléfonos móviles. Este procesador, con el nombre de código Bulverde, soportará redes 3G y permitirá la captura de vídeo en tiempo real, mejor reproducción multimedia y un consumo más bajo de potencia.

Los dispositivos futuros soportarán múltiples tecnologías inalámbricas, de manera que podrán conectarse sin problemas a cualquier tipo de hot-spot y cambiar con facilidad entre redes Wi-Fi y redes celulares. “Se utilizará Wi-Fi en el aeropuerto o en la habitación del hotel, y una vez en la calle se cambiará a 3G,” dice el portavoz de la Alianza Wi-Fi Briam Grimm. Sencillamente, tiene sentido.

La seguridad en el mundo de los PC

El año 2003 señaló un punto de inflexión en la seguridad de los PC -aunque no en la buena dirección-. Los usuarios se encontraron abrumados por olas de gusanos de e-mail, de Blaster a SoBig, que robaban información personal, difundían spam y realizaban ataques DDoS (denegación de servicio distribuida). Los expertos en seguridad prevén que estos ataques aumentarán, en lugar de disminuir. “En los próximos años veremos muchas más redes zombie controladas con los PC de sobremesa de los usuarios utilizados como servidores para difusión de spam y de DDoS,” afirma Thor Larholm, investigador senior de seguridad de la firma PivX Solutions.

Durante los dos próximos años utilizaremos las mismas armas para contraatacar: software antivirus, filtros contra spam, cortafuegos personales y parches Windows. La diferencia está en que muchas de estas utilidades podrían pasar a formar parte del sistema operativo y actuar automáticamente. Por ejemplo, Microsoft ha anunciado un método que activaría el cortafuegos de XP por defecto; y este plan podría también instalar parches Windows y Office automáticamente. La compañía ha realizado tests de comercialización de versiones de Windows con un cortafuegos más fuerte y funciones antivirus y de backup. Dado el historial de Microsoft de instalar utilidades de capacidad reducida en sus sistemas, los expertos se muestran escépticos sobre este enfoque.

La buena noticia es que se observarán menos desbordamientos de buffer o “agujeros” de software que permiten que códigos maliciosos asuman el control de un ordenador, dice Chris Wysopal, vicepresidente de Investigaciones y Desarrollo de la empresa de consultoría @stake. Esa mejora se debe en parte a nuevas herramientas que detectan esos “buffer overflows” antes de que puedan ser detectados, y en parte a un cambio hacia una “codificación gestionada” que examina cada grupo de instrucciones y concede permiso antes de que pueda ejecutarse la codificación.

¿Y la mala noticia? “Los ataques de ´ingeniería social´ para inducir a personas a falsificar sitios web o ejecutar programas troyanos serán peores,” dice Wysopal. “El ser humano seguirá siendo el eslabón más débil.”

Seguridad, pero ¿a qué precio?

Eliminar de la ecuación el error humano es una parte clave de la Next Generation Secure Computing Base, una ambiciosa propuesta dirigida a resolver una multitud de problemas de seguridad. Conocida anteriormente como Palladium, NGSCB será integrada en el sistema operativo Longhorn de Microsoft cuando sea introducido en 2006.

Entre otras cosas, este método comprobará la identidad de cada aplicación, de manera que se sabrá que el software que se acaba de bajar de la Red no es un Caballo de Troya. NGSCB encriptará los datos y las pulsaciones de teclas de manera que puedan ser leídas únicamente por aplicaciones de confianza, y creará un espacio de memoria sellado para cada programa de manera que los virus no puedan afectar a otros programas.

Además, permitirá a las compañías determinar cómo utilizan las personas su contenido. Por ejemplo, una empresa de software podría impedir a alguien utilizar versiones no registradas de sus productos. Y si se descarga una película, el sistema operativo podría permitir verla pero no realizar copias de ella. O también una empresa podría permitir sólo a ciertas perso