| Artículos | 01 DIC 2009

Las tecnologías de 2010

Tags: Histórico
Virtualización, Green IT o movilidad son algunas de las que más destacan
Redacción de PC World.

A punto de estrenar un nuevo año, intentamos averiguar cuáles serán las tecnologías que más se utilizarán el próximo ejercicio. Un año clave en la recuperación económica, pero que también marcará el uso de determinados productos, servicios y tecnologías.

Según Gartner, entre las 10 principales tecnologías que se utilizarán en 2010, destacan como tendencias las aplicaciones móviles, el Cloud Computing o el Green IT. Esta consultora concede el primer lugar al Cloud Computing, mientras que el segundo puesto lo ocupa la analítica avanzada, que está siendo impulsada por el crecimiento en el procesamiento de datos. Esto supone proporcionar a las empresas la capacidad de modelar cada acción que lleven a cabo y crear modelos. En seguridad, por ejemplo, eso significa buscar patrones y detectar todo tipo de fraudes a medida que tienen lugar.
El tercer puesto es para el Client Computing, que está siendo retomado gracias a la virtualización, a la informática en la nube y a los nuevos modelos de trabajo; de este modo, los empleados pueden acceder a las aplicaciones de negocio a través de un entorno de trabajo separado y virtualizado.
El Green IT también aparece en esta lista, pues actualmente se tiene en cuenta en prácticamente todos los procesos tecnológicos. Otra tendencia en auge es la reorganización del centro de datos, con nuevos diseños y tendencias que incluyen añadir energía o generadores para soportar necesidades básicas.
Por su parte, las redes sociales son, indiscutiblemente, una de las últimas tendencias que más fuerza tienen en el mundo de la tecnología. Aunque aún no parecen haber encontrado el modo de hacerlas rentables económicamente.
Además, en los últimos tiempos, también se utiliza más la monitorización de la actividad de los usuarios, que cada vez es más estricta para intentar evitar los ataques y las complicaciones que puede implicar la informática en la nube.
En cuanto a la memoria flash, ésta aparece en el octavo puesto de la lista de Gartner. Este tipo de memoria ofrece velocidad, resistencia y utiliza menos energía que los discos tradicionales. Es cierto que aún cuesta más que un disco, pero la diferencia se está estrechando.
Es justo mencionar también la creciente importancia de la virtualización para una mayor disponibilidad de aplicaciones y servicios, mientras que la consultora sitúa en último lugar a las aplicaciones móviles, que aparecen por primera vez en esta lista, al igual que la memoria flash, la monitorización de la actividad de los usuarios, el client computing y la reorganización del centro de datos.

Virtualización y Cloud Computing
Así las cosas, de lo que nadie parece tener duda es de la definitiva consolidación del Cloud Computing y la virtualización, pues permite mover las cargas de trabajo de un servidor físico a otro.
Pero veamos qué es realmente. El Cloud Computing es una arquitectura consistente en un conjunto de recursos de la empresa situados fuera de ella, que son proporcionados por un proveedor externo y que están soportados y son compartidos a través de Internet. Si releemos esta definición, podríamos decir que también es aplicable, en cierta manera, al software como servicio. Y es que tal y como ha denunciado la consultora Gartner, el término “cloud computing” se está utilizando muy a la ligera.
Es esta misma consultora la que hace una clasificación de las diferentes opciones que hay de la informática en la nube, aunque parte de la base de que cuando hablamos de cloud computing deberíamos referirnos a un estilo de informática en el que se aprovisionan masivamente a múltiples clientes externos capacidades relacionadas con las TI escalables, como si fueran un servicio.
Según Gartner, en estos momentos podríamos hablar de dos tipos diferentes de cloud computing: uno más tecnológico y otro relacionado con los servicios. Empezando por este último, el énfasis estaría más en el concepto de cloud que en el de informática. Es decir, primaría el acceso a los servicios desde cualquier lugar. Lo que se denomina nube son una serie de servicios que se extienden desde la infraestructura de sistema a través de las aplicaciones y los procesos de negocio. 
La segunda visión del cloud computing tiene que ver con interpretación popular del concepto y se refiere a un uso de tecnologías, incluidas la virtualización y la automatización, que se enfocan más en el elemento “computing” (informática) que en el aspecto “cloud” (nube). Es decir, son las tecnologías que permiten la creación y entrega de capacidades basadas en servicio las que ganan protagonismo en esta concepción. Evidentemente, la línea que separa una y otra visión del cloud computing es tan fina que es bastante normal confundirlas.
Como toda idea de externalización, los ahorros de costes se perfilan quizá como la ventaja más evidente. Pero, al mismo tiempo, la seguridad se asoma como el mayor riesgo que hay que encarar. Por eso, también es justo señalar los peligros a los que se exponen las empresas que apuesten por la virtualización, pues, tal y como alertan los expertos, el empleo de la virtualización por parte de los proveedores de servicios en la nube para alojar máquinas virtuales que pertenezcan a múltiples clientes en una infraestructura física compartida abre la puerta a nuevos riesgos. Y es que, los atacantes pueden identificar el servidor físico en el que está alojada en la nube una máquina virtual. De este modo, pueden establecer otra máquina virtual falsa para engañar a la víctima.
Aún así, la apuesta por la virtualización es clara en todos los entornos empresariales, y eso a pesar de que, principalmente por su corto recorrido, aún no están claros todos los beneficios que puede reportar a las organizaciones.
Por todo ello, Network Instruments ha preguntado a 120 responsables de redes empresariales, a ingenieros y ejecutivos de TI a través de Interop para averiguar cómo las organizaciones de TI están poniendo en marcha infraestructuras virtuales de servidor y en equipos de sobremesa. El 50 por ciento de ellos ha declarado haber virtualizado servidores de misión crítica, incluyendo servidores de correo electrónico y Web. Otro 50 por ciento ha manifestado trabajar ya con servidores DNS y DHCP en máquinas virtuales. Además, cerca del 40 por ciento ya ha extendido las capacidades de la virtualización hasta los equipos de sobremesa.

Planes de implantación
Pero, en cualquier caso, el 55 por ciento ha admitido haber experimentado más problemas que beneficios con esta tecnología. Aún así, el 45 por ciento sí ha disfrutado de algunos de los beneficios de la virtualización. Entre los obstáculos que citan se encuentran la falta de visibilidad y las herramientas para resolver problemas de rendimiento en entornos virtuales para el 27 por ciento de los participantes en el estudio. Además, más de un cuarto de ellos ha menciona

Contenidos recomendados...

Comentar
Para comentar, es necesario iniciar sesión
Se muestran 0 comentarios
X

Uso de cookies

Esta web utiliza cookies técnicas, de personalización y análisis, propias y de terceros, para facilitarle la navegación de forma anónima y analizar estadísticas del uso de la web. Consideramos que si continúa navegando, acepta su uso. Obtener más información