Partiendo de los pronósticos que manejan algunos analistas en los cuales auguran que en los próximos tres años se van a generar más datos que en los pasados 40.000 años, la necesidad de que las empresas gestionen eficazmente la cantidad de información de la que disponen, deviene un requisito indispensable. Junto a este incremento del volumen de datos que deben gestionar, la evolución de las tecnologías de almacenamiento disponibles resulta un elemento clave a la hora de elegir la más acorde a sus necesidades. Conozca en este reportaje las tendencias del futuro del almacenamiento en el que la virtualización se erige como una preferencia a seguir muy de cerca.

Atendiendo a los pronósticos de Gartner, el incremento del consumo de datos a nivel de consumidores, así como el progresivo incremento de datos corporativos, que cada vez requieren de mayor movilidad y accesibilidad, junto con las nuevas regulaciones que demandan la preservación de la información corporativa, hará incrementar las exigencias en lo que al almacenamiento se refiere. Así, de acuerdo con esta consultora, “en los dos próximos años, los equipos dedicados a almacenamiento evolucionarán y, junto con la capacidad de cálculo y el networking, será uno de los tres pilares en las infraestructuras de TI”.

Mayor capacidad

Como apunta Jordi Badal, director de EMC Software EMC Iberia, “las organizaciones necesitan cada vez más tener información on-line, no sólo de los datos de acceso inmediato sino también de los históricos, cosa que hace tiempo la gente se podía permitir el lujo de tenerlo en cinta o en un dispositivo de acceso más lento. Esto ha llevado a que la cantidad de información que almacenan nuestros sistemas haya aumentado de manera considerable con índices de crecimiento anual superiores al 50 por ciento”.

Esto ha provocado que la evolución tecnológica en cuanto a la cantidad de información almacenada por disco haya aumentado de manera importante, tal y como constata el uso masivo de los discos de 500 gigas y que está llevando a la evolución hacia el disco de 1 terabyte. Esto lleva a otra tendencia a tener muy en cuenta en el mercado de discos de almacenamiento: al aumentar la densidad de los discos, el coste por gigabyte se reduce paulatinamente. De hecho, la consultora IDC apunta que los avances tecnológicos han permitido que el coste por gigabyte de capacidad haya disminuido aproximadamente un 50 por ciento cada año en los últimos 10 años. Rafael Achaerandio, analista de IDC, señala que “el aumento de la densidad de transistores por área ha permitido el empleo de menos silicio de las obleas, menos componentes y, por tanto, menos costes. Esta tendencia prosigue hoy, doblándose las densidades por área cada año”.

Desde HP, Carlos Preciado, director de la división de almacenamiento, apunta hacia otros factores que llevan a este descenso de los precios. “Los discos SAS (Serial Attached SCSI) tienen una interfaz de entrada y salida equiparable a la tecnología Fibre Channel más rápida de hoy en día y con un tamaño bastante más reducido así que, para la misma cantidad, vamos a utilizar discos mucho más pequeños denominados SFF (Small Form Factor). Con la introducción de esta nueva tecnología, vamos a tener capacidad de aumentar la densidad por centímetro cúbico, quizá entre un 20 y un 30 por ciento, y con unos costes muy similares, por no decir inferiores, a los que tenemos hoy en día en Fibre Channel”.

A este hilo, desde EMC, Jordi Badal señala que, “a veces, la velocidad de recuperación tiene que ser tan inmediata, y el coste del disco se ha reducido lo suficiente, que la gente se plantea hacer backups intermedios a disco. Ésta es una de las áreas donde se está utilizando disco de alta densidad para hacer backups intermedios con el objetivo de recuperar de forma inmediata”.

En esta línea, Achaerandio también apunta hacia otra tendencia para la recuperación de pequeñas cantidades de datos. Mientras que los discos SCSI siguen siendo una opción de elevado precio para la realización backups, los discos ATA incrementan el rendimiento en pequeñas cantidades a un precio razonable. Según este analista, “el reto para los proveedores está en integrar discos de bajo coste en soluciones de backup completas ya que las cintas seguirán utilizándose para el almacenamiento masivo”.

El binomio SAN-NAS

Frente a este panorama en el que el hardware de almacenamiento está experimentando esta bajada de precios, otra de las tendencias que se están vislumbrando es el avance de las redes SAN. Carlos Preciado, de HP, apunta que “las redes SAN seguirán desarrollándose como la principal forma de almacenamiento, puesto que son las que nos permiten consolidar de forma más ágil y sencilla y con la tecnología Fibre Channel como clave”. No obstante, el responsable apunta hacia la cada vez mayor penetración de la tecnología iSCSI como alternativa a Fibre Channel. Sin embargo, el director general de Hitachi Data Systems, Ángel Fernández, señala que “el almacenamiento SAN en instalaciones medias y grandes es un modelo que ya esta bastante acotado y explotado. El número de servidores ha ido creciendo y ha dado lugar a islas de soluciones en cada uno de los departamentos”. Para este responsable, ante estos entornos se puede aportar valor si se dispone de “un repositorio global de almacenamiento que vale para todos”.

Sin embargo, junto a las redes SAN hay un mercado que sigue creciendo y es el de almacenamiento NAS (Network Attached Storage), la conectividad de red para compartir ficheros. De acuerdo con Jordi Badal, “en España este tipo de almacenamiento no estaba creciendo tanto como en el resto de Europa pero, sobre todo en los doce últimos meses, hemos notado que está creciendo de manera importante con unos niveles en términos de porcentaje superiores a lo que crece en el mercado europeo, lo que significa que estamos recuperando terreno frente a nuestros países vecinos”.

Si NAS fue concebida para compartir ficheros entre clientes, mientras que SAN permite compartir bloques de información entre servidores, no son pocas las infraestucturas tecnológicas que están apostando por una convergencia SAN-NAS. Como apunta Rafael Achaerandio, “el objetivo de esta convergencia es proporcionar acceso a ficheros de almacenamiento basados en SAN y redundar su simplicidad en menores costes”. En opinión de este responsable, esto permite utilizar las capacidades de servicios de ficheros de una arquitectura NAS sin utilizar discos dedicados. “Los usuarios podrán incrementar la utilización del almacenamiento SAN y centralizar la administración, consiguiendo economías de escala y menores costes de operación”, sostiene el analista. Sin duda, esta tendencia apunta hacia un almacenamiento en red unificado y virtualización

La virtualización entra en escena

Junto a todas estas tecnologías emerge un nuevo concepto que cada vez cobra mayor relevancia: la virtualización del almacenamiento. Desde Gartner, los analistas la conciben como una de las tendencias clave. “Creemos que todos los recursos físicos tienen que ser virtualizados para alcanzar una completa RTI (infraestructura en tiempo real) automatizada. Hoy es imposible desplegar redes sin las capacidades de virtualización de los dispositivos de almacenamien