BUSINESS TI | Noticias | 02 ABR 2012

IBM desarrolla el mayor sistema de análisis de datos del mundo

Tags: Actualidad
IBM está desarrollando nuevas tecnologías de análisis y gestión de datos para el que será el mayor radio telescopio del mundo.
PCWORLD PROFESIONAL

El Square Kilomere Array (SKA) podría entrar en funcionamiento en 2024 y ofrecerá tal cantidad de información que incluso los ordenadores del futuro pueden tener dificultades para procesarla, según la compañía.

“Este es un proyecto de investigación para encontrar cómo construir un sistema informático que maneje exabytes de información cada día”, asegura Ton Engbersen, investigador de IBM en el proyecto.

Holanda ha garantizado una subvención a cinco años, valorada en 32,9 millones de euros, para diseñar un sistema capaz de digerir la cantidad masiva de datas que SKA proporcionará.

Fundado por un consorcio de 20 agencias gubernamentales, SKA será el mayor y más sensible radio telescopio del mundo y permitirá a los científicos tener una idea más aproximada de cómo ocurrió el Big Bang hace 13.000 millones de años. SKA actualmente comprende 3.000 pequeñas antenas, cada una de las cuales ofrece un flujo continuo de datos.

Una vez que esté operativo, el telescopio producirá más de un exabyte (1.000 millones de gigabytes) de datos al día. En comparación, un exabyte es dos veces el tráfico diario total de la World Wide Web, según estimaciones de IBM.

Los datos serán descargados del telescopio, situado en Australia o Sudáfrica, y ofrecerá la información a investigadores de todo el mundo. El proceso de datos consiste en ensamblar flujos individuales de cada antena, en una imagen mayor que permitirá ver cómo se formó el universo.

Incluso teniendo en cuenta que los ordenadores serán mucho más rápidos y potentes en 2024, IBM todavía necesitaría tecnologías avanzadas de proceso para manejar toda esa información, asegura Engbersen. “Debemos poner el énfasis en el diseño de sistemas”, asegura el directivo.

Los investigadores todavía no se han puesto de acuerdo en si sería mejor un solo centro de datos o varios en diferentes localizaciones.

Como el sistema será enorme, los investigadores deben discurrir cómo hacer el máximo uso de todos los componentes hardware con el menor gasto posible de energía. También deben adaptar los algoritmos de proceso de datos para trabajar con una configuración de hardware concreta.

Después de procesar la información, el resultado se espera que produzca entre 300 y 1.500 petabytes de datos cada año. Este volumen dejará pequeño lo que es ahora el mayor generador de datos científicos, el del CERN, que proporciona unos 15 petabytes anuales.

Contenidos recomendados...

Comentar
Para comentar, es necesario iniciar sesión
Se muestran 0 comentarios
X

Uso de cookies

Esta web utiliza cookies técnicas, de personalización y análisis, propias y de terceros, para facilitarle la navegación de forma anónima y analizar estadísticas del uso de la web. Consideramos que si continúa navegando, acepta su uso. Obtener más información