Hu Yoshida, Vice President y Chief Technology Officer Hitachi de Data Systems, presenta como cada año sus reconocidas tendencias en cuanto a tecnologías de almacenamiento de datos. Las cuales enumeramos a continuación:
- Las TI definidas por el negocio
La movilidad, la nube, las redes sociales y al Big Data son cuatro grandes tendencias que generarán un crecimiento comercial sostenible y requerirán una mayor colaboración entre el área de TI y el negocio.
Por lo que cada vez será más necesario que la infraestructura de TI esté definida por el negocio, lo que exigirá a los proveedores ofrecer orquestación, automatización e integración en torno a sus productos a fin de que los Directores de Sistemas puedan centrarse en los resultados de negocios. También deben proporcionar el software de administración y de generación de reportes.
Dado que la mayor parte de los departamentos de TI no contratan personal nuevo desde 2008, tienen una sobrecarga de trabajo y no cuentan con el ancho de banda necesario para implementar software y procesos nuevos. Los proveedores y sus canales de distribución deberán brindar servicios para aliviar parte de esta carga y permitir que los departamentos de TI realicen la transición hacia este nuevo paradigma. Los proveedores y sus canales deben estar dispuestos a compartir el riesgo y trabajar como socios de TI en esta transformación.
- Las nuevas capacidades aceleran la adopción de las plataformas convergentes e hiperconvergentes
Un facilitador clave de las TI definidas por el negocio son las soluciones convergentes que están integradas a los sistemas y a un conjunto de de aplicaciones. Las soluciones convergentes constituyen el segmento de más rápido crecimiento en la cartera de soluciones de Hitachi Data Systems.
El punto de entrada para acceder a las soluciones convergentes bajará gracias a soluciones que tienen precio y características específicas para el mercado de pequeñas, medianas empresas y de oficina remota/back office, con la flexibilidad que les permite integrarse a configuraciones empresariales. Las soluciones hiperconvergentes, formadas por nodos con arquitectura scale out de servidores básicos tipo commodity con almacenamiento interno, ayudarán a reducir los costos aún más para aplicaciones con arquitectura scale out como servidores web.
- Automatización de la administración
En 2015 habrá más inversiones en herramientas de automatización de administración. El aprovisionamiento de aplicaciones y la orquestación de cargas de trabajo se harán sobre la base de plantillas. La automatización incluirá el movimiento de cargas de trabajo entre nubes, públicas y privadas, para alinear la infraestructura adecuada en función del costo, el performance, la localidad y la gobernanza. Además, la automatización de la administración se verá facilitada por una infraestructura convergente con una capa de orquestación que elimina la necesidad de vincular y activar diferentes administradores.
- Definido por el software
“Todo definido por software” será algo muy publicitado en 2015, y muchos proveedores venderán sus productos bajo este estandarte. Este concepto es un paso clave hacia la simplificación y automatización de la infraestructura de TI. Los pioneros entrarán al mercado con software que pretenderá ser de clase empresarial con hardware básico tipo commodity de bajo costo. Si bien el software puede mejorar la tecnología, en el hardware los resultados estarán limitados por la infraestructura de hardware subyacente. El software con hardware básico puede ser suficiente en algunos casos, pero en el mundo definido por el software seguirá existiendo la necesidad de contar con hardware empresarial inteligente.
- La virtualización global suma una nueva dimensión a la virtualización del almacenamiento
Hasta ahora, la virtualización del almacenamiento ha tenido una orientación vertical, en la que el motor de virtualización del almacenamiento puede virtualizar otros sistemas de almacenamiento agregados por detrás. La virtualización global extenderá la virtualización en forma horizontal y abarcará múltiples sistemas de almacenamiento, que pueden estar a una distancia geográfica metropolitana en el caso de bloques, y a grandes distancias globales en el caso de los sistemas de almacenamiento de archivos y de contenido, creando máquinas de almacenamiento virtual que presentan un pool de recursos de almacenamiento virtual que abarcan múltiples sistemas de almacenamiento físico.
- Mayor foco en la recuperación de datos y en la administración de copias de protección de datos
Los estudios de mercado demuestran que la protección de datos sigue siendo la principal preocupación de los administradores de centros de datos. El volumen de datos de backup crece enormemente, lo que aumenta los objetivos de tiempos de recuperación y los objetivos de punto de recuperación. Hasta el momento, gran parte del énfasis ha estado en los backup. Se recurría al backup basado en discos y a la deduplicación para reducir el costo del almacenamiento de datos de backup. En 2015 se hará más énfasis en reducir los objetivos de tiempo de recuperación y de punto de recuperación, y se continuará reduciendo el costo de la protección de datos.
El costo de la protección de datos primarios ha aumentado enormemente debido no sólo al crecimiento de los datos sino a un mayor número de copias de prueba y desarrollo, protección de datos y replicación. Una base de datos puede contener 50 o 60 copias que son administradas por diferentes usuarios con fines diferentes. Muchas copias quedan huérfanas, sin propietario ni objetivo, salvo el de consumir recursos de almacenamiento, y cuando se debe efectuar una recuperación, no queda claro qué réplica se debe usar para la recuperación. Los administradores de TI necesitarán herramientas para descubrir, hacer un seguimiento y administrar las copias, clones, snaps y réplicas de depósitos de datos en su entorno a fin de reducir el derroche relacionado con todas esas copias y hacer más eficiente el proceso de recuperación.
- Aumentar la inteligencia en los módulos flash empresariales
Debido a las limitaciones de la tecnología flash, para escribir en bloques formateados, recuperar páginas invalidadas, amplificar la escritura, nivelar el desgaste y administrar repuestos, se requiere una importante capacidad de procesamiento a fin de mantener el performance, aumentar la durabilidad y la capacidad de la memoria flash.
Se lanzarán nuevas tecnologías flash, tales como las memorias TLC y 3D NAND, para aumentar la capacidad de las unidades flash. Sin embargo, también aumentarán los requerimientos de inteligencia para administrar la complejidad adicional y la menor durabilidad de esas tecnologías. Actualmente Hitachi utiliza un procesador de cuatro núcleos en su dispositivo de módulo flash que permite trabajar con 3.2 TB con una mayor performance continuo y mayor durabilidad que los dispositivos de estado sólido disponibles comercialmente. Existe la posibilidad de utilizar la capacidad de procesamiento del dispositivo del módulo flash para optimizar la capacidad y la carga de trabajo de ciertas aplicaciones.
- El Big Data y el Internet de las cosas
IDC ha pronosticado que el Big Data crecerá a una tasa compuesta anual de 27% hasta el 2017, aproximadamente 6 veces la tasa de crecimiento de la información y la comunicación de mercado global. El análisis de Wikibon, es aún más optimista, con la predicción de ingresos de $ 53.4B en 2017, a medida que más empresas comienzan a darse cuenta de los beneficios reales de análisis de Big Data. En 2015 seguiremos viendo un crecimiento sólido en Big Data y herramientas de análisis como SAP HANA y Hadoop, que puede ofrecer resultados en cuestión de minutos u horas en lugar de días. Plataformas convergentes y hiper-convergido preconfiguradas acelerarán la implementación de aplicaciones Big Data.
Los datos del mañana estarán cada vez más acerca del Internet de las Cosas (IoT), con comunicaciones de máquina a máquina, lo que tendrá un mayor impacto en nuestras vidas. El Internet de las cosas nos ayudará a resolver pendientes en cuanto a la huella de carbono, el transporte, la energía, las ciudades inteligentes, la seguridad pública, ciencias de la vida, basadas en tecnologías de la información. El nuevo mundo del IoT creará una explosión de nueva información, que puede ser usada para crear mejores sociedades. Análisis de lotes darán paso a los datos de streaming analytics para el análisis en tiempo real de los datos de los sensores, y más inteligencia será incorporada a ingestors borde. Aplicaciones, construidas alrededor de la Internet de las cosas, serán presentadas por empresas que tienen experiencia en el análisis de sensores y mercados verticales como la vigilancia y cuidado de la salud. En 2015, las empresas de TI se han asociado con compañías de infraestructuras sociales para darse cuenta del potencial de un mundo con IoT.
Hitachi Data Systems ya ha comenzado este camino mediante la asociación con otras divisiones en Hitachi. Por ejemplo, HDS está asocianda con Clarion, un miembro del Grupo Hitachi para la investigación y desarrollo del despliegue de nuevas soluciones basadas en datos de la próxima generación de Clarion productos de conectividad a bordo de vehículos. Esta colaboración dará a los conductores, compañías de seguros y los fabricantes información útil para lograr un mejor desempeño y seguridad de los automóviles, ante el creciente aumento del valor de los coches conectados.
- Lago de datos (Data Lake) para Big Data Analytics
Aunque seguirá habiendo una gran demanda de sistemas de almacenamiento de escala empresarial, el crecimiento de datos no estructurados y el valor que tienen para el análisis de grandes volúmenes de datos requerirán nuevos tipos de distribución.
A Pentaho CTO James Dixon se le atribuye haber acuñado el término «lago de datos». «Si se piensa en un mercado de datos como depósito de agua embotellada, el lago de datos es una gran masa de agua en un estado más natural. El contenido viene de varias fuentes y varios usuarios del lago puede llegar a examinar, bucear o tomar muestras. Estos sistemas lacustres mantienen grandes cantidades de datos accesibles a través de interfaces web y de archivos. La protección de datos para los lagos de datos constará de réplicas y no requerirá copia de seguridad, ya que los datos no se actualiza. El código abierto se utiliza para reducir los costos de licencias y sistemas de cómputo será optimizado para reducir el mapa de análisis. La jerarquización automatizada se empleará para los requisitos de rendimiento y retención a largo plazo. El almacenamiento en frío es el que no requiere energía para la retención a largo plazo, se presentará en forma de medios de cinta u ópticos.
- La nube híbrida será cada vez más atractiva
La combinación de nube privada y pública está ganando impulso. Analistas como Pro Tech sugieren que el 70% de las organizaciones están utilizando o bien evalúan la utilización de las nubes híbridas. Con la creciente competencia entre los proveedores de nube pública, el menor costo de ancho de banda WAN y la capacidad de controlar el movimiento de la nube pública con los metadatos que se mantiene dentro de los servidores de seguridad de una nube privada, la nube híbrida se convertirá en una plataforma rentable para correr cargas de trabajo empresariales.
Sistemas de almacenamiento de objetos Hitachi Content Platform (HCP) permite la asignación de nivel automático de datos en una nube pública, manteniendo el cifrado de datos y control de metadato dentro de una nube privada