Hu Yoshida, Vice President y Chief Technology Officer Hitachi de Data Systems: Tendencias para el 2015
>> jueves, 15 de enero de 2015
Tendencias de TI y almacenamiento de datos para 2015
http://www.financialtech-mag.com/ 15/01/2015
Hu Yoshida, Vice President y Chief Technology Officer Hitachi de Data Systems, presenta como cada año sus reconocidas tendencias en cuanto a tecnologías de almacenamiento de datos.
Las TI definidas por el negocio
La movilidad, la nube, las redes sociales y al Big Data son cuatro grandes tendencias que generarán un crecimiento comercial sostenible y requerirán una mayor colaboración entre el área de TI y el negocio.
Por lo que cada vez será más necesario que la infraestructura de TI esté definida por el negocio, lo que exigirá a los proveedores ofrecer orquestación, automatización e integración en torno a sus productos a fin de que los Directores de Sistemas puedan centrarse en los resultados de negocios. También deben proporcionar el software de administración y de generación de reportes.
Dado que la mayor parte de los departamentos de TI no contratan personal nuevo desde 2008, tienen una sobrecarga de trabajo y no cuentan con el ancho de banda necesario para implementar software y procesos nuevos. Los proveedores y sus canales de distribución deberán brindar servicios para aliviar parte de esta carga y permitir que los departamentos de TI realicen la transición hacia este nuevo paradigma.
Se acelera la adopción de las plataformas convergentes e hiperconvergentes
Un facilitador clave de las TI definidas por el negocio son las soluciones convergentes que están integradas a los sistemas y a un conjunto de de aplicaciones. Las soluciones convergentes constituyen el segmento de más rápido crecimiento en la cartera de soluciones de Hitachi Data Systems.
El punto de entrada para acceder a las soluciones convergentes bajará gracias a soluciones que tienen precio y características específicas para el mercado de pequeñas, medianas empresas y de oficina remota/back office, con la flexibilidad que les permite integrarse a configuraciones empresariales. Las soluciones hiperconvergentes, formadas por nodos con arquitectura scale out de servidores básicos tipo commodity con almacenamiento interno, ayudarán a reducir los costos aún más para aplicaciones con arquitectura scale out como servidores web.
Automatización de la administración
En 2015 habrá más inversiones en herramientas de automatización de administración. El aprovisionamiento de aplicaciones y la orquestación de cargas de trabajo se harán sobre la base de plantillas. La automatización incluirá el movimiento de cargas de trabajo entre nubes, públicas y privadas, para alinear la infraestructura adecuada en función del costo, el performance, la localidad y la gobernanza. Además, la automatización de la administración se verá facilitada por una infraestructura convergente con una capa de orquestación que elimina la necesidad de vincular y activar diferentes administradores.
Definido por el software
“Todo definido por software” será algo muy publicitado en 2015, y muchos proveedores venderán sus productos bajo este estandarte. Este concepto es un paso clave hacia la simplificación y automatización de la infraestructura de TI. Los pioneros entrarán al mercado con software que pretenderá ser de clase empresarial con hardware básico tipo commodity de bajo costo. Si bien el software puede mejorar la tecnología, en el hardware los resultados estarán limitados por la infraestructura de hardware subyacente. El software con hardware básico puede ser suficiente en algunos casos, pero en el mundo definido por el software seguirá existiendo la necesidad de contar con hardware empresarial inteligente.
Una nueva dimensión a la virtualización del almacenamiento
Hasta ahora, la virtualización del almacenamiento ha tenido una orientación vertical, en la que el motor de virtualización del almacenamiento puede virtualizar otros sistemas de almacenamiento agregados por detrás. La virtualización global extenderá la virtualización en forma horizontal y abarcará múltiples sistemas de almacenamiento, que pueden estar a una distancia geográfica metropolitana en el caso de bloques, y a grandes distancias globales en el caso de los sistemas de almacenamiento de archivos y de contenido, creando máquinas de almacenamiento virtual que presentan un pool de recursos de almacenamiento virtual que abarcan múltiples sistemas de almacenamiento físico.
Mayor foco en la recuperación de datos y en la administración de copias de protección de datos
Los estudios de mercado demuestran que la protección de datos sigue siendo la principal preocupación de los administradores de centros de datos. El volumen de datos de backup crece enormemente, lo que aumenta los objetivos de tiempos de recuperación y los objetivos de punto de recuperación. Hasta el momento, gran parte del énfasis ha estado en los backup. Se recurría al backup basado en discos y a la deduplicación para reducir el costo del almacenamiento de datos de backup. En 2015 se hará más énfasis en reducir los objetivos de tiempo de recuperación y de punto de recuperación, y se continuará reduciendo el costo de la protección de datos.
Los administradores de TI necesitarán herramientas para descubrir, hacer un seguimiento y administrar las copias, clones, snaps y réplicas de depósitos de datos en su entorno a fin de reducir el derroche relacionado con todas esas copias y hacer más eficiente el proceso de recuperación.
Aumentar la inteligencia en los módulos flash empresariales
Debido a las limitaciones de la tecnología flash, para escribir en bloques formateados, recuperar páginas invalidadas, amplificar la escritura, nivelar el desgaste y administrar repuestos, se requiere una importante capacidad de procesamiento a fin de mantener el performance, aumentar la durabilidad y la capacidad de la memoria flash.
Se lanzarán nuevas tecnologías flash, tales como las memorias TLC y 3D NAND, para aumentar la capacidad de las unidades flash. Sin embargo, también aumentarán los requerimientos de inteligencia para administrar la complejidad adicional y la menor durabilidad de esas tecnologías.
El Big Data y el Internet de las cosas
IDC ha pronosticado que el Big Data crecerá a una tasa compuesta anual de 27% hasta el 2017, aproximadamente 6 veces la tasa de crecimiento de la información y la comunicación de mercado global. El análisis de Wikibon, es aún más optimista, con la predicción de ingresos de 53.400 millones de dólares en 2017, a medida que más empresas comienzan a darse cuenta de los beneficios reales de análisis de Big Data. En 2015 seguiremos viendo un crecimiento sólido en Big Data y herramientas de análisis como SAP HANA y Hadoop, que puede ofrecer resultados en cuestión de minutos u horas en lugar de días. Plataformas convergentes y hiper-convergido preconfiguradas acelerarán la implementación de aplicaciones Big Data.
Los datos del mañana estarán cada vez más acerca del Internet de las Cosas (IoT), con comunicaciones de máquina a máquina, lo que tendrá un mayor impacto en nuestras vidas. Análisis de lotes darán paso a los datos de streaming analytics para el análisis en tiempo real de los datos de los sensores, y más inteligencia será incorporada a ingestors borde. Aplicaciones, construidas alrededor de la Internet de las cosas, serán presentadas por empresas que tienen experiencia en el análisis de sensores y mercados verticales como la vigilancia y cuidado de la salud. En 2015, las empresas de TI se han asociado con compañías de infraestructuras sociales para darse cuenta del potencial de un mundo con IoT.
Lago de datos (Data Lake) para Big Data Analytics
Aunque seguirá habiendo una gran demanda de sistemas de almacenamiento de escala empresarial, el crecimiento de datos no estructurados y el valor que tienen para el análisis de grandes volúmenes de datos requerirán nuevos tipos de distribución.
A Pentaho CTO James Dixon se le atribuye haber acuñado el término “lago de datos”. “Si se piensa en un mercado de datos como depósito de agua embotellada, el lago de datos es una gran masa de agua en un estado más natural. El contenido viene de varias fuentes y varios usuarios del lago puede llegar a examinar, bucear o tomar muestras. Estos sistemas lacustres mantienen grandes cantidades de datos accesibles a través de interfaces web y de archivos. La protección de datos para los lagos de datos constará de réplicas y no requerirá copia de seguridad, ya que los datos no se actualiza.
La nube híbrida será cada vez más atractiva
La combinación de nube privada y pública está ganando impulso. Analistas como Pro Tech sugieren que el 70% de las organizaciones están utilizando o bien evalúan la utilización de las nubes híbridas. Con la creciente competencia entre los proveedores de nube pública, el menor costo de ancho de banda WAN y la capacidad de controlar el movimiento de la nube pública con los metadatos que se mantiene dentro de los servidores de seguridad de una nube privada, la nube híbrida se convertirá en una plataforma rentable para correr cargas de trabajo empresariales.
Hu Yoshida, Vice President y Chief Technology Officer de Hitachi de Data Systems
http://www.financialtech-mag.com/ 15/01/2015
Las TI definidas por el negocio
La movilidad, la nube, las redes sociales y al Big Data son cuatro grandes tendencias que generarán un crecimiento comercial sostenible y requerirán una mayor colaboración entre el área de TI y el negocio.
Por lo que cada vez será más necesario que la infraestructura de TI esté definida por el negocio, lo que exigirá a los proveedores ofrecer orquestación, automatización e integración en torno a sus productos a fin de que los Directores de Sistemas puedan centrarse en los resultados de negocios. También deben proporcionar el software de administración y de generación de reportes.
Dado que la mayor parte de los departamentos de TI no contratan personal nuevo desde 2008, tienen una sobrecarga de trabajo y no cuentan con el ancho de banda necesario para implementar software y procesos nuevos. Los proveedores y sus canales de distribución deberán brindar servicios para aliviar parte de esta carga y permitir que los departamentos de TI realicen la transición hacia este nuevo paradigma.
Se acelera la adopción de las plataformas convergentes e hiperconvergentes
Un facilitador clave de las TI definidas por el negocio son las soluciones convergentes que están integradas a los sistemas y a un conjunto de de aplicaciones. Las soluciones convergentes constituyen el segmento de más rápido crecimiento en la cartera de soluciones de Hitachi Data Systems.
El punto de entrada para acceder a las soluciones convergentes bajará gracias a soluciones que tienen precio y características específicas para el mercado de pequeñas, medianas empresas y de oficina remota/back office, con la flexibilidad que les permite integrarse a configuraciones empresariales. Las soluciones hiperconvergentes, formadas por nodos con arquitectura scale out de servidores básicos tipo commodity con almacenamiento interno, ayudarán a reducir los costos aún más para aplicaciones con arquitectura scale out como servidores web.
Automatización de la administración
En 2015 habrá más inversiones en herramientas de automatización de administración. El aprovisionamiento de aplicaciones y la orquestación de cargas de trabajo se harán sobre la base de plantillas. La automatización incluirá el movimiento de cargas de trabajo entre nubes, públicas y privadas, para alinear la infraestructura adecuada en función del costo, el performance, la localidad y la gobernanza. Además, la automatización de la administración se verá facilitada por una infraestructura convergente con una capa de orquestación que elimina la necesidad de vincular y activar diferentes administradores.
Definido por el software
“Todo definido por software” será algo muy publicitado en 2015, y muchos proveedores venderán sus productos bajo este estandarte. Este concepto es un paso clave hacia la simplificación y automatización de la infraestructura de TI. Los pioneros entrarán al mercado con software que pretenderá ser de clase empresarial con hardware básico tipo commodity de bajo costo. Si bien el software puede mejorar la tecnología, en el hardware los resultados estarán limitados por la infraestructura de hardware subyacente. El software con hardware básico puede ser suficiente en algunos casos, pero en el mundo definido por el software seguirá existiendo la necesidad de contar con hardware empresarial inteligente.
Una nueva dimensión a la virtualización del almacenamiento
Hasta ahora, la virtualización del almacenamiento ha tenido una orientación vertical, en la que el motor de virtualización del almacenamiento puede virtualizar otros sistemas de almacenamiento agregados por detrás. La virtualización global extenderá la virtualización en forma horizontal y abarcará múltiples sistemas de almacenamiento, que pueden estar a una distancia geográfica metropolitana en el caso de bloques, y a grandes distancias globales en el caso de los sistemas de almacenamiento de archivos y de contenido, creando máquinas de almacenamiento virtual que presentan un pool de recursos de almacenamiento virtual que abarcan múltiples sistemas de almacenamiento físico.
Mayor foco en la recuperación de datos y en la administración de copias de protección de datos
Los estudios de mercado demuestran que la protección de datos sigue siendo la principal preocupación de los administradores de centros de datos. El volumen de datos de backup crece enormemente, lo que aumenta los objetivos de tiempos de recuperación y los objetivos de punto de recuperación. Hasta el momento, gran parte del énfasis ha estado en los backup. Se recurría al backup basado en discos y a la deduplicación para reducir el costo del almacenamiento de datos de backup. En 2015 se hará más énfasis en reducir los objetivos de tiempo de recuperación y de punto de recuperación, y se continuará reduciendo el costo de la protección de datos.
Los administradores de TI necesitarán herramientas para descubrir, hacer un seguimiento y administrar las copias, clones, snaps y réplicas de depósitos de datos en su entorno a fin de reducir el derroche relacionado con todas esas copias y hacer más eficiente el proceso de recuperación.
Aumentar la inteligencia en los módulos flash empresariales
Debido a las limitaciones de la tecnología flash, para escribir en bloques formateados, recuperar páginas invalidadas, amplificar la escritura, nivelar el desgaste y administrar repuestos, se requiere una importante capacidad de procesamiento a fin de mantener el performance, aumentar la durabilidad y la capacidad de la memoria flash.
Se lanzarán nuevas tecnologías flash, tales como las memorias TLC y 3D NAND, para aumentar la capacidad de las unidades flash. Sin embargo, también aumentarán los requerimientos de inteligencia para administrar la complejidad adicional y la menor durabilidad de esas tecnologías.
El Big Data y el Internet de las cosas
IDC ha pronosticado que el Big Data crecerá a una tasa compuesta anual de 27% hasta el 2017, aproximadamente 6 veces la tasa de crecimiento de la información y la comunicación de mercado global. El análisis de Wikibon, es aún más optimista, con la predicción de ingresos de 53.400 millones de dólares en 2017, a medida que más empresas comienzan a darse cuenta de los beneficios reales de análisis de Big Data. En 2015 seguiremos viendo un crecimiento sólido en Big Data y herramientas de análisis como SAP HANA y Hadoop, que puede ofrecer resultados en cuestión de minutos u horas en lugar de días. Plataformas convergentes y hiper-convergido preconfiguradas acelerarán la implementación de aplicaciones Big Data.
Los datos del mañana estarán cada vez más acerca del Internet de las Cosas (IoT), con comunicaciones de máquina a máquina, lo que tendrá un mayor impacto en nuestras vidas. Análisis de lotes darán paso a los datos de streaming analytics para el análisis en tiempo real de los datos de los sensores, y más inteligencia será incorporada a ingestors borde. Aplicaciones, construidas alrededor de la Internet de las cosas, serán presentadas por empresas que tienen experiencia en el análisis de sensores y mercados verticales como la vigilancia y cuidado de la salud. En 2015, las empresas de TI se han asociado con compañías de infraestructuras sociales para darse cuenta del potencial de un mundo con IoT.
Lago de datos (Data Lake) para Big Data Analytics
Aunque seguirá habiendo una gran demanda de sistemas de almacenamiento de escala empresarial, el crecimiento de datos no estructurados y el valor que tienen para el análisis de grandes volúmenes de datos requerirán nuevos tipos de distribución.
A Pentaho CTO James Dixon se le atribuye haber acuñado el término “lago de datos”. “Si se piensa en un mercado de datos como depósito de agua embotellada, el lago de datos es una gran masa de agua en un estado más natural. El contenido viene de varias fuentes y varios usuarios del lago puede llegar a examinar, bucear o tomar muestras. Estos sistemas lacustres mantienen grandes cantidades de datos accesibles a través de interfaces web y de archivos. La protección de datos para los lagos de datos constará de réplicas y no requerirá copia de seguridad, ya que los datos no se actualiza.
La nube híbrida será cada vez más atractiva
La combinación de nube privada y pública está ganando impulso. Analistas como Pro Tech sugieren que el 70% de las organizaciones están utilizando o bien evalúan la utilización de las nubes híbridas. Con la creciente competencia entre los proveedores de nube pública, el menor costo de ancho de banda WAN y la capacidad de controlar el movimiento de la nube pública con los metadatos que se mantiene dentro de los servidores de seguridad de una nube privada, la nube híbrida se convertirá en una plataforma rentable para correr cargas de trabajo empresariales.
Hu Yoshida, Vice President y Chief Technology Officer de Hitachi de Data Systems
0 comentarios :
Publicar un comentario