Resumen ejecutivo (TL;DR)

Hiperconvergencia es un término de marketing que se refiere a un estilo de arquitectura de centro de datos que entrena la atención de los operadores y administradores de TI sobre las condiciones operativas de las cargas de trabajo de los sistemas.

El principal objetivo de la infraestructura hiperconvergente (HCI) ha sido simplificar la gestión de los centros de datos reformulándolos como sistemas de transporte para software y transacciones, en lugar de redes de procesadores con dispositivos de almacenamiento y memorias caché colgando de ellos. La “convergencia” que HCI hace viable en el centro de datos proviene de lo siguiente:

Las aplicaciones y los servidores que las alojan se gestionan juntosutilizando una plataforma única que se centra en la salud y accesibilidad de esas aplicaciones.La capacidad informática, el almacenamiento de archivos, la memoria y la conectividad de red se recopilan y gestionan individualmente como servicios públicos. Las cargas de trabajo se tratan como clientes cuyas necesidades deben satisfacerse, incluso si para lograrlo es necesario desmantelar y apagar el hardware.Cada carga de trabajo está empaquetada dentro de la misma clase de construcción: Por lo general, máquinas virtuales (VM) diseñadas para ser alojadas en hipervisores como ESX y ESXi de VMware, Xen, KVM y Hyper-V de Microsoft. Estas construcciones permiten que las plataformas HCI las traten como componentes de software esencialmente equivalentes, aunque con requisitos operativos diferentes.

Servicios vs servidores

Desde los albores de la tecnología de la información, la tarea clave de los operadores de computadoras ha sido monitorear y mantener la salud de sus máquinas. En algún momento, el valor de mantener el software accesible y funcional para los usuarios (especialmente para los clientes) excedió el costo de extender la vida útil del hardware. Las variables clave en la ecuación del análisis costo/beneficio cambiaron, ya que la funcionalidad de los servicios se volvió más valiosa que la confiabilidad de los servidores.

Aunque el ideal de la infraestructura hiperconvergente siempre ha sido la simplificación radical de la gestión de la carga de trabajo en los centros de datos empresariales, en todas las empresas cuyos centros de datos son anteriores a la instalación de HCI, la cuestión de integración ha levantado su fea cabeza. Los gerentes de operaciones han insistido en que las cargas de trabajo preexistentes coexistan con cargas de trabajo hiperconvergentes. En el extremo opuesto de la escala, los desarrolladores que trabajan con las tecnologías en contenedores más nuevas, como Docker y Kubernetes, han insistido en que sus cargas de trabajo distribuidas y sin máquinas virtuales coexistan con las hiperconvergentes.

Lea también: ¿Qué es Docker y por qué es tan popular?

¿Cuál es la propuesta de valor?

Por lo tanto, la parte “hiper” de la hiperconvergencia normalmente se reduce un poco. La falta de una estrategia de coexistencia única y emergente para cualquier permutación de HCI ha dado a los principales proveedores en este espacio una oportunidad, no sólo para establecer una ventaja competitiva sino para insertar hardware especializado y servicios propietarios en la combinación. Los arquitectos de plataformas de centros de datos de código abierto como OpenStack citan esta respuesta de los proveedores como el resurgimiento de arquitecturas bloqueadas, al defender las arquitecturas de nube híbrida como alternativas efectivas.

La pregunta para muchas organizaciones: ¿Tiene valor adoptar una arquitectura cuyo mismo nombre sugiere la incorporación de todo, cuando la realidad dicta que solo debe adoptarse parcialmente e integrarse con el resto? Dicho de otra manera, ¿se puede ganar algo al abrazar un ideal que comenzó siendo inclusivo, pero que en la práctica termina siendo exclusivo después de todo?

¿Dónde se está produciendo realmente la convergencia?

En esencia, la infraestructura hiperconvergente permite la creación y ampliación de sistemas utilizando servidores como componentes básicos. Cada vez que instala un nuevo servidor que incluye una determinada cantidad de capacidad informática, quizás algo de almacenamiento adjunto y una porción de memoria, HCI se apropia de sus recursos y los delega a sus respectivos grupos. Un servidor se parece más a un plato, presentando recursos que pueden consumirse esencialmente a la carta.

¿Puede la hiperconvergencia simplificar el almacenamiento?

“El objetivo de la convergencia es desalojar la infraestructura y hacerla mucho más simple y ágil desde el punto de vista operativo, para que uno pueda centrarse en lo que realmente agrega valor al negocio”, explicó Krishnan Badrinarayanan, director de marketing de productos de HCI. Nutanix, proveedor de componentes, en una entrevista con . “En un nivel muy fundamental, la hiperconvergencia agrega valor en la capa física, donde converge esas unidades de almacenamiento, computación y redes, por lo que puedes construir estas plataformas de infraestructura increíblemente escalables, en las que confías a medida que crecen tus aplicaciones. y a medida que las demandas de su negocio crezcan”.

El ideal más amplio del llamado centro de datos definido por software (SDDC) es permitir que la configuración de los sistemas se adapte instantáneamente a las necesidades de las cargas de trabajo: permitir que los programas definan cómo funcionan los sistemas, en lugar de esquemas estrictos. La hiperconvergencia no es SDDC; más bien, el término se utiliza para referirse a ciertas estrategias para implementar SDDC que implican la mercantilización de los recursos del centro de datos. Lo que caracteriza a HCI es su objetivo de consolidar toda la gestión de centros de datos bajo un modelo nuevo y común que mantenga las cargas de trabajo en partes y, al hacerlo, buscaría reemplazar las herramientas más comunes para administrar sistemas en la actualidad, la Gestión de Infraestructura de Centros de Datos (DCIM). ).

“Nuestro mantra es que no queremos que los clientes abandonen la interfaz de vCenter. Ahí es donde deben poder administrar y hacer crecer ese entorno”.

Chad Dunn, Dell EMC

Lea también: Guía ejecutiva para el centro de datos definido por software (libro electrónico gratuito)

“El objetivo es converger todos los recursos necesarios para ejecutar aplicaciones”, argumentó el vicepresidente de marketing de productos de Nutanix, Greg Smith, “para converger los conjuntos de habilidades. Así que no necesito un especialista en almacenamiento; no necesito un especialista en redes”. ; No necesito un especialista en virtualización. Lo que obtienes es simplemente una pila completa, equivalente a una pila en la nube. Básicamente, obtengo una infraestructura, una pila completa sobre la cual puedo comenzar a aprovisionar mis aplicaciones rápidamente”.

La relativa facilidad con la que las cargas de trabajo basadas en la nube pública se aprovisionan en plataformas IaaS como Amazon AWS Servicio de computación elástica (EC2), argumentó Smith, reveló a las empresas que sus departamentos de TI ya no necesitaban un ejército de especialistas con habilidades únicas y compartimentadas. Todas las implementaciones de HCI tienen esto en común: se esfuerzan por replicar la facilidad con la que se administran las cargas de trabajo basadas en la nube pública, dentro de los propios centros de datos de sus clientes, en su propio hardware.

“Eso es lo que HCI promete ofrecer”, afirmó Smith. “Entonces, todas estas cosas sobre el almacenamiento y la virtualización… creo que oscurecen el punto más importante, que es que la hiperconvergencia logra proporcionar una pila de infraestructura completa, de modo que las empresas puedan aprovisionar aplicaciones rápidamente, sin tener que diseñar, construir y solucionar metódicamente sus problemas. infraestructura.”

Modelo de tejido de almacenamiento distribuido Acropolis de Nutanix para HCI.

(Imagen: Nutanix)

El modelo de Nutanix, llamado Acropolis (por su hipervisor Acropolis), se basa en la introducción de una única clase de dispositivo, llamado simplemente nodo, que asume el papel que tradicionalmente desempeña el servidor. Aunque, idealmente, un nodo proporcionaría una multitud de productos básicos, en una publicación en línea que ha denominado la Biblia de Nutanix, el propio Nutanix admite que su modelo combina de forma nativa solo los dos principales: computación y almacenamiento. Los dispositivos HCI de otros proveedores (por ejemplo, Cisco HyperFlex) también pueden combinar redes.

¿Incorporar o sustituir?

Uno de los principales puntos de discordia entre los proveedores de HCI es si una infraestructura verdaderamente convergente debería incorporar el conjunto de almacenamiento existente de un centro de datos o reemplazarlo por completo. Nutanix aboga por un enfoque más liberal: instituir lo que llama un tejido de almacenamiento distribuido (DSF). Con este enfoque, una de las máquinas virtuales que se ejecutan dentro de cada uno de sus nodos HCI es una máquina virtual controladora dedicada a la gestión del almacenamiento. En conjunto, supervisan un grupo de almacenamiento virtualizado que incorpora discos duros convencionales existentes con matrices de memoria flash. Dentro de este pool, Nutanix implementa su propio sistema de redundancias y comprobaciones de confiabilidad que elimina la necesidad de RAID convencional.

“Hay una razón por la que nos hemos quedado con el hardware UCS únicamente. Lo que estamos tratando de hacer es controlar realmente la simplicidad y la experiencia que tiene el cliente”.

Manish Agarwal, Cisco

En comparación, el enfoque principal de Dell EMC no puede darse el lujo de eliminar las redes de área de almacenamiento y los arreglos de almacenamiento conectados a la red que siguen siendo el principio clave de la empresa. En su implementación más reciente de nodos HCI, llamada VxRail, Dell EMC adopta cuidadosamente una capa de abstracción que utiliza almacenamiento definido por software (SDS), que Chad Dunn, vicepresidente de gestión de productos HCI de la empresa, considera que es un elemento principal de cualquier verdadera plataforma HCI.

SDS, dijo Dunn, “es mucho más flexible y es una tecnología de escalamiento horizontal. Cuantos más nodos agregue a su entorno, más capacidad de almacenamiento y más rendimiento de almacenamiento tendrá. Y puede escalar eso proporcionalmente con los recursos informáticos que tenga”. usted está agregando. La verdadera clave es que lo pone bajo un paradigma de administración. Ya no tengo diferentes organizaciones y diferentes herramientas que operan la infraestructura de almacenamiento, versus la informática, versus la infraestructura virtualizada y, cada vez más, incluso la infraestructura de red con software. -redes definidas.”

Dunn cree que es más probable que los clientes conecten nuevas clases de matrices de almacenamiento a sus entornos existentes de forma incremental o por etapas, en lugar de dar el paso y reemplazar su SAN y NAS por completo.

Arquitectura de plataforma de datos HyperFlex HX de Cisco.

(Imagen: Cisco)

El modelo HCI de Cisco, llamado HyperFlex (HX), implementa de manera similar un controlador VM en cada nodo, pero de tal manera que mantiene una conexión persistente con el hipervisor ESXi de VMware en la capa física. Aquí, Cisco enfatiza no sólo las ganancias que provienen de las redes estratégicas, sino también las oportunidades para insertar capas de abstracción que eliminan las dependencias que unen los componentes y restringen la forma en que interoperan.

De esta manera, para la próxima versión 3.0 de HyperFlex, los centros de datos pueden incorporar una variedad de construcciones de datos y almacenamiento abstracto, incluida una de las permutaciones más recientes, presentada por el orquestador de Kubernetes: volúmenes persistentes. En un sistema distribuido de Kubernetes, las piezas individuales de código, llamadas microservicios, pueden ampliarse o reducirse según la demanda, y esa reducción literalmente significa que las piezas de código pueden desaparecer cuando no están en uso. Para que los datos y las bases de datos sobrevivan a estas catástrofes menores, los desarrolladores han creado volúmenes persistentes, que en realidad no son construcciones de datos nuevas. Más bien, se generan mediante capas de abstracción, extendiendo las conexiones de los volúmenes de almacenamiento al entorno HCI sin tener que compartir los detalles o esquemas de esos volúmenes.

“Nuestra próxima versión HX 3.0 tiene la capacidad de tener el mismo clúster HyperFlex ejecutando máquinas virtuales y contenedores Docker administrados por un ecosistema Kubernetes”, explicó Manish Agarwal, director de gestión de productos HyperFlex de Cisco. “Así que hay un hilo separado en torno a Cisco Container Platform, donde hay cierta integración y cierta simplificación de la gestión”.

Cuando la hiperconvergencia no

Agarwal describió un centro de datos ideal, desde la perspectiva de Cisco, donde la parte HCI de su infraestructura coexiste con…