Nuevos planteamientos en los centros de datos

Tikiri Wanduragala

17/08/2016

Tikiri Wanduragala, asesor sénior de sistemas de servidores x86 para EMEA de Lenovo, resume sus últimos artículos con un análisis del cambio hacia la definición por software y lo que supone para Lenovo, sus clientes y el sector en general.

Este artículo pretende reunir ciertas ideas que he tocado en otras ocasiones para formar un todo coherente. Echando la vista atrás a los últimos meses, está claro que lo fundamental es algo que a primera vista puede parecer insignificante: un cambio de nombre.

El grupo del que formo parte en Lenovo ahora se llama Grupo de Centros de Datos (DCG, por sus siglas en inglés), que antes se denominaba Grupo de Iniciativas Empresariales (EBG). La razón por la que hemos cambiado el nombre es que queremos centrarnos en los enormes cambios que estamos observando en el mercado y seguir teniendo un papel relevante en él.

¿Qué está cambiando?

Hoy por hoy los clientes tienen que mantener el ritmo de la explosión de información y datos que necesitan sus empresas. Además, deben hacerlo con un presupuesto invariable o reducido, y un conjunto fijo de personal y capacidades. Esa es la circunstancia macroeconómica subyacente.

Al mismo tiempo, muchas de las nuevas tecnologías que irrumpen constantemente en el mercado podrían tener un fuerte impacto. Una de ellas está en el ámbito de las tecnologías de escala web, como por ejemplo Amazon, eBay, Google y Facebook. Pueden abordar algunos de los problemas que sus clientes tienen con los datos o, concretamente, con los requisitos de capacidad para big data.

Asimismo, las tecnologías SSD y Flash van acercándose. La combinación de ambas cosas, laescala web y Flash, está dando pie a las tecnologías que denominamos definidas por software. Estas trasladan la gestión y el abastecimiento a la aplicación. La gente empieza a ver estas tecnologías como el siguiente bombazo.

Pero hay problemas. Se trata de algo muy nuevo, de modo que los clientes tienen que formar de nuevo a sus empleados y aprender técnicas nuevas. Pero el principal problema es la descomposición de los silos. Se trata de una fusión de cargas de trabajo (o aplicaciones), redes, almacenamiento y servidores.

En lugar de pensar en los servidores, las redes, etc., ahora los clientes piensan en el centro de datos en conjunto y lo consideran el centro de su organización. Esto es lo que ha propiciado el cambio de nombre: ahora se trata de ir más allá de los servidores y hacia todos los elementos que componen un centro de datos y todo lo que lo acompaña.

El papel de Lenovo

Tenemos una herencia o legado en el componente clave‑el servidor‑, y un historial de creación de servidores de muy alta calidad. Lo que es más importante, también contamos con una importante experiencia en dos áreas que atraviesan las mayores perturbaciones: las redes y el almacenamiento.

Hay muchas empresas nuevas en el mercado de redes y almacenamiento definidos por software. El componente fundamental de los centros de datos ha evolucionado, desde los subsistemas (redes, almacenamiento, etc.) y lo que está en su interior hasta el servidor. Así es como lo conciben las empresas de escala web: olvidemos los pormenores y usemos los servidores como un pilar sobre el que construir. De nuevo, y gracias a nuestro legado, esto nos beneficia.

Este nuevo tipo de centro de datos no lo construirá una sola empresa, y puesto que nosotros trabajamos la infraestructura mientras que muchos de los nuevos avances se producen en el software, podemos asociarnos con las nuevas empresas sin que se creen conflictos. Al no haber conflicto, la integración es mejor, y también lo es la capacidad de lanzar productos al mercado rápidamente. Las asociaciones de Lenovo con Nutanix y Cloudian son ejemplos de ello.

Para los clientes esto significa que ahora es posible reducir significativamente el espacio necesario para sus centros de datos, es decir, el número de máquinas alojadas en el mismo. La estructura de gestión proviene de las empresas de escala web que están acostumbradas a administrar un gran número de servidores con muy poco personal. A continuación interviene un nivel elevado de automatización y orquestación, que influyen en los costes de explotación y de capital.

¿A cuántos años vista?

Cuando hablo de estas nuevas tecnologías, me preguntan a menudo cuándo se popularizará todo esto. Lo cierto es que no hay una respuesta sencilla, pero podemos emplear la virtualización como ejemplo.

Yo empecé a trabajar con tecnologías de virtualización hacia 2001 y por entonces hubo muchas reacciones negativas. Era muy reciente y la gente no la comprendía: el problema habitual de las nuevas tecnologías. Pero entonces se empezó a adoptar en entornos de bajo riesgo porque la gente veía las ventajas de reducir el número de servidores.

Entre el año 2000 y el 2005 el producto evolucionó y la aceptación por parte de los clientes cambió. Desde entonces y hasta 2008 se transformó en una tecnología aceptada y ahora es la norma. De modo que si consideramos que la definición por software es algo similar porque se trata de virtualizar la red, el almacenamiento y el servidor por completo, debería seguir un camino similar, pero con un elemento acelerador: ahora ya sabemos lo que es la virtualización y comprendemos sus ventajas y cómo funciona.

Esta nueva tecnología tiene un enorme potencial. Para ser sincero, lo que promete es un disparate. Solo con que pudiera alcanzar el 20 por ciento de su potencial sería increíble. Y debe ser así, porque el problema es enorme. Estas empresas de escala web tienen miles de millones de usuarios. Y estas empresas nacidas del Internet, tienen una forma de pensar completamente nueva.

TAMBIÉN LE PUEDE INTERESAR...

La oficina de cara a 2020

Todo lo que necesitan saber las organizaciones del siglo XXI.