Saltar al contenido

Ashrae publica el estándar 90.4 para energía en el Datacenter

Después de tener este nuevo estándar durante varios años en el horno, por fin Asharae se ha decidido a publicar su nuevo estándar “90.4-2016, the Energy Standard for Data Centers“.

ashrae_logo_banner

como era de esperar, incluye recomendaciones en cuanto a diseño, construcción, operación y mantenimiento del Datacenter para maximizar su eficiencia.

¿La controversia esta servida?

Después de muchos tiempo evaluando la eficiencia del Datacenter en términos de PUE y DCIE (podéis leer más sobre estos concecptos aquí), ha saltado cierta controversia, ya que en la versión borrador del documento se fijaban niveles máximos de PUE y en la final se ha eliminado toda referencia a esto, ¿el motivo?, desde Ashrae dicen que los Datacenters son infraestructuras de misión critica y que por tanto la gestión del riesgo debe ser prioritaria a la propia mejora de la eficiencia.

Principales Cambios

El estándar 90.4 esta orientado ante todo al rendimiento de los componentes MLC (Mechacnical load components) y ELC (Electrical Loss Component) y se basa en el calculo y posterior comparación de nuestros MLC y ELC con con los máximos “permitidos”. Hay que decir que los valores de ELC y MLC varían  en función de las distintas zonas climáticas.

 

¿Qué opináis de estos cambios?

 

 

 

Oracle promete animar el sector Cloud en su OpenWorld

En el marco del Oracle OpenWorld 2016, Larry Ellison ha anunciado la intención de Oracle de apostar por los servicios en la nube y competir directamente con Amazon, Microsoft, Google e IBM, lo cual no es de extrañar después de las últimas adquisiciones:

avion-oracle-web

  • Netsuite
  • Opower

con un poco de suerte para el consumidor y si Oracle cumple lo prometido por su fundador, podríamos estar en la antesala de una guera de precios en el sector Cloud.

Xeon E7-88xx el Mata Unix, ¿o no?

Al más puro estilo de Juego de Tronos, hace poco participe en un interesante debate sobre los nuevo Xeon E7 V4 y si estos estaban llamados a ser un “Mata Unix”, refiriéndose a los procesadores de arquitectura no x86, que se suelen usar en máquinas de misión critica.

xeon_e7_v4_chips

 

hay que reconocer que este procesador es una autentica bestia capaz de mover grandes cargas de trabajo, pero veamos algunas de sus características (del 8890):

e7_v4_features1 e7_v4_features2 e7_v4_features3

 

Como podéis ver con cada uno de estos chips podríamos tener:

  • 24 cores
  • 48 hilos de ejecución
  • 3TB de memoria direccionable

a lo anterior hay que sumar que ese chip puede montarse en configuraciones de hasta 8 vías, lo que nos dejaría la nada desdeñable cifra de:

  • 192 cores
  • 384 hilos de ejecución
  • 24 TB de RAM

¿Estamos realmente ante el fin de los Sparc, Power & company?

En mi opinión los x86 han alcanzado ya un nivel que los hace aptos para cualquier carga de trabajo, al fin y al cabo no es casualidad que la mayoría de los clusters HPC en el TOP500 sean x86, pudiendo ejecutar con éxito bases de datos, servidores de aplicaciones, etc. El precio, bastante menor que el de sus rivales y el gran ecosistemas de S.O. y aplicaciones existentes son uno de los principales puntos a su favor.

¿Por qué sobreviven entonces los procesadores NO x86?

Podríamos estar todo el día discutiendo sobre esto, pero os voy a contar las que para mi son las claves de su supervivencia:

  1. Por supuesto y al igual que los Xeon, estos son cada vez más potentes
  2. Tienen marcas muy potentes detrás, que además comercializan productos de referencia (un ejemplo sería Oracle), lo que hace que se creen sinergias del tipo Máquina, S.O., Aplicación… todo de un único fabricante, bajo un único soporte y diseñado desde el principio para integrarse
  3. Los Unixes que ejecuten las máquinas con procesadores tipo Sparc, Power, etc. son piezas de software muy estable, que ya ejecutaban aplicaciones y servicios de misión critica antes si quiera de que existiese gran parte del software que ahora conocemos
  4. Resistencia al cambio

Lejos de desaparecer, nuevos desarrollos como el del chip chino que esta revolucionando el HPC (podéis leer aquí), se apoyan en diseños de chips que parecían olvidados

Rack Scale Design, el rival de Open Compute

Rack Scale Design – anteriormente conocido como  Rack Scale Architecture (probablemente lo hayan cambiado porque RSA ya tiene registrada esa marca) – se puede describir como la respuesta de  Intel al proyecto Open Compute. Se trata por tanto de una arquitectura estandarizada que permita a los fabricantes tradicionales de servidores vender equipamiento a operadores de Datacenter tipo hyperscale (Google, Facebook, operadores de cloud, etc.).

Logo_intel

¿En que consiste?

Pues básicamente en establecer los requerimientos (a cumplir con HW Intel, logicamente) para diseñar componentes de Datacenter compatibles con el diseño Rack Scale y que permitirán a cualquier fabricante, tener productos aptos para el gran Datacenter

rack_scale_architecture

Podéis consultar la Web del proyecto aquí.

Piton, ¿la próxima generación de procesadores OpenSource?

Hace unos días la prensa se hizo eco de una noticia que puede ser impactante (como lo son muchos titulares), pero que para los apasionados de este mundillo (más si te formaste como profesional rodeado de máquinas SUN) no lo es tanto, es más, llevabamos tiempo esperando avances de este tipo.

Logo_piton

 

Un poco de historia

En el principio de los tiempos (bueno, no tanto, pero ya casi lo parece :-)), en la informática doméstica sobre todo, se inicio una carrera por bien quien fabricaba la CPU de mayor frecuencia (era la época de los Athlon y los Pentium IV). Esta línea de evolución para las CPUs planteaba varios problemas, los principales

  • Mayor frecuencia, mayor disipación de calor y consumo
  • Mayor coste en la fabricación del chip

algunos de estos problemas se paliaron durante un tiempo con las mejoras en tecnlogías de integración, pero estaba claro de que el aumento de frecuencia por si solo, tenía un recorrido muy corto.

Democratización de sistemas multi-procesador:

Hasta la llegada de tecnologías como el Hyperthreading o los diseños multi-core de procesador, los sistemas multi-procesador estaban reservados a entornos de servidor y eran muy costosos, lo que cambio radicalmente con la llegada de los chips multi-core. Esta nueva dirección en el desarrollo de las CPUs, permitió que tanto los chips domésticos como los destinados al mundo profesional cambiaran radicalmente su manera de ofrecer “potencia de calculo”:

  • Donde antes se ofrecía GHz como única medida de desempeño, ahora se ofrecían múltiples cores, de menor frecuencia, pero con capacidad para ejecutar tareas simultaneas
  • Las mejoras en las técnicas de integración, se usaron para incrementar el nº de cores por chip
  • La aparición de tecnologías web, de Java y otras muchas tecnologías con fondo “multi-hebra”, sacaban partido de esta capacidad de paralelizar el trabajo
  • Los sistemas operativos (algunos ya lo tenían…otros lo desarrollaron), cada vez trabajan mejor con entornos multi-hilo.

OpenSPARC T1:

Es la versión OpenSource del procesador SPARC T1 de SUN Microsystem, también llamado NIAGARA. Los más viejos del lugar recordaréis que era el procesador que equipaban los T1000 y T2000 de SUN, unas máquinas que fueron revolucionarias en su tiempo.

SUN-T1000

<servidor T1000 cortesía de Oracle>

¿Por qué fueron tan innovadoras en su tiempo?, porque en una época en la que el multi-core y multi-hilo no estaba tan desarrollado, SUN irrumpió en el mercado con un procesador de bajo consumo y con capacidad para 32 hilos de ejecución por chip.

Uno de los grandes legados de SUN, fue hacer OpenSource la arquitectura del T1 (la gran pena es que no dio tiempo a liberar el T2, tal y como habían anunciado, antes de la adquisición por parte de Oracle).

OpenSparc_T1

<arquitectura OpenSPARC T1, cortesía de Oracle>

Piton:

Piton, que no Python es un desarrollo a partir de OpenSPARC T1 realizado por la universidad de Princeton (podéis visitar la página web del proyecto aquí) que ha construido un chip basado en el T1 con las siguientes características:

  • 25 modified OpenSPARC T1 cores
  • Directory-based shared memory
  • 3 On-chip networks
  • Multi-chip shared memory support
  • 1 GHz clock frequency
  • IBM 32nm SOI process (6mm*6mm)
  • 460 million transistors

es decir nos encontraríamos ante un procesador (no olvidemos que de diseño OpenSource) que nos permitiría construir un sistema con 200.000 cores (a partir de 8000 chips). Semejante brutalidad (perdonad la expresión) de capacidad multihilo revolucionaría los Datacenter con problemática Webscale.

Es importante señalar que no todas las cargas de trabajo son altamente paralelizables y que este tipo de enfoques genera otro tipo de problemas, por lo que habrá que seguir de cerca como esta tecnología se lleva al mercado (que llegará, ya sea de manera directa o inspirando a terceros 😉 ).

 

Nutanix – Hyperconvergencia ¿quién es quién? (II)

Este artículo (continuación de este), pretende dar algunas pinceladas a mayor profundidad de la solución Nutanix y que puede aportarnos.

Funcionalidades:

Básicamente todas (por algo son los actuales lideres del mercado), un pequeño listado que podréis ver ampliado posteriormente con la explicación del licenciamiento sería este:

  • Compresión: la realiza de manera inline sobre discos de estado solido y tiene posibilidad de realizarla también offline (MapRedu Compression) sobre la capa fria (discos SATA)
  • Deduplicación: la realiza de manera inline sobre discos de estado solido y tiene posibilidad de realizarla también offline (MapRedu Compression) sobre la capa fria (discos SATA)
  • Factor de replica: puede ser 2 ó 3 (nº de copias del dato que guardamos)
  • Multi-Hypervisor: soporte para KVM, Hyper-V (2012 y posteriores), VMware
  • Integración SRA y VSS
  • Soporte para sitios de Recuperación (BRS)
  • Rest APIs (muy útiles para automatización)
  • Servidor de ficheros a 3º
  • Soporte para NFS,iSCSI,CIFS
  • y mucho más

Licenciamiento:

Es relativamente sencillo ya que tenemos 3 opciones:

  • Starter
  • Pro
  • Ultimate

en el caso de los modelos Nutanix Xpress, existe una licencia especifica para ellos (Xpress software edition), que coge características de las anteriores licencias y pone algunos limites a su uso (algo parecido a los packs Essential de VMware o Veeam).

Nutanix_Licencia1

Nutanix_Licencia2

Nutanix_Licencia3

Hardware/Modelos:

Aquí la nomenclatura depende del fabricante, es decir, modelos “equivalentes” en características se llamaran de manera diferente en función de si son Nutanix (SuperMicro), Dell o Lenovo, por ello en este artículo me voy a referir únicamente a los modelos comercializados directamente por Nutanix, por ser un poco la guía que sirve para estructurar el portfolio del resto de fabricantes.

Nutanix_Series

 

Los bloques 1000 y 3000 son los que más veréis, por ser los más “polivalentes” y económicos, si bien todos los modelos son muy flexibles en cuanto a tipos de carga de trabajo.

La serie 1000 utiliza procesadores duales y puede llevar hasta 3 discos por nodo, uno de ellos SSD, la serie 3000 permite 6 discos por nodo (dos e ellos SSD).

Cada bloque, independientemente de si es 1000 o 3000, cuenta con doble fuente, tiene un tamaño de 2U y soporta hasta 4 nodos.

Nutanix_Sin_Frontal

<imagen frontal de un serie 3000>

Trasera_Nutanix

<imagen trasera de un bloque x000 con 4 nodos>

Aquí os adjunto las características de la serie 3000 y 1000 a 4 de septiembre de 2016 (lógicamente los modelos sufre refresco tecnológico)

NX3000-Series

NX1000-Series

si queréis ver el resto de características de estos modelos y de los restantes podéis hacerlo aquí.

Para finalizar esta serie de artículos de introducción a la Hyperconvergencia (en lo referente a Nutanix) y poder abordar las alternativas existentes, en la última entrega abordaremos la tecnología detrás de NDFS y sus CVMs.

Os espero en el siguiente artículo.

VMware vSphere Best Practices

En más de una ocasión me han preguntado por las guías o lecturas recomendadas para aprender de VMware y yo siempre contesto lo mismo…..”Todo lo que caiga en tus manos… todo lo que puedas aprender de gente con más experiencia que tú”. En la red hay material de gran calidad y existen numerosas publicaciones al respecto, en cualquier caso el propio fabricante ya nos provee de gran cantidad de información que nos será de gran utilidad.

vmware-logo

A continuación os dejo una recopilación de urls que uso habitualmente para recordar aspectos y mejorar los diseños de los proyectos en los que participo, espero os sean a vosotros de tanta utilidad como a mí.

 VMware vSphere Best Practices

Performance Best Practices for VMware vSphere 6.0

Best practices and advanced features for VMware vSphere 6.0 High Availability

vCenter Server 6.0 installation Best Practices

VMware vCenter Server 6.0 Availability Guide

Upgrading to vCenter Server 6.0 best practices

Installing vCenter Server 5.5 best practices

Upgrading to vCenter Server 5.5 best practices

VMware® Network I/O Control: Architecture, Performance and Best Practice

VMware vSphere vMotion Architecture, Performance and Best Practices in VMware vSphere

vCenter Server and vSphere Client Hardware Requirements

Minimum requirements for installing the vSphere Client and vSphere Web Client 5.x

VMware Compatibility Guide

VMware vSphere High Availability 5.0 Deployment Best Practices

vSphere 5.5 Availability

Best Practices for vSphere 5.5 HA Clusters

vSphere 5.0 Hardening Guide

Best Practices for Performance Tuning of Latency-Sensitive Workloads in vSphere VMs

VMware vSphere VMFS

VMware vSphere Distributed Switch Best Practices

VMware ESX and VMware ESXi

VMware Storage Best Practices

VMware vCenter CapacityIQ Documentation

 

por supuesto, existen otras muchas guías por ejemplo de fabricantes (EMC,Netapp, etc.) que podéis consultar para mejorar vuestras implementaciones.

Si conocéis algún otro material que resulte de interés y queráis compartir os animo a hacerlo. 🙂

 

Nutanix compra PermixData

Los chic@s de Nutanix estan especialmente activos este verano, si hace poco anunciaban el soporte de Cisco UCS como plataforma para su software (con algún que otro roce con Cisco), el 28 se hacía publico el acuerdo por la compra de PernixData

Logo_NutanixPernixData_Logo_Color

sin duda es una compra muy interesante que podría permitir a Nutanix dar un salto cualitativo en el rendimiento (ya de por si muy alto) de su almacenamiento, al incorporar la tecnología de aceleración de PernixData.

 

la prensa del sector ya se hace eco del acuerdo:

http://www.eweek.com/enterprise-apps/nutanix-acquires-pernixdata-calm.io-to-boost-data-center-ip.html

http://www.theregister.co.uk/2016/08/29/nutanix_nabs_pernixdata_and_calmio/

Nutanix y Cisco UCS, aproximación distinta a DELL y Lenovo

Hace unos días se hacía publica una de las noticias más importantes del verano en el mundo de la Hyperconvergencia, concretamente el anuncio por parte de Nutanix del soporte ed CISCO UCS como plataforma HW para su software Hyperconvergente (puedes leer más aquí).

Nutanix-Cisco-UCS

 

Este anuncio venía a ampliar la gama de HW soportado por Nutanix, actualmente Cisco UCS, Dell, Lenovo y el HW Nutanix oemizado de SuperMicro (para evitar suspicacias se citan en orden alfabetico :-)) .

 

¿Qué diferencia hay con respecto a Dell o Lenovo?

Tanto con Dell como con Lenovo, Nutanix tiene un acuerdo (OEM) para llevar su software a estas plataformas de manera conjunta, con CISCO no existe tal acuerdo, es decir Nutanix se ha encargado de llevar su software a esta plataforma. Hay quien dice que las fallidas negociaciones de adquisición en 2015 de Nutanix por parte de Cisco y los planes de esta última para desarrollar su propia plataforma Hyperconvergente.

¿Por qué lo ha hecho en solitario?

Probablemente y esto es mi opinión por dos motivos, el primero que no han llegado a un acuerdo similar al que tienen con Lenovo y Cisco y segundo, que a pesar de no tener acuerdo, la plataforma CISCO UCS tiene mucha presencia en un target de cliente que interesa mucho a Nutanix.

 

En cualquier caso y sea como fuere, es una gran noticia que el soporte de Nutanix se extienda a una plataforma como UCS.