Cisco Cisco HyperFlex HX220c M4 Node White Paper

Page of 35
 
 
© 2016 Cisco and/or its affiliates. All rights reserved. This document is Cisco Public. 
Page 16 of 35 
 
Hardware and Software Specifications  
Table 2 provides cluster-based specifications. It shows the hardware required for a minimum configuration cluster 
with N+1 resiliency.  
Table 2. 
Cluster-Based Specifications 
Description 
Specification 
Notes 
Hyperconverged nodes 
8 Cisco HyperFlex HX220c M4 Nodes 
A cluster can consist of 4 to 8 nodes. 
Fabric interconnects  
2 Cisco UCS 6248UP fabric 
interconnects 
Fabric interconnects provide policy-based stateless 
computing. 
Layer 2 switches  
2 Cisco Nexus 9372PX Switches 
Optional: Deploy a pair of any 10-Gbps switches for 
connectivity. 
 
Table 3 provides individual node specifications. It presents component-level details for each node of the cluster 
used in the tests reported in this document. 
Table 3. 
Individual Node Specifications 
Description 
Specification 
Notes 
CPU 
2 Intel Xeon processor E5-2680 v3 CPUs 
  
Memory 
24 x 16-GB DIMMs 
  
FlexFlash Secure Digital (SD) card 
2 x 64-GB SD cards 
Boot drives 
SSD 
1 x 120-GB SSD 
Configured for housekeeping tasks 
  
1 x 480 GB SSD 
Configured as cache 
HDD 
6 x 1.2-TB 10,000-rpm 12-Gbps SAS drives 
Capacity disks for each node 
Hypervisor 
VMware vSphere 6.0 U1B 
Virtual platform for SDS 
Cisco HyperFlex HX Data Platform 
software (SDS) 
Cisco HyperFlex HX Data Platform Release 1.7.1 
  
 
You can use the VMware vCenter web client to obtain an enterprisewide view. You can set up each vCenter server 
instance to manage multiple Cisco HyperFlex HX-Series clusters to scale with separation across clusters for 
greater security. You can also then extend this model by connecting multiple instances of vCenter servers using 
vCenter linked mode if desired. Linking multiple vCenter instances allows you to view and search resources across 
all instances (Figure 6).