Intel MPI999LSGE1 User Manual

Page of 4
 
Product Brief 
Intel® MPI Library 5.0 
HIGH PERFORMANCE MPI 
LIBRARY FOR CLUSTER 
MESSAGING 
 
 
 
 
 
 
 
 
 
 
Top Features 
 
Scalability verified up to 150k 
processes 
 
Supports the latest MPI-3 
standard  
 
MPICH ABI compatibility 
 
Available in cluster tools suite: 
 
Intel® Cluster Studio XE 
 
Interoperable Products 
 
Intel® Composer XE 
 
Intel® VTune™ Amplifier XE 
 
Intel® Inspector XE 
 
Intel® Math Kernel Library 
 
Intel® Trace Analyzer and 
Collector 
 
OS Support: 
 
Windows* 
 
Linux* 
 
“Fast and accurate state of the art 
general purpose CFD solvers is the 
focus at S & I Engineering 
Solutions Pvt, Ltd.  Scalability and 
efficiency are key to us when it 
comes to our choice and use of MPI 
Libraries.  The Intel® MPI Library 
has enabled us to scale to over 10k 
cores with  high efficiency and 
performance.”   
Nikhil Vijay Shende, Director, S & I Engineering 
Solutions, Pvt. Ltd. 
Deliver Flexible, Efficient, and Scalable Cluster 
Messaging 
Intel® MPI Library focuses on making applications perform better on Intel® architecture-
based clusters—implementing the high performance Message Passing Interface Version 
3.0 specification on multiple fabrics. It enables you to quickly deliver maximum end user 
performance even if you change or upgrade to new interconnects, without requiring 
changes to the software or operating environment. 
Use this high performance MPI library to develop applications that can run on multiple 
cluster interconnects chosen by the user at runtime. Benefit from a free runtime 
environment kit for products developed with Intel MPI library. Get excellent performance 
for enterprise, divisional, departmental, workgroup, and personal High Performance 
Computing. 
 
Intel® MPI Library (Intel® MPI) provides reduced MPI latency which can result in faster throughput. 
3.1
2.5
3.4
2.9
2.2
1
1
1
1
1
0.0
1.0
2.0
3.0
4.0
4 bytes
512 bytes 16 Kbytes 128 Kbytes 4 Mbytes
S
p
eed
up
 (ti
m
es)
Intel MPI 5.0
Platform MPI 9.1.2 CE
MVAPICH2 2.0rc2
OpenMPI 1.7.3
Superior Performance with Intel® MPI Library 5.0
192 Processes, 8 nodes (InfiniBand + shared memory), Linux* 64
Relative (Geomean) MPI Latency Benchmarks (Higher is Better)
3.1X 
Faster
Configuration:  Hardware: CPU: Dual Intel® Xeon E5-2697v2@2.70Ghz; 64 GB RAM. Interconnect:  Mellanox Technologies*  MT27500 Family [ConnectX*-3] FDR..  Software: 
RedHat* RHEL 6.2; OFED 3.5-2; Intel® MPI Library 5.0 Intel® MPI Benchmarks  3.2.4 (default parameters; built with Intel® C++ Compiler XE 13.1.1 for Linux*); 
Software and workloads  used in performance tests may have been optimized for performance only on Intel microprocessors.   Performance  tests, such as SYSmark and 
MobileMark, are measured using specific computer systems, components,  software, operations and functions.  Any change to any of those factors may cause the results to 
vary.  You should consult other information  and performance tests to assist you in fully evaluating your contemplated purchases, including the performance of that product 
when combined with other products.   * Other brands and names are the property of their respective owners.   Benchmark  Source: Intel Corporation
Optimization Notice: Intel’s compilers may or may not optimize to the same degree for non-Intel microprocessors for optimizations that are not unique 
to Intel microprocessors. These optimizations include SSE2, SSE3, and SSSE3 instruction sets and other optimizations. Intel does not guarantee the 
availability, functionality, or effectiveness of any optimization on microprocessors not manufactured by Intel. Microprocessor-dependent optimizations in 
this product are intended for use with Intel microprocessors. Certain optimizations not specific to Intel microarchitecture are reserved for Intel 
microprocessors. Please refer to the applicable product User and Reference Guides for more information regarding the specific instruction sets covered 
by this notice.  Notice revision #20110804 . 
2.5X 
Faster
3.4X 
Faster
2.9X 
Faster
2.2X 
Faster