Juniper EX8200-48T Ficha De Dados

Página de 6
2
density, wire-speed 10-Gigabit Ethernet interconnects in metro 
area networks, Internet exchange points, and points of presence 
(POPs). The 10-Gigabit Ethernet port densities afforded by 
the EX8200-8XS line cards also enable EX8200 switches to 
consolidate aggregation and core layers in the data center, 
simplifying the network architecture and reducing power, space, 
and cooling requirements while lowering total cost of ownership 
(TCO).
EX8200-40XS:  The EX8200-40XS is a 40-port oversubscribed 
10GbE solution for data center end-of-row and middle-of-row 
server access, as well as for data center blade switch and top-
of-rack or campus uplink aggregation deployments. Optimized 
for data center networks migrating from GbE to 10GbE interfaces 
where simultaneous line-rate performance is not required on 
all ports, the EX8200-40XS supports a wide range of both 
SFP (GbE) and SFP+ (10 GbE) modular optical interfaces for 
connecting over multimode fiber, single-mode fiber, and copper 
cabling.  
The 40 SFP/SFP+ ports on the EX8200-40XS are divided into 
8 independent groups of 5 ports each. Because port groups 
are independent of one another, each group can have its own 
oversubscription ratio, providing customers with maximum 
deployment flexibility.  Each group dedicates 10 gigabits per 
second (Gbps) of switching bandwidth to be dynamically 
shared among the ports; queues are allocated within a 1MB 
oversubscription buffer based on the number of active ports in a 
group and the types of interfaces installed. Users simply connect 
the cables and the EX8200-40XS automatically provisions each 
port group accordingly. No manual configuration is required.  
The EX8200-40XS line card can satisfy either 10GbE or GbE 
applications within each port group independently, providing the 
perfect migration vehicle for customers transitioning to higher-
speed connectivity.  
Features and Benefits
The EX8200 PFE2 complex is comprised of two ASICs: the packet 
processor and the switch fabric interface. The hardware pipeline 
on the packet processor ASIC supports approximately 960 Mpps 
of Layer 2 and Layer 3 IPv4 and IPv6 traffic in the EX8208, and 
more than 1900 Mpps in the EX8216. Wire-speed performance 
is maintained regardless of packet size, from 64- to 9216-byte 
jumbo frames across both L2 and L3 interfaces. Firewall (access 
control list) filtering, marking, and rate limiting also occur at wire 
rate, with up to 64,000 entries across L2-L4 packet headers that 
can be applied per port, per VLAN, and per routed interface. 
The packet processor ASIC also supports generic routing 
encapsulation (GRE) tunneling and two-label MPLS in hardware 
at line rate .  Additional packet processor ASIC capabilities include 
multiple queues for CPU-bound control traffic to protect the 
Routing Engine from denial of service (DoS) attacks, and support 
for up to seven mirrored analyzer sessions directed to individual 
ports, VLANs, or tunneled interfaces.
The switch fabric interface ASIC of the EX-PFE2 manages the 
large ingress and egress buffers that provide congestion avoidance 
and traffic prioritization. On ingress, each switch fabric interface 
queues packets based on destination using dedicated high- and 
low-priority buffers for each wire-speed, 10-Gigabit Ethernet 
egress port, or each group of 12 Gigabit Ethernet ports in the 
system. These weighted random early detection (WRED) virtual 
output queues—up to 8,192 in an EX8216 chassis—prevent “head-
of-line blocking” among ports on the same line card, ensuring 
complete independence of traffic flows among all 10-Gigabit 
Ethernet ports in the system.
The switch fabric interface also manages the transfer of data 
across the distributed, single-tier crossbar switch fabric. Data is 
evenly distributed across the fabric to balance traffic load and 
ensure graceful degradation of performance in the event of a non-
redundant switch fabric failure. Multicast traffic is also balanced 
across the system using the same line-rate, binary-tree replication 
process as the Juniper Networks T Series Core Routers and the 
Juniper Networks MX Series 3D Universal Edge Routers, minimizing 
fabric congestion while reducing latency.
On egress, the switch fabric interface provides eight dedicated 
queues per port, mapped according to class of service (CoS) or 
DiffServ code point (DSCP) values. A WRED scheduler is used for 
congestion avoidance within each queue, while administrator-
configured strict and weighted round-robin priority options are 
available between queues on a single port. Multicast traffic is 
managed independent of unicast traffic.
Total buffer size is 512 MB on each EX8200-8XS 10-Gigabit 
Ethernet port or each EX8200-40XS port group, and 42 MB 
on each EX8200-48T and EX8200-48F Gigabit Ethernet port, 
providing 50-100 ms of bandwidth delay buffering. These deep 
buffers and ingress and egress queuing mechanisms are critical 
to managing mission-critical data, handling bursty traffic, 
and limiting TCP/IP retries at the application level to free up 
bandwidth, reduce latency and allow a higher quantity of both 
unicast and multicast application flows across the network.
All packets pass through the entire EX-PFE2 ingress pipeline, the 
switch fabric, and the EX-PFE2 egress pipeline. This consistency 
of packet processing ensures that the EX-PFE2 is capable of 
delivering port-to-port latencies of under 10 μs, regardless of 
ingress or egress port location. 
Up to 255 link aggregation groups (LAGs) are supported, ensuring 
that the large number of high-density Gigabit Ethernet LAGs found 
in campus and data center core and aggregation deployments can 
be accommodated. Up to 12 ports may be bundled into a single 
LAG, allowing 120 Gbps logical interfaces to be created using a full 
L2-L4 hash algorithm for optimal load balancing. Ports in a LAG 
may be distributed across line cards within an EX8200 switch for 
an added level of resiliency. Automatic detection, recovery, and 
redistribution of LAG traffic in the event of a port, link, or line card 
failure is supported for highly reliable connections.