- 1HE Rackmount Server, 64-Kerne bis zu 225W TDP
- Dual Sockel SP3, AMD EPYC 7003 Serie Prozessor
- 32x DIMM-Steckplätze, bis zu 8TB RAM DDR4-3200MHz
- 10x 2.5 Gen4 U.2 hot-swap SSD-Schächte
- 2x PCI-E 4.0 x16 Expansion-Steckplätze und 2x OCP
- 2x 1GbE LAN-Anschlüsse über Intel I350-AM2
- 2x 1200W redundante Stromversorgungen (Platinum Level)
besonderes Highlight
Bis zu 3x double-Slot GPU-Karten
- 2HE Rackmount Server, bis zu 270W CPU TDP
- Dual Sockel P+, Intel Xeon Scalable Prozessor 3rd Gen
- 32x DIMM Steckplätze, bis zu 8TB RAM DDR4-3200MHz
- 12x 3.5 Hot-swap SATA/SAS/NVMe Laufwerkeinschübe
- 5x PCI-E Gen4 x16 Expansion-Slots
- Unterstützung bis zu 3x GPU-Karten (Dual Slot)
- 2x 2400W redundante Stromversorgungen (Platinum Level)
besonderes Highlight
All-NVMe Server
für PCI-e 4.0 NVMe
- 2HE Rackmount, 64-Kerne bis zu 225W TDP
- Dual Sockel SP3, AMD EPYC 7003 Serie Prozessor
- 32x DIMM-Steckplätze, bis zu 8TB RAM DDR4-3200MHz
- 26x 2.5 hot-swap Laufwerkseinschübe
- 7x PCI-E 4.0 Expansion-Slots, 2x OCP
- Hardware-level Root of Trust Unterstützung
- 2x 1600W redundante Stromversorgungen (Platinum Level)
besonderes Highlight
Vollständiger Front-Zugang zu allen Anschlüssen
- 2HE Rackmount Multi Node Server, bis zu 205W cTDP
- Single Sockel P+, 3rd Gen Intel Xeon Scalable Prozessoren
- 8x DIMM-Steckplätze, bis zu 2TB RAM DDR4-3200MHz
- 2x M.2 NVMe
- 1x RJ45 GbE LAN-Anschluss
- 1x LP PCI-E 4.0 x16, 2x PCI-E 4.0 x16 FH/HL Steckplätze
- 2x 2000W AC redundante Netzteile
besonderes Highlight
Alle Anschlüsse frontseitig
- 2HE Rackmount Server, bis zu 205W cTDP, bis zu 3-Nodes
- Single Sockel P+, 3rd Gen Intel Xeon Scalable Prozessoren
- 8x DIMM-Steckplätze, bis zu 2TB RAM DDR4-3200MHz
- 2x M.2 NVMe
- 1x RJ45 GbE LAN-Anschluss
- 1x LP PCI-E 4.0 x16, 2x PCI-E 4.0 x16 FH/HL Steckplätze
- 2x 2000W DC redundante Netzteile mit PMBus
besonderes Highlight
Ampere Altra M128-30 inklusive
- 1HE Rackmount Server, bis zu 128 Kerne
- Single Ampere Altra Max CPU, 128 Arm 3 Ghz v8.2+ 64bit
- 16x DIMM-Steckplätze, bis zu 4TB RAM DDR4-3200MHz
- 10x 2.5 Zoll hot-swap Laufwerkseinschübe
- 1x PCI-E 4.0 x16 FHHL Steckplatz, 1x OCP 2.0
- 2x M.2 Steckplätze mit PCI-E 4.0 x4 Interface
- 2x 650W redundante Stromversorgungen (Platinum Level)
- 2HE Rackmount Server, 4-way bis zu 250W TDP
- Quad Socket P+, 3rd Gen Intel Xeon Scalable Prozessoren
- 48x DIMM Steckplätze, bis zu 6TB RAM DDR4-3200MHz
- 8x PCI-E 3.0 x16-Expansion-Slots und 1x OCP 3.0
- 2x 10GbE LAN-Anschlüsse über Intel X710-AT2
- 2x 3200W redundante Stromversorgungen (Platinum Level)
besonderes Highlight
4-way Quad Xeon 4 GPU Server
- 2HE Rackmount Server, 4-way bis zu 165W TDP
- Quad-Sockel P+, 3rd Gen Intel Xeon Scalable Prozessoren
- 48x DIMM-Steckplätze, bis zu 6TB RAM DDR4-3200MHz
- 10x 2.5 NVMe/SAS/SATA hot-swap Laufwerkseinschübe
- 6x PCI-E 3.0 x16-Expansion und 1x OCP 3.0 x16 Steckplätze
- Unterstützt bis zu 4x Double-Steckplätze GPU-Karten
- 2x 3200W redundante Stromversorgungen (Platinum Level)
- 8HE Rack SuperBlade Enclosure
- Bis zu 20 Blade Server
- Bis zu 2x 10GbE Switche
- 1 Management Modul
- 4x 2200W Netzteile (Titanium Level)
- 8HE Rack SuperBlade Enclosure
- Bis zu 20 Blade Server
- Bis zu 2x 10GbE Switche
- 1 Management Modul
- 8x 2200W Netzteile (Titanium Level)
besonderes Highlight
1x Ampere Altra M128-30 inklusive
- 2HE Rackmount Server, bis zu 128 Kerne
- Single Ampere Altra Max CPU, 128 Arm 3 Ghz v8.2+ 64bit
- 16x DIMM-Steckplätze, bis zu 4TB RAM DDR4-3200MHz
- 4x 3.5/2.5 Zoll hot-swap Laufwerkseinschübe
- 4x PCI-E 4.0 x16 Steckplätze, 3x PCI-E Gen4 LP
- 2x Ultra-Fast M.2 Steckplatz
- 2x 1600W redundante Stromversorgungen (Platinum Level)
- 2HE Rack Server, bis zu 205W TDP
- Dual Socket P+, 3rd Gen Intel® Xeon® Scalable
- 20x DIMM Steckplätze (16 DRAM + 4 PMem) bis zu 4TB RAM DDR4
- 6x 2.5" NVMe/SATA Laufwerkeinschübe
- 2x PCI-E 4.0 x16 (LP) Steckplätze
- 2x USB 3.0, 1 VGA und 1x RJ45 BMC LAN Anschlüsse
- 2x 2600W redundante Stromversorgungen (Titanium Level)
besonderes Highlight
Dual Node Storage Server
Bis zu 90 3.5" Laufwerkseinschübe
- 4HE Rackmount Server, bis zu 205W TDP
- Dual Sockel P+, 3rd Gen Intel Xeon Scalable Prozessoren
- 16x DIMM-Steckplätze, bis zu 4TB RAM DDR4-3200MHz
- 90x 3.5 hot-swap SATA3/SAS3 Laufwerkeinschübe + 2x 2.5 schlank
- 3x PCI-E 4.0 x16 Steckplätze
- 6x 8cm hot-swap gegenläufige redundante PWM Lüfter
- 2x 2600W redundante Stromversorgungen (Titanium Level)
besonderes Highlight
2x Ampere Altra M128-30 inklusive
- 1HE Rackmount Server, bis zu 128 Kerne
- Dual Ampere Altra Max CPU, 128 Arm 3 Ghz v8.2+ 64bit
- 32x DIMM-Steckplätze, bis zu 4TB RAM DDR4-3200MHz
- 12x 2.5 Zoll NVMe/SATA hot-swap Laufwerkseinschübe
- 2x PCI-E 4.0 x16 Steckplätze, 2x OCP 3.0 Gen4 x16
- 1x Ultra-Fast M.2 mit PCI-E 4.0 x4 Interface
- 2x 1300W redundante Stromversorgungen (Platinum Level)
Brauchen Sie Hilfe?
Dann rufen Sie uns einfach an oder nutzen unser Anfrageformular.
High Performance Netzwerke – Wichtige Fragen bei der Einrichtung eines HPNS
Welche Art von High Performance Netzwerk sich für die eigenen Ansprüche eignet, lässt sich mit den folgenden Fragen meist gut einschränken:
- Wie viele unterschiedliche High Performance Netzwerke werden benötigt?
- Wie viele Computer-Systeme sollen an das jeweilige Netzwerk angeschlossen werden?
- Wie viele Daten pro Sekunde werden in dem jeweiligen Netzwerk transportiert?
- Wie viele gleichzeitige Verbindungen werden von einem System benötigt?
- Welche Bandbreite muss das High Performance Netzwerk haben?
- Für welche Anwendung wird das jeweilige Netzwerk benötigt?
- Welche Implementationen gibt es für welche Betriebssysteme?
- Ist das Know-how für den Betrieb eines High Performance Netzwerk im Unternehmen vorhanden?
- Wie viel Budget steht für das Projekt zur Verfügung?
High Performance Netzwerk Architekturen und ihre Leistungsmerkmale
Im Bereich High Performance Networking gibt es zwei verschiedene Architekturen, die im Folgenden näher betrachtet werden sollen:
TCP/IP Netzwerke auf Ethernet Basis
Ein TCP/IP basiertes Ethernet ist ein paketorientiertes Netzwerk. Die Datenpakete besitzen bis zu 3 IP-Adressen. Die eigene, die IP-Adresse des Empfängers und die IP-Adresse des Routers.
-
So arbeitet ein High Performance Netzwerk mit TCP/IPJedes Datenpaket, das via Ethernet verschickt wird, hat etliche Checksummen. Da eine Nachricht länger sein kann als die maximale Größe eines TCP/IP Datenpakets, erhält jedes eine eigene Beschreibung, die die Reihenfolge des Datenpakets in der Nachricht definiert. Dadurch ist es möglich, genau dieses Datenpaket erneut vom Sender anzufordern.
Das Datenpaket wird auf das Übertragungsmedium übertragen. Dabei kann es passieren, dass sich dort schon ein Datenpaket befindet. Beide Datenpakete werden dabei verändert. Aufgrund der sich im Netzwerk befindlichen Routen, kann nicht genau gesagt werden wann und wo dies passieren kann. Dies und die Checksummen sind dafür verantwortlich, dass die Latenz des Netzwerks in aller Regel im Millisekunden Bereich liegt.
-
Technische Details zu TCP/IP NetzwerkenDa das TCP/IP Protokoll sehr CPU lastig ist, hat man angefangen, RDMA Services direkt in den Hostbus-Adapter zu integrieren. Diese Services werden nativ von Hostbus-Adaptern unterstützt, die das Protokoll iWARP/RDMA nutzen oder über die Spezifikation (IBTA) RoCEv2 verfügen. Dadurch werden höhere Performancewerte, bessere Bandbreite und niedrigere Latenzzeiten erreicht.
TCP/IP basierte Netzwerk-Adapter werden von jedem gängigen Betriebssystem unterstützt. TCP/IP Netzwerke unterstützen die folgenden Bandbreiten: 1GbE / 10GbE / 25GbE / 40GbE / 50GbE / 56GbE / 100GbE / 200GbE. Das gilt jedoch nicht für alle Anbieter. Alle Applikationen oder Dienste, die das Netzwerk benutzen, basieren heute auf TCP/IP.
High Performance Netzwerk mit Infiniband Architektur
Infiniband wurde mit dem Ziel entwickelt eine Hardwareschnittstelle zu haben, die einen seriellen Transport der Daten realisiert und eine geringe Latenz aufweist.
-
So arbeitet ein High Performance Netzwerk mit InfinibandIm Gegensatz zu TCP/IP, die den Protokollstack mit der CPU abwickeln, ist dies bei Infiniband in die Netzwerk-Hardware ausgelagert. Dadurch können über das High Performance Netzwerk gleichzeitig mehrere Verbindungen zu verschiedenen Systemen aufgebaut werden.
Die geringe Latenz wird dadurch erreicht, dass die Netzwerkkarten, die Host-Bus-Adapter genannt werden, den Speicher des empfangenen Systems direkt ansprechen können. Diese Technik wird als RDMA Write bzw. RDMA Read bezeichnet. Auf Basis dieser Technik können die Applikationen mit Hilfe von Message Passing Interface Software, kurz MPI Software genannt, Nachrichten austauschen. - Technische Details zu Netzwerken mit InfinibandAktuelle Spitzenleistungen für diese Technologie liegen bei 200Gb/s mit einer Latenz von 600 Nanosekunden. Damit sind bis zu 200 Millionen Nachrichten pro Sekunden möglich. Der HBA stellt bis zu 16 Millionen I/O Kanäle zur Verfügung und die MTU (Message Transport Unit) reicht von 256 bis 4 kByte. In einem Storage Environment wird Infiniband für die Realisierung von NVMe über Network-Fabrics eingesetzt.
Aktuelle High Performance Netzwerk Varianten auf dem Markt
Einer der bekanntesten Anbieter für Netzwerk-Hardware ist die Firma Mellanox, die äußerst leistungsfähige Netzwerk-Komponenten für höchste Ansprüche liefern kann. So unterstützen deren Hostbus-Adapter etwa Geschwindigkeiten von 10 GbE(QDR) bis zu 200 GbE (HDR) bei einer Latenzzeit von 6 Nanosekunden, womit sich auch mehrere Tausend Knoten in einem Netz realisieren lassen. Als Software wird eine optimierte Version der Software der Open Fabrics Alliance genutzt.
Weiterhin bietet Mellanox für folgende Betriebssysteme eigene Treiber, Protokoll-Software und Tools:
- RedHat Version 6.x / Version 7.x / CentOS 6.x / CentOS 7.x
- SUSE SLES 11 SP3 / SP4, SLES 12 SP1 - SP3, SLES 15
- Oracle Linux OL 6.x und 7.x
- Ubuntu 16.x / 17.10 / 18.04
- Fedora 20 / 27
- Debian 8.x / 9.x
- EulerOS 2.0 SP3
- WindRiver 6.0
- XenServer 6.5
- Microsoft Windows Server 2016 / Windows Server 2016 version 1803 / Windows Server 2012 R2 / Windows Server 2012 / Windows 10 Client 1803 / Windows 8.1
- VMware ESX/ESXI 5.x
- KVM / XEN
Die dabei unterstützte CPU-Architektur reicht von x86_64 über PowerPC bis zu ARM-basierten CPUs.
Omni-Path Fabric von INTEL: High Performance Netzwerke der neuesten Generation
Doch gerade in sehr großen Installationen mit zehntausend Knoten und mehr stößt Infiniband an seine Grenzen. Die Performance der Prozessoren und die Bandbreite des Speichers skaliert schneller als die des I/O. Hier setzt Intel mit seinem Omni-Path Fabrics an, die mit der Infiniband Implementation von Qlogic und dem Know-how von Cray entwickelt wurden.
Der Plan von Intel: Der Omni-Path Controller Chipsatz soll in den Prozessor integriert werden. Damit wird ein PCI Steckplatz eingespart, was wiederum etliche Watt weniger Leistungsaufnahme bedeutet.
Weiter soll die Qualität der Übertragung durch diverse Optimierungen des Protokolls verbessert werden, etwa durch:
- Packet Integrity Protection
- Dynamic Lane Scaling
- Traffic Flow Optimization
Die Software, die Intel für ihre Omni-Path Fabric zur Verfügung stellt, gibt es für RedHat, SUSE Enterprise Server, CentOS und Scientific Linux. Die Software von Intel ist Open Source und basiert auf der Open Fabrics Alliance.
High Performance Netzwerke richtig ausstatten: Switches und Kabel
Bei Infiniband und Omni-Path muss man bei dem Design des Netzwerkes darauf achten, dass jeder Port eines Systems direkt einen anderen Port eines weiteren Systems erreichen kann. Durch einen entsprechenden Switch wird verhindert, dass innerhalb des High Performance Netzwerks mehrere Nachrichten eine einzelne Leitung belegen und damit möglicherweise einige Verbindungen für kurze Zeit blockiert werden.
Bei Infiniband und Omni-Path gibt es dafür den sogenannten Non-Blocking-Faktor. Das Store-and-forward Prinzip, das bei den TCP/IP basierten Netzwerken genutzt wird, führt bei Infiniband und Omni-Path zu einem merkbaren Einbruch in der Performance.
Da die Übertragungsgeschwindigkeiten auf dem Netz sehr hoch ausfallen, sind RJ45 Kabel dafür nicht geeignet. Die Kabel, die für diese schnellen Verbindungen in Frage kommen, basieren auf dem Formfaktor QSFPx. Das x steht für die verschiedenen Stecker, die je nach Geschwindigkeit eingesetzt werden müssen.
Nicht zuletzt aufgrund solcher Überlegungen ist es wichtig, schon bei der Einrichtung eines High Performance Netzwerks spätere Erweiterungen und Möglichkeiten der Skalierbarkeit zu berücksichtigen.
Typ | Geschwindigkeit | Formfaktor QSFP | Länge in Meter |
---|---|---|---|
Ethernet Kupfer | 400Gb/s | QSFF-DD | 0,5;1;1,5;2;2,5;3 |
Ethernet Kupfer | 200Gb/s | QSFP56 | 0,5;1;1,5;2;2,5;3 |
Ethernet Kupfer | 100Gb/s | QSFP28 | 0,5;1;1,5;2;2,5;3 |
Ethernet Kupfer | 40Gb/s | QSFP+ | 0,5;1;1,5;2;2,5;3;4;5;6;7 |
Ethernet Kupfer | 25Gb/s | SFP28 | 0,5;1;1,5;2;2,5;3;4;5 |
Ethernet Kupfer | 10Gb/s | SFP+ | 0,5;1;1,5;2;2,5;3;4;5;6;7 |
Beispiel für Ethernet Verbindung auf der Basis von Kupfer
Kabel bis zu einer Länge von 7 Metern können noch aus Kupfer bestehen, bei Längen über 7 Meter müssen Kabel mit optischer Übertragung eingesetzt werden.
Infiniband | Geschwindigkeit | Formfaktor | Länge |
---|---|---|---|
HDR | 200Gb/s | QSFP56 | 0,5;1;1,5;2;2,5;3 |
EDR | 100Gb/s | QSFP28 | 0,5;1;1,5;2;2,5;3;4;5 |
FDR | 56Gb/s | QSFP+ | 0,5;1;1,5;2;2,5;3;4;5 |
FDR10; QDR | 40Gb/s | QSFP+ | 0,5;1;1,5;2;2,5;3;4;5;6;7 |
Beispiele für Infiniband Verbindungen auf Basis von Kupfer
High Performance Netzwerk Projekte mit HAPPYWARE realisieren
Seit 1999 ist HAPPYWARE ein zuverlässiger Partner bei der Umsetzung verschiedenster IT-Projekte. Von einfachen Barebone-Systemen bis zu vollständigen Server-Setups und Virtualisierungs-Leistungen dürfen Sie auf die Kompetenzen unseres Unternehmens zählen.
Gerne beraten wir Sie auch aus erster Hand zu Ihren Möglichkeiten mit uns als IT Dienstleister. Unser Team aus IT-Spezialisten analysiert dabei den IT Bedarf Ihres Unternehmens und steht Ihnen bei der Planung kompetent zur Seite. Wir schneiden unsere Leistungen dabei exakt auf Ihre Bedürfnisse zu und sorgen somit dafür, dass Sie passgenaue Performance zu besten Konditionen erhalten.
Auf Wunsch stellen wir Ihnen neben fertigen Systemen natürlich auch alle Komponenten für das High Performance Netzwerk Ihrer Wahl zur Verfügung.
Haben Sie noch weitere Fragen oder interessieren Sie sich für unsere Leistungen rund um High Performance Netzwerke? Dann wenden Sie sich an unseren HPC-Experten Jürgen – unter der Rufnummer +49 (0)4181 235770 hilft er Ihnen bei Fragen gerne weiter!