- 2HE Rackmount Server, bis zu 185W cTDP
- Dual Sockel P+, 3rd Gen Intel Xeon Scalable Prozessoren
- 16x DIMM-Steckplätze, bis zu 4TB RAM DDR4-3200MHz
- 4x hot-pluggable Nodes
- 6x 2.5 SATA/SAS hot-swap Laufwerkseinschübe
- 1x PCI-E 4.0 x16 LP Expansion-Slots
- 2x 2200W redundante Stromversorgungen (Titanium Level)
- 2HE Rack Server, bis zu 185W TDP
- Dual Socket P+, 3rd Gen Intel® Xeon® Scalable Prozessoren
- 16X DIMM Steckplätze, bis zu 4TB RAM DD4-3200MHz
- 6x 2.5 hot-swap SATA/SAS-Laufwerkseinschübe
- 2x PCI-E 4.0 x16 LP Steckplätze
- 4x heavy-duty PWM-Lüfter
- 2x 2200W redundante Stromversorgung Titanium Level
besonderes Highlight
Bis zu 10x GPUs
- 4HE Rackmount Server, bis zu 270W TDP
- Dual-Sockel P+, 3rd Gen Intel Xeon Scalable Prozessor
- 32x DIMM-Steckplätze, bis zu 8TB RAM DDR4-3200MHz
- 12x 3.5 hot-swap-Laufwerkseinschübe
- 10x PCI-E 4.0 x16 Steckplätze für GPUs
- 2x 10Gbase-T LAN-Anschlüsse
- 3x 2200W redundante Stromversorgungen (Platinum Level)
besonderes Highlight
Bis zu 10x GPUs
- 4HE Rackmount Server, bis zu 280W cTDP
- Dual Sockel SP3, AMD EPYC 7003 Serie Prozessoren
- 32x DIMM-Steckplätze, bis zu 8TB RAM DDR4-3200MHz
- 12x 3.5 hot-swap Laufwerkseinschübe (8x NVMe & 4x SATA/SAS)
- 13x PCI-E 4.0 x16 (10x FHFL für GPUs, 3x LP/HL) Expansion-Slots
- 2x 10Gb/s Base-T LAN-Anschlüsse über Intel® X550-AT2
- 3x 2200W redundante Stromversorgungen (Platinum Level)
- 2HE Rack Server, 185 W TDP
- Dual Socket P + (LGA 4189) Intel® Xeon® skalierbare Prozessoren
- Bis zu 4 TB: 16x 256 GB DRAM, 6 TB: 8x 256 GB DRAM und 8x 512
- 3x 3,5-Hot-Swap-NVMe / SATA / SAS-Einschübe (3x 2,5 NVMe-Hybrid)
- Netzwerkkonnektivität über AIOM (OCP 3.0-konform)
- Steckplatz 1: PCI-E 4.0 x16 LP, Steckplatz 2: PCI-E 4.0 x16 LP
- 2x 2600 redundante Stromversorgungen (Titanium Level)
- 2HE-Rack-Server, 185 W TDP
- Dual Socket P + (LGA 4189) 3rdGen Intel® Xeon® Skalierbarer
- Bis zu 4 TB: 16 x 256 GB DRAM-Speichertyp: 3200/2933 / 2666 MHz
- 6x 2,5 Hot-Swap-SATA / SAS-Einschübe
- 2x10GBase-T mit X710
- Steckplatz 1: PCI-E 4.0 x16 LP Steckplatz 2: PCI-E 4.0 x16 LP
- 2200 Watt redundante Netzteile Titanium Level
besonderes Highlight
4 Nodes FatTwin Architektur
- 4HE Rackmount Server, bis zu 205W TDP
- Dual Sockel P+, 3rd Gen Intel Xeon Scalable Prozessoren
- 16x DIMM-Steckplätze, bis zu 2TB RAM DDR4-3200MHz
- 4x hot-pluggable Nodes
- 8x 3.5 hot-swap SATA/SAS Laufwerkeinschübe
- 2x PCI-E 4.0 x16 (1x LP & 1x AIOM) Steckplätze
- 4x 2200W redundante Stromversorgungen (Titanium Level)
- 2HE Rackmount Server, bis zu 185W cTDP
- Dual Sockel P+, 3rd Gen Intel Xeon Scalable Prozessoren
- 16x DIMM-Steckplätze, bis zu 4TB RAM DDR4-3200MHz
- 4x hot-pluggable Nodes
- 6x 2.5 SATA/SAS hot-swap Laufwerkseinschübe
- 1x PCI-E 4.0 x16 LP Expansion-Slot
- 2x 2200W redundante Stromversorgungen (Titanium Level)
besonderes Highlight
Bis zu 60x 3.5" Laufwerkeinschübe
- 4HE Rackmount Server, bis zu 205W TDP
- Dual Sockel P+, 3rd Gen Intel Xeon Scalable Prozessoren
- 16x DIMM-Steckplätze, bis zu 4TB RAM DDR4-3200MHz
- 60x 3.5 hot-swap SATA3/SAS3 Laufwerkeinschübe
- 3x PCI-E 4.0 x16 HHHL-Steckplätze
- 6x 8cm hot-swap gegenläufige redundante PWM-Lüfter
- 2x 2600W redundante Netzteile (Titanium Level)
- 2HE Rack Server, bis zu 205W TDP
- Dual Socket P+, 3rd Gen Intel Xeon Scalable Prozessoren
- 20x DIMM Steckplätze (16 DRAM + 4 PMem), bis zu 6TB RAM DDR4
- 6x 2.5 Hot-swap NVMe/SATA/SAS-Einschübe (6x 2.5 NVMe-Hybrid)
- 1x PCI-E 4.0 x16 (LP) Steckplätz
- 4x heavy-duty Kuhl-Lüfter
- 2x 2600W redundante Stromversorgungen (Titanium Level)
- 4HE Rack Server, bis zu 165W TDP mit IVR
- 8x Hot-pluggable Nodes
- Dual Sockel P, 2nd Gen Intel Xeon Scalable CPU
- 12x DIMM Steckplätze, bis zu 3TB RAM DDR4-2933MHz
- 2x oder 4x fest 2.5 SATA3/NVMe-Laufwerkseinschübe
- 2x PCI-E 3.0 x16 (niedriges Profil & SIOM), 1x PCI-E 3.0 x8
- 4x 2200W redundante Stromversorgungen (Titanium Level)
besonderes Highlight
Bis zu 1 Add-on-Karte pro Node auf 4HE
- 4HE Rackmount Server, bis zu 280W TDP
- Single Sockel SP3, AMD EPYC 7003 Serie Prozessoren
- 16x DIMM-Steckplätze, bis zu 4TB RAM DDR4-3200MHz
- 8 hot-pluggable Nodes
- 4x 2.5 fest intern Laufwerkseinschübe, 2x M.2 NVMe
- 3x PCI-E 4.0 x16 (2x LP & 1x AIOM) Steckplätze
- 4x 2000W redundante Stromversorgungen mit PMBus
- 4HE Rackmount Server, bis zu 165W TDP
- Dual Sockel P, 2nd Gen Intel Xeon Scalable Prozessoren
- 12x DIMM Steckplätze, bis zu 3TB RAM DDR4-2933MHz ECC
- 8x Hot-pluggable Nodes
- 2x 3.5 SATA3 Laufwerkseinschübe
- 2x PCI-E 3.0 x16 und 1x PCI-E 3.0 x8 Steckplätze
- 4x 2200W redundante Stromversorgungen (Titanium Level)
besonderes Highlight
Bis zu 1 Add-on-Karte pro Node auf 4HE
- 4HE Rackmount Server, bis zu 280W TDP
- Single Sockel SP3, AMD EPYC 7003 Serie Prozessoren
- 8x DIMM-Steckplätze, bis zu 2TB RAM DDR4-3200MHz
- 8 hot-pluggable Nodes
- 2x 2.5 NVMe und 4x SATA3 Laufwerkseinschübe
- 1x PCI-E 4.0 x16 LP Steckplatz & 1x PCI-E 4.0 x8 intern RAID AOC
- 4x 2200W redundante Stromversorgungen mit PMBus
besonderes Highlight
Bis zu 90x 3.5" Laufwerkeinschübe
- 4HE Rackmount Server, bis zu 205W TDP
- Dual Sockel P+, 3rd Gen Intel Xeon Scalable Prozessoren
- 16x DIMM-Steckplätze, bis zu 4TB RAM DDR4-3200MHz
- 90x 3.5 hot-swap SATA3/SAS3 Laufwerkeinschübe + 2x 2.5 schlank
- 3x PCI-E 4.0 x16 HHHL-Steckplätze
- Dual-Node-Architektur
- 2x 2600W redundante Stromversorgungen (Titanium Level)
besonderes Highlight
Bis zu 4x NVIDIA HGX A100 GPUs
- 4HE Rackmount Server, bis zu 270W cTDP
- Dual Sockel P+, 3rd Gen Intel Xeon Scalable Prozessoren
- 32x DIMM-Steckplätze, bis zu 8TB/12TB RAM DDR4-3200MHz
- 10x 2.5 NVMe/SATA/SAS hot-swap Laufwerkseinschübe
- 2x 10GbE Base-T LAN mit Intel® X550-AT2
- 10x PCI-E 4.0 x16 LP-Steckplätze
- 4x 3000W Redundante Stromversorgungen (Titanium Level)
besonderes Highlight
HGX A100 8-GPU 40GB/80GB SXM4 Multi-GPU
- 4HE Rackmount Server, bis zu 280W TDP
- Dual Sockel SP3, AMD EPYC 7003 Serie Prozessoren
- 32x DIMM-Steckplätze, bis zu 8TB RAM DDR4-3200MHz
- 6x 2.5 Zoll Hot-Swap U.2 NVME-Laufwerkeinschübe
- 8x PCI-E 4.0 x16 Steckplätze und 2x PCI-E 4.0 LP Steckplätze
- 4x Hot-Swap Heavy-Duty Lüfter
- 4x 3000W redundante Netzteile (Titanium Level)
besonderes Highlight
8-Node Architektur auf 4HE
- 4HE Rack Server, bis zu 185W TDP
- Dual Socket P+, 3rd Gen Intel® Xeon® Scalable Prozessoren
- 16x DIMM Steckplätze, bis zu 2TB DDR4 RAM
- 6x 2.5 Hot-swap NVMe/SATA /SAS und 6x 2.5 7mm Laufwerkeinschübe
- 1x PCI-E 4.0 x8 LP Steckplätz
- 1x 1GbE RJ45 über AIOM (OCP 3. 0-Konformität)
- 4x 2200W redundante Netzteile Titanium Level
besonderes Highlight
8HE Superblade Server System
Bis zu 20 Hochperfomante DP Blade und bereit für PCI-E Gen 4
- 8HE Rackmount Server, bis zu 220W TDP
- Dual Sockel P+, Intel Xeon Skalierbare Prozessoren 3rd Gen
- Bis zu 4TB RAM 3DS ECC DDR4-3200MHz, 16x DIMM steckplätze
- 2x 2,5 Hot-Plug NVMe/SATA3 und 1x 2.5 Hot-plug SATA3 Einschübe
- 1x 200G Mellanox IB HDR und 2x 25G Marvell onboard ethernet
- Unterstützung Flüssigkeits kühlungs mit bis zu 270W TDP
- 8x 2200W Redundante Titanium Level Stromversorgung
Brauchen Sie Hilfe?
Dann rufen Sie uns einfach an oder nutzen unser Anfrageformular.
Aufbau eines HPC Clusters
- Der Cluster Server (Master oder Frontend genannt) verwaltet den Zugriff und stellt Programme und den Home-Datenbereich zur Verfügung.
- Die Cluster Nodes erledigen die Berechnung.
- Ein TCP-Netzwerk wird für den Informationsaustausch im HPC Clusters verwendet.
- Ein High Performance Network ist erforderlich, um die Datenübertragung mit sehr geringer Latenz zu ermöglichen.
- Der High Performance Storage (Parallel File System) ermöglicht den gleichzeitigen Schreib-Zugriff aller Cluster Nodes.
- Das BMC Interface (IPMI Interface) ist der Zugang für den Administrator zur Verwaltung der Hardware.
Alle Cluster Nodes eines HPC Clusters werden immer mit dem gleichen Prozessortyps des jeweiligen gewählten Herstellers ausgestattet. Verschiedene Hersteller und Typen werden in aller Regel nicht in einem HPC Cluster gemischt. Eine unterschiedliche Ausstattung mit Hauptspeicher und anderen Ressourcen ist durchaus möglich. Dies sollte dann aber in der Konfiguration der Job Control Software berücksichtigt werden.
Wann kommen HPC Cluster zum Einsatz?
HPC Cluster sind dann besonders wirkungsvoll, wenn sie für Berechnungen angewandt werden, die sich in verschiedene Teilaufgaben untergliedern lassen. Ebenso kann ein HPC Cluster aber auch eine Reihe kleinerer Aufgaben parallel zueinander bewältigen. Ein High Performance Computing Cluster ist zudem in der Lage, eine einzelne Anwendung für mehrere Nutzer gleichzeitig zur Verfügung zu stellen, um durch das simultane Arbeiten Kosten und Zeit zu sparen.
Je nach Ihrem Budget und Anforderungen kann HAPPYWARE Ihnen einen HPC Cluster zusammenstellen. Mit verschiedenen konfigurierten Cluster Knoten, einem High Speed Network und einem parallelen File System. Für das Management des HPC Clusters setzen wir auf die bekannte Lösung von OpenHPC, um die Verwaltung des Clusters effektiv und intuitiv zu gestalten.
Wenn Sie mehr über mögliche Anwendungsszenarien für HPC Cluster erfahren möchten, dann hilft Ihnen unser IT-Experte und Diplom-Ingenieur Jürgen Kabelitz gerne weiter. Er leitet die Clusterabteilung und steht Ihnen unter der Rufnummer +49 4105 77000 79 für Fragen zur Verfügung!
HPC Cluster Lösungen von HAPPYWARE
Hier haben wir für Sie einige mögliche Konfigurationen von HPC Clustern zusammengestellt:
Frontend oder Master Server
- 4 HE Cluster Server mit 24 3,5’’ Laufwerkschächten
- SSD für das Betriebssystem
- Dual Port 10 Gb/s Netzwerk Adapter
- FDR Infiniband Adapter
Cluster Knoten
- 12 Cluster Nodes mit dual CPU und 64 GB Arbeitsspeicher
- 12 Cluster Nodes mit dual CPU und 256 GB Arbeitsspeicher
- 6 GPU Computing Systeme mit je 4 Tesla V100 SXM2 und 512 GB Arbeitsspeicher NVIDIA Werte angeben
- FDR Infiniband und 10 GB/s TCP Netzwerk
High Performance Storage
- 1 Storage System mit 32 x NF1 SSD mit je 16 TB Kapazität
- 2 Storage Systeme mit je 45 Hot-Swap Schächte
- Netzwerkverbindung: 10 Gb/s TCP/IP und FDR Infiniband
HPC Cluster Management – mit OpenHPC und xCAT
Für das Management von HPC Clustern und Daten braucht es eine entsprechend leistungsfähige Software. Zu diesem Zweck bieten wir Ihnen mit OpenHPC und xCAT zwei bewährte Lösungen an.
HPC Cluster mit OpenHPC
OpenHPC ermöglicht grundlegendes HPC Cluster Management auf Linux- und OpenSource-Basis.
Leistungsumfang
- Forwarding der Systemlogs möglich
- Nagios Monitoring & Ganglia Monitoring – Opensource-Lösung für Infrastrukturen und skalierbares System Monitoring für HPC Cluster sowie Grids
- ClusterShell Event basierte Python Bibliothek für das parallele Ausführen von Befehlen auf dem Cluster
- Genders - statische Cluster Konfigurationsdatenbank
- ConMan - Serial Console Management
- NHC - Node health check
- Entwicklersoftware wie Easy_Build, hwloc, spack und valgrind
- Compiler wie GNU Compiler, LLVM Compiler
- MPI Stacks
- Job Kontrollsystem wie PBS Professionel oder Slurm
- Infiniband Support & Omni-Path Support für x86_64 Architekturen
- BeeGFS Support für das Mounten von BeeGFS Filesystemen
- Lustre Client Support für das Mounten von Lustre Filesystemen
- GEOPM Global Extensible Power Manager
- Unterstützung von INTEL Parallel Studio XE Software
- Unterstützung von lokaler Software mit der Modules Software
- Unterstützung von Nodes mit stateful oder stateless Konfiguration
Unterstützte Betriebssysteme
- CentOS7.5
- SUSE Linux Enterprise Server 12 SP3
Unterstützte Hardware Architekturen
- x86_64
- aarch64
HPC Cluster mit xCAT
xCAT ist ein “Extreme Cloud Administration Toolkit” und ermöglicht ein umfassendes HPC Cluster Management.
Geeignet für folgende Anwendungen
- Clouds
- Cluster
- High-Performance -Cluster
- Grids
- Datacentre
- Render farms
- Online Gaming Infrastructure
- Oder jede andere System Zusammenstellung, die möglich ist.
Leistungsumfang
- Erkennen von Servern im Netz
- Ausführen von Remote System Management
- Bereitstellung von Betriebssystemen auf physikalischen oder virtuellen Servern
- Diskful (stateful) oder Diskless (stateless) Installation
- Installation und Konfiguration von Benutzersoftware
- Paralleles System management
- Integration der Cloud
Unterstützte Betriebssysteme
- RHEL
- SLES
- Ubuntu
- Debian
- CentOS
- Fedora
- Scientific Linux
- Oracle Linux
- Windows
- Esxi
- und etliche andere
Unterstützte Hardware Architekturen
- IBM Power
- IBM Power LE
- x86_64
Unterstützte Virtualisierungs-Infrastruktur
- IBM PowerKVM
- IBM zVM
- ESXI
- XEN
Leistungswerte für mögliche Prozessoren
Als Leistungswerte wurde auf die Werte von SPEC.ORG zurückgegriffen. Dabei werden ausschließlich die Werte für SPECrate 2017 Integer und SPECrate 2017 Floating Point verglichen:
Hersteller | Modell | Prozessor | Taktrate | # CPUs | # cores | # Threads | Base Integer | Peak Integer | Base Floatingpoint | Peak Floatingpoint |
Giagbyte | R181-791 | AMD EPYC 7601 | 2,2 GHz | 2 | 64 | 128 | 281 | 309 | 265 | 275 |
Supermicro | 6029U-TR4 | Xeon Silver 4110 | 2,1 GHz | 2 | 16 | 32 | 74,1 | 78,8 | 87,2 | 84,8 |
Supermicro | 6029U-TR4 | Xeon Gold 5120 | 2.2 GHz | 2 | 28 | 56 | 146 | 137 | 143 | 140 |
Supermicro | 6029U-TR4 | Xeon Gold 6140 | 2,3 GHz | 2 | 36 | 72 | 203 | 192 | 186 | 183 |
NVIDIA Tesla V100 SXM2 64Bit 7,8 TFlops; 32Bit 15,7 TFlops; 125 TFlops für Tensor Operationen.
HPC Cluster und mehr von HAPPYWARE – Ihr Partner für starke Cluster-Lösungen
Wir sind Ihr Spezialist für individuell konfigurierte und extrem performante Cluster – ganz gleich, ob es um GPU Cluster, HPC Cluster oder andere Setups geht. Gerne stellen wir auch für Ihr Unternehmen ein bedarfsgerechtes System zu einem fairen Preis zusammen.
Für wissenschaftliche Institutionen und Bildungsstätten bieten wir außerdem mit unserem Rabatt für Forschung und Lehre besonders günstige Konditionen. Sprechen Sie uns bei Interesse auf mögliche Rabatte an.
Möchten Sie mehr über die Ausstattung unserer HPC Cluster erfahren oder benötigen Sie eine individuell konzipierte Cluster-Lösung? Melden Sie sich bei unserem Cluster-Spezialisten Jürgen Kabelitz und lassen Sie sich passend zu Ihren Anforderungen beraten!