HPC Cluster - High Performance Computing Cluster für hohe Ansprüche
High Performance Computing Cluster Systeme, kurz HPC Cluster findet man in technisch-wissenschaftlichen Bereichen, so z.B. bei Universitäten, Forschungseinrichtungen und Forschungsabteilungen von Firmen. Die dort zu erledigenden Aufgaben, wie zum Beispiel Wetter- oder Finanzprognosen, werden häufig im HPC Cluster in kleinere Teilaufgaben zerlegt und dann auf die Cluster Nodes verteilt.
Wichtig hierbei ist dann die Cluster interne Netzwerkverbindung, da die Cluster Nodes sehr viele kleine Informationen austauschen. Diese müssen auf schnellstem Weg von einem Cluster Node zu einem anderen Cluster Node transportiert werden. Deshalb muss auf eine kurze Latenzzeit des Netzwerkes geachtet werden. Weiterhin ist wichtig, dass die benötigten und erzeugten Daten von allen Cluster Nodes eines HPC Clusters zur gleichen Zeit gelesen oder geschrieben werden können.
Hochleistungsrechner
Hochleistungsrechner für HPC, z.B. für Parallel Computing mit vielen Cores pro CPU konfigurieren und kaufen!
High Performance Server oder HPC Workstations für individuelle Einsatzzwecke für Ihr eigenes Cluster.
High Performance Storage
High Performance Storage kaufen für Ihre besonders wichtigen Daten z.B. als All-NVMe File Storage.
Storage für stabile und skalierbare Filesysteme z.B. LustreFS, GlusterFS oder GFS Red Hat.
High Performance Network
Wir bieten High Performance Network auf Basis von: InfiniBand, Omnipath und 100GBit Ethernet.
Hochleistungsnetzwerke (HPN) Hardware online kaufen.
Cluster Computing
Server Cluster für Cluster Computing kaufen bestehend aus Cluster Hardware und Cluster Hardware.
Cluster Management für Ihr Server Cluster oder Storage Cluster mit passender Cluster Software.
GPU Computing
Hoch performante GPU Lösungen
Wir bieten Ihnen GPU Server Systeme, GPU Workstations und HPC Cluster mit NVidia Tesla GPUs
Hier finden Sie unsere HPC - High Performance Computing
- 2HE Rackmount Server, bis zu 60 Kerne
- Single Sockel E, 4th Gen Intel Xeon Scalable CPU
- 16x DIMM-Steckplätze, bis zu 4TB RAM DDR5-4800MHz
- 12x 3.5/2.5 Zoll hot-swap Laufwerkseinschübe
- 1x 1GbE RJ45 LAN-Anschluss
- 3x PCI-E 5.0 x16 Expansion-Slots, 2x OCP 3.0
- 2x 2400W redundante Stromversorgungen (Platinum Level)
besonderes Highlight
staubgeschützte Fanless-GPU Workstation
- Lüfterlose GPU-Workstation, 16 Kerne/24 Threads
- Single Sockel (LGA-1700), Intel Core i7 13700T-Prozessor
- 32GB RAM
- 3TB Storage (1TB für SSD 1, 2TB für SSD 2)
- 2x RJ45 (1x 1G & 1x 2.5G) LAN
- 2x HDMI, 2x Displayport, 4x USB 3.2 gen2 + 2x USB 3.0, 2x Audio
- fanless RTX A2000
besonderes Highlight
Bis zu 8TB RAM
- 2HE Rackmount Server, bis zu 280W cTDP
- Dual Sockel SP3, AMD EPYC 7003 Serie Prozessoren
- 32x DIMM-Steckplätze, bis zu 8TB RAM DDR4-3200MHz
- 26x 2.5 Zoll hot-swap Laufwerkeinschübe
- 2x 10GbE LAN-Anschlüsse und 1x IPMI
- 4x PCI-E Gen4 x16 Steckplätze und 1x PCI-E 4.0 x8 Steckplatz
- 2x 1600W Redundante Stromversorgungen (Platinum Level)
besonderes Highlight
1x Ampere Altra M128-30 inklusive
- 2HE Rackmount Server, bis zu 128 Kerne
- Single Ampere Altra Max CPU, 128 Arm 3 Ghz v8.2+ 64bit
- 16x DIMM-Steckplätze, bis zu 4TB RAM DDR4-3200MHz
- 4x 2.5 Zoll NVMe hot-swap Laufwerkseinschübe
- 5x PCI-E 4.0 x16 Steckplätze, 1x PCI-E Gen4 AIOM
- 1x Ultra-Fast M.2
- 2x 1600W redundante Stromversorgungen (Titanium Level)
besonderes Highlight
2x Ampere Altra M128-30 inklusive
- 2HE Rackmount Server, bis zu 128 Kerne
- Dual Ampere Altra Max CPU, 128 Arm 3 Ghz v8.2+ 64bit
- 32x DIMM-Steckplätze, bis zu 4TB RAM DDR4-3200MHz
- 28x 2.5 Zoll hot-swap Laufwerkseinschübe
- 4x PCI-E 4.0 x16 Steckplätze, 2x OCP 3.0 Gen4 x16
- 1x Ultra-Fast M.2 Steckplatz
- 2x 1600W Stromversorgungen (Platinum Level)
- 1HE Rackmount Server, bis zu 280W TDP
- Single Sockel sTRX4, 3rd Gen AMD Ryzen Threadripper Prozessor
- 8x DIMM-Steckplätze, bis zu 256GB RAM DDR4-3200MHz
- 2x 2.5-Zoll hot-swap Laufwerkseinschübe
- 2x 10GbE RJ45 LAN-Anschlüsse
- 2x PCI-E 4.0 x16 Expansion-Slots für GPU Karten, 1x M.2
- 2x 1600W redundante Stromversorgungen (Platinum Level)
- 4HE Rackmount Server, bis zu 300W cTDP
- Dual Sockel SP5, AMD EPYC™ 9004 Serie CPU
- 48x DIMM-Steckplätze, bis zu 12TB RAM DDR5-4800MHz
- 12x 2.5-Zoll hot-swap Laufwerkseinschübe
- 2x 1GbE RJ45 LAN-Anschlüsse
- 18x PCI-E Gen5 Expansion-Slots (8x FHFL GPUs, 10x LP)
- 4x 3000W redundante Stromversorgungen (Titanium Level)
- 2HE Rackmount Server, bis zu 225W TDP
- Dual Sockel SP3, AMD EPYC 7003 CPU-Serie
- 32x DIMM Steckplätze, bis zu 8TB RAM DDR4-3200MHz
- 12x 3.5 und 2x 2.5 hot-swap SAS/SATA Laufwerkeinschübe
- 8x PCI-E Gen4 x16/x8 und 2x OCP Mezzanine Steckplätze
- 2x 1Gb/s LAN-Anschlüsse über Intel® I350-AM2
- 2x 1200W redundante Stromversorgungen (Platinum Level)
- 2HE Rackmount Server, bis zu 270W cTDP
- Dual Sockel P+, 3rd Gen Intel Xeon Scalable Prozessoren
- 32x DIMM Steckplätze, bis zu 8TB RAM DDR4-3200MHz
- 12x 3.5 SATA/SAS/NVMe hot-swap Laufwerkeinschübe
- 8x PCI-E 4.0 x16 Expansion-Slots und 2x OCP
- 2x 1GbE LAN Anschlüsse über Intel I350-AM2
- 2x 1600W redundante Stromversorgungen (Platinum Level)
- 4HE Rackmount Server, bis zu 300W cTDP
- Dual Sockel SP5, AMD EPYC 9004 Serie CPU
- 48x DIMM-Steckplätze, bis zu 12TB RAM DDR5-4800MHz
- 12x 2.5-Zoll hot-swap Laufwerkseinschübe
- 2x 1GbE RJ45 LAN-Anschlüsse
- 12x PCI-E Gen5 Expansion-Slots (10x FHFL GPUs, 2x LP)
- 4x 3000W redundante Stromversorgungen (Titanium Level)
- 2HE Rackmount-Server, bis zu 128 Kerne
- Single Sockel LGA-4926, Ampere Altra-Prozessor
- 16x DIMM-Steckplätze, bis zu 4TB RAM DDR4-3200MHz
- 8x 2.5 Zoll U.2 hot-swap Laufwerkseinschübe
- 4x PCI-E Gen4 Expansion-Slots und 1x OCP 2.0
- 2x 1GbE LAN-Anschlüsse über Intel® I350-AM2
- 2x 1300W redundante Stromversorgungen (Platinum Level)
- 1HE Rackmount-Server, bis zu 350W cTDP
- Single Sockel E, 5th/4th Gen Intel Xeon Scalable Prozessoren
- 16x DIMM-Steckplätze, bis zu 4TB RAM DDR5-4800MHz
- 10x 2.5 hot-swap Laufwerkseinschübe, 2x M.2-Steckplatz
- über AIOM & AOC
- 2x PCI-E Gen5 Expansion-Slots
- 2x 860W redundante Stromversorgungen 80+ (Platinum Level)
- 2HE Rackmount Server, bis zu 270W cTDP
- Dual Sockel P+, 3rd Gen Intel Xeon Scalable CPU
- 32x DIMM Steckplätze, bis zu 8TB RAM DDR4-3200MHz
- 26x 2.5 hot-swap Laufwerkeinschübe
- 8x PCI-E Gen4 x16 Expansion-Slots und 2x OCP
- Unterstützt Dual ROM Technologie, Intel C621A Express Chipsatz
- 2x 1600W redundante Stromversorgungen (Platinum Level)
- 1HE Rackmount Server, bis zu 95W TDP
- Single Sockel H5, Intel Xeon E-2300/10th Gen Pentium CPU
- 4x DIMM-Steckplätze, bis zu 128GB RAM DDR4-3200MHz
- 4x 3.5 SATA-Laufwerkseinschübe und 2x 2.5 Peripherie
- 1x PCI-E 4.0 x16, 1x PCI-E 4.0 x8 & 1x intern HBA-Steckplätze
- 2x 1GbE RJ45 Intel® Ethernet-Controller i210
- 2x 400W redundante Stromversorgungen (Platinum Level)
- 1HE Rackmount-Server, bis zu 300W cTDP
- Single Sockel E, 5th/4th Gen Intel Xeon Scalable Prozessoren
- 8x DIMM-Steckplätze, bis zu 2TB RAM DDR5-4800MHz
- 4x 3.5 hot-swap SATA/SAS Laufwerkseinschübe, 1x M.2 Steckplatz
- 2x 1GbE RJ45 LAN-Anschlüsse
- 3x PCI-E Gen5 Expansion-Slots
- 2x 860W redundante Stromversorgungen (Platinum Level)
- 2HE Rackmount Server, bis zu 225W cTDP
- Dual Sockel E, 5th/4th Gen Intel Xeon Scalable CPU
- 24x DIMM-Steckplätze, bis zu 6TB RAM DDR5-5600MHz
- 8x 2.5 Zoll hot-swap Laufwerkseinschübe
- 2x 10GbE RJ45 LAN-Anschlüsse
- 10x PCI-E Gen5 Expansion-Slots (8x FHFL GPUs & 2x LP)
- 2x 3000W redundante Stromversorgungen (Titanium Level)
- 2HE Rackmount Server, bis zu 80 Kerne
- Single Ampere Altra CPU, 80 Arm 3 Ghz v8.2+
- 16x DIMM-Steckplätze, bis zu 4TB RAM DDR4-3200MHz
- 4x 3.5 SATA/SAS hot-swap Laufwerkseinschübe
- 4x PCI-E 4.0 x16 für GPU-Karten, 3x PCI-E 4.0 x8 LP-Steckplätze
- 2x Ultra-Fast M.2 mit PCI-E 4.0 x4 Interface
- 2x 1600W redundante Stromversorgungen (Platinum Level)
- Mid-Tower-Workstation, bis zu 235W cTDP
- Single Sockel V, 14th Gen Intel Core-i Prozessoren
- 4x DIMM-Steckplätze, bis zu 128GB RAM DDR5-4400MHz
- 6x 3.5 fest SATA- Laufwerkseinschübe
- 2x PCIe 5.0 x8 + 2x PCIe 3.0 x1 Expansion-Slots
- 1x 1GbE + 1x 10GbE RJ45 LAN-Anschlüsse
- 1x 750W Single Stromversorgung (Gold Level)
besonderes Highlight
8 GPUs auf 2HE
- 2HE Rackmount Server, bis zu 270W cTDP
- Dual Sockel P+, 3rd Gen Intel Xeon Scalable Prozessoren
- 24x DIMM-Steckplätze, bis zu 6TB RAM DDR4-3200MHz
- 8x 2.5 Zoll hot-swap Laufwerkseinschübe
- 8x PCI-E 4.0 x16 Expansion-Steckplätze für GPU und 2x LP
- 2x 10Gb/s Base-T LAN-Anschlüsse
- 2x 3200W redundante Stromversorgungen (Platinum Level)
- 2HE Rackmount Server, bis zu 300W cTDP
- Single Sockel SP5, AMD EPYC 9004 Serie CPU
- 12x DIMM-Steckplätze, bis zu 3TB RAM DDR5-4800MHz
- 8x 2.5 Zoll hot-swap Laufwerkseinschübe
- 2x 10GbE RJ45 LAN-Anschlüsse
- 10x PCI-E Gen4/Gen5 Expansion-Slots (8x FHFL GPUs & 2x LP)
- 2x 3000W redundante Stromversorgungen (Titanium Level)
- 4HE Rackmount Server, bis zu 385W cTDP
- Dual Sockel E, 5th/4th Gen Intel Xeon Scalable Prozessoren
- 32x DIMM-Steckplätze, bis zu 8TB RAM DDR5-4400MHz
- 16x 2.5 hot-swap Laufwerkeinschübe
- 13x PCI-E 5.0 x16 Expansion-Slots
- 2x 10GbE RJ45 LAN-Anschlüsse
- 4x 2700W redundante Stromversorgungen (Titanium Level)
besonderes Highlight
mit NVIDIA HGX A100 8-GPU
- 4HE Rackmount Server, bis zu 270W CPU TDP
- Dual Sockel P+ Intel Xeon Scalable Prozessoren 3rd Gen.
- 32x DIMM Steckplätze, bis zu 12TB RAM DDR4 3200MHz
- 6x 2.5 Hot-swap NVME/SATA/SAS Laufwerkseinschübe
- 10x PCI-E Gen 4.0 X16 LP Steckplätze
- 4x Heavy-duty Lüfter mit optimaler Lüfterdrehzahlregelung
- 4x 3000W Redundante Titanium Level Stromversorgungen
- 2HE Rackmount Server, bis zu 240W cTDP
- Dual-Sockel SP3, AMD EPYC 7003 Serie Prozessoren
- 16x DIMM-Steckplätze, bis zu 4TB RAM DDR4-3200MHz
- 8x 2.5 hot-swap Laufwerkseinschübe
- 2x 10GbE RJ45 LAN-Anschlüsse
- 10x PCI-E 4.0 x16 Expansion-Slots (8x GPUs & 2x LP)
- 2x 2200W redundante Stromversorgungen (Platinum Level)
- 2HE Rackmount Server, bis zu 240W cTDP
- Dual Sockel SP5, AMD EPYC 9004 Serie CPU
- 24x DIMM-Steckplätze, bis zu 6TB RAM DDR5-4800MHz
- 8x 2.5 Zoll hot-swap Laufwerkseinschübe
- 2x 10GbE RJ45 LAN-Anschlüsse
- 10x PCI-E Gen4/5 Expansion-Slots (8x FHFL GPUs & 2x LP)
- 2x 3000W redundante Stromversorgungen (Titanium Level)
Brauchen Sie Hilfe?
Dann rufen Sie uns einfach an oder nutzen unser Anfrageformular.
Aufbau eines High Performance Computing Cluster Systems
- Der Cluster Server (Master oder Frontend genannt) verwaltet den Zugriff und stellt Programme und den Home-Datenbereich zur Verfügung.
- Die Cluster Nodes erledigen die Berechnung.
- Ein TCP-Netzwerk wird für den Informationsaustausch im HPC Clusters verwendet.
- Ein High Performance Network ist erforderlich, um die Datenübertragung mit sehr geringer Latenz zu ermöglichen.
- Der High Performance Storage (Parallel File System) ermöglicht den gleichzeitigen Schreib-Zugriff aller Cluster Nodes.
- Das BMC Interface (IPMI Interface) ist der Zugang für den Administrator zur Verwaltung der Hardware.
Alle Cluster Nodes eines HPC Clusters werden immer mit dem gleichen Prozessortyps des jeweiligen gewählten Herstellers ausgestattet. Verschiedene Hersteller und Typen werden in aller Regel nicht in einem HPC Cluster gemischt. Eine unterschiedliche Ausstattung mit Hauptspeicher und anderen Ressourcen ist durchaus möglich. Dies sollte dann aber in der Konfiguration der Job Control Software berücksichtigt werden.
Wann kommen HPC Cluster zum Einsatz?
HPC Cluster sind dann besonders wirkungsvoll, wenn sie für Berechnungen angewandt werden, die sich in verschiedene Teilaufgaben untergliedern lassen. Ebenso kann ein HPC Cluster aber auch eine Reihe kleinerer Aufgaben parallel zueinander bewältigen. Ein High Performance Computing Cluster ist zudem in der Lage, eine einzelne Anwendung für mehrere Nutzer gleichzeitig zur Verfügung zu stellen, um durch das simultane Arbeiten Kosten und Zeit zu sparen.
Je nach Ihrem Budget und Anforderungen kann HAPPYWARE Ihnen einen HPC Cluster zusammenstellen. Mit verschiedenen konfigurierten Cluster Knoten, einem High Speed Network und einem parallelen File System. Für das Management des HPC Clusters setzen wir auf die bekannte Lösung von OpenHPC, um die Verwaltung des Clusters effektiv und intuitiv zu gestalten.
Wenn Sie mehr über mögliche Anwendungsszenarien für HPC Cluster erfahren möchten, dann hilft Ihnen unser HPC-Ingenieur Herr Jürgen Kabelitz gerne weiter. Er leitet die Clusterabteilung und steht Ihnen unter der Rufnummer +49 4181 23577 79 für Fragen zur Verfügung!
HPC Cluster Lösungen von HAPPYWARE
Hier haben wir für Sie einige mögliche Konfigurationen von HPC Clustern zusammengestellt:
Frontend oder Master Server
- 4 HE Cluster Server mit 24 3,5’’ Laufwerkschächten
- SSD für das Betriebssystem
- Dual Port 10 Gb/s Netzwerk Adapter
- FDR Infiniband Adapter
Cluster Knoten
- 12 Cluster Nodes mit dual CPU und 64 GB Arbeitsspeicher
- 12 Cluster Nodes mit dual CPU und 256 GB Arbeitsspeicher
- 6 GPU Computing Systeme mit je 4 Tesla V100 SXM2 und 512 GB Arbeitsspeicher NVIDIA Werte angeben
- FDR Infiniband und 10 GB/s TCP Netzwerk
High Performance Storage
- 1 Storage System mit 32 x NF1 SSD mit je 16 TB Kapazität
- 2 Storage Systeme mit je 45 Hot-Swap Schächte
- Netzwerkverbindung: 10 Gb/s TCP/IP und FDR Infiniband
HPC Cluster Management – mit OpenHPC und xCAT
Für das Management von HPC Clustern und Daten braucht es eine entsprechend leistungsfähige Software. Zu diesem Zweck bieten wir Ihnen mit OpenHPC und xCAT zwei bewährte Lösungen an.
HPC Cluster mit OpenHPC
OpenHPC ermöglicht grundlegendes HPC Cluster Management auf Linux- und OpenSource-Basis.
Leistungsumfang
- Forwarding der Systemlogs möglich
- Nagios Monitoring & Ganglia Monitoring – Opensource-Lösung für Infrastrukturen und skalierbares System Monitoring für HPC Cluster sowie Grids
- ClusterShell Event basierte Python Bibliothek für das parallele Ausführen von Befehlen auf dem Cluster
- Genders - statische Cluster Konfigurationsdatenbank
- ConMan - Serial Console Management
- NHC - Node health check
- Entwicklersoftware wie Easy_Build, hwloc, spack und valgrind
- Compiler wie GNU Compiler, LLVM Compiler
- MPI Stacks
- Job Kontrollsystem wie PBS Professionel oder Slurm
- Infiniband Support & Omni-Path Support für x86_64 Architekturen
- BeeGFS Support für das Mounten von BeeGFS Filesystemen
- Lustre Client Support für das Mounten von Lustre Filesystemen
- GEOPM Global Extensible Power Manager
- Unterstützung von INTEL Parallel Studio XE Software
- Unterstützung von lokaler Software mit der Modules Software
- Unterstützung von Nodes mit stateful oder stateless Konfiguration
Unterstützte Betriebssysteme
- CentOS7.5
- SUSE Linux Enterprise Server 12 SP3
Unterstützte Hardware Architekturen
- x86_64
- aarch64
HPC Cluster mit xCAT xCAT ist ein “Extreme Cloud Administration Toolkit” und ermöglicht ein umfassendes HPC Cluster Management.
Geeignet für folgende Anwendungen
- Clouds
- Cluster
- High-Performance -Cluster
- Grids
- Datacentre
- Renderfarms
- Online Gaming Infrastructure
- Oder jede andere System Zusammenstellung, die möglich ist.
Leistungsumfang
- Erkennen von Servern im Netz
- Ausführen von Remote System Management
- Bereitstellung von Betriebssystemen auf physikalischen oder virtuellen Servern
- Diskful (stateful) oder Diskless (stateless) Installation
- Installation und Konfiguration von Benutzersoftware
- Paralleles Systemmanagement
- Integration der Cloud
Unterstützte Betriebssysteme
- RHEL
- SLES
- Ubuntu
- Debian
- CentOS
- Fedora
- Scientific Linux
- Oracle Linux
- Windows
- Esxi
- und etliche andere
Unterstützte Hardware Architekturen
- IBM Power
- IBM Power LE
- x86_64
Unterstützte Virtualisierungs-Infrastruktur
- IBM PowerKVM
- IBM zVM
- ESXI
- XEN
Leistungswerte für mögliche Prozessoren
Als Leistungswerte wurde auf die Werte von SPEC.ORG zurückgegriffen. Dabei werden ausschließlich die Werte für SPECrate 2017 Integer und SPECrate 2017 Floating Point verglichen:
Hersteller | Modell | Prozessor | Taktrate | # CPUs | # cores | # Threads | Base Integer | Peak Integer | Base Floatingpoint | Peak Floatingpoint |
---|---|---|---|---|---|---|---|---|---|---|
Giagbyte | R181-791 | AMD EPYC 7601 | 2,2 GHz | 2 | 64 | 128 | 281 | 309 | 265 | 275 |
Supermicro | 6029U-TR4 | Xeon Silver 4110 | 2,1 GHz | 2 | 16 | 32 | 74,1 | 78,8 | 87,2 | 84,8 |
Supermicro | 6029U-TR4 | Xeon Gold 5120 | 2.2 GHz | 2 | 28 | 56 | 146 | 137 | 143 | 140 |
Supermicro | 6029U-TR4 | Xeon Gold 6140 | 2.3 GHz | 2 | 36 | 72 | 203 | 192 | 186 | 183 |
NVIDIA Tesla V100 SXM2 64Bit 7,8 TFlops; 32Bit 15,7 TFlops; 125 TFlops für Tensor Operationen.
HPC Cluster und mehr von HAPPYWARE – Ihr Partner für starke Cluster-Lösungen
Wir sind Ihr Spezialist für individuell konfigurierte und extrem performante Cluster – ganz gleich, ob es um GPU Cluster, HPC Cluster oder andere Setups geht. Gerne stellen wir auch für Ihr Unternehmen ein bedarfsgerechtes System zu einem fairen Preis zusammen.
Für wissenschaftliche Institutionen und Bildungsstätten bieten wir außerdem mit unserem Rabatt für Forschung und Lehre besonders günstige Konditionen. Sprechen Sie uns bei Interesse auf mögliche Rabatte an.
Möchten Sie mehr über die Ausstattung unserer HPC Cluster erfahren oder benötigen Sie eine individuell konzipierte Cluster-Lösung? Melden Sie sich unter der Nummer +49 4181 23577 79 bei unserem Cluster-Spezialisten Jürgen Kabelitz und lassen Sie sich passend zu Ihren Anforderungen beraten!