Cluster Computing – Mehr Leistung durch hochwertige Lösungen
Wer Verfügbarkeit oder Rechenkapazität erhöhen will, ist mit Cluster Computing gut beraten. HAPPYWARE informiert darüber, was hinter der Technik steckt und welche Möglichkeiten sich für Sie mit unseren Cluster Computing Lösungen bieten.
HPC Cluster
HPC Cluster, High Performance Computing Cluster (HPC Cluster) als schlüsselfertige Lösung kaufen!
HPC Cluster richtig beraten und Cluster Preis niedrig halten z.B. für Finanzsimulationen.
Cluster Server, Cluster Nodes
Supermicro Cluster Server: Hier jeden Knoten optimal konfigurieren und kaufen!
Hier finden Sie Ihr Cluster Node, Cluster PCs und Mini-Cluster z.B. als Cluster Dateiserver mit zwei Knoten.
Virtualisierungscluster
Cluster in a Box Lösungen: Fehlertolerant und voll redundant aufgebaut.
Virtualisierungscluster mit dem besten Preis/ Performance für maximale Ausfallsicherheit!
Hier finden Sie unsere Cluster Computing
- 2HE Rackmount Server, bis zu 225W TDP
- Dual Sockel SP3, AMD EPYC 7003 Serie Prozessoren
- 16x DIMM-Steckplätze, bis zu 4TB RAM DDR4-3200MHz
- 4x hot-pluggable Nodes
- 6x 2.5 hot-swap Laufwerkeinschübe (4x NVMe & 2x SATA3)
- 2x PCI-E 4.0 x16 LP-Steckplätze
- 2x 2200W redundante Stromversorgungen mit PMBus (Titanium Level)
- 2HE Rackmount Server, bis zu 350W CPU TDP
- Dual Sockel E, Intel Xeon 5th/4th Gen Scalable Prozessoren
- 16x DIMM-Steckplätze, bis zu 4TB RAM DDR5-5600MHz
- 12x 2.5-Zoll hot-swap Laufwerkseinschübe
- 3x PCI-E Gen5 Expansion-Slots
- über AIOM-Steckplätze, 2x M.2
- 2x 2200W redundante Stromversorgungen (Titanium Level)
- 8HE Rack SuperBlade Enclosure
- Bis zu 20 Blade Server
- Bis zu 2x 10GbE Switche
- 1 Management Modul
- 8x 2200W Netzteile (Titanium Level)
besonderes Highlight
Bis zu 6TB RAM pro Node
- 2HE Rackmount Server, bis zu 205W TDP
- Dual Sockel P, 2nd Gen Intel Xeon Scalable Prozessoren
- 24x DIMM Steckplätze, bis zu 6TB RAM DDR4-2933MHz ECC
- 4x hot-pluggable Nodes
- 6x 2.5 Zoll hot-swap NVMe-Laufwerkseinschübe
- 2x PCI-E 3.0 x16 Steckplätze und 1x SIOM Kartenunterstützung
- 2x 2200W redundante Stromversorgungen (Titanium Level)
besonderes Highlight
8 GPUs auf 2HE
- 2HE Rackmount Server, bis zu 270W cTDP
- Dual Sockel P+, 3rd Gen Intel Xeon Scalable Prozessoren
- 24x DIMM-Steckplätze, bis zu 6TB RAM DDR4-3200MHz
- 8x 2.5 Zoll hot-swap Laufwerkseinschübe
- 8x PCI-E 4.0 x16 Expansion-Steckplätze für GPU und 2x LP
- 2x 10Gb/s Base-T LAN-Anschlüsse
- 2x 3200W redundante Stromversorgungen (Platinum Level)
- 2HE Rackmount Server, bis zu 270W CPU TDP
- Single Sockel E, Intel Xeon 5th/4th Gen Scalable Prozessoren
- 8x DIMM-Steckplätze, bis zu 2TB RAM DDR5-5600MHz
- 6x 2.5-Zoll hot-swap Laufwerkseinschübe
- 2x PCI-E Gen5 Expansion-Slots
- 2x 10GbE SFP+ LAN-Anschlüsse
- 2x 2000W redundante Stromversorgungen (Titanium Level)
- 2HE Rackmount Server, bis zu 330W CPU TDP
- Dual Sockel E2, Intel Xeon 6 6700 Prozessoren mit E-Kernen
- 16x DIMM-Steckplätze, bis zu 4TB RAM DDR5-6400MHz
- 6x 3.5-Zoll hot-swap Laufwerkseinschübe
- 3x PCI-E Gen5 Expansion-Slot, 1x AIOM
- über AIOM-Steckplätze, 2x M.2
- 2x 2200W redundante Stromversorgungen (Titanium Level)
- 2HE Rackmount Server, bis zu 270W CPU TDP
- Single Sockel E, Intel Xeon 5th/4th Gen Scalable Prozessoren
- 8x DIMM-Steckplätze, bis zu 2TB RAM DDR5-5600MHz
- 6x 2.5-Zoll hot-swap Laufwerkseinschübe
- 2x PCI-E Gen5 Expansion-Slots
- 2x 10GbE SFP+ LAN-Anschlüsse
- 2x 2000W redundante Stromversorgungen
- 2HE BigTwin Rackmount Server, bis zu 205W TDP
- Dual Sockel P, 2nd Gen Intel Xeon Scalable Processors
- 24x DIMM-Steckplätze, bis zu 6TB RAM DDR4-2933MHz ECC
- 6x 2.5 Zoll Hot-swap NVMe-Laufwerkseinschübe
- 2x PCI-E 3.0 (x16) and 1x SIOM-Karte -Unterstutzung
- 1x Carrier Kartensteckplatz (M.2 Unterstützung)
- 2x 2600W redundante Stromversorgungen (Titanium Level)
- 2HE Rackmount Server, bis zu 350W CPU TDP
- Dual Sockel E, Intel Xeon 5th/4th Gen Scalable Prozessoren
- 16x DIMM-Steckplätze, bis zu 4TB RAM DDR5-5600MHz
- 12x 2.5-Zoll hot-swap Laufwerkseinschübe
- 2x PCI-E Gen5 Expansion-Slots
- über AIOM-Steckplätze, 2x M.2
- 2x 2200W redundante Stromversorgungen (Titanium Level)
besonderes Highlight
Bis zu 6TB RAM pro Node
- 2HE Rackmount Server, bis zu 205W TDP
- Dual Sockel P, 2nd Gen Intel Xeon Scalable Prozessoren
- 24x DIMM Steckplätze, bis zu 6TB RAM DDR4-2933MHz ECC
- 6x 2.5 Zoll Hot-swap Laufwerkseinschübe
- 2x PCI-E 3.0 x16-Steckplätze und 1x SIOM-Karte
- SAS3-Unterstützung über Broadcom 3008
- 2x 2200W redundante Stromversorgungen (Titanium Level)
besonderes Highlight
NVIDIA HGX A100 4-GPU 40GB/80GB, NVLink
- 2HE Rackmount Server, bis zu 270W TDP
- Dual Sockel P+, 3rd Gen Intel Xeon Scalable Prozessoren
- 32x DIMM-Steckplätze, bis zu 8TB RAM DDR4-3200MHz
- 4x GPU-Karten
- 4x 2.5 Zoll Hot-Swap SATA/SAS-Laufwerkeinschübe
- 4x PCI-E 4.0 x16 LP-Steckplätze
- 2x 3000W redundante Stromversorgungen (Titanium Level)
- 2HE Rack Server, bis zu 185W TDP
- Dual Socket P+, 3rd Gen Intel® Xeon® Scalable Prozessoren
- 16x DIMM Steckplätze, bis zu 4TB RAM DDR4-3200MHz
- 3x 3.5 hot-swap SATA Laufwerkseinschübe
- 2x PCI-E 4.0 x16 (LP), 1x PCI-E 4.0 x8 Steckplätze
- 2x 10GbE BaseT mit Intel® X710-AT2
- 2x 2200W redundante Stromversorgungen Titanium Level
- 2HE Rack Server, bis zu 185W TDP
- Dual Socket P+, 3rd Gen Intel® Xeon® Scalable Prozessoren
- 16x DIMM Steckplätze, bis zu 4TB RAM DD4-3200MHz
- 6x 2.5 Hot-swap SATA Laufwerkseinschübe
- 2x PCI-E 4.0 x16 (LP) und 1x PCI-E 4.0 x8 Steckplätze
- 4x heavy-duty PWM-Lüfter
- 2x 2200W redundante Stromversorgungen Titanium Level mit PMBus
besonderes Highlight
1x AIOM/AOC NIC-Karte auf 4HE
- 4HE Rackmount Server, bis zu 280W TDP
- Single Sockel SP3, AMD EPYC 7003 Serie Prozessor
- 8x DIMM-Steckplätze, bis zu 2TB RAM DDR4-3200MHz
- 4x hot-pluggable Nodes
- 8x 3.5 hot-swap Laufwerkseinschübe
- 2x PCI-E Gen4-Steckplätze
- 4x 2200W redundante Stromversorgungen (Titanium Level)
- 8HE Rack SuperBlade Enclosure
- Bis zu 20 Blade Server
- Bis zu 2x 10GbE Switche
- 1 Management Modul
- 8x 2200W Netzteile (Titanium Level)
- 2HE Rack Server, bis zu 185W TDP
- Dual Socket P+, 3rd Gen Intel® Xeon® Scalable Prozessoren
- 20x DIMM Steckplätze (16 DRAM + 4 PMem), bis zu 6TB RAM DDR4
- 3x 3.5 hot-swap NVMe/SATA-Einschübe (3x 2.5/3x 3.5 NVMe-Hybrid)
- 2 PCI-E 4.0 x16 (LP) Steckplätz
- 4x Lüfter pro 2HE-Gehäuse, Flüssigkeitskühlung Unterstützung
- 2x 2600W redundant Power supplies (Titanium Level)
- 2HE Rack Server, bis zu 205W TDP
- Dual Socket P+, 3rd Gen Intel® Xeon® Scalable
- 20x DIMM Steckplätze (16 DRAM + 4 PMem) bis zu 4TB RAM DDR4
- 6x 2.5" NVMe/SATA Laufwerkeinschübe
- 2x PCI-E 4.0 x16 (LP) Steckplätze
- 2x USB 3.0, 1 VGA und 1x RJ45 BMC LAN Anschlüsse
- 2x 2600W redundante Stromversorgungen (Titanium Level)
- 2HE-Rack-Server, 185 W TDP
- Dual Socket P + (LGA 4189) 3rdGen Intel® Xeon® Skalierbarer
- Bis zu 4 TB: 16 x 256 GB DRAM-Speichertyp: 3200/2933 / 2666 MHz
- 3x 3,5 Hot-Swap-SAS / SATA-Einschübe
- Netzwerkkonnektivität über AIOM (OCP 3.0-konform)
- Steckplatz 1: PCI-E 4.0 x16 LP Steckplatz 2: PCI-E 4.0 x16 LP
- 2200 Watt redundante Netzteile Titanium Level
- 2HE Rackmount Server, bis zu 185W cTDP
- Dual Sockel P+, 3rd Gen Intel Xeon Scalable Prozessoren
- 16x DIMM-Steckplätze, bis zu 4TB RAM DDR4-3200MHz
- 4x hot-pluggable Nodes
- 6x 2.5 SATA/SAS hot-swap Laufwerkseinschübe
- 1x PCI-E 4.0 x16 LP Expansion-Slots
- 2x 2200W redundante Stromversorgungen (Titanium Level)
- 2HE Rack Server, bis zu 185W TDP
- Dual Socket P+, 3rd Gen Intel® Xeon® Scalable Prozessoren
- 16X DIMM Steckplätze, bis zu 4TB RAM DD4-3200MHz
- 6x 2.5 hot-swap SATA/SAS-Laufwerkseinschübe
- 2x PCI-E 4.0 x16 LP Steckplätze
- 4x heavy-duty PWM-Lüfter
- 2x 2200W redundante Stromversorgung Titanium Level
besonderes Highlight
Bis zu 10x GPUs
- 4HE Rackmount Server, bis zu 270W TDP
- Dual-Sockel P+, 3rd Gen Intel Xeon Scalable Prozessor
- 32x DIMM-Steckplätze, bis zu 8TB RAM DDR4-3200MHz
- 12x 3.5 hot-swap-Laufwerkseinschübe
- 10x PCI-E 4.0 x16 Steckplätze für GPUs
- 2x 10Gbase-T LAN-Anschlüsse
- 3x 2200W redundante Stromversorgungen (Platinum Level)
besonderes Highlight
Bis zu 10x GPUs
- 4HE Rackmount Server, bis zu 280W cTDP
- Dual Sockel SP3, AMD EPYC 7003 Serie Prozessoren
- 32x DIMM-Steckplätze, bis zu 8TB RAM DDR4-3200MHz
- 12x 3.5 hot-swap Laufwerkseinschübe (8x NVMe & 4x SATA/SAS)
- 13x PCI-E 4.0 x16 (10x FHFL für GPUs, 3x LP/HL) Expansion-Slots
- 2x 10Gb/s Base-T LAN-Anschlüsse über Intel® X550-AT2
- 3x 2200W redundante Stromversorgungen (Platinum Level)
- 2HE Rackmount Server, 4-Nodes
- Dual Sockel SP5, AMD EPYC 9004 Serie CPU
- 24x DIMM-Steckplätze, bis zu 6TB RAM DDR5-4800MHz
- 2x 2.5 Zoll hot-swap Laufwerkseinschübe
- 2x 1GbE RJ45 LAN-Anschlüsse
- 1x PCI-E 5.0 x16 Expansion-Slot
- 2x 3000W redundante Stromversorgungen (Titanium Level)
Brauchen Sie Hilfe?
Dann rufen Sie uns einfach an oder nutzen unser Anfrageformular.
Was ist ein Computer Cluster?
Als Computer Cluster bezeichnet man in der IT, Server Systeme, die in einer losen Zusammenkopplung für spezielle Aufgaben bereitgestellt werden. Ganz allgemein besteht ein Cluster aus vier verschiedenen Teilen:
- Einer Steuereinheit, die je nach Clusterart ein eigenständiges Server System ist und oft als Frontend System bekannt ist.
- Den Knoten, die die Arbeit machen (Cluster Nodes genannt).
- Einen gemeinsamen Datenbereich auf denen alle zum Cluster gehörenden Systeme zugreifen können.
- Einem gemeinsamen Netzwerk (siehe High Performance Netzwerke)
Die einzelne Systeme werden gemeinsam verwaltet.
Wie hat sich Cluster Computing entwickelt?
Cluster Computing gibt es seit den 1980ziger Jahren. Die Firma DEC (Digital Equipment Cooperation) stellte eine Möglichkeit vor, ihre Micro-Vaxen mit einer großen VAX über Ethernet zu verbinden, um den gemeinsamen Datenspeicher zu nutzen.
Als es dann später die ersten Parallelrechner gab, stellte man fest, dass diese recht teuer waren, weil diese IT Systeme ganz spezielle Hardware und Software benötigten, die nur von wenigen Kunden eingesetzt wurden.
Auf Basis der alten Lösung von DEC stellte man normale PCs, die unter dem Betriebssystem Linux laufen, zu einem Cluster zusammen. Eine der ersten Lösungen im Cluster Computing war das Beowulf Cluster.
Was müssen Computer Cluster Lösungen heute leisten?
Durch immer leistungsfähigere Systeme und Netzwerke sind die heutigen Cluster zu einem essenziellen Bestandteil einer modernen IT Landschaft geworden. Kein einzelnes IT System kann die komplexen Berechnungsaufgaben alleine in einer annehmbaren Zeit lösen. Heute werden immer mehr Daten an den verschiedensten Stellen erfasst und die verfügbare Datenmenge steigt jedes Jahr kontinuierlich an. Damit wird es immer wichtiger, diese Daten in kürzester Zeit zuverlässig zu verarbeiten. IT Systeme, die für die Berechnung solcher Datenmengen ausgelegt sind, fallen unter den Begriff ,,High Performance Computing‘‘. Diese Cluster Computing Systeme bestehen aus speziellen Hochleistungsrechnern und GPU Systemen. Der gemeinsame Datenbereich kann ein einzelner NFS-Server oder aber eine High Performance Storage Lösung sein.
Welche Arten von Computer Cluster gibt es?
Je nach Anforderung an das Cluster lassen sich diese in verschieden Kategorien einteilen:
- High Performance Computing – Cluster Computing für hohe AnsprücheDiese Clusterart findet man in technisch-wissenschaftlichen Bereichen, so z.B. bei Universitäten, Forschungseinrichtungen und Forschungsabteilungen von Firmen. Die Zeit, die für eine Rechnung benötigt wird, soll möglichst kurz sein, da viele Informationen zwischen den einzelnen IT-Systemen transportiert werden. Deshalb ist hier ein Netzwerk gefordert, das mit einer kurzen Latenzzeit und schnellen Übertragungszeiten überzeugt. Für mehr Informationen zu dieser Cluster Computing Variante sehen Sie in unserem Artikel zum Thema High Performance Netzwerke.
- Big Data – Cluster Computing zur Verarbeitung großer DatenpaketeWenn aus einer riesigen Menge von heterogenen Daten nach speziellen Vorgaben Analysen erstellt werden sollen, ist diese Art von Cluster Computing ideal. Die einzelnen Knoten haben dabei in aller Regel sehr viel eigenen Datenspeicher. Aus der riesigen Menge von heterogenen Daten wird jedem Knoten ein Teil zugewiesen. Der Transport der Daten erfolgt über das Netzwerk in aller Regel nur zu Anfang und zum Ende. Damit ist bei diesen Clustern eine kurze Latenzzeit des Netzwerkes nicht notwendig. Allerdings sind die zu transportierenden Datenpakete sehr groß. Oft werden diese Art von Cluster Computing im Marketingbereich eingesetzt um z.B. das Käuferverhalten zu analysieren.
- High Performance Data Analytics – Cluster Computing für große Datenmengen in kurzer Zeit Genauso wie bei BIG Data Cluster Computing liegen hier sehr große Datenmengen zur Verarbeitung vor. Der Unterschied ist, dass die Berechnung hier innerhalb von Sekundenbruchteilen erfolgen muss. Die Knoten eines High Performance Data Analytics Clusters profitieren von GPU Zusatzkarten, die parallel eine schnelle Verarbeitung auf Basis von FP64 und FP32 Daten unter zu Hilfenahme von KI bzw. AI Software berechnen. Hierzu erfahren Sie mehr in unserem Beitrag zum Thema GPU Computing. Cluster Computing dieser Art ist typisch für den Hochfrequenzaktienhandel.
- Visualisierung – Cluster Computing für leistungsstarke Simulationen Die Produktentwicklung von z.B. Flugzeugen sowie die Prozessentwicklung im Bereich Chemie werden heute in aller Regel komplett in einem IT-System vorgenommen und dort vollständig simuliert. Nach der ersten Fertigung fließen in dieser Simulation auch noch Echtdaten ein (IoT). Dabei fallen riesige Datenmengen an, die als Video oder Animation dargestellt werden sollen. Cluster, die diese Anforderungen bewältigen müssen, benötigen GPU Zusatzkarten und fallen unter der Kategorie Visualisierungscluster.
- Virtualisierung Virtualisierung ist eine Anwendung, die heute überall zu finden ist. Die virtualisierten Systeme können in wenigen Sekunden von einem Knoten auf den anderen Knoten verschoben werden. Die Steuereinheit ist bei diesen Clustern oft ein komplexes Steuerprogramm.
- Load Balancer Load Balancing Cluster verteilen einen einkommenden Datenstrom, wie er im Bereich Web-Server auftritt, auf ein dahinter angeordnetes Web-Server Cluster. Heute sind diese Cluster ein Bestandteil von Software Defined Networking. Die eingesetzte Hardware (Bar Metal Switch) ist ein spezielles System mit vielen Netzwerk-Anschlüssen, auf denen Cumulus Linux als Basisbetriebssystem läuft.
Zahlreiche Cluster Computing Lösungen bei HAPPYWARE
Sie haben Fragen zum Thema Cluster Computing oder möchten sich darüber informieren, welche Lösungen aus unserem Angebot für Sie am besten geeignet sind? Dann kontaktieren Sie uns gern! Wir helfen Ihnen persönlich weiter.