Cluster Computing – Mehr Leistung durch hochwertige Lösungen
Wer Verfügbarkeit oder Rechenkapazität erhöhen will, ist mit Cluster Computing gut beraten. HAPPYWARE informiert darüber, was hinter der Technik steckt und welche Möglichkeiten sich für Sie mit unseren Cluster Computing Lösungen bieten.
HPC Cluster
HPC Cluster, High Performance Computing Cluster (HPC Cluster) als schlüsselfertige Lösung kaufen!
HPC Cluster richtig beraten und Cluster Preis niedrig halten z.B. für Finanzsimulationen.
Cluster Server, Cluster Nodes
Supermicro Cluster Server: Hier jeden Knoten optimal konfigurieren und kaufen!
Hier finden Sie Ihr Cluster Node, Cluster PCs und Mini-Cluster z.B. als Cluster Dateiserver mit zwei Knoten.
Virtualisierungscluster
Cluster in a Box Lösungen: Fehlertolerant und voll redundant aufgebaut.
Virtualisierungscluster mit dem besten Preis/ Performance für maximale Ausfallsicherheit!
Hier finden Sie unsere Cluster Computing
- 2HE Rack Server, 185 W TDP
- Dual Socket P + (LGA 4189) Intel® Xeon® skalierbare Prozessoren
- Bis zu 4 TB: 16x 256 GB DRAM, 6 TB: 8x 256 GB DRAM und 8x 512
- 3x 3,5-Hot-Swap-NVMe / SATA / SAS-Einschübe (3x 2,5 NVMe-Hybrid)
- Netzwerkkonnektivität über AIOM (OCP 3.0-konform)
- Steckplatz 1: PCI-E 4.0 x16 LP, Steckplatz 2: PCI-E 4.0 x16 LP
- 2x 2600 redundante Stromversorgungen (Titanium Level)
- 2HE-Rack-Server, 185 W TDP
- Dual Socket P + (LGA 4189) 3rdGen Intel® Xeon® Skalierbarer
- Bis zu 4 TB: 16 x 256 GB DRAM-Speichertyp: 3200/2933 / 2666 MHz
- 6x 2,5 Hot-Swap-SATA / SAS-Einschübe
- 2x10GBase-T mit X710
- Steckplatz 1: PCI-E 4.0 x16 LP Steckplatz 2: PCI-E 4.0 x16 LP
- 2200 Watt redundante Netzteile Titanium Level
- 2HE Rack Server, bis zu 205W TDP
- Dual Socket P+, 3rd Gen Intel® Xeon® Scalable Prozessoren
- 20x DIMM Steckplätze (16 DRAM + 4 PMem), bis zu 4TB RAM DDR4
- 6x 2.5 hot-swap NVMe/SATA/SAS-Einschübe (6x 2.5 NVMe-Hybrid)
- 2x PCI-E 4.0 x16 (LP) Steckplätze
- Integrierte SAS3-Unterstützung über Broadcom 3808, IT-Mode
- 2600W redundante Stromversorgungen (Titanium Level)
besonderes Highlight
4 Nodes FatTwin Architektur
- 4HE Rackmount Server, bis zu 205W TDP
- Dual Sockel P+, 3rd Gen Intel Xeon Scalable Prozessoren
- 16x DIMM-Steckplätze, bis zu 2TB RAM DDR4-3200MHz
- 4x hot-pluggable Nodes
- 8x 3.5 hot-swap SATA/SAS Laufwerkeinschübe
- 2x PCI-E 4.0 x16 (1x LP & 1x AIOM) Steckplätze
- 4x 2200W redundante Stromversorgungen (Titanium Level)
- 2HE Rackmount Server, bis zu 350W CPU TDP
- Dual Sockel E, Intel Xeon 5th/4th Gen Scalable Prozessoren
- 16x DIMM-Steckplätze, bis zu 4TB RAM DDR5-5600MHz
- 3x 3.5-Zoll hot-swap Laufwerkseinschübe
- 2x PCI-E 5.0 x16 Expansion-Slots
- über AIOM-Steckplätze, 2x M.2
- 2x 3000W redundante Stromversorgungen (Titanium Level)
- 2HE Rackmount Server, bis zu 350W CPU TDP
- Dual Sockel E, Intel Xeon 5th/4th Gen Scalable Prozessoren
- 16x DIMM-Steckplätze, bis zu 4TB RAM DDR5-5600MHz
- 6x 2.5-Zoll hot-swap Laufwerkseinschübe
- 2x PCI-E 5.0 x16 Expansion-Slots
- über AIOM-Steckplätze, 2x M.2
- 2x 3000W redundante Stromversorgungen (Titanium Level)
- 2HE Rackmount Server, bis zu 185W cTDP
- Dual Sockel P+, 3rd Gen Intel Xeon Scalable Prozessoren
- 16x DIMM-Steckplätze, bis zu 4TB RAM DDR4-3200MHz
- 4x hot-pluggable Nodes
- 6x 2.5 SATA/SAS hot-swap Laufwerkseinschübe
- 1x PCI-E 4.0 x16 LP Expansion-Slot
- 2x 2200W redundante Stromversorgungen (Titanium Level)
besonderes Highlight
Bis zu 60x 3.5" Laufwerkeinschübe
- 4HE Rackmount Server, bis zu 205W TDP
- Dual Sockel P+, 3rd Gen Intel Xeon Scalable Prozessoren
- 16x DIMM-Steckplätze, bis zu 4TB RAM DDR4-3200MHz
- 60x 3.5 hot-swap SATA3/SAS3 Laufwerkeinschübe
- 3x PCI-E 4.0 x16 HHHL-Steckplätze
- 6x 8cm hot-swap gegenläufige redundante PWM-Lüfter
- 2x 2600W redundante Netzteile (Titanium Level)
- 2HE Rackmount Server, bis zu 330W CPU TDP
- Dual Sockel E2, Intel Xeon 6 6700 Prozessoren mit E-Kernen
- 16x DIMM-Steckplätze, bis zu 4TB RAM DDR5-6400MHz
- 6x 2.5-Zoll hot-swap Laufwerkseinschübe
- 2x PCI-E 5.0 x16 Expansion-Slots, 1x AIOM
- über AIOM-Steckplätze, 2x M.2
- 2x 3600W redundante Stromversorgungen (Titanium Level)
- 2HE Rack Server, bis zu 205W TDP
- Dual Socket P+, 3rd Gen Intel Xeon Scalable Prozessoren
- 20x DIMM Steckplätze (16 DRAM + 4 PMem), bis zu 6TB RAM DDR4
- 6x 2.5 Hot-swap NVMe/SATA/SAS-Einschübe (6x 2.5 NVMe-Hybrid)
- 1x PCI-E 4.0 x16 (LP) Steckplätz
- 4x heavy-duty Kuhl-Lüfter
- 2x 2600W redundante Stromversorgungen (Titanium Level)
- 2HE Rackmount Server, bis zu 350W CPU TDP
- Dual Sockel E, Intel Xeon 5th/4th Gen Scalable Prozessoren
- 16x DIMM-Steckplätze, bis zu 4TB RAM DDR5-5600MHz
- 3x 3.5-Zoll hot-swap Laufwerkseinschübe
- 2x PCI-E 5.0 x16 Expansion-Slots
- über AIOM-Steckplätze, 2x M.2
- 2x 3000W redundante Stromversorgungen (Titanium Level)
- 2HE Rackmount Server, bis zu 350W CPU TDP
- Dual Sockel E, Intel Xeon 5th/4th Gen Scalable Prozessoren
- 16x DIMM-Steckplätze, bis zu 4TB RAM DDR5-5600MHz
- 6x 2.5-Zoll hot-swap Laufwerkseinschübe
- 2x PCI-E 5.0 x16 Expansion-Slots
- über AIOM-Steckplätze, 2x M.2
- 2x 3000W redundante Stromversorgungen (Titanium Level)
- 2HE Rackmount Server, bis zu 330W CPU TDP
- Dual Sockel E2, Intel Xeon 6 6700 Prozessoren mit E-Kernen
- 16x DIMM-Steckplätze, bis zu 4TB RAM DDR5-6400MHz
- 3x 3.5-Zoll hot-swap Laufwerkseinschübe
- 2x PCI-E Gen5 Expansion-Slot, 1x AIOM
- über AIOM-Steckplätze, 2x M.2
- 2x 3600W redundante Stromversorgungen (Titanium Level)
- 2HE Rackmount Server, bis zu 330W CPU TDP
- Dual Sockel E2, Intel Xeon 6 6700 Prozessoren mit E-Kernen
- 16x DIMM-Steckplätze, bis zu 4TB RAM DDR5-6400MHz
- 6x 2.5-Zoll hot-swap Laufwerkseinschübe
- 2x PCI-E 5.0 x16 Expansion-Slots, 1x AIOM
- über AIOM-Steckplätze, 2x M.2
- 2x 3600W redundante Stromversorgungen (Titanium Level)
- 4HE Rack Server, bis zu 165W TDP mit IVR
- 8x Hot-pluggable Nodes
- Dual Sockel P, 2nd Gen Intel Xeon Scalable CPU
- 12x DIMM Steckplätze, bis zu 3TB RAM DDR4-2933MHz
- 2x oder 4x fest 2.5 SATA3/NVMe-Laufwerkseinschübe
- 2x PCI-E 3.0 x16 (niedriges Profil & SIOM), 1x PCI-E 3.0 x8
- 4x 2200W redundante Stromversorgungen (Titanium Level)
besonderes Highlight
Bis zu 1 Add-on-Karte pro Node auf 4HE
- 4HE Rackmount Server, bis zu 280W TDP
- Single Sockel SP3, AMD EPYC 7003 Serie Prozessoren
- 16x DIMM-Steckplätze, bis zu 4TB RAM DDR4-3200MHz
- 8 hot-pluggable Nodes
- 4x 2.5 fest intern Laufwerkseinschübe, 2x M.2 NVMe
- 3x PCI-E 4.0 x16 (2x LP & 1x AIOM) Steckplätze
- 4x 2000W redundante Stromversorgungen mit PMBus
- 4HE Rackmount Server, bis zu 165W TDP
- Dual Sockel P, 2nd Gen Intel Xeon Scalable Prozessoren
- 12x DIMM Steckplätze, bis zu 3TB RAM DDR4-2933MHz ECC
- 8x Hot-pluggable Nodes
- 2x 3.5 SATA3 Laufwerkseinschübe
- 2x PCI-E 3.0 x16 und 1x PCI-E 3.0 x8 Steckplätze
- 4x 2200W redundante Stromversorgungen (Titanium Level)
besonderes Highlight
Bis zu 1 Add-on-Karte pro Node auf 4HE
- 4HE Rackmount Server, bis zu 280W TDP
- Single Sockel SP3, AMD EPYC 7003 Serie Prozessoren
- 8x DIMM-Steckplätze, bis zu 2TB RAM DDR4-3200MHz
- 8 hot-pluggable Nodes
- 2x 2.5 NVMe und 4x SATA3 Laufwerkseinschübe
- 1x PCI-E 4.0 x16 LP Steckplatz & 1x PCI-E 4.0 x8 intern RAID AOC
- 4x 2200W redundante Stromversorgungen mit PMBus
besonderes Highlight
Bis zu 90x 3.5" Laufwerkeinschübe
- 4HE Rackmount Server, bis zu 205W TDP
- Dual Sockel P+, 3rd Gen Intel Xeon Scalable Prozessoren
- 16x DIMM-Steckplätze, bis zu 4TB RAM DDR4-3200MHz
- 90x 3.5 hot-swap SATA3/SAS3 Laufwerkeinschübe + 2x 2.5 schlank
- 3x PCI-E 4.0 x16 HHHL-Steckplätze
- Dual-Node-Architektur
- 2x 2600W redundante Stromversorgungen (Titanium Level)
besonderes Highlight
Bis zu 4x NVIDIA HGX A100 GPUs
- 4HE Rackmount Server, bis zu 270W cTDP
- Dual Sockel P+, 3rd Gen Intel Xeon Scalable Prozessoren
- 32x DIMM-Steckplätze, bis zu 8TB/12TB RAM DDR4-3200MHz
- 10x 2.5 NVMe/SATA/SAS hot-swap Laufwerkseinschübe
- 2x 10GbE Base-T LAN mit Intel® X550-AT2
- 10x PCI-E 4.0 x16 LP-Steckplätze
- 4x 3000W Redundante Stromversorgungen (Titanium Level)
- 2HE Rackmount Server, bis zu 330W CPU TDP
- Dual Sockel E2, Intel Xeon 6 6700 Prozessoren mit E-Kernen
- 16x DIMM-Steckplätze, bis zu 4TB RAM DDR5-6400MHz
- 6x 2.5-Zoll hot-swap Laufwerkseinschübe
- 1x PCI-E 5.0 x16 Expansion-Slot, 1x AIOM
- über AIOM-Steckplätze, 2x M.2
- 2x 3600W redundante Stromversorgungen (Titanium Level)
besonderes Highlight
HGX A100 8-GPU 40GB/80GB SXM4 Multi-GPU
- 4HE Rackmount Server, bis zu 280W TDP
- Dual Sockel SP3, AMD EPYC 7003 Serie Prozessoren
- 32x DIMM-Steckplätze, bis zu 8TB RAM DDR4-3200MHz
- 6x 2.5 Zoll Hot-Swap U.2 NVME-Laufwerkeinschübe
- 8x PCI-E 4.0 x16 Steckplätze und 2x PCI-E 4.0 LP Steckplätze
- 4x Hot-Swap Heavy-Duty Lüfter
- 4x 3000W redundante Netzteile (Titanium Level)
besonderes Highlight
8-Node Architektur auf 4HE
- 4HE Rack Server, bis zu 185W TDP
- Dual Socket P+, 3rd Gen Intel® Xeon® Scalable Prozessoren
- 16x DIMM Steckplätze, bis zu 2TB DDR4 RAM
- 6x 2.5 Hot-swap NVMe/SATA /SAS und 6x 2.5 7mm Laufwerkeinschübe
- 1x PCI-E 4.0 x8 LP Steckplätz
- 1x 1GbE RJ45 über AIOM (OCP 3. 0-Konformität)
- 4x 2200W redundante Netzteile Titanium Level
besonderes Highlight
8HE Superblade Server System
Bis zu 20 Hochperfomante DP Blade und bereit für PCI-E Gen 4
- 8HE Rackmount Server, bis zu 220W TDP
- Dual Sockel P+, Intel Xeon Skalierbare Prozessoren 3rd Gen
- Bis zu 4TB RAM 3DS ECC DDR4-3200MHz, 16x DIMM steckplätze
- 2x 2,5 Hot-Plug NVMe/SATA3 und 1x 2.5 Hot-plug SATA3 Einschübe
- 1x 200G Mellanox IB HDR und 2x 25G Marvell onboard ethernet
- Unterstützung Flüssigkeits kühlungs mit bis zu 270W TDP
- 8x 2200W Redundante Titanium Level Stromversorgung
Brauchen Sie Hilfe?
Dann rufen Sie uns einfach an oder nutzen unser Anfrageformular.
Was ist ein Computer Cluster?
Als Computer Cluster bezeichnet man in der IT, Server Systeme, die in einer losen Zusammenkopplung für spezielle Aufgaben bereitgestellt werden. Ganz allgemein besteht ein Cluster aus vier verschiedenen Teilen:
- Einer Steuereinheit, die je nach Clusterart ein eigenständiges Server System ist und oft als Frontend System bekannt ist.
- Den Knoten, die die Arbeit machen (Cluster Nodes genannt).
- Einen gemeinsamen Datenbereich auf denen alle zum Cluster gehörenden Systeme zugreifen können.
- Einem gemeinsamen Netzwerk (siehe High Performance Netzwerke)
Die einzelne Systeme werden gemeinsam verwaltet.
Wie hat sich Cluster Computing entwickelt?
Cluster Computing gibt es seit den 1980ziger Jahren. Die Firma DEC (Digital Equipment Cooperation) stellte eine Möglichkeit vor, ihre Micro-Vaxen mit einer großen VAX über Ethernet zu verbinden, um den gemeinsamen Datenspeicher zu nutzen.
Als es dann später die ersten Parallelrechner gab, stellte man fest, dass diese recht teuer waren, weil diese IT Systeme ganz spezielle Hardware und Software benötigten, die nur von wenigen Kunden eingesetzt wurden.
Auf Basis der alten Lösung von DEC stellte man normale PCs, die unter dem Betriebssystem Linux laufen, zu einem Cluster zusammen. Eine der ersten Lösungen im Cluster Computing war das Beowulf Cluster.
Was müssen Computer Cluster Lösungen heute leisten?
Durch immer leistungsfähigere Systeme und Netzwerke sind die heutigen Cluster zu einem essenziellen Bestandteil einer modernen IT Landschaft geworden. Kein einzelnes IT System kann die komplexen Berechnungsaufgaben alleine in einer annehmbaren Zeit lösen. Heute werden immer mehr Daten an den verschiedensten Stellen erfasst und die verfügbare Datenmenge steigt jedes Jahr kontinuierlich an. Damit wird es immer wichtiger, diese Daten in kürzester Zeit zuverlässig zu verarbeiten. IT Systeme, die für die Berechnung solcher Datenmengen ausgelegt sind, fallen unter den Begriff ,,High Performance Computing‘‘. Diese Cluster Computing Systeme bestehen aus speziellen Hochleistungsrechnern und GPU Systemen. Der gemeinsame Datenbereich kann ein einzelner NFS-Server oder aber eine High Performance Storage Lösung sein.
Welche Arten von Computer Cluster gibt es?
Je nach Anforderung an das Cluster lassen sich diese in verschieden Kategorien einteilen:
- High Performance Computing – Cluster Computing für hohe AnsprücheDiese Clusterart findet man in technisch-wissenschaftlichen Bereichen, so z.B. bei Universitäten, Forschungseinrichtungen und Forschungsabteilungen von Firmen. Die Zeit, die für eine Rechnung benötigt wird, soll möglichst kurz sein, da viele Informationen zwischen den einzelnen IT-Systemen transportiert werden. Deshalb ist hier ein Netzwerk gefordert, das mit einer kurzen Latenzzeit und schnellen Übertragungszeiten überzeugt. Für mehr Informationen zu dieser Cluster Computing Variante sehen Sie in unserem Artikel zum Thema High Performance Netzwerke.
- Big Data – Cluster Computing zur Verarbeitung großer DatenpaketeWenn aus einer riesigen Menge von heterogenen Daten nach speziellen Vorgaben Analysen erstellt werden sollen, ist diese Art von Cluster Computing ideal. Die einzelnen Knoten haben dabei in aller Regel sehr viel eigenen Datenspeicher. Aus der riesigen Menge von heterogenen Daten wird jedem Knoten ein Teil zugewiesen. Der Transport der Daten erfolgt über das Netzwerk in aller Regel nur zu Anfang und zum Ende. Damit ist bei diesen Clustern eine kurze Latenzzeit des Netzwerkes nicht notwendig. Allerdings sind die zu transportierenden Datenpakete sehr groß. Oft werden diese Art von Cluster Computing im Marketingbereich eingesetzt um z.B. das Käuferverhalten zu analysieren.
- High Performance Data Analytics – Cluster Computing für große Datenmengen in kurzer Zeit Genauso wie bei BIG Data Cluster Computing liegen hier sehr große Datenmengen zur Verarbeitung vor. Der Unterschied ist, dass die Berechnung hier innerhalb von Sekundenbruchteilen erfolgen muss. Die Knoten eines High Performance Data Analytics Clusters profitieren von GPU Zusatzkarten, die parallel eine schnelle Verarbeitung auf Basis von FP64 und FP32 Daten unter zu Hilfenahme von KI bzw. AI Software berechnen. Hierzu erfahren Sie mehr in unserem Beitrag zum Thema GPU Computing. Cluster Computing dieser Art ist typisch für den Hochfrequenzaktienhandel.
- Visualisierung – Cluster Computing für leistungsstarke Simulationen Die Produktentwicklung von z.B. Flugzeugen sowie die Prozessentwicklung im Bereich Chemie werden heute in aller Regel komplett in einem IT-System vorgenommen und dort vollständig simuliert. Nach der ersten Fertigung fließen in dieser Simulation auch noch Echtdaten ein (IoT). Dabei fallen riesige Datenmengen an, die als Video oder Animation dargestellt werden sollen. Cluster, die diese Anforderungen bewältigen müssen, benötigen GPU Zusatzkarten und fallen unter der Kategorie Visualisierungscluster.
- Virtualisierung Virtualisierung ist eine Anwendung, die heute überall zu finden ist. Die virtualisierten Systeme können in wenigen Sekunden von einem Knoten auf den anderen Knoten verschoben werden. Die Steuereinheit ist bei diesen Clustern oft ein komplexes Steuerprogramm.
- Load Balancer Load Balancing Cluster verteilen einen einkommenden Datenstrom, wie er im Bereich Web-Server auftritt, auf ein dahinter angeordnetes Web-Server Cluster. Heute sind diese Cluster ein Bestandteil von Software Defined Networking. Die eingesetzte Hardware (Bar Metal Switch) ist ein spezielles System mit vielen Netzwerk-Anschlüssen, auf denen Cumulus Linux als Basisbetriebssystem läuft.
Zahlreiche Cluster Computing Lösungen bei HAPPYWARE
Sie haben Fragen zum Thema Cluster Computing oder möchten sich darüber informieren, welche Lösungen aus unserem Angebot für Sie am besten geeignet sind? Dann kontaktieren Sie uns gern! Wir helfen Ihnen persönlich weiter.