Cluster Computing – Mehr Leistung durch hochwertige Lösungen
Wer Verfügbarkeit oder Rechenkapazität erhöhen will, ist mit Cluster Computing gut beraten. HAPPYWARE informiert darüber, was hinter der Technik steckt und welche Möglichkeiten sich für Sie mit unseren Cluster Computing Lösungen bieten.
HPC Cluster
HPC Cluster, High Performance Computing Cluster (HPC Cluster) als schlüsselfertige Lösung kaufen!
HPC Cluster richtig beraten und Cluster Preis niedrig halten z.B. für Finanzsimulationen.
Cluster Server, Cluster Nodes
Supermicro Cluster Server: Hier jeden Knoten optimal konfigurieren und kaufen!
Hier finden Sie Ihr Cluster Node, Cluster PCs und Mini-Cluster z.B. als Cluster Dateiserver mit zwei Knoten.
Virtualisierungscluster
Cluster in a Box Lösungen: Fehlertolerant und voll redundant aufgebaut.
Virtualisierungscluster mit dem besten Preis/ Performance für maximale Ausfallsicherheit!
Hier finden Sie unsere Cluster Computing
- 1HE Rackmount Server, bis zu 280W TDP
- Single Sockel sTRX4, 3rd Gen AMD Ryzen Threadripper Prozessor
- 8x DIMM-Steckplätze, bis zu 256GB RAM DDR4-3200MHz
- 2x 2.5-Zoll hot-swap Laufwerkseinschübe
- 2x 10GbE RJ45 LAN-Anschlüsse
- 2x PCI-E 4.0 x16 Expansion-Slots für GPU Karten, 1x M.2
- 2x 1600W redundante Stromversorgungen (Platinum Level)
- 1HE Rackmount Server, bis zu 95W TDP
- Single Sockel H5, Intel Xeon E-2300/10th Gen Pentium CPU
- 4x DIMM-Steckplätze, bis zu 128GB RAM DDR4-3200MHz
- 4x 3.5 SATA-Laufwerkseinschübe und 2x 2.5 Peripherie
- 1x PCI-E 4.0 x16, 1x PCI-E 4.0 x8 & 1x intern HBA-Steckplätze
- 2x 1GbE RJ45 Intel® Ethernet-Controller i210
- 2x 400W redundante Stromversorgungen (Platinum Level)
- 1HE Rackmount Server, bis zu 95W TDP
- Single Sockel H5, Intel Xeon E-2300/10th Gen Pentium CPU
- 4x DIMM-Steckplätze, bis zu 128GB RAM DDR4-3200MHz
- 4x 3.5 SATA-Laufwerkseinschübe und 2x 2.5 Peripherie
- 1x PCI-E 4.0 x16, 1x PCI-E 4.0 x8 & 1x intern HBA-Steckplätze
- 2x 1GbE RJ45 Intel® Ethernet-Controller i210
- 2x 400W redundante Stromversorgungen (Titanium Level)
besonderes Highlight
bis zu 1024 Cores auf nur 2HE
- 2HE Rackmount Server, bis zu 128 Kerne
- Dual Ampere Altra Max CPU, 4 Nodes
- 16x DIMM-Steckplätze, bis zu 4TB RAM DDR4-3200MHz
- 6x 2.5 SATA hot-swap Laufwerkseinschübe
- 2x PCI-E 4.0 x16 Expansion-Slots, 1x OCP 3.0
- 1x M.2 PCI-E 4.0 x4 Steckplätze
- 2x 2200W Redundante Stromversorgungen (Platinum Level)
- 2HE Rack Server, bis zu 270W CPU TDP
- Dual Socket P+, Intel Xeon Scalable Prozessoren 3rd Gen
- 20x DIMM Steckplätze (16 DRAM + 4 PMem), bis zu 6TB RAM DDR4
- 12x 2.5 hot-swap NVMe/SATA Einschübe (12x 2.5 NVMe hybrid)
- 1x RJ45 dedicated BMC LAN-Anschluss
- 1x PCI-E 4.0 x16 und 2x PCI-E 4.0 x8 Steckplätze (LP)
- 2x 2200W redundante Stromversorgungen (Titanium Level)
besonderes Highlight
24x 3.5" Laufwerkeinschübe
- 2HE Rackmount Server, bis zu 205W cTDP
- Dual Sockel P+, 3rd Gen Intel Xeon Scalable Prozessoren
- 16x DIMM-Steckplätze, bis zu 4TB RAM DDR4-3200MHz
- 24x 3.5 SATA3/SAS3 hot-swap Laufwerkeinschübe
- 3x PCI-E 4.0 x16 Expansion-Slots (2x LP & 1x AIOM)
- 5x heavy-duty 8cm Lüfter
- 2x 1600W redundante Netzteile (Titanium Level)
- 3HE Rackmount Server, bis zu 95W CPU TDP
- Single Sockel V, Intel Xeon E-2400-Prozessor
- 4x DIMM-Steckplätze, bis zu 128GB RAM DDR5-4400MHz
- 2x 3.5-Zoll hot-swap Laufwerkseinschübe
- 2x PCI-E (1x LP, 1x MicroLP) Expansion-Slots
- 1x Single-Width GPU, 2x M.2
- 2x 2200W redundante Stromversorgungen (Titanium Level)
- 1HE Rack Server, bis zu 185W TDP
- Dual Socket P+, Intel Xeon Scalable 3rd Gen.
- 16x DIMM Steckplätze, bis zu 4TB RAM DDR4-3200MHz
- 4x 2.5 Hot-swap SATA Laufwerkeinschübe
- 2x PCI-E 4.0 x16 LP Steckplätze
- 6x heavy-duty Lüfter
- 1000W Redundante Stromversorgung Titanium Level
besonderes Highlight
1U 10-Einschübe Gen4 NVMe
- 1HE Rackmount Server, bis zu 270W cTDP
- Dual Sockel P+, 3rd Gen Intel Xeon Scalable Prozessoren
- 32x DIMM-Steckplätze, bis zu 8TB RAM DDR4-3200MHz
- 10x 2.5 hot-swap SATA/SAS/NVMe Laufwerkseinschübe
- 2x PCI-E 4.0 x16 Expansion-slots und 2x OCP Mezzanin-slots
- 2x 1Gb/s LAN-Anschlüsse
- 2x 1300W redundante Stromversorgungen (Platinum Level)
- 2HE Rack Server, bis zu 270W TDP
- Dual Socket P+, 3rd Gen Intel® Xeon® Scalable Prozessoren
- 20x DIMM Steckplätze (16 DRAM + 4 PMem), bis zu 6TB RAM DDR4
- 12x 2.5 hot-swap NVMe/SATA/SAS-Einschübe (12x 2.5 NVMe-Hybrid)
- 1x PCI-E 4.0 x16 und 1x PCI-E 4.0 x8 (LP) Steckplätze
- Netzwerkkonnektivität über AIOM (OCP 3.0 Konformität)
- 2x 2200W redundante Stromversorgungen (Titanium Level)
- 2HE Rackmount Server, 4-Nodes biz zu 240W cTDP
- Dual Sockel SP5, AMD EPYC 9004 Serie CPU
- 24x DIMM-Steckplätze, bis zu 6TB RAM DDR5-4800MHz
- 6x 2.5 Zoll hot-swap Laufwerkseinschübe
- 2x 1GbE RJ45 LAN-Anschlüsse
- 2x PCI-E 5.0 x16 Expansion-Slots, 1x OCP 3.0
- 2x 3000W redundante Stromversorgungen (Titanium Level)
- 1HE Rackmount Server, Unterstützung bis zu 205W TDP
- Single Sockel P, 2nd Gen Intel Xeon Scalable Prozessoren
- 6x DIMM Steckplätze, bis zu 1.5TB RAM DDR4-2933MHz
- 10x 2.5 Hot-swap SATA3 Laufwerkseinschübe
- 2x PCI-E 3.0 x16 und 1x PCI-E 3.0 x8 Steckplätze
- 2x 10GBase-T-Anschlüsse mit Intel X722 + X557
- 2x 500W redundante Stromversorgungen (Platinum Level)
- 2HE Rackmount Server, bis zu 280W cTDP
- Single Sockel SP3, AMD EPYC 7003 Serie Prozessor
- 8x DIMM-Steckplätze, bis zu 2TB RAM DDR4-3200MHz
- 6x 2.5 SATA & 2x 2.5 NVMe/SATA hot-swap Laufwerkseinschübe
- 8x PCI-E Gen3 Steckplätze für GPUs, 2x PCI-E Gen4 LP Steckplätze
- 2x 10Gb/s SFP+ LAN-Anschlüsse
- 2x 2200W redundante Stromversorgungen (Platinum Level)
- 2HE Rackmount Server, bis zu 140W TDP
- Dual Sockel P, 2nd Gen Intel Xeon Scalable Prozessoren
- 4x hot-pluggable Nodes
- 8x DIMM Steckplätze, bis zu 2TB RAM DDR4-2933MHz ECC
- 3x 3.5 hot-swap Laufwerkseinschübe, 2x SATA DOM
- 1x PCI-E 3.0 x16 Steckplätze
- 2x 1600W redundante Stromversorgungen (Titanium Level 96%)
- 2HE Rackmount Server, bis zu 350W CPU TDP
- Dual Sockel E, Intel Xeon 5th/4th Gen Scalable Prozessoren
- 16x DIMM-Steckplätze, bis zu 4TB RAM DDR5-5600MHz
- 6x 3.5-Zoll hot-swap Laufwerkseinschübe
- 3x PCI-E Gen5 Expansion-Slots
- über AIOM-Steckplätze, 2x M.2
- 2x 2200W redundante Stromversorgungen (Titanium Level)
besonderes Highlight
16 DIMMs, bis zu 4TB RAM
- 1HE Rackmount Server, bis zu 280W TDP
- Single Sockel SP3, AMD EPYC 7003 Serie Prozessoren
- 16x DIMM-Steckplätze, bis zu 4TB RAM DDR4-3200MHz
- 10x 2.5 Zoll Hot-Swap SATA3/SAS3/NVMe Laufwerkeinschübe
- 2x PCI-E 4.0 x16 Steckplätze und 2x PCI-E 4.0 x16 AIOM
- Networking über AIOM
- 860W, redundante Netzteile (Platinum Level)
- 2HE Rackmount Server, bis zu 240W TDP
- Dual Sockel SP3, AMD EPYC 7003 Serie Prozessoren
- 16x DIMM-Steckplätze, bis zu 4TB RAM DDR4-3200MHz
- 12x 3.5 Zoll Hot-Swap SATA/NVMe Laufwerkeinschübe
- 3x PCI-E 4.0 x16 Steckplätze und 3x PCI-E 4.0 x8 Steckplätze
- 3x Heavy-Duty Kühllüfter, 1x Luftkanal
- 920W redundante Netzteile (Platinum Level)
- 2HE Rackmount Server, bis zu 280W cTDP
- Single Sockel SP3, AMD EPYC 7003 Serie Prozessoren
- 16x DIMM-Steckplätze, bis zu 4TB RAM DDR4-3200MHz
- 12x 3.5 Hot-Swap Laufwerkeinschübe
- 4x PCI-E 4.0 x16 Steckplätze & 2x PCI-E 4.0 x16 AIOM
- Tool-less Laufwerkeinschübe und Tool-less Brackets
- 920W redundante Netzteile (Platinum Level)
- 1HE Rackmount-Server, bis zu 350W cTDP
- Single Sockel E, 5th/4th Gen Intel Xeon Scalable Prozessoren
- 16x DIMM-Steckplätze, bis zu 4TB RAM DDR5-4800MHz
- 10x 2.5 hot-swap Laufwerkseinschübe, 2x M.2-Steckplatz
- über AIOM & AOC
- 2x PCI-E Gen5 Expansion-Slots
- 2x 860W redundante Stromversorgungen 80+ (Platinum Level)
- 2HE Rackmount Server, bis zu 140W TDP
- 2x Hot-pluggable Nodes
- Dual Sockel P, 2nd Gen Intel Xeon Scalable Prozessoren
- 8x DIMM Steckplätze, bis zu 2TB RAM DDR4-2933MHz ECC
- 6x 3.5 Hot-swap SATA3 Laufwerkseinschübe
- 2x PCI-E 3.0 x8 Steckplätze
- 2x 1200W redundante Stromversorgung (Titanium Level)
besonderes Highlight
14 Server Blades auf 3HE
- 3HE Rack MicroBlade Enclosure
- Bis zu 14 Hot-swap Server Blades
- Bis zu 2 Hot-swap 10G Ethernet Switche
- 1 Hot-swap Management Modul optional
- 4x Große Lüfter
- 2000W Redundante Netzteile
- 1HE Rackmount Server, 64-Kerne bis zu 225W TDP
- Dual Sockel SP3, AMD EPYC 7003 Serie Prozessor
- 32x DIMM-Steckplätze, bis zu 8TB RAM DDR4-3200MHz
- 10x 2.5 Gen4 U.2 hot-swap SSD-Schächte
- 2x PCI-E 4.0 x16 Expansion-Steckplätze und 2x OCP
- 2x 1GbE LAN-Anschlüsse über Intel I350-AM2
- 2x 1200W redundante Stromversorgungen (Platinum Level)
- 1HE Rack Server, 145W TDP
- Dual Intel Xeon Scalable CPU, 2nd Gen.
- Bis zu 4TB RAM, DDR4-2933MHz ECC
- Netzwerunterstützung via SIOM
- 1000W Redundante Netzteile (Titanium Level)
besonderes Highlight
Unterstützt GRAID SupremeRAID
- 2HE Rackmount Server, bis zu 240W cTDP
- Dual Sockel SP3, AMD EPYC 7003 Serie Prozessor
- 32x DIMM-Steckplätze, bis zu 8TB RAM DDR4-3200MHz
- 4x NVMe + 8x SAS/SATA, hot-swap drive bays
- 4x PCI-E 4.0 x16 Expansion-Slots & 2x OCP
- 3x GPUs & 2x 1Gb/s LAN-Anschlüsse über Intel® I350-AM2
- 2x 2000W redundante Stromversorgungen (Platinum Level)
Brauchen Sie Hilfe?
Dann rufen Sie uns einfach an oder nutzen unser Anfrageformular.
Was ist ein Computer Cluster?
Als Computer Cluster bezeichnet man in der IT, Server Systeme, die in einer losen Zusammenkopplung für spezielle Aufgaben bereitgestellt werden. Ganz allgemein besteht ein Cluster aus vier verschiedenen Teilen:
- Einer Steuereinheit, die je nach Clusterart ein eigenständiges Server System ist und oft als Frontend System bekannt ist.
- Den Knoten, die die Arbeit machen (Cluster Nodes genannt).
- Einen gemeinsamen Datenbereich auf denen alle zum Cluster gehörenden Systeme zugreifen können.
- Einem gemeinsamen Netzwerk (siehe High Performance Netzwerke)
Die einzelne Systeme werden gemeinsam verwaltet.
Wie hat sich Cluster Computing entwickelt?
Cluster Computing gibt es seit den 1980ziger Jahren. Die Firma DEC (Digital Equipment Cooperation) stellte eine Möglichkeit vor, ihre Micro-Vaxen mit einer großen VAX über Ethernet zu verbinden, um den gemeinsamen Datenspeicher zu nutzen.
Als es dann später die ersten Parallelrechner gab, stellte man fest, dass diese recht teuer waren, weil diese IT Systeme ganz spezielle Hardware und Software benötigten, die nur von wenigen Kunden eingesetzt wurden.
Auf Basis der alten Lösung von DEC stellte man normale PCs, die unter dem Betriebssystem Linux laufen, zu einem Cluster zusammen. Eine der ersten Lösungen im Cluster Computing war das Beowulf Cluster.
Was müssen Computer Cluster Lösungen heute leisten?
Durch immer leistungsfähigere Systeme und Netzwerke sind die heutigen Cluster zu einem essenziellen Bestandteil einer modernen IT Landschaft geworden. Kein einzelnes IT System kann die komplexen Berechnungsaufgaben alleine in einer annehmbaren Zeit lösen. Heute werden immer mehr Daten an den verschiedensten Stellen erfasst und die verfügbare Datenmenge steigt jedes Jahr kontinuierlich an. Damit wird es immer wichtiger, diese Daten in kürzester Zeit zuverlässig zu verarbeiten. IT Systeme, die für die Berechnung solcher Datenmengen ausgelegt sind, fallen unter den Begriff ,,High Performance Computing‘‘. Diese Cluster Computing Systeme bestehen aus speziellen Hochleistungsrechnern und GPU Systemen. Der gemeinsame Datenbereich kann ein einzelner NFS-Server oder aber eine High Performance Storage Lösung sein.
Welche Arten von Computer Cluster gibt es?
Je nach Anforderung an das Cluster lassen sich diese in verschieden Kategorien einteilen:
- High Performance Computing – Cluster Computing für hohe AnsprücheDiese Clusterart findet man in technisch-wissenschaftlichen Bereichen, so z.B. bei Universitäten, Forschungseinrichtungen und Forschungsabteilungen von Firmen. Die Zeit, die für eine Rechnung benötigt wird, soll möglichst kurz sein, da viele Informationen zwischen den einzelnen IT-Systemen transportiert werden. Deshalb ist hier ein Netzwerk gefordert, das mit einer kurzen Latenzzeit und schnellen Übertragungszeiten überzeugt. Für mehr Informationen zu dieser Cluster Computing Variante sehen Sie in unserem Artikel zum Thema High Performance Netzwerke.
- Big Data – Cluster Computing zur Verarbeitung großer DatenpaketeWenn aus einer riesigen Menge von heterogenen Daten nach speziellen Vorgaben Analysen erstellt werden sollen, ist diese Art von Cluster Computing ideal. Die einzelnen Knoten haben dabei in aller Regel sehr viel eigenen Datenspeicher. Aus der riesigen Menge von heterogenen Daten wird jedem Knoten ein Teil zugewiesen. Der Transport der Daten erfolgt über das Netzwerk in aller Regel nur zu Anfang und zum Ende. Damit ist bei diesen Clustern eine kurze Latenzzeit des Netzwerkes nicht notwendig. Allerdings sind die zu transportierenden Datenpakete sehr groß. Oft werden diese Art von Cluster Computing im Marketingbereich eingesetzt um z.B. das Käuferverhalten zu analysieren.
- High Performance Data Analytics – Cluster Computing für große Datenmengen in kurzer Zeit Genauso wie bei BIG Data Cluster Computing liegen hier sehr große Datenmengen zur Verarbeitung vor. Der Unterschied ist, dass die Berechnung hier innerhalb von Sekundenbruchteilen erfolgen muss. Die Knoten eines High Performance Data Analytics Clusters profitieren von GPU Zusatzkarten, die parallel eine schnelle Verarbeitung auf Basis von FP64 und FP32 Daten unter zu Hilfenahme von KI bzw. AI Software berechnen. Hierzu erfahren Sie mehr in unserem Beitrag zum Thema GPU Computing. Cluster Computing dieser Art ist typisch für den Hochfrequenzaktienhandel.
- Visualisierung – Cluster Computing für leistungsstarke Simulationen Die Produktentwicklung von z.B. Flugzeugen sowie die Prozessentwicklung im Bereich Chemie werden heute in aller Regel komplett in einem IT-System vorgenommen und dort vollständig simuliert. Nach der ersten Fertigung fließen in dieser Simulation auch noch Echtdaten ein (IoT). Dabei fallen riesige Datenmengen an, die als Video oder Animation dargestellt werden sollen. Cluster, die diese Anforderungen bewältigen müssen, benötigen GPU Zusatzkarten und fallen unter der Kategorie Visualisierungscluster.
- Virtualisierung Virtualisierung ist eine Anwendung, die heute überall zu finden ist. Die virtualisierten Systeme können in wenigen Sekunden von einem Knoten auf den anderen Knoten verschoben werden. Die Steuereinheit ist bei diesen Clustern oft ein komplexes Steuerprogramm.
- Load Balancer Load Balancing Cluster verteilen einen einkommenden Datenstrom, wie er im Bereich Web-Server auftritt, auf ein dahinter angeordnetes Web-Server Cluster. Heute sind diese Cluster ein Bestandteil von Software Defined Networking. Die eingesetzte Hardware (Bar Metal Switch) ist ein spezielles System mit vielen Netzwerk-Anschlüssen, auf denen Cumulus Linux als Basisbetriebssystem läuft.
Zahlreiche Cluster Computing Lösungen bei HAPPYWARE
Sie haben Fragen zum Thema Cluster Computing oder möchten sich darüber informieren, welche Lösungen aus unserem Angebot für Sie am besten geeignet sind? Dann kontaktieren Sie uns gern! Wir helfen Ihnen persönlich weiter.