besonderes Highlight
1x Ampere Altra M128-30 inklusive
- 2HE Rackmount Server, bis zu 128 Kerne
- Single Ampere Altra Max CPU, 128 Arm 3 Ghz v8.2+ 64bit
- 16x DIMM-Steckplätze, bis zu 4TB RAM DDR4-3200MHz
- 4x 2.5 Zoll NVMe hot-swap Laufwerkseinschübe
- 5x PCI-E 4.0 x16 Steckplätze, 1x PCI-E Gen4 AIOM
- 1x Ultra-Fast M.2
- 2x 1600W redundante Stromversorgungen (Titanium Level)
besonderes Highlight
2x Ampere Altra M128-30 inklusive
- 2HE Rackmount Server, bis zu 128 Kerne
- Dual Ampere Altra Max CPU, 128 Arm 3 Ghz v8.2+ 64bit
- 32x DIMM-Steckplätze, bis zu 4TB RAM DDR4-3200MHz
- 28x 2.5 Zoll hot-swap Laufwerkseinschübe
- 4x PCI-E 4.0 x16 Steckplätze, 2x OCP 3.0 Gen4 x16
- 1x Ultra-Fast M.2 Steckplatz
- 2x 1600W Stromversorgungen (Platinum Level)
- 2HE Rackmount Server, bis zu 225W TDP
- Dual Sockel SP3, AMD EPYC 7003 CPU-Serie
- 32x DIMM Steckplätze, bis zu 8TB RAM DDR4-3200MHz
- 12x 3.5 und 2x 2.5 hot-swap SAS/SATA Laufwerkeinschübe
- 8x PCI-E Gen4 x16/x8 und 2x OCP Mezzanine Steckplätze
- 2x 1Gb/s LAN-Anschlüsse über Intel® I350-AM2
- 2x 1200W redundante Stromversorgungen (Platinum Level)
besonderes Highlight
32 DIMMs, bis zu 8TB
- 2HE Rackmount Server, bis zu 270W cTDP
- 24x 2.5 SATA/SAS hot-swap Laufwerkseinschübe, 2x 2.5 Rückseite
- 8x PCI-E Gen4 x16 Expansion-Slots und 2x OCP
- 2x 1GbE LAN Anschlüsse über Intel I350-AM2
- 2x 1600W redundante Stromversorgungen (Platinum Level)
besonderes Highlight
1U 10-Einschübe Gen4 NVMe
- 1HE Rackmount Server, bis zu 270W cTDP
- Dual Sockel P+, 3rd Gen Intel Xeon Scalable Prozessoren
- 32x DIMM-Steckplätze, bis zu 8TB RAM DDR4-3200MHz
- 10x 2.5 hot-swap SATA/SAS/NVMe Laufwerkseinschübe
- 2x PCI-E 4.0 x16 Expansion-slots und 2x OCP Mezzanin-slots
- 2x 1Gb/s LAN-Anschlüsse
- 2x 1300W redundante Stromversorgungen (Platinum Level)
- 1HE Rackmount Server, bis zu 270W TDP
- Dual Sockel P+, 3rd Gen Intel Xeon Scalable Prozessoren
- 32x DIMM Steckplätze, bis zu 8TB RAM DDR4-3200MHz
- 10x 2.5 SATA/SAS/NVMe hot-swap Laufwerkseinschübe
- 2x 1GbE LAN-Anschlüsse über Intel I350-AM2
- 2x PCI-E Gen4 x16 Expansion-Slots und 2x OCP
- 2x 1300W redundante Stromversorgungen (Platinum Level)
besonderes Highlight
40 x 2.5" SATA/SAS hot-swap SSD Slots auf 2HE
- 2HE Rackmount Server, bis zu 240W cTDP
- Single Socket SP3, AMD EPYC 7003 Serie Prozessoren (Milan)
- 16x DIMM Steckplätze, bis zu 4TB RAM DDR4-3200MHz
- 40x 2.5 SATA/SAS hot-swap SSD Einschübe, 8x 2.5 Internal
- 2x PCI-E Gen4 x16 Expansion-Slots und 2x OCP
- 2x 1GbE LAN-Anschlüsse über Intel® I350-AM2
- 2x 1200W redundante Stromversorgungen (Platinum Level)
besonderes Highlight
Tiered Storage
- 4HE Rackmount Server, bis zu 280W cTDP
- Single Sockel SP3, AMD EPYC 7003 Serie Prozessoren
- 16x DIMM-Steckplätze, bis zu 4TB RAM DDR4-3200MHz
- 50x 3.5/2.5 Zoll hot-swap Laufwerkseinschübe
- 2x 1GbE LAN-Anschlüsse
- 6x PCI-E Expansion-Slots und 1x OCP 2.0
- 2x 1600W redundante Stromversorgungen (Platinum Level)
- 2HE Rackmount Server, bis zu 225W TDP
- Single Sockel SP3, AMD EPYC 7003 Serie Prozessor
- 8x DIMM slots, up to 2TB RAM DDR4-3200MHz
- 12x 3.5 SATA/SAS und 2x 2.5 SATA/SAS Laufwerkseinschübe
- 5x PCI-E Gen3-Steckplätze und 1x M.2
- 2x 1Gb/s LAN-Anschlüsse über Intel® I210-AT
- 2x 800W redundante Stromversorgungen (Platinum Level)
besonderes Highlight
16 DIMMs, bis zu 4TB RAM
- 1HE Rackmount Server, bis zu 280W TDP
- Single Sockel SP3, AMD EPYC 7003 Serie Prozessoren
- 16x DIMM-Steckplätze, bis zu 4TB RAM DDR4-3200MHz
- 10x 2.5 Zoll Hot-Swap SATA3/SAS3/NVMe Laufwerkeinschübe
- 2x PCI-E 4.0 x16 Steckplätze und 2x PCI-E 4.0 x16 AIOM
- Networking über AIOM
- 860W, redundante Netzteile (Platinum Level)
besonderes Highlight
Bis zu 4x Double Steckplätze GPU-Karten
- Hochperformante Tower Workstation / E-Business-Server
- Single Sockel, AMD EPYC 7003 Serie Prozessor
- 8x DIMM Steckplätze, bis zu 2TB RAM DDR4-3200MHz
- 2x 1GbE LAN-Anschlüsse über Intel I210-AT
- 4x PCI-E x16 Gen3 und 1x PCI-E x8 Gen3
- 4x 3.5/2.5 Zoll SATA hot-swap Laufwerkseinschübe
- 2x 1600W redundante Stromversorgungen (Platinum Level)
- 2HE Rackmount Server, bis zu 280W cTDP
- Single Sockel SP3, AMD EPYC 7003 Serie Prozessoren
- 16x DIMM-Steckplätze, bis zu 4TB RAM DDR4-3200MHz
- 12x 3.5 Hot-Swap Laufwerkeinschübe
- 4x PCI-E 4.0 x16 Steckplätze & 2x PCI-E 4.0 x16 AIOM
- Tool-less Laufwerkeinschübe und Tool-less Brackets
- 920W redundante Netzteile (Platinum Level)
- 1HE Rack Server, Unterstützung 205W TDP
- Dual Sockel P, 2nd Gen Intel Xeon Scalable Prozessoren
- 24x DIMM Steckplätze, bis zu 6TB RAM DDR4-2933MHz
- 10x 2.5 Zoll hot-swap Laufwerkseinschübe
- 2x PCI-E 3.0 x16, 1x PCI-E 3.0 x8 & 1x PCI-E 3.0 x16 Steckplätze
- 2x 25GbE SFP28 Ethernet-Anschlüsse
- 2x 750W redundante Stromversorgungen (Platinum Level)
besonderes Highlight
Unterstützt GRAID SupremeRAID SR-1000 NVMe
- 1HE Rackmount Server, bis zu 240W cTDP
- Single Sockel SP3, AMD EPYC 7003 Serie Prozessor
- 16x DIMM Steckplätze, bis zu 4TB RAM DDR4-3200MHz
- 10x 2.5 hot-swap Laufwerkseinschübe
- 2x 1GbE LAN-Anschlüsse
- 3x PCI-E 4.0 Steckplätze und 2x OCP (1x Gen3 & 1x Gen2)
- 2x 800W redundante Stromversorgungen 80 PLUS (Platinum Level)
- 1HE Rackmount Server, 10nm Technologie bis zu 270W TDP
- Dual Sockel P+, 3rd Gen Intel Xeon Scalable Prozessoren
- 32x DIMM Steckplätze, bis zu 8TB RAM DDR4-3200MHz
- 4x 3.5 oder 2.5 SATA/SAS hot-swap Schächte
- 2x PCI-E Gen4 x16 Expansion-Slots und 2x OCP
- 2x 1GbE LAN Anschlüsse über Intel I350-AM2
- 2x 1300W redundante Stromversorgungen (Platinum Level)
- 2HE Rackmount Server, bis zu 350W CPU TDP
- Single Sockel E, Intel Xeon 5th/4th Gen Scalable Prozessoren
- 8x DIMM-Steckplätze, bis zu 2TB RAM DDR5-5600MHz
- 2x 2.5-Zoll hot-swap Laufwerkseinschübe
- 4x PCI-E Gen5 Expansion-Slots
- 2x 10GbE RJ45 LAN-Anschlüsse
- 2x 600W redundante Stromversorgungen Typisch 90%+
- 2HE Rackmount Server, bis zu 240W cTDP
- Single Sockel SP3, AMD EPYC 7003 Serie Prozessor
- 16x DIMM-Steckplätze, bis zu 4TB RAM DDR4-3200MHz
- 14x hot-swap Laufwerkseinschübe (12x Vorderseite & 2x Rückseite)
- 2x 1GbE LAN-Anschlüsse
- 9x PCI-E Expansion-Slots & 2x OCP Mezzanin
- 2x 1200W redundante Stromversorgungen (Platinum Level)
besonderes Highlight
Supports GRAID SupremeRAID NVMe/NVMe-oF RAID Card
- 1HE Rackmount Server, bis zu 270W TDP
- Dual Sockel P+, 3rd Gen Intel Xeon Scalable Prozessoren
- 32x DIMM Steckplätze, bis zu 8TB RAM DDR4-3200MHz
- 10x 2.5 Zoll hot-swap Laufwerkseinschübe
- 2x PCI-E Gen4 x16 Expansion-Slots und 2x OCP
- Unterstützt dual-ROM Technologie mit Intel SATA RAID 0, 1, 10, 5
- 2x 1300W redundante Stromversorgungen (Platinum Level)
besonderes Highlight
14 Server Blades auf 3HE
- 3HE Rack MicroBlade Enclosure
- Bis zu 14 Hot-swap Server Blades
- Bis zu 2 Hot-swap 10G Ethernet Switche
- 1 Hot-swap Management Modul optional
- 4x Große Lüfter
- 2000W Redundante Netzteile
- 2HE Rackmount-Server, 350W cTDP
- Single Sockel E, 5th/4th Gen Intel Xeon Scalable Prozessoren
- 16x DIMM-Steckplätze, bis zu 4TB RAM DDR5-4800MHz
- 12x 3.5 hot-swap Laufwerkseinschübe, 2x M.2-Steckplatz
- Netzwerke über AIOM & AOC
- 6x PCI-E Gen5 Expansion-Slots, 1x AIOM OCP 3.0
- 2x 1200W redundante Stromversorgungen 80+ (Titanium Level)
besonderes Highlight
Supports GRAID SupremeRAID NVMe/NVMe-oF RAID Card
- 1HE Rackmount Server, bis zu 270W TDP
- Dual Sockel P+, 3rd Gen Intel Xeon Scalable Prozessoren
- 32x DIMM Steckplätze, bis zu 8TB RAM DDR4-3200MHz
- 4x 3.5 SATA/SAS hot-swap und 4x 2.5 Laufwerkseinschübe
- Unterstützt Intel SATA RAID und VROC 0, 1, 10, 5
- 2x PCI-E Gen4 x16 Expansion-Slots und 2x OCP
- 2x 1300W redundante Stromversorgungen (Platinum Level)
- 2HE Rackmount Server, bis zu 240W cTDP
- Single Sockel SP3, AMD EPYC 7003 Serie Prozessor
- 16x DIMM-Steckplätze, bis zu 4TB RAM DDR4-3200MHz
- 14x hot-swap Laufwerkseinschübe (12x 3.5 und 2x 2.5)
- 2x 1GbE LAN-Anschlüsse
- 8x PCI-E Expansion-Slots & 2x OCP Mezzanin
- 2x 1600W redundante Stromversorgungen 80 PLUS (Platinum Level)
- 2HE Rackmount Server, bis zu 270W cTDP
- Dual Sockel P+, 3rd Gen Intel Xeon Scalable Prozessoren
- 32x DIMM Steckplätze, bis zu 8TB RAM DDR4-3200MHz
- 12x 3.5 SATA/SAS/NVMe hot-swap Laufwerkeinschübe
- 8x PCI-E 4.0 x16 Expansion-Slots und 2x OCP
- 2x 1GbE LAN Anschlüsse über Intel I350-AM2
- 2x 1600W redundante Stromversorgungen (Platinum Level)
- 1HE Rackmount Server, 64-Kerne bis zu 225W TDP
- Dual Sockel SP3, AMD EPYC 7003 Serie Prozessor
- 32x DIMM-Steckplätze, bis zu 8TB RAM DDR4-3200MHz
- 10x 2.5 Gen4 U.2 hot-swap SSD-Schächte
- 2x PCI-E 4.0 x16 Expansion-Steckplätze und 2x OCP
- 2x 1GbE LAN-Anschlüsse über Intel I350-AM2
- 2x 1200W redundante Stromversorgungen (Platinum Level)
Brauchen Sie Hilfe?
Dann rufen Sie uns einfach an oder nutzen unser Anfrageformular.
High Performance Netzwerke – Wichtige Fragen bei der Einrichtung eines HPNS
Welche Art von High Performance Netzwerk sich für die eigenen Ansprüche eignet, lässt sich mit den folgenden Fragen meist gut einschränken:
- Wie viele unterschiedliche High Performance Netzwerke werden benötigt?
- Wie viele Computer-Systeme sollen an das jeweilige Netzwerk angeschlossen werden?
- Wie viele Daten pro Sekunde werden in dem jeweiligen Netzwerk transportiert?
- Wie viele gleichzeitige Verbindungen werden von einem System benötigt?
- Welche Bandbreite muss das High Performance Netzwerk haben?
- Für welche Anwendung wird das jeweilige Netzwerk benötigt?
- Welche Implementationen gibt es für welche Betriebssysteme?
- Ist das Know-how für den Betrieb eines High Performance Netzwerk im Unternehmen vorhanden?
- Wie viel Budget steht für das Projekt zur Verfügung?
High Performance Netzwerk Architekturen und ihre Leistungsmerkmale
Im Bereich High Performance Networking gibt es zwei verschiedene Architekturen, die im Folgenden näher betrachtet werden sollen:
TCP/IP Netzwerke auf Ethernet Basis
Ein TCP/IP basiertes Ethernet ist ein paketorientiertes Netzwerk. Die Datenpakete besitzen bis zu 3 IP-Adressen. Die eigene, die IP-Adresse des Empfängers und die IP-Adresse des Routers.
-
So arbeitet ein High Performance Netzwerk mit TCP/IPJedes Datenpaket, das via Ethernet verschickt wird, hat etliche Checksummen. Da eine Nachricht länger sein kann als die maximale Größe eines TCP/IP Datenpakets, erhält jedes eine eigene Beschreibung, die die Reihenfolge des Datenpakets in der Nachricht definiert. Dadurch ist es möglich, genau dieses Datenpaket erneut vom Sender anzufordern.
Das Datenpaket wird auf das Übertragungsmedium übertragen. Dabei kann es passieren, dass sich dort schon ein Datenpaket befindet. Beide Datenpakete werden dabei verändert. Aufgrund der sich im Netzwerk befindlichen Routen, kann nicht genau gesagt werden wann und wo dies passieren kann. Dies und die Checksummen sind dafür verantwortlich, dass die Latenz des Netzwerks in aller Regel im Millisekunden Bereich liegt.
-
Technische Details zu TCP/IP NetzwerkenDa das TCP/IP Protokoll sehr CPU lastig ist, hat man angefangen, RDMA Services direkt in den Hostbus-Adapter zu integrieren. Diese Services werden nativ von Hostbus-Adaptern unterstützt, die das Protokoll iWARP/RDMA nutzen oder über die Spezifikation (IBTA) RoCEv2 verfügen. Dadurch werden höhere Performancewerte, bessere Bandbreite und niedrigere Latenzzeiten erreicht.
TCP/IP basierte Netzwerk-Adapter werden von jedem gängigen Betriebssystem unterstützt. TCP/IP Netzwerke unterstützen die folgenden Bandbreiten: 1GbE / 10GbE / 25GbE / 40GbE / 50GbE / 56GbE / 100GbE / 200GbE. Das gilt jedoch nicht für alle Anbieter. Alle Applikationen oder Dienste, die das Netzwerk benutzen, basieren heute auf TCP/IP.
High Performance Netzwerk mit Infiniband Architektur
Infiniband wurde mit dem Ziel entwickelt eine Hardwareschnittstelle zu haben, die einen seriellen Transport der Daten realisiert und eine geringe Latenz aufweist.
-
So arbeitet ein High Performance Netzwerk mit InfinibandIm Gegensatz zu TCP/IP, die den Protokollstack mit der CPU abwickeln, ist dies bei Infiniband in die Netzwerk-Hardware ausgelagert. Dadurch können über das High Performance Netzwerk gleichzeitig mehrere Verbindungen zu verschiedenen Systemen aufgebaut werden.
Die geringe Latenz wird dadurch erreicht, dass die Netzwerkkarten, die Host-Bus-Adapter genannt werden, den Speicher des empfangenen Systems direkt ansprechen können. Diese Technik wird als RDMA Write bzw. RDMA Read bezeichnet. Auf Basis dieser Technik können die Applikationen mit Hilfe von Message Passing Interface Software, kurz MPI Software genannt, Nachrichten austauschen. - Technische Details zu Netzwerken mit InfinibandAktuelle Spitzenleistungen für diese Technologie liegen bei 200Gb/s mit einer Latenz von 600 Nanosekunden. Damit sind bis zu 200 Millionen Nachrichten pro Sekunden möglich. Der HBA stellt bis zu 16 Millionen I/O Kanäle zur Verfügung und die MTU (Message Transport Unit) reicht von 256 bis 4 kByte. In einem Storage Environment wird Infiniband für die Realisierung von NVMe über Network-Fabrics eingesetzt.
Aktuelle High Performance Netzwerk Varianten auf dem Markt
Einer der bekanntesten Anbieter für Netzwerk-Hardware ist die Firma Mellanox, die äußerst leistungsfähige Netzwerk-Komponenten für höchste Ansprüche liefern kann. So unterstützen deren Hostbus-Adapter etwa Geschwindigkeiten von 10 GbE(QDR) bis zu 200 GbE (HDR) bei einer Latenzzeit von 6 Nanosekunden, womit sich auch mehrere Tausend Knoten in einem Netz realisieren lassen. Als Software wird eine optimierte Version der Software der Open Fabrics Alliance genutzt.
Weiterhin bietet Mellanox für folgende Betriebssysteme eigene Treiber, Protokoll-Software und Tools:
- RedHat Version 6.x / Version 7.x / CentOS 6.x / CentOS 7.x
- SUSE SLES 11 SP3 / SP4, SLES 12 SP1 - SP3, SLES 15
- Oracle Linux OL 6.x und 7.x
- Ubuntu 16.x / 17.10 / 18.04
- Fedora 20 / 27
- Debian 8.x / 9.x
- EulerOS 2.0 SP3
- WindRiver 6.0
- XenServer 6.5
- Microsoft Windows Server 2016 / Windows Server 2016 version 1803 / Windows Server 2012 R2 / Windows Server 2012 / Windows 10 Client 1803 / Windows 8.1
- VMware ESX/ESXI 5.x
- KVM / XEN
Die dabei unterstützte CPU-Architektur reicht von x86_64 über PowerPC bis zu ARM-basierten CPUs.
Omni-Path Fabric von INTEL: High Performance Netzwerke der neuesten Generation
Doch gerade in sehr großen Installationen mit zehntausend Knoten und mehr stößt Infiniband an seine Grenzen. Die Performance der Prozessoren und die Bandbreite des Speichers skaliert schneller als die des I/O. Hier setzt Intel mit seinem Omni-Path Fabrics an, die mit der Infiniband Implementation von Qlogic und dem Know-how von Cray entwickelt wurden.
Der Plan von Intel: Der Omni-Path Controller Chipsatz soll in den Prozessor integriert werden. Damit wird ein PCI Steckplatz eingespart, was wiederum etliche Watt weniger Leistungsaufnahme bedeutet.
Weiter soll die Qualität der Übertragung durch diverse Optimierungen des Protokolls verbessert werden, etwa durch:
- Packet Integrity Protection
- Dynamic Lane Scaling
- Traffic Flow Optimization
Die Software, die Intel für ihre Omni-Path Fabric zur Verfügung stellt, gibt es für RedHat, SUSE Enterprise Server, CentOS und Scientific Linux. Die Software von Intel ist Open Source und basiert auf der Open Fabrics Alliance.
High Performance Netzwerke richtig ausstatten: Switches und Kabel
Bei Infiniband und Omni-Path muss man bei dem Design des Netzwerkes darauf achten, dass jeder Port eines Systems direkt einen anderen Port eines weiteren Systems erreichen kann. Durch einen entsprechenden Switch wird verhindert, dass innerhalb des High Performance Netzwerks mehrere Nachrichten eine einzelne Leitung belegen und damit möglicherweise einige Verbindungen für kurze Zeit blockiert werden.
Bei Infiniband und Omni-Path gibt es dafür den sogenannten Non-Blocking-Faktor. Das Store-and-forward Prinzip, das bei den TCP/IP basierten Netzwerken genutzt wird, führt bei Infiniband und Omni-Path zu einem merkbaren Einbruch in der Performance.
Da die Übertragungsgeschwindigkeiten auf dem Netz sehr hoch ausfallen, sind RJ45 Kabel dafür nicht geeignet. Die Kabel, die für diese schnellen Verbindungen in Frage kommen, basieren auf dem Formfaktor QSFPx. Das x steht für die verschiedenen Stecker, die je nach Geschwindigkeit eingesetzt werden müssen.
Nicht zuletzt aufgrund solcher Überlegungen ist es wichtig, schon bei der Einrichtung eines High Performance Netzwerks spätere Erweiterungen und Möglichkeiten der Skalierbarkeit zu berücksichtigen.
Typ | Geschwindigkeit | Formfaktor QSFP | Länge in Meter |
---|---|---|---|
Ethernet Kupfer | 400Gb/s | QSFF-DD | 0,5;1;1,5;2;2,5;3 |
Ethernet Kupfer | 200Gb/s | QSFP56 | 0,5;1;1,5;2;2,5;3 |
Ethernet Kupfer | 100Gb/s | QSFP28 | 0,5;1;1,5;2;2,5;3 |
Ethernet Kupfer | 40Gb/s | QSFP+ | 0,5;1;1,5;2;2,5;3;4;5;6;7 |
Ethernet Kupfer | 25Gb/s | SFP28 | 0,5;1;1,5;2;2,5;3;4;5 |
Ethernet Kupfer | 10Gb/s | SFP+ | 0,5;1;1,5;2;2,5;3;4;5;6;7 |
Beispiel für Ethernet Verbindung auf der Basis von Kupfer
Kabel bis zu einer Länge von 7 Metern können noch aus Kupfer bestehen, bei Längen über 7 Meter müssen Kabel mit optischer Übertragung eingesetzt werden.
Infiniband | Geschwindigkeit | Formfaktor | Länge |
---|---|---|---|
HDR | 200Gb/s | QSFP56 | 0,5;1;1,5;2;2,5;3 |
EDR | 100Gb/s | QSFP28 | 0,5;1;1,5;2;2,5;3;4;5 |
FDR | 56Gb/s | QSFP+ | 0,5;1;1,5;2;2,5;3;4;5 |
FDR10; QDR | 40Gb/s | QSFP+ | 0,5;1;1,5;2;2,5;3;4;5;6;7 |
Beispiele für Infiniband Verbindungen auf Basis von Kupfer
High Performance Netzwerk Projekte mit HAPPYWARE realisieren
Seit 1999 ist HAPPYWARE ein zuverlässiger Partner bei der Umsetzung verschiedenster IT-Projekte. Von einfachen Barebone-Systemen bis zu vollständigen Server-Setups und Virtualisierungs-Leistungen dürfen Sie auf die Kompetenzen unseres Unternehmens zählen.
Gerne beraten wir Sie auch aus erster Hand zu Ihren Möglichkeiten mit uns als IT Dienstleister. Unser Team aus IT-Spezialisten analysiert dabei den IT Bedarf Ihres Unternehmens und steht Ihnen bei der Planung kompetent zur Seite. Wir schneiden unsere Leistungen dabei exakt auf Ihre Bedürfnisse zu und sorgen somit dafür, dass Sie passgenaue Performance zu besten Konditionen erhalten.
Auf Wunsch stellen wir Ihnen neben fertigen Systemen natürlich auch alle Komponenten für das High Performance Netzwerk Ihrer Wahl zur Verfügung.
Haben Sie noch weitere Fragen oder interessieren Sie sich für unsere Leistungen rund um High Performance Netzwerke? Dann wenden Sie sich an unseren HPC-Experten Jürgen – unter der Rufnummer +49 (0)4181 235770 hilft er Ihnen bei Fragen gerne weiter!