cookiecutter - Fotolia

So finden Sie passgenaue Serversysteme

Virtualisierung, Analytics und Datenbanken erfordern unterschiedliche Server. Hersteller wie HPE, Dell EMC und IBM stellen daher variable Systeme für jeden Zweck bereit.

Der Einsatzzweck definiert, welches Serversystem im Rechenzentrum zum Einsatz kommt.

Virtualisierungs-Projekte erfordern Server mit einer anderen Hardware- und Softwareausstattung als Datenserver oder Systeme für das High-Performance Computing (HPC). Bei den führenden Herstellern von Servern finden sich allerdings für jeden Zweck die passenden Systeme, wie die folgenden Beispiele zeigen.

Virtualisierung und SDS mit Dell EMC – und AMD Epyc

Positiv aus Sicht der Nutzer von Serversystemen ist, dass sie derzeit mehr Wahl bei den Prozessoren haben als vor einem Jahr. Nach einer langen Durststrecke ist es AMD gelungen, mit Epyc wieder eine Reihe von Server-CPUs zu entwickeln, die mit den Xeon-Prozessoren von Intel in puncto Performance und Funktionsumfang mithalten können.

Mittlerweile bieten die meisten führenden Serverhersteller Systeme mit Epyc-Prozessoren an. So hat Dell EMC beispielsweise Server für Hochleistungsanwendungen, Edge Computing und Software-defined Storage (SDS) auf Basis von AMD-CPUs vorgestellt.

Ein Beispiel für ein solches System mit "Epyc inside" ist der PowerEdge R6415 von Dell EMC. Der Rack-Server im Format 1 HE (Höheneinheit) ist mit einem CPU-Sockel ausgestattet, der Prozessoren mit bis zu 32 Kernen aufnimmt. Das System lässt sich als Plattform für Virtualisierung und SDS einsetzen. Dem entsprechend lässt sich der R6415 mit bis zu zehn SATA-Festplatten im Format 2,5 Zoll oder PCIe-NVMe-Solid State Disks (SSDs) ausrüsten.

Wichtig: Leistungsstarke Netzwerk- und Storage-Schnittstellen

Für die Anbindung des Systems an das Netzwerk oder externe Speichersysteme stehen Serial-Attached-SCSI (SAS mit 12 GBit/s), RAID und zwei Interfaces für Ethernet zur Verfügung – mit 1 GBit/s oder 10 GBit/s. Die doppelte Auslegung der Netzwerkschnittstellen ist alleine aus Gründen der Redundanz wichtig.

Zudem rüstet Dell EMC, so wie der Großteil der Serverhersteller, seine Systeme mit PCI-Express-Netzwerkadaptern führender Anbieter aus. Zu diesen gehören Broadcom, Emulex Intel, Qlogic und Mellanox.

Diese Server-LAN-Karten unterstützen je nach Modell neben 10-Gigabit-Ethernet zudem Datenraten von 25 GBit/s oder 40 GBit/s. Je nach Anwendungsfall sollten Nutzer prüfen, ob eine Netzwerkkarte Funktionen bereitstellt, welche die Performance von Anwendungen wie VMware erhöhen. Mellanox unterstützt beispielweise VMware Net Queue, um die Leistung von virtuellen Servern zu erhöhen.

Möglichst viel Arbeitsspeicher

Wichtig ist der Arbeitsspeicher bei Serversystemen, die im Bereich Virtualisierung eingesetzt werden. Speicher muss auf dem Server genügend zur Verfügung stehen: für das Serverbetriebssystem und die Applikationen, die virtuellen Maschinen (VM) und die Virtualisierungs-Software selbst. Microsoft definiert beispielsweise für Windows Server 2016 das absolute Minimum für einen Server mit aktivem Hyper-V mit 4 GByte.

In der Praxis dürften 64 GByte eine praktikable Mindestgröße sein, abhängig von der Zahl und den Leistungsanforderungen der VM beziehungsweise der Gast-Betriebssysteme. Windows Server 2016 und Hyper-V unterstützen pro Serversystem bis zu 1024 VM. Daher kann der Bedarf an Arbeitsspeicher schnell die 100-GByte-Grenze überschreiten.

Der PowerEdge R6415 lässt sich daher mit bis zu 2 TByte DDR-4-Speicher ausstatten. Nutzer, die einen Server mit möglichst viel RAM bestücken wollen, greifen zu LRDIMMs (Load Reduced DIMM). Ein LRDIMM-Speicherriegel verwendet eine Spannung von 1,35 Volt statt 1,5 Volt und hat eine Kapazität von bis zu 128 GByte. Dadurch lässt sich der Arbeitsspeicher bis in den Terabyte-Bereich hinein erweitern.

Dell EMC PowerEdge R6415 Server mit Epyc-CPU von AMD für Virtualisierung und Software-defined Storage.
Abbildung 1: Dell EMC PowerEdge R6415 Server mit Epyc-CPU von AMD für Virtualisierung und Software-defined Storage.

Alternativ unterstützen Serversysteme RDIMMs (Registered DIMM). Sie haben kürzere Zugriffszeiten, sind aber nur mit bis zu 32 GByte verfügbar. Das limitiert die Erweiterung des Arbeitsspeichers.

HPE ProLiant: Sicherheit für Firmware

Neben Dell EMC bieten weitere Serverhersteller Systeme mit AMD Epyc an. Dazu zählt der HPE ProLiant DL385 von HPE. Er hat bis zu zwei Epyc-7000-Prozessoren mit jeweils 32 Kernen und 4 TByte RAM pro CPU sowie vier 10-Gigabit-Ethernet-Anschlüssen.

Der HPE ProLiant DL385 Gen 10 eignet sich für anspruchsvolle Virtualisierungs-Projekte.
Abbildung 2: Der HPE ProLiant DL385 Gen 10 eignet sich für anspruchsvolle Virtualisierungs-Projekte.

Eine Besonderheit ist das Sicherheitsverfahren Secure Recovery. Es überprüft die Firmware des Servers alle 24 Stunden. Treten Fehler auf, lässt sich die zuletzt funktionierende Version wiederherstellen. Zudem werden der Inhalt des Arbeitsspeichers sowie Virtual Machines verschlüsselt.

Solche Security-Funktionen sind bei Systemen wichtig, deren Ausfall durch fehlerhafte Firmware oder Kompromittierung durch Hacker-Angriffe für Unternehmen nicht akzeptabel sind.

Blades statt Rack-Systeme

Für Unternehmen und Service-Provider, die stark auf Virtualisierung und den Einsatz von Container-Technologien wie Docker setzen, kommen statt Rack-Systeme Blade-Server in Betracht.

Sie bestehen aus einem Chassis, das der Nutzer nach Bedarf mit Server-Blades sowie Netzwerk- und Storage-Komponenten bestücken kann. Ein Vorteil des Konzepts: Anspruchsvolle VM und Container lassen sich einzelnen Blades zuordnen. Dadurch entsteht kein Flaschenhals, etwa in Bezug auf die I/O-Schnittstellen.

HPE stellt speziell solche Anwendungen den HPE ProLiant BL460c Gen10 Server-Blade bereit. Ins Auge sticht die hohe Variabilität. So stehen als CPUs fünf Varianten Xeon-Scalable-Reihe von Intel zur Wahl, mit 4 bis 26 Kernen. Zudem kann der Nutzer einen Blade-Server mit bis zu 2 TByte DDR-4-RAM bestücken. Das reicht auch für anspruchsvolle Workloads aus.

Um PCIe-Steckplätze für andere Erweiterungskarten freizuhalten, setzt der BL460c auf ein Flexible-LAN-on-Motherboard-Konzept (LOM).

Die Netzwerkkarten werden dabei über einen speziellen Steckplatz mit dem Board verbunden. Das hat den Vorteil, dass sich die Karten bei Bedarf austauschen lassen, etwa ein 10-GBit-Adapter gegen eine 25-GBit/s-Version. Bei einem Standard-LOM ist der Adapter dagegen auf dem Mainboard integriert. Nötigenfalls muss der User ihn durch eine separate Netzwerkkarte ersetzen. Doch auch die FlexibleLOM-Technik hat einen Haken: Es handelt sich um eine proprietäre Lösung von HPE, keinen Standard.

High-Performance Computing: Mehr Kerne und spezielle Grafikeinheiten

Im Vergleich zu Systemen für Virtualisierung und Software-defined Storage unterscheiden sich Server für das High-Performance Computing (HPC) vor allem durch einen Faktor: Sie können mit Highend-Grafikkarten (GPUs, Graphics Processing Units) bestückt werden, etwa solchen der Reihe Tesla V100 von Nvidia.

HPC-Systeme sind für spezielle Workloads wie Computational Fluid Dynamics (CFD, Strömungsanalyse) ausgelegt. Eine zentrale Rolle spielen Server mit GPUs in Unternehmen und Forschungseinrichtungen, die sich mit Machine Learning, Deep Learning, Künstlicher Intelligenz und der Entwicklung von Robotern beschäftigen. Nvidia zufolge erreicht eine GPU der Reihe Tesla V100 eine Performance von 100 Teraflops (Floating Point Operation per Second).

Anwender haben bei Server-Systemen mehr Auswahl denn je zuvor.

Bereits ein Rack-Server der Mittelklasse wie der Dell EMC PowerEdge R6415 bietet Platz für drei GPUs mit doppelter Breite oder fünf GPUs mit einfacher Breite zur Beschleunigung von Workloads. Auch der HPE ProLiant DL380 Gen10 mit ein oder zwei Xeon-Scalable-Prozessoren (Serien 3100 bis 8100) mit bis zu 28 Cores ist für bis drei Tesla V100 ausgelegt. Damit lässt sich das System für Aufgaben im Bereich HPC einsetzen. Allerdings zählt HPE auch Applikationen wie Big Data & Analytics zu den Einsatzgebieten.

Alternative: Power 9 von IBM

Eine Alternative für Unternehmen, die nicht auf Server mit Intel- oder AMD-Prozessoren fixiert sind, ist IBMs Power-Architektur. Im Dezember 2017 kündigte das Unternehmen mit dem IBM Power System AC922 einen HPC-Server mit Version 9 der Prozessorfamilie vor. Auch dieser Server ist für Hochleistung ausgelegt, etwa für Aufgaben im Bereich künstliche Intelligenz und für die Analyse von großen Datenmengen.

IBM hat den Server bereits Schnittstellen auf Basis der neuen Spezifikation PCI-Express Gen 4 ausgestattet. Diese Schnittstellen liefern die doppelte Datentransferrate wie der bislang gängige Standard PCIe Gen 3, also 16 GT/s (Gigatransfers pro Sekunde) statt 8 GT/s. Dies ist vor allem für Server wichtig, in denen mehrere Grafikbeschleuniger von Nvidia oder AMD vorhanden sind, die miteinander gekoppelt sind. Über entsprechende Links, etwa Nvidias NVLink, werden Daten mit bis zu 300 GByte/s transportiert. PCIe Gen 4 ist für diese Anforderungen gerüstet.

Server für Datenservices

Auch wenn High-Performance Computing verstärkt im Rechenzentrum Einzug hält, bilden Datenserver immer noch dessen Rückgrat. Sie stellen File-Services, Datenbank-Dienste und Webapplikationen bereit. Dafür benötigen sie nicht dieselbe Rechenleistung und RAM-Ausstattung wie Systeme, auf denen KI- oder Analytics-Anwendungen oder viele virtuelle Maschinen laufen.

Wichtiger sind eine hohe Zuverlässigkeit und Netzwerk-Performance (I/O-Leistung). Zudem sollten sich solche Systeme gut skalieren lassen. Dies gilt für die Ausstattung mit Storage-Komponenten wie Festplatten und SSDs, aber auch für den Arbeitsspeicher und die CPU.

Ein Beispiel eines Datenservers eines deutschen Anbieters ist der 2HE Intel Dual-CPU RI2208+ Server von Thomas Krenn. Das Rack-System lässt sich mit einer oder zwei Prozessoren von Intel (Xeon E5-2603v4) bestücken, die zwischen 4 und 22 Rechenkerne haben. Für Festplatten und SSDs sind acht Slots vorhanden. Mit Harddisks bestückt, ergibt das eine Speicherkapazität von 96 TByte. Alternativ stehen auch SSDs bereit.

Der Daten-Server Intel Dual-CPU RI2208+ von Thomas Krenn mit Intel-Xeon-Prozessoren.
Abbildung 3: Der Daten-Server Intel Dual-CPU RI2208+ von Thomas Krenn mit Intel-Xeon-Prozessoren.

Um Flaschenhälse beim Input/Output (I/O) zu vermeiden, sollten bei solchen Systemen mehrere Gigabit-Ethernet- oder 10-GbE-Schnittstellen vorhanden sein. Der Server von Thomas Krenn verfügt beispielsweise über acht integrierte Hardware-RAID-Controller mit 12 GBit/s sowie vier LAN-Schnittstellen – wahlweise mit 1 GBit/s oder 10 GBit/s. Damit die Netzwerkschnittstellen nicht mit dem Datenverkehr für das Remote-Management des Servers belastet werden, empfiehlt sich eine separate Netzwerkkarte für das Intelligent Platform Management Interface (IPMI).

Fazit: Mehr Auswahl

Betreiber von Rechenzentren haben heute bei Serversystemen mehr Auswahl denn je. Zu den vorgestellten Rack-, Blade-, Daten-Servern und HPC-Systemen sind weitere Konzepte hinzugekommen. So bieten Unternehmen wie HPE; Dell EMC, IBM, Cisco, Netapp und Fujitsu integrierte Systeme (Integrated oder Converged Systems) an. Sie kombinieren Server sowie Storage- und Netzwerkkomponenten in einem Gehäuse.

Der Nutzer muss somit diese Systeme nicht separat erwerben. Hyperkonvergente Lösungen gehen einen Schritt weiter: Sie ziehen eine Virtualisierungs-Ebene ein und ermöglichen es dadurch, handelsübliche Server, Speicher- und Netzwerksysteme in einer Box zusammenzufassen und zentral zu verwalten.

Das macht jedoch den klassischen Server keineswegs überflüssig. Das belegen Marktzahlen von IDC und Gartner. Anbieter wie Dell EMC und IBM verzeichneten im dritten Quartal 2017 Umsatzzuwächse in diesem Segment zwischen 27 und 38 Prozent. Der weltweite Umsatz mit Server-Systemen stieg im Q3/2017 im Vergleich zu 2016 um 16 Prozent auf 14,7 Milliarden Dollar.

Zudem etablieren sich Newcomer wie ODM Direct und der chinesische Anbieter Inspur Electronics im Bereich Serversysteme. Dies zeigt, dass der Server mehr denn je gefragt ist.

Folgen Sie SearchDataCenter.de auch auf Twitter, Google+, Xing und Facebook!

Nächste Schritte

Sicherheit und Systemaufbau definieren den idealen Server

Grafikkarten für Server ziehen ins Rechenzentrum

Flash kommt in neuen Formfaktoren

Artikel wurde zuletzt im März 2018 aktualisiert

Erfahren Sie mehr über Data-Center-Design

Diskussion starten

Schicken Sie mir eine Nachricht bei Kommentaren anderer Mitglieder.

Mit dem Absenden dieser Daten erklären Sie sich bereit, E-Mails von TechTarget und seinen Partnern zu erhalten. Wenn Ihr Wohnsitz außerhalb der Vereinigten Staaten ist, geben Sie uns hiermit Ihre Erlaubnis, Ihre persönlichen Daten zu übertragen und in den Vereinigten Staaten zu verarbeiten. Datenschutz

Bitte erstellen Sie einen Usernamen, um einen Kommentar abzugeben.

- GOOGLE-ANZEIGEN

SearchSecurity.de

SearchStorage.de

SearchNetworking.de

SearchEnterpriseSoftware.de

Close