BEWERTUNGEN: Intel® Serversystem M50CYP2UR208 – Zwei 10nm Intel Xeony Ice Lake – Server-Einführung

Für mich ist dieses Jahr geprägt von Servern, typischerweise mit AMD EPYC Prozessoren, und ich habe es gelegentlich geschafft, einige davon zu testen und einige Artikel zu schreiben. Ich habe versucht, einige Stücke mit Intel-Prozessoren zu bekommen, jedoch antworteten mehr oder weniger alle Anbieter, dass Server mit Intel-Prozessoren nicht verfügbar sind. die Prozessoren sind generell schlecht erreichbar, was sich darin widerspiegelte, dass ich bei einigen Servern oft die Konfigurationen ändern musste. Zufälligerweise sagte einer der Leser, dass er einen Server von Intel mit neuen Intel Ice Lake Xeons zu mieten habe, ich habe etwas Diesel für Greta verbrannt, den Server getestet und diesen Artikel geschrieben.

Um Ihr Gedächtnis über Xeon Ice Lake Prozessoren aufzufrischen, empfehle ich einen unserer älteren Artikel:

Technisch gesehen sollten die auf dem 10-nm-Prozess basierenden Ice Lake Xeons irgendwann zwischen 2018-2019 ihre Arbeit aufnehmen, aber dies geschah nicht und sie kamen erst in diesem Jahr auf den Markt. Im Gegensatz zu früheren Cascade Lake-X Xeons bringt Intel endlich PCI-Express-Unterstützung der vierten Generation auf Server. Ein Prozessor kann bis zu 64 PCIe-Linien bereitstellen, was ein Upgrade gegenüber den 48 Gen3-Linien der älteren Generation darstellt. Aber selbst bei diesen Xeons hat Intel einen Chipsatz beibehalten, der einige USB- und SATA-Konnektivität bietet, sodass eine Verwendung nicht immer möglich ist die vollen 64 Zeilen. Für die Kommunikation mit dem zweiten Prozessor in Zwei-Sockel-Systemen werden UPI-Busse mit einem Durchsatz von 11,2 GT/s verwendet, oder jeder Prozessor verfügt über drei dieser Busse für die schnellstmögliche Kommunikation. Intel hat auch die RAM-Unterstützung verbessert, sodass einige Prozessoren angeblich bis zu 6 TB RAM, aber maximal DDR4-2933 adressieren können, also in einer 2DPC-Konfiguration mit einer Verlangsamung auf 2667 MT/s rechnen, während der Speichercontroller achtkanalig ist. Neu können diese Prozessoren bis zu 40 physische Kerne haben, was wiederum ein Sprung von den 28 Kernen der vorherigen Generation ist (derzeit meine ich hauptsächlich den Standardsockel LGA4189 und nicht 56C BGA-Modelle).

Einige Funktionen sind jedoch abgeschnitten, nicht alle Xeony Ice Lake können mit Intel Optane-Speichern arbeiten und die maximale Größe der SGX-Sicherheitsenklave ist unterschiedlich. Intel hat natürlich die Bronze/Silber/Gold/Platinum-Markierungen beibehalten, was mir auch heute noch etwas seltsam vorkommt, aber wahrscheinlich warum nicht.

Der getestete Server heißt offiziell Intel® Server System M50CYP2UR208 und der Server ist wirklich von Intel, was für mich recht neu ist, da ich noch nie mit Servern direkt von Intel gearbeitet habe, typischerweise diversen DELL, HPE, Supermicro, SUN oder IBM Maschinen. Ich war also gespannt, wie Intel unterschiedliche Servergewohnheiten angenommen hat. Ich werde vorab erwähnen, dass der Server über eine GPU-Vorbereitung verfügt, aber noch kein GPU-Kit, also weniger PCIe-Steckplätze. Auch hier muss ich Sie daran erinnern, dass Server in der Regel auf Kunden zugeschnitten sind, dieses Stück diente als eine solche reisende Demo, anstatt schließlich (wenn es noch nicht herabgestuft wurde) bei einem Kunden anzukommen.

Ich habe den Server in der Originalverpackung mitgebracht, innen finden wir KingSlide-Schienen außerhalb des Servers selbst, was so ein Klassiker ist, ich hatte diese Schienen auch auf dem kürzlich getesteten Gigabyte R282-Z92 A00 Server.

Wie der Name des Servers vermuten lässt, handelt es sich hier um ein 2U-Chassis, ganz vorne finden wir drei separate „Körbe“ für 2,5“-Festplatten, die natürlich eine Backplane und PCIe/SAS/SATA-Konnektivität zu einem Controller oder HBA benötigen ein Disk Bin und eine Backplane, dann bestückt mit zwei SSD Kingston DC1000M 960GB, das sind U.2 PCIe Disks für den Servereinsatz, ihr DPWD erreicht 1 für fünf Jahre oder 1.6 DPWD für drei Jahre. Wenn Sie keine Ahnung haben was DPWD ist , steht für “Drive Writes Per Day”, also wie oft wir die SSD pro Tag während der Garantiezeit komplett überschreiben können, also diese Festplatten fünf Jahre lang einmal täglich überschreiben können, bis das NAND komplett aufgebraucht ist.

Intel hat hier ein bisschen spezielle Schubladen verwendet, die Festplatten selbst werden nicht in eine Schublade eingebaut und gleiten einfach in den Server. Etwas überrascht war ich von den extrem schwachen LEDs, sie sind nur in einem bestimmten Winkel sichtbar und sind fast unsichtbar, was ich zum ersten Mal sehe, typischerweise ist es wünschenswert, dass die Festplattenaktivität irgendwie einigermaßen sichtbar ist, ich hoffe das für den Fall bei Ausfall leuchtet sie orange oder rot mit höherer Helligkeit.

Im vorderen Teil des Servers finden wir die Status-LEDs und den Power-Button, den ich vergessen habe zu fotografieren, oh. Oben auf dem Server finden wir einen Plan des Servers, der die Positionen verschiedener Steckplätze und Komponenten beschreibt, eine ziemlich normale Angelegenheit, aber ich war sehr amüsiert, dass Intel den 15-poligen D-Sub-Anschluss als “Video Port (RJ45 )”, hat sich wahrscheinlich jemand geirrt.

Schauen wir uns also die Rückseite des Servers an, denn die Port-Ausstattung direkt auf dem Board ist überraschend schwach, wir finden nur drei USB-A 5Gb/s-Ports, VGA, RJ45 für Remote Management (betrieben von ASPEED AST2500) und RJ45 bieten a serielle Schnittstelle.

Desweiteren haben wir nur diverse PCIe Slots und einen OCP 3.0 Slot, in dem eine neue Intel E810 Netzwerkkarte mit zwei SFP28 Ports verbaut wurde, leider hatte ich keine weitere Maschine oder Switch mit SFP28 zur Hand damit ich es irgendwie ausprobieren konnte, Vielleicht beim nächsten Mal.

Der Server hat Platz für zwei Netzteile, aber es wurde nur eines verbaut, was für meine Tests ohne Probleme reichte. Die Quelle war etwas brutal überdimensioniert und lieferte bis zu 2.100 Watt am 12-V-Zweig.

Der Rest der Rückseite wird von PCIe-Karten-Slots belegt, theoretisch hat der Server bis zu acht Slots, während nur zwei Low-Profile sind, hängt jedoch von der Konfiguration der PCIe-Bäume ab, da die getestete Konfiguration nicht alle acht Slots bietet , aber nur fünf x16 Gen4.

Da ich ein anderes Netzwerk als Optik über SFP28/SFP+ benötigte, habe ich eine alte Quad-Port-Gigabit-Karte mit Chipsätzen von Broadcom in den Server eingebaut, ich vermute es stammt von einem DELL PowerEdge R620. Um mich nicht nur auf den 2D ASPEED AST2500 zu verlassen, habe ich auch eine Grafikkarte verbaut, sondern eine sparsame 50W TDP Sapphire Radeon RX 550 2GB verbaut.

Was die PCIe-Slots selbst innerhalb der Bäume betrifft, so ist es interessant, dass wir zwei PCIe-x16-Gen4-Karten in zwei Low-Profile-Slots unterbringen können, hier würde ich eher zwei x8-Slots erwarten.

Der mittlere PCIe-Baum wird wieder zwei PCIe x16 Gen4-Slots bieten, in einem davon habe ich gerade eine Radeon RX 550 2GB verbaut.

Der neueste PCIe-Baum bietet einen ganzen PCIe-x16-Gen4-Steckplatz, aber auch zwei Anschlüsse zum Anschluss einer PCIe-SSD, höchstwahrscheinlich an die vordere Backplane. Da PCIe anfällig für Signalqualität und Kabellänge ist, gibt es auch den smarten AstimerLabs PT4161L Retimer, für den der Hersteller mit geringen Latenzen rühmt.

Nun noch im Serverinneren, das Layout der Komponenten ist mehr oder weniger Standard, vor den Platten sitzen insgesamt sechs Foxconn PIA060K12W Lüfter, jeder Lüfter kann theoretisch bis zu 78 Watt aufnehmen, aber das wird wohl nie passieren. Selbstverständlich können die Lüfter ohne Werkzeug ausgetauscht werden. Hinter den Lüftern finden wir einen Plastiktunnel, der den Luftstrom durch die Prozessorkühler, RAM und VRM korrigiert. Ich war überrascht, dass alle Leistungskaskaden relativ hohe passive Kühler haben, aber das ist eigentlich recht positiv.

Die Prozessorkühlkörper sind ziemlich massiv und machen die GPU nicht lustig, aber ich verstehe nicht, warum einige ihrer Schrauben aus Kunststoff bestehen.

Unter jedem Kühlkörper befindet sich ein Intel Xeon Gold 5315Y-Prozessor mit acht Kernen und acht physischen Kernen, die Basisfrequenz beträgt 3,2 GHz und der maximale Turbo-Boost beträgt bis zu 3,6 GHz, während der Prozessor bei Verwendung aller Kerne bereit ist, auf 3,4 GHz zu steigern , was nicht schlecht ist. Nun die schlechte Nachricht, jeder dieser Prozessoren hat eine TDP von 140 Watt und behält diesen Wert bei. Die Prozessoren sind damit relativ hochfrequent, aber vergessen wir nicht, dass sie auch PCIe-Leitungen und andere Funktionen bereitstellen, damit die Stromversorgung nicht rein auf die Prozessorkerne fällt. In Sachen Effizienz wird der 16-Kern AMD EPYC 7282 mit seinen 120W TDP jedoch wie ein König aussehen. Bei Vergleichen empfehle ich vor allem einen Blick auf die sechzehn Kerne im Test, bzw. auf zwei Oktaven, der Vergleich mit den älteren Ivy Bridge Xeons wird interessant, ich habe sie auch als zwei Oktaven getestet. Leistungsgrenzen können im BIOS konfiguriert werden, jedoch erst später im nächsten Kapitel.

Um die Prozessoren herum finden wir insgesamt 32 Steckplätze für DDR4-Registered-Speicher, sodass jeder Prozessor optimal ist, um mindestens acht Speichermodule anzuschließen, die die getestete Konfiguration erfüllt, jede CPU verfügt über acht 8 GB DDR4-2933-Speicher, diese Module unterstützen Geschwindigkeiten bis zu 3200 MT/s, aber die Prozessoren können maximal 2933 MT/s verarbeiten.

Direkt auf dem Board finden wir den Rest der “Sauce”, ASPEED AST2500 BMC, Intel VROC Premium Modul (es ist im Grunde ein Lizenz-Hardwareschlüssel zum Erstellen von Software-RAID über SATA / SAS / NVMe SSD) und OCP3.0-Karte, die trägt Bei der Bezeichnung Intel E810 handelt es sich um eine Zwei-Port-Netzwerkkarte mit zwei 25Gb/s SFP28-Anschlüssen. Die Karte kann entnommen werden, ohne dass der Server geöffnet werden muss.

In Bezug auf das Testen habe ich es hauptsächlich auf Windows Server 2019 und ein bisschen auf Ubuntu 21.04 gemacht.

Der Server begrüßte mich mit einer Reihe von Fehlermeldungen im Zusammenhang mit NvmExpress-Geräten, diese Meldungen erschienen auch im Hintergrund des Bootmenüs. Ich hatte auch ein Problem beim Booten der Windows Server 2019 Installation, das System fiel sofort in den BSOD “DRIVER VERIFIER DMA VIOLATION”. . Ich bin mir nicht 100% sicher, was den Windos nicht gefallen hat, aber es hat geklappt. Unter Windows sah der Gerätemanager recht humorvoll aus, da ein paar Treiber fehlten. Alle können von der Intel-Website heruntergeladen werden.

Im nächsten Kapitel werden wir uns die BIOS-, IPMI- und VROC-RAID-Einstellungen genauer ansehen.


Source: Diit.cz by diit.cz.

*The article has been translated based on the content of Diit.cz by diit.cz. If there is any problem regarding the content, copyright, please leave a report below the article. We will try to process as quickly as possible to protect the rights of the author. Thank you very much!

*We just want readers to access information more quickly and easily with other multilingual content, instead of information only available in a certain language.

*We always respect the copyright of the content of the author and always include the original link of the source article.If the author disagrees, just leave the report below the article, the article will be edited or deleted at the request of the author. Thanks very much! Best regards!