Zentraleinrichtung Campusmanagement

High-Performance Computing (HPC)

Kurzbeschreibung

Die ZECM stellt Wissenschaftler*innen einen Hochleistungsrechner-/Speicherkomplex (HPC Cluster) mit einer Spitzenleistung von über 348 Billionen Rechenoperationen pro Sekunde.zur Verfügung.

Dienstekategorie

Zielgruppen

Status

Allgemeines

Der HPC-Cluster der ZECM verfügt über etwa 3800 CPU-Kerne und 46 GPUs für eine Spitzenleistung von über 348 Billionen Rechenoperationen pro Sekunde. Die für das datenintensive Rechnen maßgeschneiderte Architektur bietet ideale Voraussetzungen, um während der geplanten Betriebszeit die hoch gesteckten Forschungsziele der Anwender/-innen zu erreichen.

Zugang

Für den Clusterzugang ist je Einrichtung (Fachgebiet) von den entsprechenden Rolleninhabern ein Team anzulegen, in dem alle Berechtigungen gepflegt werden. Für das Team muss die Gruppenfunktion aktiviert werden. Nach der Rückmeldung des Teamnamens an unser Ticketsystem mit dem Betreff "HPC:Teamzuordnung" werden die im Team enthaltenen Personen in die SLURM-Datenbank eingetragen.

Der Login zum Cluster erfolgt mittels SSH über die beiden Frontends (frontend-01 und frontend-02). Dazu wird die virtuelle Addresse gateway.hpc.tu-berlin.de verwendet. Diese Addresse ist aus den Subnetzen der TU Berlin erreichbar. Zur Authentifizierung (Benutzername/Passwort) wird der TUB-Account verwendet.

Zu beachten

Microsoft Windows benötigt ein Zusatzprogramm um auf den Cluster zuzugreifen, zum Beispiel Putty oder MoabTerm. Linux Systeme beherrschen den Zugriff nativ mittels SSH. Innerhalb der TUB-Netze ist der Login wie folgt möglich: ssh [TUB-Kontoname]@gateway.hpc.tu-berlin.de

Außerhalb der TUB-Netze muss zuerst die Verbindung über einen VPN-Tunnel hergestellt oder der SSH-Jumphost verwendet werden. Wie Sie ein VPN (Virtual Private Network) einrichten wird Ihnen hier erklärt. Auf den Jumphost können Sie mit ssh [TUB-Kontoname]@sshgate.tu-berlin.de zugreifen. Von dort ist wiederum eine SSH-Verbindung mit dem Gateway (s.o.) möglich.

Zugriff auf den Cluster-Speicherplatz (BeeGFS), wo auch die eigenen Dateien liegen, ist mit scp oder rsync möglich (Unix-basierte Systeme), Windows-Systeme benötigen zusätzliche Software, die mit dem SCP-/SSH-Protokoll arbeiten können. Damit können die Dateien z.B. direkt auf dem eigenen Rechner, oder von dort zum Cluster, kopiert werden. Für den direkten Zugriff, also ohne eine Kopie anfertigen zu müssen, lässt sich sshfs verwenden.

Voraussetzungen

Kontakt

Raum E-N-K048
Adresse Einsteinufer 17
10587 Berlin

Anleitungen

Häufig gestellte Fragen

Wie ist die Ausstattung der High Performance-Umgebung?

Rechenknoten

AnzahlArtCPU#SpeicherGPU#
132StandardXeon E5-2630v42256 GiB- 
20GPUXeon E5-2630v42512 GiBTesla P1002
1NachgerüstetXeon E5-2630v42256 GiBTesla P1002
26NachrüstbarXeon E5-2630v42256 GiB- 
1SMPXeon E7-4850v443 TiB- 
2SMP-GPUXeon E7-4850v443 TiBTesla P1002

Storage (BeeGFS)

Anzahl ServerFestplatten je ServerFestplatten-größeSpeicherplatz (gesamt)Speicherplatz (nutzbar)
4606 TB1440 TB1037 TB

Prozessoren

CPUTaktfrequenzCoresThreads/CoreFLOP/Takt
Intel Xeon E5-2630v42.2 GHz102DP/SP: 16/32
Intel Xeon E7-4850v42.1 Ghz162DP/SP: 16/32