Inhalt des Dokuments
zur Navigation
Wissenschaftliches Rechnen
Mit dem Hochleistungsrechner-/Speicherkomplex (HPC Cluster) steht den Wissenschaftler/-innen der TU Berlin ein Supercomputer mit etwa 3800 CPU-Kernen und 46 GPUs zur Verfügung. Zusammen kommt der Cluster damit auf eine Spitzenleistung von über 348 Billionen Rechenoperationen pro Sekunde. Die für das datenintensive Rechnen maßgeschneiderte Architektur bietet ideale Voraussetzungen, um während der geplanten Betriebszeit die hoch gesteckten Forschungsziele der Anwender/-innen zu erreichen.
Zugang zum Cluster
Voraussetzung zum Zugang ist ein TUB-Account, welches allen Mitgliedern der Hochschule bei Beschäftigungsbeginn über das Provisionierungsverfahren ausgestellt wird. Für den Clusterzugang ist je Einrichtung (Fachgebiet) von den entsprechenden Rolleninhabern ein Team anzulegen, in dem alle Berechtigungen gepflegt werden. Für das Team muss die Gruppenfunktion aktiviert werden. Nach der Rückmeldung des Teamnamens an Michael Flachsel werden die im Team enthaltenen Personen in die SLURM-Datenbank eingetragen.
Der Login zum Cluster erfolgt mittels SSH über die beiden Frontends (frontend-01 und frontend-02). Dazu wird die virtuelle Addresse gateway.hpc.tu-berlin.de verwendet. Diese Addresse ist aus den Subnetzen der TU Berlin erreichbar. Zur Authentifizierung (Benutzername/Passwort) wird der TUB-Account verwendet.
Microsoft Windows benötigt ein Zusatzprogramm um auf den Cluster zuzugreifen. Es können zum Beispiel Putty oder MoabTerm verwendet werden.
Linux Systeme beherrschen den Zugriff nativ mittels SSH. Innerhalb der TUB-Netze ist der Login wie folgt möglich:
ssh [TUB-Kontoname]@gateway.hpc.tu-berlin.de
Außerhalb der TUB-Netze muss zuerst die Verbindung über einen VPN-Tunnel hergestellt oder der SSH-Jumphost verwendet werden. Wie Sie ein VPN (Virtual Private Network) einrichten wird Ihnen hier erklärt. Auf den Jumphost können Sie mit
ssh [TUB-Kontoname]@sshgate.tu-berlin.de
zugreifen. Von dort ist wiederum eine SSH-Verbindung mit dem Gateway (s.o.) möglich.
Zugriff auf den Cluster-Speicherplatz (BeeGFS), wo auch die eigenen Dateien liegen, ist mit scp oder rsync möglich (Unix-basierte Systeme), Windows-Systeme benötigen zusätzliche Software, die mit dem SCP-/SSH-Protokoll arbeiten können. Damit können die Dateien z.B. direkt auf dem eigenen Rechner, oder von dort zum Cluster, kopiert werden. Für den direkten Zugriff, also ohne eine Kopie anfertigen zu müssen, lässt sich sshfs verwenden.
Hilfe & Dokumentation
Dokumentation für Nutzer*innen des Clusters werden im HPC-Wiki bereitgestellt. Dort finden Sie weitere Informationen zur Hardware, zur verfügbaren Software, zum Batchsystem (also wie Sie einen Job zu starten haben) oder auch was bei Nutzung von GPUs zu beachten ist. Zum einloggen in das Wiki benutzen Sie bitte Ihre TUB-Account-Zugangsdaten.
Telefonische Beratung ist zu den Funktionszeiten der ZE Campusmangement (Mo-Do 10-16 Uhr, Fr 10-15 Uhr) über die rechts eingeblendeten Telefonnummern möglich. Fragen können selbstverständlich auch per E-Mail gestellt werden, bitte benutzen Sie dafür das Formular, dass Sie ebenfalls über das Menü rechts erreichen können.
Ein Diskussionsforum für Nutzer*innen des Clusters befindet sich im High Performance Cluster ISIS Kurs (Einschreibeschlüssel: rechenknecht).
Hardware
Anzahl | Art | CPU | # | Speicher | GPU | # |
---|---|---|---|---|---|---|
132 | Standard | Xeon E5-2630v4 | 2 | 256 GiB | - | 0 |
20 | GPU | Xeon E5-2630v4 | 2 | 512 GiB | Tesla P100 | 2 |
1 | Nachgerüstet | Xeon E5-2630v4 | 2 | 256 GiB | Tesla P100 | 2 |
26 | Nachrüstbar | Xeon E5-2630v4 | 2 | 256 GiB | - | 0 |
1 | SMP | Xeon E7-4850v4 | 4 | 3 TiB | - | 0 |
2 | SMP-GPU | Xeon E7-4850v4 | 4 | 3 TiB | Tesla P100 | 2 |
Anzahl Server | Festplatten je Server | Festplattengröße | Speicherplatz (gesamt) | Speicherplatz (nutzbar) |
---|---|---|---|---|
4 | 60 | 6 TB | 1440 TB | 1037 TB |
CPU | Taktfrequenz | Cores | Threads/Core | FLOP/Takt |
---|---|---|---|---|
Intel Xeon E5-2630v4 | 2.2 GHz | 10 | 2 | DP/SP: 16/32 |
Intel Xeon E7-4850v4 | 2.1 Ghz | 16 | 2 | DP/SP: 16/32 |
* double precision / single precision