Slurm - Datenspeicher: Unterschied zwischen den Versionen
Aus HPC@HU
(kleine Anpassung der Laufwerkstabelle, Anmerkung der Anfrage an Support bei anderen Anforderungen.) |
(hinzufügen eines Verweises aus Lustre) |
||
Zeile 30: | Zeile 30: | ||
|global** | |global** | ||
|unlimited* | |unlimited* | ||
|- | |||
|/lustre | |||
|1.5PB | |||
|global** | |||
|unlimited* | |||
|im Testsbetrieb ûber NFS, mit begrenztem Datendurchsatz | |||
|} | |} | ||
<nowiki>*</nowiki>Die Daten werden zur Zeit erst bei sehr hoher Belegung gelöscht | <nowiki>*</nowiki>Die Daten werden zur Zeit erst bei sehr hoher Belegung gelöscht |
Version vom 10. Juli 2024, 07:42 Uhr
Auf dem Slurm-Cluster stehen auf jeder Maschine (Login- & Exec-Server) folgende Verzeichnisse zur Verfügung.
Pfad | Größe | Sichtbarkeit | Dauer | Besonderheit |
---|---|---|---|---|
$HOME | 800GB | global** | unlimited | |
/tmp | 1.5TB | local (Job) | job-time | autotmp_fs*** |
/dev/shm | 128GB | local (Job) | job-time | autotmp_fs*** |
/globalscratch | 1TB | global** | unlimited* | |
/lustre | 1.5PB | global** | unlimited* | im Testsbetrieb ûber NFS, mit begrenztem Datendurchsatz |
*Die Daten werden zur Zeit erst bei sehr hoher Belegung gelöscht
**Die Verzeichnisse sind über NFS gemountet
***Die Verzeichnisse werden für jeden Job angelegt und gemountet. Andere Jobs sehen den Inhalt nicht. Verzeichnisse werden nach Job-Ende gelöscht.
Bei anderen Anforderungen bitten wir darum per Mail mit dem HPC-Support Kontakt aufzunehmen.