Slurm - Datenspeicher: Unterschied zwischen den Versionen
Aus HPC@HU
Keine Bearbeitungszusammenfassung |
Keine Bearbeitungszusammenfassung |
||
(3 dazwischenliegende Versionen desselben Benutzers werden nicht angezeigt) | |||
Zeile 15: | Zeile 15: | ||
|- | |- | ||
|/tmp | |/tmp | ||
| | |1.5TB | ||
|local (Job) | |local (Job) | ||
|job-time | |job-time | ||
Zeile 25: | Zeile 25: | ||
|job-time | |job-time | ||
|autotmp_fs*** | |autotmp_fs*** | ||
<!--|- | |||
|- | |||
|/globalscratch | |/globalscratch | ||
|1TB | |1TB | ||
|global** | |global** | ||
|unlimited* | |unlimited* | ||
--> | |||
|- | |||
|/lustre | |||
|1.5PB | |||
|global | |||
|unlimited* | |||
| | |||
|} | |} | ||
<nowiki>*</nowiki>Die Daten werden zur Zeit erst bei sehr hoher Belegung gelöscht | <nowiki>*</nowiki>Die Daten werden zur Zeit erst bei sehr hoher Belegung gelöscht | ||
Zeile 43: | Zeile 44: | ||
<nowiki>***</nowiki>Die Verzeichnisse werden für jeden Job angelegt und gemountet. Andere Jobs sehen den Inhalt '''nicht.''' Verzeichnisse werden nach Job-Ende gelöscht. | <nowiki>***</nowiki>Die Verzeichnisse werden für jeden Job angelegt und gemountet. Andere Jobs sehen den Inhalt '''nicht.''' Verzeichnisse werden nach Job-Ende gelöscht. | ||
Bei anderen Anforderungen bitten wir darum per Mail mit dem HPC-Support Kontakt aufzunehmen. |
Aktuelle Version vom 19. Juli 2024, 15:34 Uhr
Auf dem Slurm-Cluster stehen auf jeder Maschine (Login- & Exec-Server) folgende Verzeichnisse zur Verfügung.
Pfad | Größe | Sichtbarkeit | Dauer | Besonderheit |
---|---|---|---|---|
$HOME | 800GB | global** | unlimited | |
/tmp | 1.5TB | local (Job) | job-time | autotmp_fs*** |
/dev/shm | 128GB | local (Job) | job-time | autotmp_fs*** |
/lustre | 1.5PB | global | unlimited* |
*Die Daten werden zur Zeit erst bei sehr hoher Belegung gelöscht
**Die Verzeichnisse sind über NFS gemountet
***Die Verzeichnisse werden für jeden Job angelegt und gemountet. Andere Jobs sehen den Inhalt nicht. Verzeichnisse werden nach Job-Ende gelöscht.
Bei anderen Anforderungen bitten wir darum per Mail mit dem HPC-Support Kontakt aufzunehmen.