Slurm - Datenspeicher: Unterschied zwischen den Versionen
Aus HPC@HU
Keine Bearbeitungszusammenfassung |
kleine Anpassung der Laufwerkstabelle, Anmerkung der Anfrage an Support bei anderen Anforderungen. |
||
| Zeile 15: | Zeile 15: | ||
|- | |- | ||
|/tmp | |/tmp | ||
| | |1.5TB | ||
|local (Job) | |local (Job) | ||
|job-time | |job-time | ||
| Zeile 25: | Zeile 25: | ||
|job-time | |job-time | ||
|autotmp_fs*** | |autotmp_fs*** | ||
|- | |- | ||
|/globalscratch | |/globalscratch | ||
| Zeile 43: | Zeile 37: | ||
<nowiki>***</nowiki>Die Verzeichnisse werden für jeden Job angelegt und gemountet. Andere Jobs sehen den Inhalt '''nicht.''' Verzeichnisse werden nach Job-Ende gelöscht. | <nowiki>***</nowiki>Die Verzeichnisse werden für jeden Job angelegt und gemountet. Andere Jobs sehen den Inhalt '''nicht.''' Verzeichnisse werden nach Job-Ende gelöscht. | ||
Bei anderen Anforderungen bitten wir darum per Mail mit dem HPC-Support Kontakt aufzunehmen. | |||
Version vom 3. Juli 2024, 11:39 Uhr
Auf dem Slurm-Cluster stehen auf jeder Maschine (Login- & Exec-Server) folgende Verzeichnisse zur Verfügung.
| Pfad | Größe | Sichtbarkeit | Dauer | Besonderheit |
|---|---|---|---|---|
| $HOME | 800GB | global** | unlimited | |
| /tmp | 1.5TB | local (Job) | job-time | autotmp_fs*** |
| /dev/shm | 128GB | local (Job) | job-time | autotmp_fs*** |
| /globalscratch | 1TB | global** | unlimited* |
*Die Daten werden zur Zeit erst bei sehr hoher Belegung gelöscht
**Die Verzeichnisse sind über NFS gemountet
***Die Verzeichnisse werden für jeden Job angelegt und gemountet. Andere Jobs sehen den Inhalt nicht. Verzeichnisse werden nach Job-Ende gelöscht.
Bei anderen Anforderungen bitten wir darum per Mail mit dem HPC-Support Kontakt aufzunehmen.
