Slurm - Datenspeicher: Unterschied zwischen den Versionen
Aus HPC@HU
kleine Anpassung der Laufwerkstabelle, Anmerkung der Anfrage an Support bei anderen Anforderungen. |
hinzufügen eines Verweises aus Lustre |
||
| Zeile 30: | Zeile 30: | ||
|global** | |global** | ||
|unlimited* | |unlimited* | ||
|- | |||
|/lustre | |||
|1.5PB | |||
|global** | |||
|unlimited* | |||
|im Testsbetrieb ûber NFS, mit begrenztem Datendurchsatz | |||
|} | |} | ||
<nowiki>*</nowiki>Die Daten werden zur Zeit erst bei sehr hoher Belegung gelöscht | <nowiki>*</nowiki>Die Daten werden zur Zeit erst bei sehr hoher Belegung gelöscht | ||
Version vom 10. Juli 2024, 07:42 Uhr
Auf dem Slurm-Cluster stehen auf jeder Maschine (Login- & Exec-Server) folgende Verzeichnisse zur Verfügung.
| Pfad | Größe | Sichtbarkeit | Dauer | Besonderheit |
|---|---|---|---|---|
| $HOME | 800GB | global** | unlimited | |
| /tmp | 1.5TB | local (Job) | job-time | autotmp_fs*** |
| /dev/shm | 128GB | local (Job) | job-time | autotmp_fs*** |
| /globalscratch | 1TB | global** | unlimited* | |
| /lustre | 1.5PB | global** | unlimited* | im Testsbetrieb ûber NFS, mit begrenztem Datendurchsatz |
*Die Daten werden zur Zeit erst bei sehr hoher Belegung gelöscht
**Die Verzeichnisse sind über NFS gemountet
***Die Verzeichnisse werden für jeden Job angelegt und gemountet. Andere Jobs sehen den Inhalt nicht. Verzeichnisse werden nach Job-Ende gelöscht.
Bei anderen Anforderungen bitten wir darum per Mail mit dem HPC-Support Kontakt aufzunehmen.
