Slurm - Datenspeicher: Unterschied zwischen den Versionen

Aus HPC@HU

Wechseln zu: Navigation, Suche
Keine Bearbeitungszusammenfassung
Keine Bearbeitungszusammenfassung
 
(4 dazwischenliegende Versionen von 2 Benutzern werden nicht angezeigt)
Zeile 3: Zeile 3:
|+
|+
!Pfad         
!Pfad         
!Größe
!Größe
!Sichtbarkeit
!Sichtbarkeit
!Dauer
!Dauer
Zeile 15: Zeile 15:
|-
|-
|/tmp
|/tmp
|
|1.5TB
|local (Job)
|local (Job)
|job-time
|job-time
Zeile 21: Zeile 21:
|-
|-
|/dev/shm
|/dev/shm
|
|128GB
|local (Job)
|local (Job)
|job-time
|job-time
|autotmp_fs***
|autotmp_fs***
<!--|-
|/globalscratch
|1TB
|global**
|unlimited*
-->
|-
|-
|/scratch
|/lustre
|
|1.5PB
|local
|global
|unlimited*
|unlimited*
|
|
|-
|/globalscratch
|
|global**
|unlimited*
|}
|}
<nowiki>*</nowiki>Die Daten werden zur Zeit erst bei sehr hoher Belegung gelöscht
<nowiki>*</nowiki>Die Daten werden zur Zeit erst bei sehr hoher Belegung gelöscht
Zeile 43: Zeile 44:
<nowiki>***</nowiki>Die Verzeichnisse werden für jeden Job angelegt und gemountet. Andere Jobs sehen den Inhalt '''nicht.''' Verzeichnisse werden nach Job-Ende gelöscht.
<nowiki>***</nowiki>Die Verzeichnisse werden für jeden Job angelegt und gemountet. Andere Jobs sehen den Inhalt '''nicht.''' Verzeichnisse werden nach Job-Ende gelöscht.


*
Bei anderen Anforderungen bitten wir darum per Mail mit dem HPC-Support Kontakt aufzunehmen.

Aktuelle Version vom 19. Juli 2024, 15:34 Uhr

Auf dem Slurm-Cluster stehen auf jeder Maschine (Login- & Exec-Server) folgende Verzeichnisse zur Verfügung.

Pfad Größe Sichtbarkeit Dauer Besonderheit
$HOME 800GB global** unlimited
/tmp 1.5TB local (Job) job-time autotmp_fs***
/dev/shm 128GB local (Job) job-time autotmp_fs***
/lustre 1.5PB global unlimited*

*Die Daten werden zur Zeit erst bei sehr hoher Belegung gelöscht

**Die Verzeichnisse sind über NFS gemountet

***Die Verzeichnisse werden für jeden Job angelegt und gemountet. Andere Jobs sehen den Inhalt nicht. Verzeichnisse werden nach Job-Ende gelöscht.

Bei anderen Anforderungen bitten wir darum per Mail mit dem HPC-Support Kontakt aufzunehmen.