Διαθέσιμοι υπολογιστικοί πόροι
Η υπολογιστική συστοιχία του ΑΠΘ "Αριστοτέλης" αποτελείται από ετερογενείς υπολογιστικούς κόμβους (compute nodes) που ομαδοποιούνται ανά ουρά (partition). Σε κάθε ουρά οι κόμβοι είναι ομογενείς (ίδιου τύπου) και διασυνδέονται μεταξύ τους είτε μέσω InfiniBand (εύρους 14G ή 200G) είτε μέσω Ethernet (εύρους 1G ή 10G) δικτύων.
Αρχιτεκτονική συστοιχίας
Τα χαρακτηριστικά των ουρών (partitions) αναλύονται στον παρακάτω πίνακα.
Ουρά εργασιών | batch | ampere | gpu | rome | htc | ondemand | testing |
---|---|---|---|---|---|---|---|
Πλήθος κόμβων (nodes) | 18 | 1 | 2 | 17 | 4 | 12 | 2 |
Πλήθος CPU Cores ανά κόμβο | 20 | 128 | 20 | 128 | 64 | 12 | 8 |
Πλήθος Job slots (CPU only jobs) | 360 | 128 | 40 | 2176 | 256 | 144 | 16 |
Μνήμη ανά κόμβο[GB] | 128 | 1024 | 128 | 256 or 256 or 1024 | 128 or 256 | 48 | 16 |
Μοντέλο CPU | Intel Xeon E5-2630 v4 | AMD EPYC 7742 | Intel Xeon E5-2640 v4 | AMD EPYC 7662 | AMD Opteron 6274 | Intel Xeon Gold 6230 (vCPU) | Intel Xeon E5405 |
Interconnect | 14Gb InfiniBand FDR (οδηγίες) | 200Gb InfiniBand HDR (οδηγίες) | 14Gb InfiniBand FDR (οδηγίες) | 200Gb InfiniBand HDR (οδηγίες) | 1Gb Ethernet | 1Gb Ethernet | 1Gb Ethernet |
Σχόλιο | Η "default" ουρά | Οχτώ κάρτες NVIDIA A100 (40GB DDR6 RAM/κάρτα) σε έναν κόμβο | Μία κάρτα NVIDIA Tesla P100 ανά κόμβο | Ουρά που προτείνεται για παράλληλα (mpi ή openmp) jobs | Ουρά που προτείνεται για παραμετρικά (πολλαπλά σειριακά) jobs | Μία virtual GPU κάρτα αρχιτεκτονικής Nvidia Quadro RTX 6000 με 6GB GDDR6. Ουρά κατάλληλη για απομακρυσμένη επιφάνεια εργασίας, interactive εφαρμογές με γραφικό περιβάλλον και deep learning αλγορίθμους (οδηγίες) | Ουρά για δοκιμαστικά μικρά (σύντομα) jobs |
Το λειτουργικό σύστημα όλων των κόμβων είναι είτε CentOS 7
είτε CentOS 8 Stream
και το Batch system (χρονοδρομολογητής) είναι Slurm.
Partition Limits¶
Τα παρακάτω όρια καθορίζονται για τις ουρές εργασιών (partitions) της συστοιχίας μέσω του Slurm
batch system.
Ουρά εργασιών | batch | ampere | gpu | rome | htc | ondemand | testing |
---|---|---|---|---|---|---|---|
Max CPUs per user | 140 | no limit | no limit | 1024 | 200 | 12 | no limit |
Max Running jobs per user | 20 | no limit | no limit | 32 | 200 | 4 | no limit |
Max Submitted jobs per user | 500 | no limit | no limit | 40 | 2000 | 8 | no limit |
Max Nodes per job | 5 | no limit | no limit | no limit | 3 | 1 | no limit |
Max Runtime per job | 7 days | 6 hours | 1 day | 2 days | 9 days | 2 days | 1 day |
Min CPUs per job | 1 | 1 | 1 | 8 | 1 | 1 | 1 |
Δυνατότητα επέκτασης χρονικών ορίων
Στις ουρές batch
, rome
και ampere
υπάρχει δυνατότητα επέκτασης του μέγιστου χρονικού ορίου
με χρήση ενός εκ των παρακάτω qos accounts:
Partition | QOS Account | Additional imposed limitations | Max walltime |
---|---|---|---|
batch |
batch-extd |
max running CPUs = 40 |
12 days |
rome |
rome-extd |
max running CPUs = 384 |
12 days |
ampere |
ampere-extd |
max running GPUs = 4 |
6 days |
Για να δοθεί η δυνατότητα χρήσης ενός από τα παραπάνω QOS Accounts ο/η ενδιαφερόμενος/-η χρήστης
θα πρέπει να επικοινωνήσει με το hpc-support@auth.gr
.