Logo dirsisti
Logo Unitn
 

Risorse di calcolo

 
Cluster HPC di Ateneo

For over a decade prophets have voiced the contention that the organization of a single computer has reached its limits. 

And that the truly significant advances can be made only by interconnection of a multiplicity of computers. 

 

Gene Amdahl, 1967

 

L'Ateneo mette a disposizione un cluster HPC ai docenti e ricercatori

Architettura

Attualmente il cluster HPC è composto da 25 nodi di calcolo CPU per un totale di 500 core e 2 nodi di calcolo GPU per un totale di 20.000 CUDA core e due nodi di frontend (head node).

Tutti i nodi sono interconnessi con rete infiniband e dispongono di connettività 10Gb verso la MAN di Ateneo.

Le home utenti e il software sono installate su uno storage condiviso (Dell Compellent) e replicato verso un apparato analogo presso il sito di backup.

Il sistema operativo scelto è Linux CenOS 7 mentre il software di gestione del cluster è Altair PBS.

Per core Memory 12 GB
Cores per server 20
Cluster wide cores 500
Cluster wide CUDA cores 20.000

head node:

n.2 DELL R630 con 2 CPU Intel Xeon E5-2650 v3 2.3GHz, 64 GB di RAM, 2 Hot-plug Hard Drive 300GB 10K RPM SAS, scheda 10Gb SFP+, Infiniband Mellanox ConnectX-3, Single Port, VPI FDR, QSFP+ Adapter

cpu node:

n.17 DELL R630 con 2 CPU Intel Xeon E5-2650 v3 2.3GHz, 256 GB di RAM, 2 Hot-plug Hard Drive 300GB 10K RPM SAS, scheda opzionale 10Gb SFP+, Infiniband Mellanox ConnectX-3, Single Port, VPI FDR, QSFP+ Adapter

n.8 DELL R630 con 2 CPU Intel Xeon E5-2650 v3 2.3GHz, 256 GB di RAM, 1 Hot-plug Hard Drive SSD 200GB, scheda 10Gb SFP+, Infiniband Mellanox ConnectX-3, Single Port, VPI FDR, QSFP+ Adapter

GPU node:

n.2 DELL C4130 con 2 CPU Intel Xeon E5-2660 v3 2.6GHz, 256GB RAM 2 x Hot-plug Hard Drive 300GB 10K RPM SAS, 1x 10Gb SFP+, 1 Infiniband Mellanox ConnectX-3, Single Port, VPI FDR, QSFP+ Adapter, 2 schede Nvidia K80

Connettività:

Switch InfiniBand Mellanox, modello MIS5030Q-1SFC con 36 pore QDR (40Gb/s)

 

Acccesso al servizio

La richiesta deve essere effettuata da personale strutturato (docenti, ricercatori) inviando una mail a gestione.sistemi [at] unitn.it

L'accesso al cluster può essere richiesto anche per personale non strutturato interno a unitn (studenti, PTA, post doc, ecc.)

 

Statistiche di utilizzo del cluster

 

CPU Utilization

 

cnode01.cluster.net
cnode02.cluster.net
cnode03.cluster.net
cnode04.cluster.net
cnode05.cluster.net
cnode06.cluster.net
cnode07.cluster.net
cnode08.cluster.net
cnode09.cluster.net
cnode10.cluster.net
cnode11.cluster.net
cnode12.cluster.net
cnode13.cluster.net
cnode14.cluster.net
cnode15.cluster.net
cnode16.cluster.net
cnode17.cluster.net
cnode18.cluster.net
cnode19.cluster.net
cnode20.cluster.net
cnode21.cluster.net
cnode22.cluster.net
cnode23.cluster.net
cnode24.cluster.net
cnode25.cluster.net
gnode01.cluster.net
gnode02.cluster.net

 

Ulteriori statistiche

 

 

Get Service 

La richiesta deve essere effettuata da personale strutturato (docenti, ricercatori) inviando una mail a gestione.sistemi [at] unitn.it

L'accesso al cluster può essere richiesto anche per personale non strutturato interno a unitn (studenti, PTA, post doc, ecc.)

Destinatari