Je suis
FR FR
Citoyen / Grand public
Chercheur
Étudiant / Futur étudiant
Entreprise
Partenaire public
Journaliste
Enseignant / Elève

Détails du cluster DANTE

  • Serveurs maîtres : SR665 (2U) avec
    • 2 AMD EPYC 7252 8C@3.1GHz, 128 Go de RAM
    • 5 disques SAS 1.8 To 10K, 1 carte RAID 930-8i 2 Go
    •  1 carte Mellanox InfiniBand HDR 100Gbs Dual Port, 4 ports 1G
  • 2 frontaux CPU : SR645 avec
    • AMD AMD EPYC ROME 7302 16C@3GHz, 256 Go de RAM
    • carte RAID 930-8i 2GB, 2 disques SSD de 480 Go
    • carte Mellanox InfiniBand HDR 100Gbs, 4 ports 1G, 1 port 25G
  • 1 frontal GPU : SR650 (2U) avec
    • 2 Intel 6226R 16C@2.9GHz 150W, 192 Go de RAM
    • 1 carte GPU nVIDIA A100 40 Go
    • 2 disques SSD de 480 Go, 1 carte RAID 930-8i 2 Go
    • 1 carte Mellanox InfiniBand HDR Dual Port 100Gbs, 2 ports 1G, 1 port 25G
  • 56 noeuds de calcul : SR645 avec
    • 2 AMD Rome Zen2 7H12 64C, 2.60GHz
    • 1 carte Mellanox InfiniBand HDR 100 Gbs, 4 ports 1G
    • 42 serveurs avec 256 Go de RAM, 14 avec 512 Go

         298.2Tflops crête, 7168 coeurs

  • 3 noeuds GPU (2U) : SR670 avec
    • 2 CPUS Intel 6226R 16C@2.9GHz 150W, 384 Go de RAM
    • 4 cartes GPU nVIDIA A100 40 Go
    • 5 disques SSD de 1.92 To, 1 carte RAID 930-8i 2 Go
    • 1 carte Mellanox InfiniBand HDR 100Gbs, 2 ports 1G
  • Stockage //
    • 1 Po utile, 5 Go/s écriture et 7 Go/s en lecture
    • 2 serveurs NSD SR665 (2U) sous RH
    • 1 baie DE6000H (4U) avec 80 disques de 16 To (8+2P)
  • Réseaux
    • Calcul
      • 2 HDR 80 ports 100 Gb/s (Mellanox QM8790) connectés par 4 fibres 200 Gb/s
      • Bande passante cumulée de 16 Tb/s
      • Jusqu’à 15.8 milliards messages-par-seconde
      • Latence de 130ns
    • Administration
      • Niveau 1 : 2 switchs Mellanox AS4610-54T (48 ports 10/100/1000BASE-T ports et 4 x 10G SFP+ uplink),
      • Niveau 2 (cœur du réseau) : 2 switchs Mellanox SN2010 (18 ports 10G/25G + 4 ports 100G)
    • 18 PDUs administrables
  • Environnement
    • xCAT (déploiement), Slurm (scheduleur), Ganglia et Nagios (supervision)
    • RHEL 8.2
    • xClarity (prise de main à distance)
    • Support LeSI (7 ans)
    • Intel Parallel Studio XE Cluster Edition pour Linux (5 jetons) sur 3 ans
    • Librairies scientifiques AMD optimisées pour l’architecture EPYC

Ont été conservés de la précédente configuration :

  • 1 baie Netapp FAS3140 de 221 To effectifs
  • 4 noeuds GPU PowerEdge 720 avec chacun 2 Intel Xeon E5-2650 2.00 GHz (2×8 cores) 64 Go RAM, 2×2 To Near-Line SAS 7.2K en RAID 0, 2 NVIDIA Tesla K20m PCI-E (2496 cores, 5 Go)