Je suis
FR FR
Citoyen / Grand public
Chercheur
Étudiant / Futur étudiant
Entreprise
Partenaire public
Journaliste
Enseignant / Elève

Détails du cluster DANTE

  • Serveurs maîtres : SR665 (2U) avec
    • 2 AMD EPYC 7252 8C@3.1GHz, 128 Go de RAM
    • 5 disques SAS 1.8TB 10K, 1 carte RAID 930-8i 2GB
    •  1 carte Mellanox InfiniBand HDR 100Gbs Dual Port, 4 ports 1G
  • 2 Frontaux CPU : SR645 avec
    • AMD AMD EPYC ROME 7302 16C@3GHz, 256GB de RAM
    • carte RAID 930-8i 2GB, 2 disques SSD de 480GB
    • carte Mellanox InfiniBand HDR 100Gbs, 4 ports 1G, 1 port 25G
  • 1 Frontal GPU : SR650 (2U) avec
    • 2 Intel 6226R 16C@2.9GHz 150W, 192GB de RAM
    • 1 carte GPU nVIDIA A100 40GB
    • 2 disques SSD de 480GB, 1 carte RAID 930-8i 2GB
    • 1 carte Mellanox InfiniBand HDR Dual Port 100Gbs, 2 ports 1G, 1 port 25G
  • 56 Noeuds de calcul : SR645 avec
    • 2 AMD Rome Zen2 7H12 64C, 2.60GHz
    • 1 carte Mellanox InfiniBand HDR 100Gbs, 4 ports 1G
    • 42 serveurs avec 256GB de RAM, 14 avec 512GB

         298.2Tflops crête, 7168 coeurs

  • 3 Noeuds GPU (2U) : SR670 avec
    • 2 CPUS Intel 6226R 16C@2.9GHz 150W, 384GB de RAM
    • 4 cartes GPU nVIDIA A100 40GB
    • 5 disques SSD de 1.92 TB, 1 carte RAID 930-8i 2GB
    • 1 carte Mellanox InfiniBand HDR 100Gbs, 2 ports 1G
  • Stockage //
    • 1PB utile, 5GB/s écriture et 7GB/s en lecture
    • 2 serveurs NSD SR665 (2U) sous RH
    • 1 baie DE6000H (4U) avec 80 disques de 16TB (8+2P)
  • Réseaux :
    • Calcul
      • 2 HDR 80 ports 100 Gb/s (Mellanox QM8790) connectés par 4 fibres 200 Gb/s
      • Bande passante cumulée de 16Tb/s
      • Jusqu’à 15.8 milliards messages-par-seconde
      • Latence de 130ns
    • Administration :
      • Niveau 1 : 2 Switchs Mellanox AS4610-54T (48 ports 10/100/1000BASE-T ports et 4 x 10G SFP+ uplink),
      • Niveau 2 (cœur du réseau) : 2 Switchs Mellanox SN2010 (18 ports 10G/25G + 4 ports 100G)
    • 18 PDUs administrables
  • Environnement :
    • xCAT (déploiement), Slurm (scheduleur), Ganglia et Nagios (supervision)
    • RHEL 8.2
    • xClarity (prise de main à distance)
    • Support LeSI
    • Intel Parallel Studio XE Cluster Edition pour Linux (5 jetons) sur 3 ans
    • Librairies scientifiques AMD optimisées pour l’architecture EPYC

Ont été conservés de la précédente configuration :

  • 1 baie Netapp FAS3140 de 221 TB effectifs,
  • 4 Noeuds GPU PowerEdge 720 avec chacun 2 Intel Xeon E5-2650 2.00 GHz (2×8 cores),
    64 GB RAM, 2×2 TB Near-Line SAS 7.2K en RAID 0, 2 NVIDIA Tesla K20m PCI-E (2496 cores, 5 GB).