
le conseil régional Hauts de France et Amiens Métropole.

La plateforme rassemble 6660 cœurs, 42 GPUs et 49.6 To de mémoire. La puissance de calcul est évaluée à environ 1 PFlops. Elle est notamment constituée de 78 nœuds fins, 16 nœuds épais, 10 nœuds bi-gpus, 3 nœuds quad-gpus et 1 noeud octo-gpu et des nœuds hybrides munis notamment de cartes fpga. Un nœud de visualisation est également disponible avec OpenOnDemand.
Le fonctionnement du cluster se fait via des partitions qui ont parfois des limitations.
Nœuds de calcul
CPU
- 48 nœuds fins (2017) – Serveurs bi-processeur Intel(R) Xeon(R) CPU E5-2680 v4 @ 2.40GHz avec 128 Go de mémoire
-> 28 cœurs et 4 Go/cœur - 24 nœuds fin (2022) – Serveurs bi-processeur AMD EPYC 7513 @ 2.60GHz avec 256 Go de mémoire
-> 64 cœurs et 4000 Mo/cœur - 12 nœuds épais (2017)- Serveurs bi-processeur Intel(R) Xeon(R) CPU E5-2680 v4 @ 2.40GHz avec 512 Go de mémoire
-> 28 cœurs et 16 Go/cœur - 4 nœuds épais (2022) – Serveurs bi-processeur AMD EPYC 7513 @ 2.60GHz avec 1 To de mémoire
-> 64 cœurs et 16000 Mo/cœur - 6 nœuds (2025) – Serveurs bi-processeur AMD EPYC 9745 @ 2.4GHz avec 1.5 To de mémoire
-> 256 coeurs et 6144 Mo/cœur
GPU
- 6 nœuds bi-gpus (2019) – Serveurs bi-processeur Intel(R) Xeon(R) Gold 6148 CPU @ 2.40GHz avec 384 Go de mémoire et 2 cartes GPUs Tesla V100-32G
-> 40 cœurs, 2 GPUs Tesla V100 et 9 Go/cœur - 2 nœuds quad-gpus (2019) – Serveurs bi-processeur Intel(R) Xeon(R) Gold 6148 CPU @ 2.40GHz avec 768 Go de mémoire et 4 cartes GPUs Tesla V100 SXM2-32G-NVLink
-> 40 cœurs, 4 GPUs Tesla V100 et 18 Go/cœur - 1 nœud quad-gpus (2022) – serveur bi-processeur AMD EPYC 7513 @ 2.60GHz avec 1 To de mémoire et 4 GPU A100
-> 64 cœurs, 4 GPUs A100 et 16000Mo/cœur - 4 nœuds bi-gpu (2025) – serveur bi-processeur AMD EPYC 9335 @ 3.00GHz avec 768 Go de mémoire et 2 GPU H200-141Go
-> 128 cœurs, 2 GPUs H200 et 6000Mo/cœur - 1 nœud octo-gpu (2025) – serveur bi-processeur Intel(R) Xeon(R) Platinum 8568Y+ @ 2.30GHz avec 2To de mémoire et 8 cartes GPUs H200-141Go
-> 96 cœurs, 8 GPUs H200 et 21333Mo/cœur
FPGA
- 4 nœuds tri-fpga (2022) – 4 serveurs bi-processeur AMD EPYC 7502 @ 2.50GHz avec 1 To de mémoire avec 3 cartes FPGA Xilinx U280
-> 64 cœurs, 3 cartes FPGA et 16000 Mo/cœur
Visualisation
- Un nœud de visualisation (2019) : Un serveur bi-processeur Intel(R) Xeon(R) Gold 6150 CPU @ 2.70GHz, 192 Go de mémoire et une carte GPU Tesla P40 (36 cœurs, 192Go de RAM et 1 GPU Tesla P40)
Hébergement
La plateforme héberge
- 8 nœuds moyens (40 cœurs et 384 Go de RAM) dans le cadre du projet ARTISTIC
- 1 nœud gpu (16 coeurs, 1 GPU Tesla T4 et 128 Go de RAM) pour le laboratoire LAMFA
- 1 nœud cpu (32 coeurs et 384 Go de RAM) pour le laboratoire LAMFA
Stockage
- /users : 512 To : Répertoires des utilisateurs, des résultats
- /scratch : 292 To : Système de fichier distribué rapide beeGFS, pour les performances/calculs en cours.
- Next Cloud Recherche : 300 To : Stockage pour les données de recherche
- Sauvegarde (600 To)
Récentes évolutions

Un fort soutien d’Amiens métropole permet une actualisation de la plateforme dont on vient de prolonger le support des matériels « critiques ». L’ajout de 24 nœuds fins, 4 nœuds épais, 1 nœud Quad GPU et 4 nœuds tri-FPGA (environ 180 TFlops) sera principalement à destination des dépositaires des projets (énergie et médical).