- Des moyens humains
- Des ressources matérielles et logicielles
- À destination d'une ou plusieurs communautés scientifiques, issus de plusieurs entités (EPST, Universités, Industriels)
- D'une même région
- Doté de sources de financement propres
- Destiné à fournir un environnement scientifique et technique propice au calcul haute performance
- Structure pilotée par un comité scientifique (plus ou moins structuré) et évaluée régulièrement
La coordination des mésocentres a pour objectifs :
- contribuer à la structuration de l'offre en calcul intensif en France (interface avec GENCI, interface avec les établissements, laboratoires) ,
- améliorer la visibilité nationale et régionale,
- pérenniser les sources de financement
- échanger et partager les expériences
- organiser en commun des journées (formation, constructeurs ...)
Si vous souhaitez mettre à jour les informations de votre mésocentre, contactez-nous.
Auvergne-Rhône-Alpes
Centre Blaise Pascal de Simulation et de Modélisation Numérique (CBPsmn)
Le CBPsmn, Centre Blaise Pascal de Simulation et de Modélisation Numérique, est le mesocentre de Calcul Haute Performance de l'ENS de Lyon qui mutualise depuis 1993 l'informatique scientifique des laboratoires de l’établissement.
Ralf Everaers
École normale supérieure de Lyon
Laboratoires utilisateurs, ERC, ANR, Contrats, ENS de Lyon, CPER et Equip@meso
Ouvert aux laboratoires dont l'ENS de Lyon est une tutelle. Ouvert aux laboratoires de la région Lyonnaise partenaires de la structure et à leurs collaborateurs extérieurs. Ouvert aux laboratoires publics y hébergeant leurs serveurs. Ouvert aux entreprises et pôles de compétitivité après convention. Demandes au fil de l'eau
Formation. Calcul scientifique. HPC. Accélérateurs de calcul. Cloud. Stockage. Hébergement
40648 cœurs
259 Tio
12.8 Pio
210 GPUs
CBP-cluster
2832 cœurs
17.3 Tio
slurm
infiniband
40.0 Gb/s
updn
HPE, Dell, Supermicro et Intel
CloudCBP
3240 cœurs
33.7 Tio
162 GPUs
ethernet
1.0 Gb/s
HPE, Dell, Bull, 2CRSI, Supermicro, AMD, NVIDIA et Intel
meso-psmn-cirrus
2640 cœurs
14.6 Tio
openstack
ethernet
1.0 Gb/s
Dell, Intel, AMD et Lenovo
PSMN-E5
1664 cœurs
19.2 Tio
slurm
infiniband
56.0 Gb/s
fat tree
Dell
PSMN-E5-GPU
192 cœurs
3.07 Tio
48 GPUs
slurm
infiniband
56.0 Gb/s
fat tree
Dell et NVIDIA
PSMN-Lake
11872 cœurs
97.9 Tio
slurm
infiniband
56.0 Gb/s
fat tree
HPE et Dell
PSMN-Epyc
1792 cœurs
7.17 Tio
slurm
infiniband
100.0 Gb/s
updn
Dell
PSMN-Cascade
16416 cœurs
65.7 Tio
slurm
infiniband
100.0 Gb/s
fat tree
Intel
PSMN homes & projects data
home
NFS
9.7 Pio
CBP homes
home
NFS
8 Tio
GRICAD
GRICAD est une Unité Mixte de Service ayant comme tutelles le CNRS, l'UGA, G-INP et INRIA et qui a pour mission de fournir aux communautés scientifiques de Grenoble des infrastructures scientifiques autour du calcul et de la donnée ainsi qu'un accompagnement de haut niveau sur ces thématiques.
Violaine Louvet
CNRS, Université Grenoble Alpes, Grenoble INP et INRIA
Ouvert aux communautés scientifiques grenobloises et à leurs collaborateurs extérieurs. Ouverture sous conditions aux entreprises. Demandes au fil de l'eau
Conseils et accompagnement. Calcul Intensif. Grille de calcul. Cloud. Notebooks. Stockage. Gitlab. Gestion, design et ingénierie de la donnée. Formation. Production audiovisuelle. Hébergement
7740 cœurs
9.69 Pio
dahu
3192 cœurs
oar
omni-path
100.0 Gb/s
Dell
Luke
1004 cœurs
oar
ethernet
10.0 Gb/s
Dell
Bigfoot
96 cœurs
oar
omni-path
100.0 Gb/s
Dell
Froggy
3236 cœurs
oar
infiniband
40.0 Gb/s
Atos
Nova
212 cœurs
openstack
ethernet
10.0 Gb/s
Dell
Bettik
scratch
BeeGFS
1.28 Pio
Mantis
data
iRODS
1.68 Pio
SUMMER
data
NFS
6.6 Pio
Grid'5000 - Grenoble
Grid'5000 est une infrastructure distribuée pour la recherche expérimentale dans tous les domaines de l'informatique, et en particulier pour le Cloud, le HPC, l'IA et le Big Data.
Voir https://www.grid5000.fr/.
Olivier Richard
CNRS, Inria et Université Grenoble Alpes
Ouvert à la communauté de recherche en informatique, en particulier dans les domaines du Cloud, du HPC de l'IA et du Big Data. Ouvert aux chercheurs et ingénieurs d'autres domaines scientifiques pour des travaux requiérant les services spécifiques offerts par Grid'5000. Ouvert aux entreprises moyennant paiement à l'usage
Infrastructure hautement reconfigurable et contrôlable: déploiement bare-metal d'images systèmes, accès root sur les noeuds, reconfiguration réseau pour l'isolation. Système de monitoring pour diverses métriques (en particulier pour la consommation énergétique). Description très complète et traçabilité du matériel, pour une recherche reproductible
1408 cœurs
10.8 Tio
202 Tio
Grid'5000 - Lyon
Grid'5000 est une infrastructure distribuée pour la recherche expérimentale dans tous les domaines de l'informatique, et en particulier pour le Cloud, le HPC, l'IA et le Big Data.
Voir https://www.grid5000.fr/.
Laurent Lefevre
CNRS, Inria et ENS Lyon
Ouvert à la communauté de recherche en informatique, en particulier dans les domaines du Cloud, du HPC de l'IA et du Big Data. Ouvert aux chercheurs et ingénieurs d'autres domaines scientifiques pour des travaux requiérant les services spécifiques offerts par Grid'5000. Ouvert aux entreprises moyennant paiement à l'usage
Infrastructure hautement reconfigurable et contrôlable: déploiement bare-metal d'images systèmes, accès root sur les noeuds, reconfiguration réseau pour l'isolation. Système de monitoring pour diverses métriques (en particulier pour la consommation énergétique). Description très complète et traçabilité du matériel, pour une recherche reproductible
1010 cœurs
4.27 Tio
151 Tio
20 GPUs
sagittaire
42 cœurs
42 Gio
oar
ethernet
1.0 Gb/s
Sun Microsystems
nova
368 cœurs
1.47 Tio
oar
ethernet
10.0 Gb/s
Dell
pyxis
256 cœurs
1.02 Tio
oar
infiniband
100.0 Gb/s
GIGABYTE
taurus
168 cœurs
448 Gio
oar
ethernet
10.0 Gb/s
Dell
orion
48 cœurs
128 Gio
4 GPUs
oar
ethernet
10.0 Gb/s
Dell
gemini
80 cœurs
1.02 Tio
16 GPUs
oar
infiniband
100.0 Gb/s
NVIDIA
hercule
48 cœurs
128 Gio
oar
ethernet
10.0 Gb/s
Dell
homes
home
NFS
14 Tio
storage1
data
NFS
75 Tio
MUST
MUST est un mésocentre de calcul mutualisé entre le CNRS et l’Université Savoie Mont Blanc.
Il se destine au calcul scientifique dans les domaines de la physique des particules, de l’astrophysique mais également dans de nombreux autres domaines de recherche. Piloté par une équipe d’experts informatiques, il dispose d’une salle de 170m2 renfermant plus de 7200 processeurs dédiés et 7 pétaoctets de stockage. MUST est un nœud 'Tier2' de la Grille de calcul mondiale pour le traitement et l’archivage des données du collisionneur LHC du CERN (WLCG). Via la grille européenne (EGI), MUST fournit également ses ressources à d’autres expériences internationales dont des expériences d’astroparticules comme CTA et LSST. Les utilisateurs locaux exploitent ses capacités pour diverses applications : physique théorique, sciences des matériaux, sciences de la terre, informatique, intelligence artificielle… Enfin, MUST se propose d’accompagner les entreprises dans leur transition numérique à travers le projet IDEFICS.
Stephane Jezequel
CNRS/IN2P3 et Université Savoie Mont Blanc
7280 cœurs
22.8 Tio
7 Pio
24 GPUs
Mésocentre Clermont Auvergne
Ressources de calcul mutualisées des laboratoires Université Clermont Auvergne & Associés (UC2A).
Antoine Mahul
Université Clermont Auvergne
Université Clermont Auvergne, Région Auvergne Rhône-Alpes, CPER et FEDER
Ouvert aux membres des laboratoires Université Clermont Auvergne UC2A et collaborations
Cluster Slurm. Calculateur SMP. Cloud Openstack. Plateforme bioinformatique Galaxy
2352 cœurs
500 Tio
PMCS2I
Le PMCS2I, Pôle de Modélisation et de Calcul en Sciences de l'Ingénieur et de l'Information, mutualise les moyens de calcul des différentes UMR du Campus de l'École Centrale de Lyon.
Cett infrastructure opère environ 150 serveurs, représentant environ 3500 coeurs avec, des machines GPU et environ 1.5 Po de stockage.
Laurent Pouilloux, Fabien Godeferd
École Centrale de Lyon
Ouvert aux laboratoires dont l'École Centrale de Lyon est une tutelle. Demandes au fil de l'eau
Calcul scientifique. HPC. Accélérateurs de calcul. Stockage
3480 cœurs
27.4 Tio
142 Tio
6 GPUs
cascade
1712 cœurs
14.6 Tio
6 GPUs
slurm
infiniband
100.0 Gb/s
fat tree
Dell
skylake
640 cœurs
4.99 Tio
slurm
infiniband
100.0 Gb/s
fat tree
Dell
haswell
1128 cœurs
7.85 Tio
slurm
infiniband
40.0 Gb/s
fat tree
Dell
Bourgogne-Franche-Comté
MesoFC
Le mésocentre de calcul de Franche-Comté (MésoFC) est un service de l'université de Franche crée en 2009 en partenariat avec l'Université Technologique de Belfort-Montbéliard et l'École Supérieure Nationale de Mécanique et des Micro-techniques.
Il a pour objectif de mettre à disposition des laboratoires de recherche et des entreprises de Franche-Comté une plateforme technologique de qualité et un lieu d’échange d’expériences et de compétences dans le domaine du calcul intensif et IA.
Kamel MAZOUZI, Fabien PICAUD
Université de Franche-Comté
Ouvert aux chercheurs des établissements publics franc-comtois. Ouvert aux entreprises locales pour leurs travaux de R&D
Calcul scientifique. HPC. IA. Conseils et accompagnement. Formation
3000 cœurs
12.3 Tio
500 Tio
25 GPUs
Bretagne
Grid'5000 - Rennes
Grid'5000 est une infrastructure distribuée pour la recherche expérimentale dans tous les domaines de l'informatique, et en particulier pour le Cloud, le HPC, l'IA et le Big Data.
Voir https://www.grid5000.fr/.
Anne-Cécile Orgerie
CNRS, Inria et Université Rennes 1
Ouvert à la communauté de recherche en informatique, en particulier dans les domaines du Cloud, du HPC de l'IA et du Big Data. Ouvert aux chercheurs et ingénieurs d'autres domaines scientifiques pour des travaux requiérant les services spécifiques offerts par Grid'5000. Ouvert aux entreprises moyennant paiement à l'usage
Infrastructure hautement reconfigurable et contrôlable: déploiement bare-metal d'images systèmes, accès root sur les noeuds, reconfiguration réseau pour l'isolation. Système de monitoring pour diverses métriques (en particulier pour la consommation énergétique). Description très complète et traçabilité du matériel, pour une recherche reproductible
2280 cœurs
15 Tio
303 Tio
parasilo
448 cœurs
3.58 Tio
oar
ethernet
10.0 Gb/s
Dell
parapide
136 cœurs
408 Gio
oar
infiniband
20.0 Gb/s
Sun Microsystems
parapluie
384 cœurs
768 Gio
oar
infiniband
20.0 Gb/s
HPE
paravance
1152 cœurs
9.22 Tio
oar
ethernet
10.0 Gb/s
Dell
paranoia
160 cœurs
1.02 Tio
oar
ethernet
10.0 Gb/s
Dell
homes
home
NFS
10 Tio
storage1
data
NFS
100 Tio
Centre-Val de Loire
Etranger
Grid'5000 - Luxembourg
Grid'5000 est une infrastructure distribuée pour la recherche expérimentale dans tous les domaines de l'informatique, et en particulier pour le Cloud, le HPC, l'IA et le Big Data.
Voir https://www.grid5000.fr/.
Sébastien Varrette
Université du Luxembourg
Ouvert à la communauté de recherche en informatique, en particulier dans les domaines du Cloud, du HPC de l'IA et du Big Data. Ouvert aux chercheurs et ingénieurs d'autres domaines scientifiques pour des travaux requiérant les services spécifiques offerts par Grid'5000. Ouvert aux entreprises moyennant paiement à l'usage
Infrastructure hautement reconfigurable et contrôlable: déploiement bare-metal d'images systèmes, accès root sur les noeuds, reconfiguration réseau pour l'isolation. Système de monitoring pour diverses métriques (en particulier pour la consommation énergétique). Description très complète et traçabilité du matériel, pour une recherche reproductible
180 cœurs
480 Gio
53.5 Tio
Grand Est
CAIUS (Cluster de cAlcul Intensif à l'Université de Strasbourg)
Le Centre de Calcul de l'Université de Strasbourg (CCUS) s'adresse à la communauté du site Alsace et offre un accès à des moyens de calcul propres ou mutualisés, hébergés dans le datacentre Tier 3 du campus central de Strasbourg.
Un accompagnement est proposé pour l'utilisation de base du cluster, l'utilisation des 250 logiciels au catalogue ou encore l'installation et/ou l'optimisation de nouveaux logiciels. Le centre propose également la prise en charge des moyens de calcul achetés par les laboratoires, du devis à la mise en service dans le cluster (la moitié des 580 serveurs de calcul début 2024).
David BRUSSON, Michel RINGENBACH
Université de Strasbourg
Ouvert à la communauté du site Alsace : Université de Strasbourg, université de Haute Alsace (Mulhouse) et CNRS. Accès par défaut et de droit à l'ensemble des ressources en mode non prioritaire. Accès privilégié à des partitions dédiées via un appel à projet annuel. Accès privilégié à des partitions financées par les laboratoires (opérations de mutualisation)
Calcul scientifique. AI. Big Data
14260 cœurs
89 Tio
2.52 Pio
280 GPUs
Explor
Le mésocentre EXPLOR est l’outil de calcul mutualisé de l’Université de Lorraine.
Son objectif principal est de fédérer les moyens techniques et humains nécessaires à l’accompagnement de la recherche dans tous les domaines impliquant les besoins en calcul intensif. La maison de la simulation Lorraine organise des formations et des animations scientifiques dans le domaine du calcul scientifique telles que la prise en main d’un système de calcul parallèle et l’optimisation des codes de calcul. Le mésocentre fournit également des services aux entreprises.
Contact
Université de Lorraine, CNRS et INRIA Grand Est
Région Grand Est, Pacte Lorraine, FEDER et Laboratoires
7416 cœurs
37.7 Tio
1.4 Pio
41 GPUs
explor
7416 cœurs
37.7 Tio
41 GPUs
slurm
omni-path
100.0 Gb/s
fat tree
Grid'5000 - Nancy
Grid'5000 est une infrastructure distribuée pour la recherche expérimentale dans tous les domaines de l'informatique, et en particulier pour le Cloud, le HPC, l'IA et le Big Data.
Voir https://www.grid5000.fr/.
Lucas Nussbaum
CNRS, Inria et Université de Lorraine
Ouvert à la communauté de recherche en informatique, en particulier dans les domaines du Cloud, du HPC de l'IA et du Big Data. Ouvert aux chercheurs et ingénieurs d'autres domaines scientifiques pour des travaux requiérant les services spécifiques offerts par Grid'5000. Ouvert aux entreprises moyennant paiement à l'usage
Infrastructure hautement reconfigurable et contrôlable: déploiement bare-metal d'images systèmes, accès root sur les noeuds, reconfiguration réseau pour l'isolation. Système de monitoring pour diverses métriques (en particulier pour la consommation énergétique). Description très complète et traçabilité du matériel, pour une recherche reproductible
7784 cœurs
44.2 Tio
986 Tio
124 GPUs
grimani
72 cœurs
384 Gio
12 GPUs
oar
omni-path
100.0 Gb/s
Dell
graffiti
208 cœurs
1.66 Tio
52 GPUs
oar
ethernet
10.0 Gb/s
Dell
grappe
640 cœurs
1.54 Tio
oar
ethernet
25.0 Gb/s
Dell
grue
160 cœurs
640 Gio
20 GPUs
oar
ethernet
10.0 Gb/s
Dell
grvingt
2048 cœurs
12.3 Tio
oar
omni-path
100.0 Gb/s
Dell
gros
2232 cœurs
11.9 Tio
oar
ethernet
25.0 Gb/s
Dell
grimoire
128 cœurs
1.02 Tio
oar
infiniband
56.0 Gb/s
Dell
grele
336 cœurs
1.79 Tio
28 GPUs
oar
omni-path
100.0 Gb/s
Dell
graphique
72 cœurs
384 Gio
12 GPUs
oar
infiniband
56.0 Gb/s
Dell
graphite
64 cœurs
1.02 Tio
oar
infiniband
56.0 Gb/s
Dell
grisou
816 cœurs
6.53 Tio
oar
ethernet
10.0 Gb/s
Dell
graoully
256 cœurs
2.05 Tio
oar
infiniband
56.0 Gb/s
Dell
grcinq
752 cœurs
3.01 Tio
oar
infiniband
56.0 Gb/s
Dell
homes
home
NFS
91 Tio
talc-data
data
NFS
187 Tio
talc-data2
data
NFS
200 Tio
ROMEO
Le Centre de Calcul Régional ROMEO est une plateforme technologique de l’Université de Reims Champagne-Ardenne depuis 2002.
Son rôle est de mettre à disposition des industriels et chercheurs de la région des ressources de calcul performantes, des espaces de stockage sécurisés, des logiciels adaptés, un accompagnement dans l’utilisation de ces outils ainsi qu’une expertise sur des domaines scientifiques et techniques avancés, le calcul à haute performance, les mathématiques appliquées, la physique, la biophysique et la chimie. Recherche, Innovation et Formation sont inscrits dans l’ADN du centre de calcul régional ROMEO. L’université de Reims Champagne-Ardenne classe ainsi pour la deuxième fois son supercalculateur parmi les tous premiers mondiaux : 249ème au TOP500 et 20ème au GREEN500, deux classements prestigieux annoncés lors de la conférence ISC (International Supercomputing Conference) en juin 2018, à Francfort. Structure de recherche et de service, ROMEO est idéntifié comme Unité de recherche au RNSR (Répertoire national des structures de recherche) sous le numéro 201923174L sour la direction de Arnaud RENARD Phd. Au fil des années, l’Université de Reims Champagne-Ardenne a su tisser des liens forts, au niveau national et international, lui permettant de devenir un acteur majeur de la simulation numérique en France : ce supercalculateur est le fruit de l’expérience acquise en partenariat avec le CEA DAM (Direction des Applications Militaires) ainsi qu’avec GENCI (Grand Equipement National de Calcul Intensif) dans le cadre des projets d’investissement d’avenir notamment. Financé à hauteur de 6,5 millions d'euros par la Région Grand-Est, le Grand-Reims, les fonds européen FEDER, le CPER et l'URCA, le supercalculateur ROMEO est hébergé par l'URCA, membre du consortium des mésocentres français Equip@meso et de la plateforme européenne ETP4HPC.
Arnaud RENARD
URCA (Université de Reims Champagne-Ardenne)
Ouvert aux projets dont les responsables dépendent de l'URCA. Ouvert aux projets dont les responsables dépendent d'un établissement public d'ESR en Grand-Est sur projet scientifique. Ouvert aux projets dont les responsables dépendent d'un établissement public d'ESR extérieur dans le cadre de collaboration scientifique stratégique. Ouvert aux PME ou ETI innovantes après signature d'un contrat à durée limitée
Calcul scientifique. AI. Service aux entreprises. Big Data
30000 cœurs
15.6 Tio
2 Pio
288 GPUs
romeo
3276 cœurs
15.6 Tio
288 GPUs
slurm
bxi
200.0 Gb/s
fat tree
Atos
Guadeloupe
Centre Commun de Calcul Intensif (C3I)
Créé en 2002, le Centre commun de calcul intensif est une Fédération de recherche (FED) de l’UAG depuis 2010 et reconnue en qualité d’agence de moyens du CNRS.
Sa vocation est de fournir aux utilisateurs les ressources nécessaires au développement de projets de recherche utilisant le calcul intensif. Ainsi en son sein, s’articule une activité partagée entre une administration (gestion quotidienne et investissement) des ressources, des actions de formation (aux utilisateurs et à son personnel technique) ainsi que des actions de valorisation. Le personnel technique du C3I a donc la mission d’administrer les systèmes d’exploitation, assister les utilisateurs, aider au développement d’applications et au portage de codes de calcul scientifiques.
Raphaël Pasquier
Université des Antilles
Laboratoires utilisateurs, Contrats, Contrat Plan Etat Région 2014-2020 de la Guadeloupe et FEDER
Ouvert aux laboratoires de l'Université des Antilles. INRAE de Guadeloupe. Institut Pasteur de Guadeloupe. CIRAD. Météorologie Nationale. Port Autonome de la Guadeloupe
Calcul scientifique. HPC
1008 cœurs
7.49 Tio
186 Tio
7 GPUs
exocet
1044 cœurs
7.49 Tio
7 GPUs
slurm
infiniband
100.0 Gb/s
fat tree
Lenovo
Hauts-de-France
Grid'5000 - Lille
Grid'5000 est une infrastructure distribuée pour la recherche expérimentale dans tous les domaines de l'informatique, et en particulier pour le Cloud, le HPC, l'IA et le Big Data.
Voir https://www.grid5000.fr/.
Nouredine Melab
CNRS, Inria et Université de Lille
Ouvert à la communauté de recherche en informatique, en particulier dans les domaines du Cloud, du HPC de l'IA et du Big Data. Ouvert aux chercheurs et ingénieurs d'autres domaines scientifiques pour des travaux requiérant les services spécifiques offerts par Grid'5000. Ouvert aux entreprises moyennant paiement à l'usage
Infrastructure hautement reconfigurable et contrôlable: déploiement bare-metal d'images systèmes, accès root sur les noeuds, reconfiguration réseau pour l'isolation. Système de monitoring pour diverses métriques (en particulier pour la consommation énergétique). Description très complète et traçabilité du matériel, pour une recherche reproductible
972 cœurs
12.5 Tio
443 Tio
32 GPUs
chifflet
224 cœurs
6.14 Tio
16 GPUs
oar
ethernet
10.0 Gb/s
Dell
chifflot
192 cœurs
1.54 Tio
16 GPUs
oar
ethernet
25.0 Gb/s
Dell
chetemi
300 cœurs
3.84 Tio
oar
ethernet
10.0 Gb/s
Dell
chiclet
256 cœurs
1.02 Tio
oar
ethernet
25.0 Gb/s
Dell
homes
home
NFS
6 Tio
storage1
data
NFS
90 Tio
storage2
data
NFS
90 Tio
MatriCS
Le Centre de Calcul Régional MatriCS est une plateforme pluridisciplinaire de calculs de l'Université de Picardie Jules Verne depuis 2017.
Le but est de mettre au service de la recherche et du monde socio-économique un lieu de ressources en sciences du numérique, proposant de la numérisation 3D (monuments, terrains, etc.), du calcul haute performance, un stockage de données, de la visualisation/restitution des résultats de la numérisation et des calculs et former, en présentiel ou en ligne, les étudiants et personnels de l’UPJV et les industriels, à l’utilisation des équipements et logiciels de la plateforme. La plateforme est hébergée au MIPIH, un centre de données labellisé Hébergeur de données de santé. Afin de parfaire sa mission, la plateforme met à disposition des chercheurs de l'UPJV une caméra plénoptique Raytrix, des scanners 3D et 3 robots humanoïdes Pepper. Elle a été financée à hauteur de 1.800.000 € en 2017 par le FEDER et le conseil régional Hauts de France puis consolidée, soutenu de 900.000€ par Amiens Métropole en 2022. La plateforme dispose également de serveurs de calcul FPGA.
Jean-Baptiste Hoock et Laurent Renault
UPJV (Université de Picardie Jules Verne)
Ouvert aux chercheurs des laboratoires et plateformes de l'UPJV voir aux chercheurs externes avec lesquelles un utilisateur enregistré confirme être en collaboration dans le cad 'un projet mixte auquel participe l'UPJV
Calcul scientifique. IA
4432 cœurs
34.8 Tio
2.3 Pio
37 GPUs
Mésocentre de Lille
Le Mésocentre de calcul porté par l'Université de Lille, est en charge de fournir à la communauté scientifique de la région Hauts-de-France des moyens matériels, logiciels et humains.
Il met à disposition des infrastructures de calcul haute performance (HPC) ainsi qu'une expertise dans le domaine du calcul scientifique depuis l'année 2000.
Matthieu Marquillie
Université de Lille
Ouvert aux chercheurs des établissements publics de la région Hauts-de-France
Cluster hybride. Cloud OpenStack. Stockage de données scientifiques
8076 cœurs
61 Tio
7.14 Pio
5 GPUs
Normandie
Criann
Le CRIANN depuis 1991 a un statut d'association regroupant différents établissements publics normands des domaines de l’enseignement supérieur, de l’éducation et de la santé.
Outre son rôle de pilotage du réseau régional, il est le mésocentre de calcul intensif pour les établissements de Normandie Université.
Marie-Sophie Cabot
Centre Régional Informatique et d'Applications Numériques de Normandie
Equip@meso, Région Normandie, Etat Français et Union Européenne
Ouvert aux chercheurs des établissements publics normands par appels à projet bi-annuels. Ouvert aux entreprises pour leurs travaux de R&D en mode paiement à l'usage
Calcul intensif. Maison Normande des Sciences du Numérique
11280 cœurs
54.2 Tio
3.53 Pio
60 GPUs
Myria
11280 cœurs
54.2 Tio
60 GPUs
slurm
omni-path
100.0 Gb/s
fat tree
Atos
Nouvelle-Aquitaine
Luc Mieussens
Université de Bordeaux
Région Nouvelle Aquitaine et Université de Bordeaux
Ouvert aux membres d'un institut ou laboratoire de recherche public en Nouvelle Aquitaine. Ouvert au personnes avec lesquelles un utilisateur enregistré confirme être en collaboration
12160 cœurs
48.8 Tio
760 Tio
16 GPUs
Occitanie
Calmip
Créé en 1994, le mésocentre est devenu une Unité Mixte de Service du CNRS (UMS CNRS 3667) en 2014.
Au coeur du site Toulouse Aerospace, CALMIP est hébergé à l’Espace Clément Ader, dans une salle de calcul spécialisée qu’il partage avec Météo-France. Il bénéficie ainsi d’un environnement technologique de premier plan : sécurisation des accès et de l’alimentation électrique, réseau de récupération de chaleur. Dans l’optique de toujours rester compétitif et de proposer un service HPC de qualité, CALMIP renouvelle son calculateur tous les 5 ans environ. Depuis septembre 2018, le supercalculateur baptisé Olympe, d’une puissance de 1,365Pflops/s Peak est en production. Au quotidien, une équipe de 7 ingénieurs assure l’exploitation du calculateur et le support technique et scientifique aux utilisateurs. Fortement ancré au sein de la communauté académique, CALMIP apporte l’accompagnement et la puissance de calcul nécessaires à des chercheurs issus d’horizons très variés : matériaux, mécanique des fluides, sciences de l’univers, chimie . CALMIP participe également à l'animation scientifique et technique avec les référents calcul des différents laboratoires.
Jean-Luc Estivalèzes
INP (Institut National Polytechnique de Toulouse), CNRS Occitanie Ouest (Centre National de la Recherche Scientifique), UT (Université de Toulouse), UPS (Université Paul Sabatier), ISAE (Institut Supérieur de l'Aéronautique et de l'Espace) et INSA de Toulouse (Institut National des Sciences Appliquées de Toulouse
Equip@meso, Région Occitanie, Etat (contrat de plan Etat-Region) et Toulouse-Métropole
Ouvert aux projets dont les responsables dépendent d'un établissement public d'ESR en Occitanie par appels à projet biannuels. Ouvert aux PME ou ETI innovantes après signature d'un contrat à durée limitée
Calcul scientifique. Partage FAIR de données scientifiques
13464 cœurs
76.7 Tio
4.5 Pio
48 GPUs
Olympe
13464 cœurs
76.7 Tio
48 GPUs
slurm
infiniband
100.0 Gb/s
fat tree
Atos
GenoToul-bioinfo
La plateforme GenoToul Bioinfo offre un accès à des ressources de calcul de haute performance, à de l'analyse de données et à de l'expertise en programmation.
Son personnel permanent possède de nombreuses années d'expérience dans le soutien de programmes scientifiques (développement de logiciels, analyse de données et formation) en biologie et en bioinformatique. Les principaux axes de développement et de soutien scientifique comprennent le traitement des données de séquençage à haut débit (contrôle de qualité, assemblages de novo du (meta)génome et du transcriptome, découverte de variations, analyse de la diversité,.) et l'analyse de l'ARN non codant. Les ressources comprennent une infrastructure informatique de haute performance pour le stockage et le calcul à grande échelle, d'importantes banques de données généralistes et spécialisées, ainsi que des logiciels libres. Les services comprennent l'organisation de sessions de formation, l'hébergement de sites web et de machines virtuelles, l'expertise et le soutien scientifique à des programmes en biologie et en bioinformatique. La plate-forme bioinformatique GenoToul Bioinfo est une plate-forme membre de l'infrastructure nationale de recherche IFB (Institut Français de Bioinformatique) et une plate-forme associée de l'infrastructure nationale de recherche France Génomique. Au niveau régional, GenoToul Bioinfo fait partie de la plateforme GenoToul (réseau de plateformes de la région toulousaine). Genotoul Bioinfo est reconnue comme plateforme nationale stratégique par IBISA (Infrastructure en Biologie Santé et Agronomie). Elle est l'une des plateformes nationales stratégiques de l'INRAE (labellisée ISC et membre de l'IR Bioinfomics). Il est certifié ISO9001 depuis 2010 et NFX50-900 depuis 2016.
Claire Hoede, Matthias Zytnicki
INRAE
INRAE, CPER, FEDER, ANR, PIA, Equipex+ et utilisateurs
Notre infrastructure est dédiée à la bioinformatique française. Pour demander un compte, il suffit de remplir ce formulaire : https://bioinfo.genotoul.fr/index.php/ask-for/create-an-account-2/. Pour les entreprises privées, l'accés est limité à un mois et à 500 heures CPU, pour le prolonger, il sera nécessaire de payer pour le calcul et le stockage
Fournir une infrastructure de calcul et de stockage environnée pour la bioinformatique
5000 cœurs
83 Tio
5.5 Pio
4 GPUs
Pays de la Loire
GLiCID
GLiCID est une Unité d'appui à la Recherche créée en Mars 2022 ayant comme tutelles les Universités d'Angers, du Mans, Nantes et l'École Centrale Nantes.
Elle a pour mission de fournir aux communautés scientifiques des Pays de la Loire, leurs collaborateurs et les entreprises de la région des infrastructures scientifiques autour du calcul et de la donnée ainsi qu'un accompagnement de haut niveau sur ces thématiques.
Yann Capdeville
Université d'Angers, École Centrale Nantes, Le Mans Université et Nantes Université
Ouvert aux communautés scientiques des Laboratoires des tutelles et leurs collaborateurs extérieurs. Ouvert aux communautés scientiques hors tutelles sous conditions. Ouverture sous conditions aux entreprises. Demandes au fil de l'eau
Conseils et accompagnement. Calcul Intensif. Cloud. Notebooks. Stockage. Formation
15360 cœurs
93.3 Tio
5.3 Pio
76 GPUs
Nautilus
5376 cœurs
27.6 Tio
24 GPUs
slurm
infiniband
100.0 Gb/s
Eviden
Phileas
3072 cœurs
11.7 Tio
slurm
infiniband
100.0 Gb/s
Eviden
Waves
6712 cœurs
46.3 Tio
52 GPUs
slurm
ethernet
100.0 Gb/s
ClusterVision, Dell et HPE
BiRD
1116 cœurs
7.68 Tio
slurm
infiniband
100.0 Gb/s
Dell et HPE
LabDATA
data
CEPH
4 Pio
scratch-Nautilus
scratch
Spectrum Scale
450 Tio
scratch-Waves
scratch
CEPH
128 Tio
scratch-BeeGFS
scratch
BeeGFS
438 Tio
Grid'5000 - Nantes
Grid'5000 est une infrastructure distribuée pour la recherche expérimentale dans tous les domaines de l'informatique, et en particulier pour le Cloud, le HPC, l'IA et le Big Data.
Voir https://www.grid5000.fr/.
Adrien Lèbre
Inria et Université de Lorraine
Ouvert à la communauté de recherche en informatique, en particulier dans les domaines du Cloud, du HPC de l'IA et du Big Data. Ouvert aux chercheurs et ingénieurs d'autres domaines scientifiques pour des travaux requiérant les services spécifiques offerts par Grid'5000. Ouvert aux entreprises moyennant paiement à l'usage
Infrastructure hautement reconfigurable et contrôlable: déploiement bare-metal d'images systèmes, accès root sur les noeuds, reconfiguration réseau pour l'isolation. Système de monitoring pour diverses métriques (en particulier pour la consommation énergétique). Description très complète et traçabilité du matériel, pour une recherche reproductible
1312 cœurs
7.55 Tio
68.3 Tio
Provence-Alpes-Côte d'Azur
CCIAM
Le mésocentre d’Aix-Marseille Université a été créé en 2012, dotant l’établissement d’un outil de calcul performant.
Son inauguration, en mai 2013, l’a positionné comme un environnement stimulant et un lieu d’échange destiné à fédérer les moyens techniques et humains nécessaires à l’accompagnement de la recherche dans tous les domaines impliquant calcul intensif ou parallèle. Ses principales missions sont : apporter une assistance au développement et à l’amélioration de codes afin d’être utilisables sur les grands centres nationaux ou internationaux ; fournir une plate-forme de production viable pour dépasser le cadre d’emploi de machines de calcul de laboratoires dépassées ou limitées par le budget ; fédérer les ressources de calcul régionales pour limiter les coûts liés à l’infrastructure d’hébergement et de refroidissement ; promouvoir le calcul scientifique au sein des PME.
Nicolas Ferré
AMU (Aix-Marseille Université)
Equip@meso, Aix-Marseille Université, Aix-Marseille Initiative d'EXcellence, Région Sud, Département Bouches-du-Rhône, Etat (contrat de plan Etat-Region) et Fond Européen de Développement Régional
Ouvert aux projets dont les responsables dépendent d'un établissement public d'ESR par appel à projet permanent. Ouvert aux PME ou ETI innovantes après signature d'un contrat à durée limitée
Calcul scientifique: HPC, grille, cloud, stockage
6908 cœurs
43.2 Tio
1.25 Pio
66 GPUs
Rheticus-skylake
5632 cœurs
38.5 Tio
53 GPUs
slurm
omni-path
100.0 Gb/s
fat tree
Dell
Rheticus-westmere
1276 cœurs
4.71 Tio
13 GPUs
slurm
infiniband
40.0 Gb/s
fat tree
Dell
Grid'5000 - Sophia
Grid'5000 est une infrastructure distribuée pour la recherche expérimentale dans tous les domaines de l'informatique, et en particulier pour le Cloud, le HPC, l'IA et le Big Data.
Voir https://www.grid5000.fr/.
Fabrice Huet
CNRS, Inria et Université Côte d'Azur
Ouvert à la communauté de recherche en informatique, en particulier dans les domaines du Cloud, du HPC de l'IA et du Big Data. Ouvert aux chercheurs et ingénieurs d'autres domaines scientifiques pour des travaux requiérant les services spécifiques offerts par Grid'5000. Ouvert aux entreprises moyennant paiement à l'usage
Infrastructure hautement reconfigurable et contrôlable: déploiement bare-metal d'images systèmes, accès root sur les noeuds, reconfiguration réseau pour l'isolation. Système de monitoring pour diverses métriques (en particulier pour la consommation énergétique). Description très complète et traçabilité du matériel, pour une recherche reproductible
516 cœurs
4.13 Tio
80.9 Tio
Île-de-France
Yann Costes
CY Cergy Paris Université
CY Cergy Paris Université
Ouvert aux membres d'un laboratoire rattaché à CYU. Demandes au fil de l'eau
1138 cœurs
11.7 Tio
222 Tio
1138 cœurs
11.7 Tio
grid engine
infiniband
100.0 Gb/s
fat tree
Dell
DataCenter@UPSud
Le mesocentre DataCenter@UPSud Met à disposition un ensemble de ressources informatiques et de logiciels dédiés à l’informatique scientifique, Aide à leur utilisation, Contribue à la mutualisation des expertises; Réalise des expérimentations des nouvelles technologies informatiques liées aux sciences.
Michel Jouvin, Marco Leoni
Université Paris Saclay
DataCenter@UPSud est destiné en priorité aux utilisateurs de Paris Saclay
Formation. Logiciel. Cloud. Platforme Spark. Stockage. Hébergement
4500 cœurs
9 Tio
500 Tio
Idcs
L'IDCS (Infrastructure Données Calcul Scientifique) est une unité propre de service de l'Ecole Polytechnique.
Créée en 2020, l'unité concerne dans un premier temps les 4 laboratoires à tutelle CNRS/Ecole Polytechnique : CMAP,CMLS,CPHT et LPP. A long terme, les laboratoires de l'ensemble des partenaires de l'Institut Polytechnique de Paris pourront être associé dans la mesure où ces unités contribueront aux moyens humains de l'unité et au financement des infrastructures. Depuis fin 2020, le cluster baptisé Cholesky, d'une puissance crête de 500 Tflops est en production. Au quotidien, une équipe de 8 ingénieurs (3 ETPT) composant le comité technique assure l'exploitation, le support technique et scientifique aux utilisateurs provenant de différents domaines : mathématiques, mécanique des fluides, matériaux et plasmas. Des animations scientifiques sont aussi organisés par les référents calculs des laboratoires participants. Le comité de pilotage composé de la cellule technique et des directeurs d'unité des laboratoires participants donnent les orientations et définit les différentes stratégies du mésocentre .
Roch Smets
CNRS Ile-de-France Gif-sur-Yvette (Centre National de la Recherche Scientifique) et X (Ecole Polytechnique)
CNRS et Ecole Polytechnique,
Ouvert aux projets dont les responsables dépendent de l'Institut Polytechnique de Paris par demandes au fil de l'eau. Ouvert aux établissements situés sur le Plateau de Saclay par demandes au fil de l'eau et signature d'une convention bipartite
HPC. Intelligence Artificielle. Jupyter Cloud. Réseaux. Animations scientifiques
6613 cœurs
40 Tio
485 Tio
16 GPUs
Cholesky
6613 cœurs
40 Tio
16 GPUs
slurm
infiniband
100.0 Gb/s
fat tree
Dell
Nicolas BENOIT
Sorbonne-Université
PIA Équipement d’Excellence Equip@meso, SESAME RefICS Région Ile de France, PIA laboratoire d’excellence Calsimlab, Projet Opérationnel “Compétitivité régionale et emploi” FEDER, Programme SATS-SU ICS@SU et Budget investissement plateforme Sorbonne-Université
Ouvert aux membres de Sorbonne-Université, aux structures de recherche publiques et aux entreprises ; inscription sur formulaire soumise à approbation par le responsable de la plateforme
4504 cœurs
34.9 Tio
280 Tio
2 GPUs
mesu
4504 cœurs
34.9 Tio
2 GPUs
pbs
infiniband
56.0 Gb/s
hypercube
SGI
Jacques Laskar
Observatoire de Paris, École Normale Supérieure et Université PSL
Equip@meso, Région Ile de France, Observatoire de Paris et INSU
Ouvert aux membres d'un institut ou laboratoire rattaché à PSL. Demandes au fil de l'eau
5432 cœurs
26.3 Tio
430 Tio
1 GPUs
S-CAPAD
Service de Calcul Parallèle et de Traitement de Données en sciences de la terre.
Service de Calcul Parallèle et de Traitement de Données en sciences de la terre
Geneviève Moguilny
IPGP
IPGP et Région Île de France
HPC
7168 cœurs
18.3 Tio
913 Tio
12 GPUs