Suivez

la liste

Un mésocentre, c'est quoi ?

  • Des moyens humains
  • Des ressources matérielles et logicielles
  • À destination d'une ou plusieurs communautés scientifiques, issus de plusieurs entités (EPST, Universités, Industriels)
  • D'une même région
  • Doté de sources de financement propres
  • Destiné à fournir un environnement scientifique et technique propice au calcul haute performance
  • Structure pilotée par un comité scientifique (plus ou moins structuré) et évaluée régulièrement

Groupe Calcul et les mésocentres

La coordination des mésocentres a pour objectifs :

  • contribuer à la structuration de l'offre en calcul intensif en France (interface avec GENCI, interface avec les établissements, laboratoires) ,
  • améliorer la visibilité nationale et régionale,
  • pérenniser les sources de financement
  • échanger et partager les expériences
  • organiser en commun des journées (formation, constructeurs ...)

Les mésocentres en France

Si vous souhaitez mettre à jour les informations de votre mésocentre, contactez-nous.

Auvergne-Rhône-Alpes

Centre Blaise Pascal de Simulation et de Modélisation Numérique (CBPsmn)

Le CBPsmn, Centre Blaise Pascal de Simulation et de Modélisation Numérique, est le mesocentre de Calcul Haute Performance de l'ENS de Lyon qui mutualise depuis 1993 l'informatique scientifique des laboratoires de l’établissement.

Contact Ralf Everaers

Institutions École normale supérieure de Lyon

Financeurs Laboratoires utilisateurs, ERC, ANR, Contrats, ENS de Lyon, CPER et Equip@meso

Conditions d'accès Ouvert aux laboratoires dont l'ENS de Lyon est une tutelle. Ouvert aux laboratoires de la région Lyonnaise partenaires de la structure et à leurs collaborateurs extérieurs. Ouvert aux laboratoires publics y hébergeant leurs serveurs. Ouvert aux entreprises et pôles de compétitivité après convention. Demandes au fil de l'eau

Services proposés Formation. Calcul scientifique. HPC. Accélérateurs de calcul. Cloud. Stockage. Hébergement

Nombre de cœurs 40648 cœurs

Mémoire 259 Tio

Stockage 12.8 Pio

Nombre de GPUs 210 GPUs

CBP-cluster

Nombre de cœurs 2832 cœurs

RAM 17.3 Tio

Nombre de GPUs

Gestionnaire de tâches slurm

Type de réseau infiniband

Bande passante réseau 40.0 Gb/s

Topologie réseau updn

Constructeur HPE, Dell, Supermicro et Intel

CloudCBP

Nombre de cœurs 3240 cœurs

RAM 33.7 Tio

Nombre de GPUs 162 GPUs

Gestionnaire de tâches

Type de réseau ethernet

Bande passante réseau 1.0 Gb/s

Topologie réseau

Constructeur HPE, Dell, Bull, 2CRSI, Supermicro, AMD, NVIDIA et Intel

meso-psmn-cirrus

Nombre de cœurs 2640 cœurs

RAM 14.6 Tio

Nombre de GPUs

Gestionnaire de tâches openstack

Type de réseau ethernet

Bande passante réseau 1.0 Gb/s

Topologie réseau

Constructeur Dell, Intel, AMD et Lenovo

PSMN-E5

Nombre de cœurs 1664 cœurs

RAM 19.2 Tio

Nombre de GPUs

Gestionnaire de tâches slurm

Type de réseau infiniband

Bande passante réseau 56.0 Gb/s

Topologie réseau fat tree

Constructeur Dell

PSMN-E5-GPU

Nombre de cœurs 192 cœurs

RAM 3.07 Tio

Nombre de GPUs 48 GPUs

Gestionnaire de tâches slurm

Type de réseau infiniband

Bande passante réseau 56.0 Gb/s

Topologie réseau fat tree

Constructeur Dell et NVIDIA

PSMN-Lake

Nombre de cœurs 11872 cœurs

RAM 97.9 Tio

Nombre de GPUs

Gestionnaire de tâches slurm

Type de réseau infiniband

Bande passante réseau 56.0 Gb/s

Topologie réseau fat tree

Constructeur HPE et Dell

PSMN-Epyc

Nombre de cœurs 1792 cœurs

RAM 7.17 Tio

Nombre de GPUs

Gestionnaire de tâches slurm

Type de réseau infiniband

Bande passante réseau 100.0 Gb/s

Topologie réseau updn

Constructeur Dell

PSMN-Cascade

Nombre de cœurs 16416 cœurs

RAM 65.7 Tio

Nombre de GPUs

Gestionnaire de tâches slurm

Type de réseau infiniband

Bande passante réseau 100.0 Gb/s

Topologie réseau fat tree

Constructeur Intel

PSMN homes & projects data

Type de stockage home

Système de fichiers NFS

Volumétrie 9.7 Pio

CBP homes

Type de stockage home

Système de fichiers NFS

Volumétrie 8 Tio

GRICAD

GRICAD est une Unité Mixte de Service ayant comme tutelles le CNRS, l'UGA, G-INP et INRIA et qui a pour mission de fournir aux communautés scientifiques de Grenoble des infrastructures scientifiques autour du calcul et de la donnée ainsi qu'un accompagnement de haut niveau sur ces thématiques.

Contact Violaine Louvet

Institutions CNRS, Université Grenoble Alpes, Grenoble INP et INRIA

Conditions d'accès Ouvert aux communautés scientifiques grenobloises et à leurs collaborateurs extérieurs. Ouverture sous conditions aux entreprises. Demandes au fil de l'eau

Services proposés Conseils et accompagnement. Calcul Intensif. Grille de calcul. Cloud. Notebooks. Stockage. Gitlab. Gestion, design et ingénierie de la donnée. Formation. Production audiovisuelle. Hébergement

Nombre de cœurs 7740 cœurs

Mémoire

Stockage 9.69 Pio

Nombre de GPUs

dahu

Nombre de cœurs 3192 cœurs

RAM

Nombre de GPUs

Gestionnaire de tâches oar

Type de réseau omni-path

Bande passante réseau 100.0 Gb/s

Topologie réseau

Constructeur Dell

Luke

Nombre de cœurs 1004 cœurs

RAM

Nombre de GPUs

Gestionnaire de tâches oar

Type de réseau ethernet

Bande passante réseau 10.0 Gb/s

Topologie réseau

Constructeur Dell

Bigfoot

Nombre de cœurs 96 cœurs

RAM

Nombre de GPUs

Gestionnaire de tâches oar

Type de réseau omni-path

Bande passante réseau 100.0 Gb/s

Topologie réseau

Constructeur Dell

Froggy

Nombre de cœurs 3236 cœurs

RAM

Nombre de GPUs

Gestionnaire de tâches oar

Type de réseau infiniband

Bande passante réseau 40.0 Gb/s

Topologie réseau

Constructeur Atos

Nova

Nombre de cœurs 212 cœurs

RAM

Nombre de GPUs

Gestionnaire de tâches openstack

Type de réseau ethernet

Bande passante réseau 10.0 Gb/s

Topologie réseau

Constructeur Dell

Bettik

Type de stockage scratch

Système de fichiers BeeGFS

Volumétrie 1.28 Pio

Mantis

Type de stockage data

Système de fichiers iRODS

Volumétrie 1.68 Pio

SUMMER

Type de stockage data

Système de fichiers NFS

Volumétrie 6.6 Pio

Grid'5000 - Grenoble

Grid'5000 est une infrastructure distribuée pour la recherche expérimentale dans tous les domaines de l'informatique, et en particulier pour le Cloud, le HPC, l'IA et le Big Data.

Voir https://www.grid5000.fr/.

Contact Olivier Richard

Institutions CNRS, Inria et Université Grenoble Alpes

Conditions d'accès Ouvert à la communauté de recherche en informatique, en particulier dans les domaines du Cloud, du HPC de l'IA et du Big Data. Ouvert aux chercheurs et ingénieurs d'autres domaines scientifiques pour des travaux requiérant les services spécifiques offerts par Grid'5000. Ouvert aux entreprises moyennant paiement à l'usage

Services proposés Infrastructure hautement reconfigurable et contrôlable: déploiement bare-metal d'images systèmes, accès root sur les noeuds, reconfiguration réseau pour l'isolation. Système de monitoring pour diverses métriques (en particulier pour la consommation énergétique). Description très complète et traçabilité du matériel, pour une recherche reproductible

Nombre de cœurs 1408 cœurs

Mémoire 10.8 Tio

Stockage 202 Tio

Nombre de GPUs

dahu

Nombre de cœurs 1024 cœurs

RAM 6.14 Tio

Nombre de GPUs

Gestionnaire de tâches oar

Type de réseau omni-path

Bande passante réseau 100.0 Gb/s

Topologie réseau

Constructeur Dell

troll

Nombre de cœurs 128 cœurs

RAM 1.54 Tio

Nombre de GPUs

Gestionnaire de tâches oar

Type de réseau omni-path

Bande passante réseau 100.0 Gb/s

Topologie réseau

Constructeur Dell

yeti

Nombre de cœurs 256 cœurs

RAM 3.07 Tio

Nombre de GPUs

Gestionnaire de tâches oar

Type de réseau omni-path

Bande passante réseau 100.0 Gb/s

Topologie réseau

Constructeur Dell

homes

Type de stockage home

Système de fichiers NFS

Volumétrie 28 Tio

Grid'5000 - Lyon

Grid'5000 est une infrastructure distribuée pour la recherche expérimentale dans tous les domaines de l'informatique, et en particulier pour le Cloud, le HPC, l'IA et le Big Data.

Voir https://www.grid5000.fr/.

Contact Laurent Lefevre

Institutions CNRS, Inria et ENS Lyon

Conditions d'accès Ouvert à la communauté de recherche en informatique, en particulier dans les domaines du Cloud, du HPC de l'IA et du Big Data. Ouvert aux chercheurs et ingénieurs d'autres domaines scientifiques pour des travaux requiérant les services spécifiques offerts par Grid'5000. Ouvert aux entreprises moyennant paiement à l'usage

Services proposés Infrastructure hautement reconfigurable et contrôlable: déploiement bare-metal d'images systèmes, accès root sur les noeuds, reconfiguration réseau pour l'isolation. Système de monitoring pour diverses métriques (en particulier pour la consommation énergétique). Description très complète et traçabilité du matériel, pour une recherche reproductible

Nombre de cœurs 1010 cœurs

Mémoire 4.27 Tio

Stockage 151 Tio

Nombre de GPUs 20 GPUs

sagittaire

Nombre de cœurs 42 cœurs

RAM 42 Gio

Nombre de GPUs

Gestionnaire de tâches oar

Type de réseau ethernet

Bande passante réseau 1.0 Gb/s

Topologie réseau

Constructeur Sun Microsystems

nova

Nombre de cœurs 368 cœurs

RAM 1.47 Tio

Nombre de GPUs

Gestionnaire de tâches oar

Type de réseau ethernet

Bande passante réseau 10.0 Gb/s

Topologie réseau

Constructeur Dell

pyxis

Nombre de cœurs 256 cœurs

RAM 1.02 Tio

Nombre de GPUs

Gestionnaire de tâches oar

Type de réseau infiniband

Bande passante réseau 100.0 Gb/s

Topologie réseau

Constructeur GIGABYTE

taurus

Nombre de cœurs 168 cœurs

RAM 448 Gio

Nombre de GPUs

Gestionnaire de tâches oar

Type de réseau ethernet

Bande passante réseau 10.0 Gb/s

Topologie réseau

Constructeur Dell

orion

Nombre de cœurs 48 cœurs

RAM 128 Gio

Nombre de GPUs 4 GPUs

Gestionnaire de tâches oar

Type de réseau ethernet

Bande passante réseau 10.0 Gb/s

Topologie réseau

Constructeur Dell

gemini

Nombre de cœurs 80 cœurs

RAM 1.02 Tio

Nombre de GPUs 16 GPUs

Gestionnaire de tâches oar

Type de réseau infiniband

Bande passante réseau 100.0 Gb/s

Topologie réseau

Constructeur NVIDIA

hercule

Nombre de cœurs 48 cœurs

RAM 128 Gio

Nombre de GPUs

Gestionnaire de tâches oar

Type de réseau ethernet

Bande passante réseau 10.0 Gb/s

Topologie réseau

Constructeur Dell

homes

Type de stockage home

Système de fichiers NFS

Volumétrie 14 Tio

storage1

Type de stockage data

Système de fichiers NFS

Volumétrie 75 Tio

MUST

MUST est un mésocentre de calcul mutualisé entre le CNRS et l’Université Savoie Mont Blanc.

Il se destine au calcul scientifique dans les domaines de la physique des particules, de l’astrophysique mais également dans de nombreux autres domaines de recherche. Piloté par une équipe d’experts informatiques, il dispose d’une salle de 170m2 renfermant plus de 7200 processeurs dédiés et 7 pétaoctets de stockage. MUST est un nœud 'Tier2' de la Grille de calcul mondiale pour le traitement et l’archivage des données du collisionneur LHC du CERN (WLCG). Via la grille européenne (EGI), MUST fournit également ses ressources à d’autres expériences internationales dont des expériences d’astroparticules comme CTA et LSST. Les utilisateurs locaux exploitent ses capacités pour diverses applications : physique théorique, sciences des matériaux, sciences de la terre, informatique, intelligence artificielle… Enfin, MUST se propose d’accompagner les entreprises dans leur transition numérique à travers le projet IDEFICS.

Contact Stephane Jezequel

Institutions CNRS/IN2P3 et Université Savoie Mont Blanc

Nombre de cœurs 7280 cœurs

Mémoire 22.8 Tio

Stockage 7 Pio

Nombre de GPUs 24 GPUs

Mésocentre Clermont Auvergne

Ressources de calcul mutualisées des laboratoires Université Clermont Auvergne & Associés (UC2A).

Contact Antoine Mahul

Institutions Université Clermont Auvergne

Financeurs Université Clermont Auvergne, Région Auvergne Rhône-Alpes, CPER et FEDER

Conditions d'accès Ouvert aux membres des laboratoires Université Clermont Auvergne UC2A et collaborations

Services proposés Cluster Slurm. Calculateur SMP. Cloud Openstack. Plateforme bioinformatique Galaxy

Nombre de cœurs 2352 cœurs

Mémoire

Stockage 500 Tio

Nombre de GPUs

P2CHPD

None

Contact Contact

Nombre de cœurs

Mémoire

Stockage

Nombre de GPUs

PMCS2I

Le PMCS2I, Pôle de Modélisation et de Calcul en Sciences de l'Ingénieur et de l'Information, mutualise les moyens de calcul des différentes UMR du Campus de l'École Centrale de Lyon.

Cett infrastructure opère environ 150 serveurs, représentant environ 3500 coeurs avec, des machines GPU et environ 1.5 Po de stockage.

Contact Laurent Pouilloux, Fabien Godeferd

Institutions École Centrale de Lyon

Conditions d'accès Ouvert aux laboratoires dont l'École Centrale de Lyon est une tutelle. Demandes au fil de l'eau

Services proposés Calcul scientifique. HPC. Accélérateurs de calcul. Stockage

Nombre de cœurs 3480 cœurs

Mémoire 27.4 Tio

Stockage 142 Tio

Nombre de GPUs 6 GPUs

cascade

Nombre de cœurs 1712 cœurs

RAM 14.6 Tio

Nombre de GPUs 6 GPUs

Gestionnaire de tâches slurm

Type de réseau infiniband

Bande passante réseau 100.0 Gb/s

Topologie réseau fat tree

Constructeur Dell

skylake

Nombre de cœurs 640 cœurs

RAM 4.99 Tio

Nombre de GPUs

Gestionnaire de tâches slurm

Type de réseau infiniband

Bande passante réseau 100.0 Gb/s

Topologie réseau fat tree

Constructeur Dell

haswell

Nombre de cœurs 1128 cœurs

RAM 7.85 Tio

Nombre de GPUs

Gestionnaire de tâches slurm

Type de réseau infiniband

Bande passante réseau 40.0 Gb/s

Topologie réseau fat tree

Constructeur Dell

Bourgogne-Franche-Comté

MesoFC

Le mésocentre de calcul de Franche-Comté (MésoFC) est un service de l'université de Franche crée en 2009 en partenariat avec l'Université Technologique de Belfort-Montbéliard et l'École Supérieure Nationale de Mécanique et des Micro-techniques.

Il a pour objectif de mettre à disposition des laboratoires de recherche et des entreprises de Franche-Comté une plateforme technologique de qualité et un lieu d’échange d’expériences et de compétences dans le domaine du calcul intensif et IA.

Contact Kamel MAZOUZI, Fabien PICAUD

Institutions Université de Franche-Comté

Conditions d'accès Ouvert aux chercheurs des établissements publics franc-comtois. Ouvert aux entreprises locales pour leurs travaux de R&D

Services proposés Calcul scientifique. HPC. IA. Conseils et accompagnement. Formation

Nombre de cœurs 3000 cœurs

Mémoire 12.3 Tio

Stockage 500 Tio

Nombre de GPUs 25 GPUs

Bretagne

GenOuest

None

Contact Contact

Nombre de cœurs

Mémoire

Stockage

Nombre de GPUs

Grid'5000 - Rennes

Grid'5000 est une infrastructure distribuée pour la recherche expérimentale dans tous les domaines de l'informatique, et en particulier pour le Cloud, le HPC, l'IA et le Big Data.

Voir https://www.grid5000.fr/.

Contact Anne-Cécile Orgerie

Institutions CNRS, Inria et Université Rennes 1

Conditions d'accès Ouvert à la communauté de recherche en informatique, en particulier dans les domaines du Cloud, du HPC de l'IA et du Big Data. Ouvert aux chercheurs et ingénieurs d'autres domaines scientifiques pour des travaux requiérant les services spécifiques offerts par Grid'5000. Ouvert aux entreprises moyennant paiement à l'usage

Services proposés Infrastructure hautement reconfigurable et contrôlable: déploiement bare-metal d'images systèmes, accès root sur les noeuds, reconfiguration réseau pour l'isolation. Système de monitoring pour diverses métriques (en particulier pour la consommation énergétique). Description très complète et traçabilité du matériel, pour une recherche reproductible

Nombre de cœurs 2280 cœurs

Mémoire 15 Tio

Stockage 303 Tio

Nombre de GPUs

parasilo

Nombre de cœurs 448 cœurs

RAM 3.58 Tio

Nombre de GPUs

Gestionnaire de tâches oar

Type de réseau ethernet

Bande passante réseau 10.0 Gb/s

Topologie réseau

Constructeur Dell

parapide

Nombre de cœurs 136 cœurs

RAM 408 Gio

Nombre de GPUs

Gestionnaire de tâches oar

Type de réseau infiniband

Bande passante réseau 20.0 Gb/s

Topologie réseau

Constructeur Sun Microsystems

parapluie

Nombre de cœurs 384 cœurs

RAM 768 Gio

Nombre de GPUs

Gestionnaire de tâches oar

Type de réseau infiniband

Bande passante réseau 20.0 Gb/s

Topologie réseau

Constructeur HPE

paravance

Nombre de cœurs 1152 cœurs

RAM 9.22 Tio

Nombre de GPUs

Gestionnaire de tâches oar

Type de réseau ethernet

Bande passante réseau 10.0 Gb/s

Topologie réseau

Constructeur Dell

paranoia

Nombre de cœurs 160 cœurs

RAM 1.02 Tio

Nombre de GPUs

Gestionnaire de tâches oar

Type de réseau ethernet

Bande passante réseau 10.0 Gb/s

Topologie réseau

Constructeur Dell

homes

Type de stockage home

Système de fichiers NFS

Volumétrie 10 Tio

storage1

Type de stockage data

Système de fichiers NFS

Volumétrie 100 Tio

Ifremer

None

Contact Contact

Nombre de cœurs

Mémoire

Stockage

Nombre de GPUs

Centre-Val de Loire

CaSciModOT

None

Contact Romain Yvinec (Tours), Jean-Louis Rouet (Orléans)

Nombre de cœurs

Mémoire

Stockage

Nombre de GPUs

Etranger

Grid'5000 - Luxembourg

Grid'5000 est une infrastructure distribuée pour la recherche expérimentale dans tous les domaines de l'informatique, et en particulier pour le Cloud, le HPC, l'IA et le Big Data.

Voir https://www.grid5000.fr/.

Contact Sébastien Varrette

Institutions Université du Luxembourg

Conditions d'accès Ouvert à la communauté de recherche en informatique, en particulier dans les domaines du Cloud, du HPC de l'IA et du Big Data. Ouvert aux chercheurs et ingénieurs d'autres domaines scientifiques pour des travaux requiérant les services spécifiques offerts par Grid'5000. Ouvert aux entreprises moyennant paiement à l'usage

Services proposés Infrastructure hautement reconfigurable et contrôlable: déploiement bare-metal d'images systèmes, accès root sur les noeuds, reconfiguration réseau pour l'isolation. Système de monitoring pour diverses métriques (en particulier pour la consommation énergétique). Description très complète et traçabilité du matériel, pour une recherche reproductible

Nombre de cœurs 180 cœurs

Mémoire 480 Gio

Stockage 53.5 Tio

Nombre de GPUs

petitprince

Nombre de cœurs 180 cœurs

RAM 480 Gio

Nombre de GPUs

Gestionnaire de tâches oar

Type de réseau ethernet

Bande passante réseau 10.0 Gb/s

Topologie réseau

Constructeur Dell

homes

Type de stockage home

Système de fichiers NFS

Volumétrie 10 Tio

storage1

Type de stockage data

Système de fichiers NFS

Volumétrie 40 Tio

Grand Est

CAIUS (Cluster de cAlcul Intensif à l'Université de Strasbourg)

Le Centre de Calcul de l'Université de Strasbourg (CCUS) s'adresse à la communauté du site Alsace et offre un accès à des moyens de calcul propres ou mutualisés, hébergés dans le datacentre Tier 3 du campus central de Strasbourg.

Un accompagnement est proposé pour l'utilisation de base du cluster, l'utilisation des 250 logiciels au catalogue ou encore l'installation et/ou l'optimisation de nouveaux logiciels. Le centre propose également la prise en charge des moyens de calcul achetés par les laboratoires, du devis à la mise en service dans le cluster (la moitié des 580 serveurs de calcul début 2024).

Contact David BRUSSON, Michel RINGENBACH

Institutions Université de Strasbourg

Conditions d'accès Ouvert à la communauté du site Alsace : Université de Strasbourg, université de Haute Alsace (Mulhouse) et CNRS. Accès par défaut et de droit à l'ensemble des ressources en mode non prioritaire. Accès privilégié à des partitions dédiées via un appel à projet annuel. Accès privilégié à des partitions financées par les laboratoires (opérations de mutualisation)

Services proposés Calcul scientifique. AI. Big Data

Nombre de cœurs 14260 cœurs

Mémoire 89 Tio

Stockage 2.52 Pio

Nombre de GPUs 280 GPUs

Explor

Le mésocentre EXPLOR est l’outil de calcul mutualisé de l’Université de Lorraine.

Son objectif principal est de fédérer les moyens techniques et humains nécessaires à l’accompagnement de la recherche dans tous les domaines impliquant les besoins en calcul intensif. La maison de la simulation Lorraine organise des formations et des animations scientifiques dans le domaine du calcul scientifique telles que la prise en main d’un système de calcul parallèle et l’optimisation des codes de calcul. Le mésocentre fournit également des services aux entreprises.

Contact Contact

Institutions Université de Lorraine, CNRS et INRIA Grand Est

Financeurs Région Grand Est, Pacte Lorraine, FEDER et Laboratoires

Nombre de cœurs 7416 cœurs

Mémoire 37.7 Tio

Stockage 1.4 Pio

Nombre de GPUs 41 GPUs

explor

Nombre de cœurs 7416 cœurs

RAM 37.7 Tio

Nombre de GPUs 41 GPUs

Gestionnaire de tâches slurm

Type de réseau omni-path

Bande passante réseau 100.0 Gb/s

Topologie réseau fat tree

Constructeur

Grid'5000 - Nancy

Grid'5000 est une infrastructure distribuée pour la recherche expérimentale dans tous les domaines de l'informatique, et en particulier pour le Cloud, le HPC, l'IA et le Big Data.

Voir https://www.grid5000.fr/.

Contact Lucas Nussbaum

Institutions CNRS, Inria et Université de Lorraine

Conditions d'accès Ouvert à la communauté de recherche en informatique, en particulier dans les domaines du Cloud, du HPC de l'IA et du Big Data. Ouvert aux chercheurs et ingénieurs d'autres domaines scientifiques pour des travaux requiérant les services spécifiques offerts par Grid'5000. Ouvert aux entreprises moyennant paiement à l'usage

Services proposés Infrastructure hautement reconfigurable et contrôlable: déploiement bare-metal d'images systèmes, accès root sur les noeuds, reconfiguration réseau pour l'isolation. Système de monitoring pour diverses métriques (en particulier pour la consommation énergétique). Description très complète et traçabilité du matériel, pour une recherche reproductible

Nombre de cœurs 7784 cœurs

Mémoire 44.2 Tio

Stockage 986 Tio

Nombre de GPUs 124 GPUs

grimani

Nombre de cœurs 72 cœurs

RAM 384 Gio

Nombre de GPUs 12 GPUs

Gestionnaire de tâches oar

Type de réseau omni-path

Bande passante réseau 100.0 Gb/s

Topologie réseau

Constructeur Dell

graffiti

Nombre de cœurs 208 cœurs

RAM 1.66 Tio

Nombre de GPUs 52 GPUs

Gestionnaire de tâches oar

Type de réseau ethernet

Bande passante réseau 10.0 Gb/s

Topologie réseau

Constructeur Dell

grappe

Nombre de cœurs 640 cœurs

RAM 1.54 Tio

Nombre de GPUs

Gestionnaire de tâches oar

Type de réseau ethernet

Bande passante réseau 25.0 Gb/s

Topologie réseau

Constructeur Dell

grue

Nombre de cœurs 160 cœurs

RAM 640 Gio

Nombre de GPUs 20 GPUs

Gestionnaire de tâches oar

Type de réseau ethernet

Bande passante réseau 10.0 Gb/s

Topologie réseau

Constructeur Dell

grvingt

Nombre de cœurs 2048 cœurs

RAM 12.3 Tio

Nombre de GPUs

Gestionnaire de tâches oar

Type de réseau omni-path

Bande passante réseau 100.0 Gb/s

Topologie réseau

Constructeur Dell

gros

Nombre de cœurs 2232 cœurs

RAM 11.9 Tio

Nombre de GPUs

Gestionnaire de tâches oar

Type de réseau ethernet

Bande passante réseau 25.0 Gb/s

Topologie réseau

Constructeur Dell

grimoire

Nombre de cœurs 128 cœurs

RAM 1.02 Tio

Nombre de GPUs

Gestionnaire de tâches oar

Type de réseau infiniband

Bande passante réseau 56.0 Gb/s

Topologie réseau

Constructeur Dell

grele

Nombre de cœurs 336 cœurs

RAM 1.79 Tio

Nombre de GPUs 28 GPUs

Gestionnaire de tâches oar

Type de réseau omni-path

Bande passante réseau 100.0 Gb/s

Topologie réseau

Constructeur Dell

graphique

Nombre de cœurs 72 cœurs

RAM 384 Gio

Nombre de GPUs 12 GPUs

Gestionnaire de tâches oar

Type de réseau infiniband

Bande passante réseau 56.0 Gb/s

Topologie réseau

Constructeur Dell

graphite

Nombre de cœurs 64 cœurs

RAM 1.02 Tio

Nombre de GPUs

Gestionnaire de tâches oar

Type de réseau infiniband

Bande passante réseau 56.0 Gb/s

Topologie réseau

Constructeur Dell

grisou

Nombre de cœurs 816 cœurs

RAM 6.53 Tio

Nombre de GPUs

Gestionnaire de tâches oar

Type de réseau ethernet

Bande passante réseau 10.0 Gb/s

Topologie réseau

Constructeur Dell

graoully

Nombre de cœurs 256 cœurs

RAM 2.05 Tio

Nombre de GPUs

Gestionnaire de tâches oar

Type de réseau infiniband

Bande passante réseau 56.0 Gb/s

Topologie réseau

Constructeur Dell

grcinq

Nombre de cœurs 752 cœurs

RAM 3.01 Tio

Nombre de GPUs

Gestionnaire de tâches oar

Type de réseau infiniband

Bande passante réseau 56.0 Gb/s

Topologie réseau

Constructeur Dell

homes

Type de stockage home

Système de fichiers NFS

Volumétrie 91 Tio

talc-data

Type de stockage data

Système de fichiers NFS

Volumétrie 187 Tio

talc-data2

Type de stockage data

Système de fichiers NFS

Volumétrie 200 Tio

ROMEO

Le Centre de Calcul Régional ROMEO est une plateforme technologique de l’Université de Reims Champagne-Ardenne depuis 2002.

Son rôle est de mettre à disposition des industriels et chercheurs de la région des ressources de calcul performantes, des espaces de stockage sécurisés, des logiciels adaptés, un accompagnement dans l’utilisation de ces outils ainsi qu’une expertise sur des domaines scientifiques et techniques avancés, le calcul à haute performance, les mathématiques appliquées, la physique, la biophysique et la chimie. Recherche, Innovation et Formation sont inscrits dans l’ADN du centre de calcul régional ROMEO. L’université de Reims Champagne-Ardenne classe ainsi pour la deuxième fois son supercalculateur parmi les tous premiers mondiaux : 249ème au TOP500 et 20ème au GREEN500, deux classements prestigieux annoncés lors de la conférence ISC (International Supercomputing Conference) en juin 2018, à Francfort. Structure de recherche et de service, ROMEO est idéntifié comme Unité de recherche au RNSR (Répertoire national des structures de recherche) sous le numéro 201923174L sour la direction de Arnaud RENARD Phd. Au fil des années, l’Université de Reims Champagne-Ardenne a su tisser des liens forts, au niveau national et international, lui permettant de devenir un acteur majeur de la simulation numérique en France : ce supercalculateur est le fruit de l’expérience acquise en partenariat avec le CEA DAM (Direction des Applications Militaires) ainsi qu’avec GENCI (Grand Equipement National de Calcul Intensif) dans le cadre des projets d’investissement d’avenir notamment. Financé à hauteur de 6,5 millions d'euros par la Région Grand-Est, le Grand-Reims, les fonds européen FEDER, le CPER et l'URCA, le supercalculateur ROMEO est hébergé par l'URCA, membre du consortium des mésocentres français Equip@meso et de la plateforme européenne ETP4HPC.

Contact Arnaud RENARD

Institutions URCA (Université de Reims Champagne-Ardenne)

Conditions d'accès Ouvert aux projets dont les responsables dépendent de l'URCA. Ouvert aux projets dont les responsables dépendent d'un établissement public d'ESR en Grand-Est sur projet scientifique. Ouvert aux projets dont les responsables dépendent d'un établissement public d'ESR extérieur dans le cadre de collaboration scientifique stratégique. Ouvert aux PME ou ETI innovantes après signature d'un contrat à durée limitée

Services proposés Calcul scientifique. AI. Service aux entreprises. Big Data

Nombre de cœurs 30000 cœurs

Mémoire 15.6 Tio

Stockage 2 Pio

Nombre de GPUs 288 GPUs

romeo

Nombre de cœurs 3276 cœurs

RAM 15.6 Tio

Nombre de GPUs 288 GPUs

Gestionnaire de tâches slurm

Type de réseau bxi

Bande passante réseau 200.0 Gb/s

Topologie réseau fat tree

Constructeur Atos

Guadeloupe

Centre Commun de Calcul Intensif (C3I)

Créé en 2002, le Centre commun de calcul intensif est une Fédération de recherche (FED) de l’UAG depuis 2010 et reconnue en qualité d’agence de moyens du CNRS.

Sa vocation est de fournir aux utilisateurs les ressources nécessaires au développement de projets de recherche utilisant le calcul intensif. Ainsi en son sein, s’articule une activité partagée entre une administration (gestion quotidienne et investissement) des ressources, des actions de formation (aux utilisateurs et à son personnel technique) ainsi que des actions de valorisation. Le personnel technique du C3I a donc la mission d’administrer les systèmes d’exploitation, assister les utilisateurs, aider au développement d’applications et au portage de codes de calcul scientifiques.

Contact Raphaël Pasquier

Institutions Université des Antilles

Financeurs Laboratoires utilisateurs, Contrats, Contrat Plan Etat Région 2014-2020 de la Guadeloupe et FEDER

Conditions d'accès Ouvert aux laboratoires de l'Université des Antilles. INRAE de Guadeloupe. Institut Pasteur de Guadeloupe. CIRAD. Météorologie Nationale. Port Autonome de la Guadeloupe

Services proposés Calcul scientifique. HPC

Nombre de cœurs 1008 cœurs

Mémoire 7.49 Tio

Stockage 186 Tio

Nombre de GPUs 7 GPUs

exocet

Nombre de cœurs 1044 cœurs

RAM 7.49 Tio

Nombre de GPUs 7 GPUs

Gestionnaire de tâches slurm

Type de réseau infiniband

Bande passante réseau 100.0 Gb/s

Topologie réseau fat tree

Constructeur Lenovo

Hauts-de-France

Grid'5000 - Lille

Grid'5000 est une infrastructure distribuée pour la recherche expérimentale dans tous les domaines de l'informatique, et en particulier pour le Cloud, le HPC, l'IA et le Big Data.

Voir https://www.grid5000.fr/.

Contact Nouredine Melab

Institutions CNRS, Inria et Université de Lille

Conditions d'accès Ouvert à la communauté de recherche en informatique, en particulier dans les domaines du Cloud, du HPC de l'IA et du Big Data. Ouvert aux chercheurs et ingénieurs d'autres domaines scientifiques pour des travaux requiérant les services spécifiques offerts par Grid'5000. Ouvert aux entreprises moyennant paiement à l'usage

Services proposés Infrastructure hautement reconfigurable et contrôlable: déploiement bare-metal d'images systèmes, accès root sur les noeuds, reconfiguration réseau pour l'isolation. Système de monitoring pour diverses métriques (en particulier pour la consommation énergétique). Description très complète et traçabilité du matériel, pour une recherche reproductible

Nombre de cœurs 972 cœurs

Mémoire 12.5 Tio

Stockage 443 Tio

Nombre de GPUs 32 GPUs

chifflet

Nombre de cœurs 224 cœurs

RAM 6.14 Tio

Nombre de GPUs 16 GPUs

Gestionnaire de tâches oar

Type de réseau ethernet

Bande passante réseau 10.0 Gb/s

Topologie réseau

Constructeur Dell

chifflot

Nombre de cœurs 192 cœurs

RAM 1.54 Tio

Nombre de GPUs 16 GPUs

Gestionnaire de tâches oar

Type de réseau ethernet

Bande passante réseau 25.0 Gb/s

Topologie réseau

Constructeur Dell

chetemi

Nombre de cœurs 300 cœurs

RAM 3.84 Tio

Nombre de GPUs

Gestionnaire de tâches oar

Type de réseau ethernet

Bande passante réseau 10.0 Gb/s

Topologie réseau

Constructeur Dell

chiclet

Nombre de cœurs 256 cœurs

RAM 1.02 Tio

Nombre de GPUs

Gestionnaire de tâches oar

Type de réseau ethernet

Bande passante réseau 25.0 Gb/s

Topologie réseau

Constructeur Dell

homes

Type de stockage home

Système de fichiers NFS

Volumétrie 6 Tio

storage1

Type de stockage data

Système de fichiers NFS

Volumétrie 90 Tio

storage2

Type de stockage data

Système de fichiers NFS

Volumétrie 90 Tio

MatriCS

Le Centre de Calcul Régional MatriCS est une plateforme pluridisciplinaire de calculs de l'Université de Picardie Jules Verne depuis 2017.

Le but est de mettre au service de la recherche et du monde socio-économique un lieu de ressources en sciences du numérique, proposant de la numérisation 3D (monuments, terrains, etc.), du calcul haute performance, un stockage de données, de la visualisation/restitution des résultats de la numérisation et des calculs et former, en présentiel ou en ligne, les étudiants et personnels de l’UPJV et les industriels, à l’utilisation des équipements et logiciels de la plateforme. La plateforme est hébergée au MIPIH, un centre de données labellisé Hébergeur de données de santé. Afin de parfaire sa mission, la plateforme met à disposition des chercheurs de l'UPJV une caméra plénoptique Raytrix, des scanners 3D et 3 robots humanoïdes Pepper. Elle a été financée à hauteur de 1.800.000 € en 2017 par le FEDER et le conseil régional Hauts de France puis consolidée, soutenu de 900.000€ par Amiens Métropole en 2022. La plateforme dispose également de serveurs de calcul FPGA.

Contact Jean-Baptiste Hoock et Laurent Renault

Institutions UPJV (Université de Picardie Jules Verne)

Conditions d'accès Ouvert aux chercheurs des laboratoires et plateformes de l'UPJV voir aux chercheurs externes avec lesquelles un utilisateur enregistré confirme être en collaboration dans le cad 'un projet mixte auquel participe l'UPJV

Services proposés Calcul scientifique. IA

Nombre de cœurs 4432 cœurs

Mémoire 34.8 Tio

Stockage 2.3 Pio

Nombre de GPUs 37 GPUs

matrics

Nombre de cœurs 2000 cœurs

RAM 31.7 Tio

Nombre de GPUs 37 GPUs

Gestionnaire de tâches slurm

Type de réseau infiniband

Bande passante réseau 100.0 Gb/s

Topologie réseau fat tree

Constructeur Dell

artistic

Nombre de cœurs 320 cœurs

RAM 3.07 Tio

Nombre de GPUs

Gestionnaire de tâches slurm

Type de réseau omni-path

Bande passante réseau 100.0 Gb/s

Topologie réseau fat tree

Constructeur Dell

Next cloud données de recherche

Type de stockage data

Système de fichiers ext4

Volumétrie 300 Tio

sauvegarde

Type de stockage data

Système de fichiers ext4

Volumétrie 420 Tio

Mésocentre de Lille

Le Mésocentre de calcul porté par l'Université de Lille, est en charge de fournir à la communauté scientifique de la région Hauts-de-France des moyens matériels, logiciels et humains.

Il met à disposition des infrastructures de calcul haute performance (HPC) ainsi qu'une expertise dans le domaine du calcul scientifique depuis l'année 2000.

Contact Matthieu Marquillie

Institutions Université de Lille

Conditions d'accès Ouvert aux chercheurs des établissements publics de la région Hauts-de-France

Services proposés Cluster hybride. Cloud OpenStack. Stockage de données scientifiques

Nombre de cœurs 8076 cœurs

Mémoire 61 Tio

Stockage 7.14 Pio

Nombre de GPUs 5 GPUs

Cluster Zeus

Nombre de cœurs 6264 cœurs

RAM 38.9 Tio

Nombre de GPUs 5 GPUs

Gestionnaire de tâches slurm

Type de réseau omni-path

Bande passante réseau 100.0 Gb/s

Topologie réseau

Constructeur

Cloud Gaia

Nombre de cœurs 1812 cœurs

RAM 22.1 Tio

Nombre de GPUs

Gestionnaire de tâches openstack

Type de réseau ethernet

Bande passante réseau 10.0 Gb/s

Topologie réseau

Constructeur

Workdir cluster Zeus

Type de stockage scratch

Système de fichiers BeeGFS

Volumétrie 630 Tio

Stockage cloud Gaia

Type de stockage data

Système de fichiers CEPH

Volumétrie 600 Tio

Stockage Titan

Type de stockage data

Système de fichiers NFS

Volumétrie 5.91 Pio

Contact Contact

Nombre de cœurs

Mémoire

Stockage

Nombre de GPUs

Normandie

Criann

Le CRIANN depuis 1991 a un statut d'association regroupant différents établissements publics normands des domaines de l’enseignement supérieur, de l’éducation et de la santé.

Outre son rôle de pilotage du réseau régional, il est le mésocentre de calcul intensif pour les établissements de Normandie Université.

Contact Marie-Sophie Cabot

Institutions Centre Régional Informatique et d'Applications Numériques de Normandie

Financeurs Equip@meso, Région Normandie, Etat Français et Union Européenne

Conditions d'accès Ouvert aux chercheurs des établissements publics normands par appels à projet bi-annuels. Ouvert aux entreprises pour leurs travaux de R&D en mode paiement à l'usage

Services proposés Calcul intensif. Maison Normande des Sciences du Numérique

Nombre de cœurs 11280 cœurs

Mémoire 54.2 Tio

Stockage 3.53 Pio

Nombre de GPUs 60 GPUs

Myria

Nombre de cœurs 11280 cœurs

RAM 54.2 Tio

Nombre de GPUs 60 GPUs

Gestionnaire de tâches slurm

Type de réseau omni-path

Bande passante réseau 100.0 Gb/s

Topologie réseau fat tree

Constructeur Atos

Nouvelle-Aquitaine

CALI

None

Contact Contact

Nombre de cœurs

Mémoire

Stockage

Nombre de GPUs

MCIA

Mésocentre de Calcul Intensif Aquitain.

Mésocentre de Calcul Intensif Aquitain

Contact Luc Mieussens

Institutions Université de Bordeaux

Financeurs Région Nouvelle Aquitaine et Université de Bordeaux

Conditions d'accès Ouvert aux membres d'un institut ou laboratoire de recherche public en Nouvelle Aquitaine. Ouvert au personnes avec lesquelles un utilisateur enregistré confirme être en collaboration

Nombre de cœurs 12160 cœurs

Mémoire 48.8 Tio

Stockage 760 Tio

Nombre de GPUs 16 GPUs

Curta

Nombre de cœurs 12160 cœurs

RAM 48.8 Tio

Nombre de GPUs 16 GPUs

Gestionnaire de tâches slurm

Type de réseau omni-path

Bande passante réseau 100.0 Gb/s

Topologie réseau fat tree

Constructeur Lenovo

None

Type de stockage data

Système de fichiers

Volumétrie 300 Tio

SONEL

None

Contact Contact

Nombre de cœurs

Mémoire

Stockage

Nombre de GPUs

Occitanie

Calmip

Créé en 1994, le mésocentre est devenu une Unité Mixte de Service du CNRS (UMS CNRS 3667) en 2014.

Au coeur du site Toulouse Aerospace, CALMIP est hébergé à l’Espace Clément Ader, dans une salle de calcul spécialisée qu’il partage avec Météo-France. Il bénéficie ainsi d’un environnement technologique de premier plan : sécurisation des accès et de l’alimentation électrique, réseau de récupération de chaleur. Dans l’optique de toujours rester compétitif et de proposer un service HPC de qualité, CALMIP renouvelle son calculateur tous les 5 ans environ. Depuis septembre 2018, le supercalculateur baptisé Olympe, d’une puissance de 1,365Pflops/s Peak est en production. Au quotidien, une équipe de 7 ingénieurs assure l’exploitation du calculateur et le support technique et scientifique aux utilisateurs. Fortement ancré au sein de la communauté académique, CALMIP apporte l’accompagnement et la puissance de calcul nécessaires à des chercheurs issus d’horizons très variés : matériaux, mécanique des fluides, sciences de l’univers, chimie . CALMIP participe également à l'animation scientifique et technique avec les référents calcul des différents laboratoires.

Contact Jean-Luc Estivalèzes

Institutions INP (Institut National Polytechnique de Toulouse), CNRS Occitanie Ouest (Centre National de la Recherche Scientifique), UT (Université de Toulouse), UPS (Université Paul Sabatier), ISAE (Institut Supérieur de l'Aéronautique et de l'Espace) et INSA de Toulouse (Institut National des Sciences Appliquées de Toulouse

Financeurs Equip@meso, Région Occitanie, Etat (contrat de plan Etat-Region) et Toulouse-Métropole

Conditions d'accès Ouvert aux projets dont les responsables dépendent d'un établissement public d'ESR en Occitanie par appels à projet biannuels. Ouvert aux PME ou ETI innovantes après signature d'un contrat à durée limitée

Services proposés Calcul scientifique. Partage FAIR de données scientifiques

Nombre de cœurs 13464 cœurs

Mémoire 76.7 Tio

Stockage 4.5 Pio

Nombre de GPUs 48 GPUs

Olympe

Nombre de cœurs 13464 cœurs

RAM 76.7 Tio

Nombre de GPUs 48 GPUs

Gestionnaire de tâches slurm

Type de réseau infiniband

Bande passante réseau 100.0 Gb/s

Topologie réseau fat tree

Constructeur Atos

GenoToul-bioinfo

La plateforme GenoToul Bioinfo offre un accès à des ressources de calcul de haute performance, à de l'analyse de données et à de l'expertise en programmation.

Son personnel permanent possède de nombreuses années d'expérience dans le soutien de programmes scientifiques (développement de logiciels, analyse de données et formation) en biologie et en bioinformatique. Les principaux axes de développement et de soutien scientifique comprennent le traitement des données de séquençage à haut débit (contrôle de qualité, assemblages de novo du (meta)génome et du transcriptome, découverte de variations, analyse de la diversité,.) et l'analyse de l'ARN non codant. Les ressources comprennent une infrastructure informatique de haute performance pour le stockage et le calcul à grande échelle, d'importantes banques de données généralistes et spécialisées, ainsi que des logiciels libres. Les services comprennent l'organisation de sessions de formation, l'hébergement de sites web et de machines virtuelles, l'expertise et le soutien scientifique à des programmes en biologie et en bioinformatique. La plate-forme bioinformatique GenoToul Bioinfo est une plate-forme membre de l'infrastructure nationale de recherche IFB (Institut Français de Bioinformatique) et une plate-forme associée de l'infrastructure nationale de recherche France Génomique. Au niveau régional, GenoToul Bioinfo fait partie de la plateforme GenoToul (réseau de plateformes de la région toulousaine). Genotoul Bioinfo est reconnue comme plateforme nationale stratégique par IBISA (Infrastructure en Biologie Santé et Agronomie). Elle est l'une des plateformes nationales stratégiques de l'INRAE (labellisée ISC et membre de l'IR Bioinfomics). Il est certifié ISO9001 depuis 2010 et NFX50-900 depuis 2016.

Contact Claire Hoede, Matthias Zytnicki

Institutions INRAE

Financeurs INRAE, CPER, FEDER, ANR, PIA, Equipex+ et utilisateurs

Conditions d'accès Notre infrastructure est dédiée à la bioinformatique française. Pour demander un compte, il suffit de remplir ce formulaire : https://bioinfo.genotoul.fr/index.php/ask-for/create-an-account-2/. Pour les entreprises privées, l'accés est limité à un mois et à 500 heures CPU, pour le prolonger, il sera nécessaire de payer pour le calcul et le stockage

Services proposés Fournir une infrastructure de calcul et de stockage environnée pour la bioinformatique

Nombre de cœurs 5000 cœurs

Mémoire 83 Tio

Stockage 5.5 Pio

Nombre de GPUs 4 GPUs

Meso@LR

None

Contact Vanessa Pierné

Institutions Univerité de Montpellier

Financeurs Région OCCITANIE, Montpellier Méditérranée Métropole (financement CPER) et Université de Montpellier

Nombre de cœurs 8952 cœurs

Mémoire 46.3 Tio

Stockage 1.32 Pio

Nombre de GPUs 2 GPUs

Muse

Nombre de cœurs 8952 cœurs

RAM 46.2 Tio

Nombre de GPUs 2 GPUs

Gestionnaire de tâches slurm

Type de réseau omni-path

Bande passante réseau 100.0 Gb/s

Topologie réseau fat tree

Constructeur Dell

Pays de la Loire

GLiCID

GLiCID est une Unité d'appui à la Recherche créée en Mars 2022 ayant comme tutelles les Universités d'Angers, du Mans, Nantes et l'École Centrale Nantes.

Elle a pour mission de fournir aux communautés scientifiques des Pays de la Loire, leurs collaborateurs et les entreprises de la région des infrastructures scientifiques autour du calcul et de la donnée ainsi qu'un accompagnement de haut niveau sur ces thématiques.

Contact Yann Capdeville

Institutions Université d'Angers, École Centrale Nantes, Le Mans Université et Nantes Université

Conditions d'accès Ouvert aux communautés scientiques des Laboratoires des tutelles et leurs collaborateurs extérieurs. Ouvert aux communautés scientiques hors tutelles sous conditions. Ouverture sous conditions aux entreprises. Demandes au fil de l'eau

Services proposés Conseils et accompagnement. Calcul Intensif. Cloud. Notebooks. Stockage. Formation

Nombre de cœurs 15360 cœurs

Mémoire 93.3 Tio

Stockage 5.3 Pio

Nombre de GPUs 76 GPUs

Nautilus

Nombre de cœurs 5376 cœurs

RAM 27.6 Tio

Nombre de GPUs 24 GPUs

Gestionnaire de tâches slurm

Type de réseau infiniband

Bande passante réseau 100.0 Gb/s

Topologie réseau

Constructeur Eviden

Phileas

Nombre de cœurs 3072 cœurs

RAM 11.7 Tio

Nombre de GPUs

Gestionnaire de tâches slurm

Type de réseau infiniband

Bande passante réseau 100.0 Gb/s

Topologie réseau

Constructeur Eviden

Waves

Nombre de cœurs 6712 cœurs

RAM 46.3 Tio

Nombre de GPUs 52 GPUs

Gestionnaire de tâches slurm

Type de réseau ethernet

Bande passante réseau 100.0 Gb/s

Topologie réseau

Constructeur ClusterVision, Dell et HPE

BiRD

Nombre de cœurs 1116 cœurs

RAM 7.68 Tio

Nombre de GPUs

Gestionnaire de tâches slurm

Type de réseau infiniband

Bande passante réseau 100.0 Gb/s

Topologie réseau

Constructeur Dell et HPE

LabDATA

Type de stockage data

Système de fichiers CEPH

Volumétrie 4 Pio

scratch-Nautilus

Type de stockage scratch

Système de fichiers Spectrum Scale

Volumétrie 450 Tio

scratch-Waves

Type de stockage scratch

Système de fichiers CEPH

Volumétrie 128 Tio

scratch-BeeGFS

Type de stockage scratch

Système de fichiers BeeGFS

Volumétrie 438 Tio

Grid'5000 - Nantes

Grid'5000 est une infrastructure distribuée pour la recherche expérimentale dans tous les domaines de l'informatique, et en particulier pour le Cloud, le HPC, l'IA et le Big Data.

Voir https://www.grid5000.fr/.

Contact Adrien Lèbre

Institutions Inria et Université de Lorraine

Conditions d'accès Ouvert à la communauté de recherche en informatique, en particulier dans les domaines du Cloud, du HPC de l'IA et du Big Data. Ouvert aux chercheurs et ingénieurs d'autres domaines scientifiques pour des travaux requiérant les services spécifiques offerts par Grid'5000. Ouvert aux entreprises moyennant paiement à l'usage

Services proposés Infrastructure hautement reconfigurable et contrôlable: déploiement bare-metal d'images systèmes, accès root sur les noeuds, reconfiguration réseau pour l'isolation. Système de monitoring pour diverses métriques (en particulier pour la consommation énergétique). Description très complète et traçabilité du matériel, pour une recherche reproductible

Nombre de cœurs 1312 cœurs

Mémoire 7.55 Tio

Stockage 68.3 Tio

Nombre de GPUs

econome

Nombre de cœurs 352 cœurs

RAM 1.41 Tio

Nombre de GPUs

Gestionnaire de tâches oar

Type de réseau ethernet

Bande passante réseau 10.0 Gb/s

Topologie réseau

Constructeur Dell

ecotype

Nombre de cœurs 960 cœurs

RAM 6.14 Tio

Nombre de GPUs

Gestionnaire de tâches oar

Type de réseau ethernet

Bande passante réseau 10.0 Gb/s

Topologie réseau

Constructeur Dell

homes

Type de stockage home

Système de fichiers NFS

Volumétrie 11 Tio

Provence-Alpes-Côte d'Azur

CCIAM

Le mésocentre d’Aix-Marseille Université a été créé en 2012, dotant l’établissement d’un outil de calcul performant.

Son inauguration, en mai 2013, l’a positionné comme un environnement stimulant et un lieu d’échange destiné à fédérer les moyens techniques et humains nécessaires à l’accompagnement de la recherche dans tous les domaines impliquant calcul intensif ou parallèle. Ses principales missions sont : apporter une assistance au développement et à l’amélioration de codes afin d’être utilisables sur les grands centres nationaux ou internationaux ; fournir une plate-forme de production viable pour dépasser le cadre d’emploi de machines de calcul de laboratoires dépassées ou limitées par le budget ; fédérer les ressources de calcul régionales pour limiter les coûts liés à l’infrastructure d’hébergement et de refroidissement ; promouvoir le calcul scientifique au sein des PME.

Contact Nicolas Ferré

Institutions AMU (Aix-Marseille Université)

Financeurs Equip@meso, Aix-Marseille Université, Aix-Marseille Initiative d'EXcellence, Région Sud, Département Bouches-du-Rhône, Etat (contrat de plan Etat-Region) et Fond Européen de Développement Régional

Conditions d'accès Ouvert aux projets dont les responsables dépendent d'un établissement public d'ESR par appel à projet permanent. Ouvert aux PME ou ETI innovantes après signature d'un contrat à durée limitée

Services proposés Calcul scientifique: HPC, grille, cloud, stockage

Nombre de cœurs 6908 cœurs

Mémoire 43.2 Tio

Stockage 1.25 Pio

Nombre de GPUs 66 GPUs

Rheticus-skylake

Nombre de cœurs 5632 cœurs

RAM 38.5 Tio

Nombre de GPUs 53 GPUs

Gestionnaire de tâches slurm

Type de réseau omni-path

Bande passante réseau 100.0 Gb/s

Topologie réseau fat tree

Constructeur Dell

Rheticus-westmere

Nombre de cœurs 1276 cœurs

RAM 4.71 Tio

Nombre de GPUs 13 GPUs

Gestionnaire de tâches slurm

Type de réseau infiniband

Bande passante réseau 40.0 Gb/s

Topologie réseau fat tree

Constructeur Dell

Grid'5000 - Sophia

Grid'5000 est une infrastructure distribuée pour la recherche expérimentale dans tous les domaines de l'informatique, et en particulier pour le Cloud, le HPC, l'IA et le Big Data.

Voir https://www.grid5000.fr/.

Contact Fabrice Huet

Institutions CNRS, Inria et Université Côte d'Azur

Conditions d'accès Ouvert à la communauté de recherche en informatique, en particulier dans les domaines du Cloud, du HPC de l'IA et du Big Data. Ouvert aux chercheurs et ingénieurs d'autres domaines scientifiques pour des travaux requiérant les services spécifiques offerts par Grid'5000. Ouvert aux entreprises moyennant paiement à l'usage

Services proposés Infrastructure hautement reconfigurable et contrôlable: déploiement bare-metal d'images systèmes, accès root sur les noeuds, reconfiguration réseau pour l'isolation. Système de monitoring pour diverses métriques (en particulier pour la consommation énergétique). Description très complète et traçabilité du matériel, pour une recherche reproductible

Nombre de cœurs 516 cœurs

Mémoire 4.13 Tio

Stockage 80.9 Tio

Nombre de GPUs

uvb

Nombre de cœurs 516 cœurs

RAM 4.13 Tio

Nombre de GPUs

Gestionnaire de tâches oar

Type de réseau infiniband

Bande passante réseau 40.0 Gb/s

Topologie réseau

Constructeur Dell

homes

Type de stockage home

Système de fichiers NFS

Volumétrie 41 Tio

storage1

Type de stockage data

Système de fichiers NFS

Volumétrie 30 Tio

SIGAMM

None

Contact Contact

Nombre de cœurs

Mémoire

Stockage

Nombre de GPUs

Île-de-France

Contact Contact

Nombre de cœurs

Mémoire

Stockage

Nombre de GPUs

Centre de Calcul

Le Centre De Calcul est le mésocente de l'Université CYU.

Contact Yann Costes

Institutions CY Cergy Paris Université

Financeurs CY Cergy Paris Université

Conditions d'accès Ouvert aux membres d'un laboratoire rattaché à CYU. Demandes au fil de l'eau

Nombre de cœurs 1138 cœurs

Mémoire 11.7 Tio

Stockage 222 Tio

Nombre de GPUs

Nombre de cœurs 1138 cœurs

RAM 11.7 Tio

Nombre de GPUs

Gestionnaire de tâches grid engine

Type de réseau infiniband

Bande passante réseau 100.0 Gb/s

Topologie réseau fat tree

Constructeur Dell

DataCenter@UPSud

Le mesocentre DataCenter@UPSud Met à disposition un ensemble de ressources informatiques et de logiciels dédiés à l’informatique scientifique, Aide à leur utilisation, Contribue à la mutualisation des expertises; Réalise des expérimentations des nouvelles technologies informatiques liées aux sciences.

Contact Michel Jouvin, Marco Leoni

Institutions Université Paris Saclay

Conditions d'accès DataCenter@UPSud est destiné en priorité aux utilisateurs de Paris Saclay

Services proposés Formation. Logiciel. Cloud. Platforme Spark. Stockage. Hébergement

Nombre de cœurs 4500 cœurs

Mémoire 9 Tio

Stockage 500 Tio

Nombre de GPUs

ESPRI

None

Contact Contact

Nombre de cœurs

Mémoire

Stockage

Nombre de GPUs

GRIF

None

Contact Contact

Nombre de cœurs

Mémoire

Stockage

Nombre de GPUs

Idcs

L'IDCS (Infrastructure Données Calcul Scientifique) est une unité propre de service de l'Ecole Polytechnique.

Créée en 2020, l'unité concerne dans un premier temps les 4 laboratoires à tutelle CNRS/Ecole Polytechnique : CMAP,CMLS,CPHT et LPP. A long terme, les laboratoires de l'ensemble des partenaires de l'Institut Polytechnique de Paris pourront être associé dans la mesure où ces unités contribueront aux moyens humains de l'unité et au financement des infrastructures. Depuis fin 2020, le cluster baptisé Cholesky, d'une puissance crête de 500 Tflops est en production. Au quotidien, une équipe de 8 ingénieurs (3 ETPT) composant le comité technique assure l'exploitation, le support technique et scientifique aux utilisateurs provenant de différents domaines : mathématiques, mécanique des fluides, matériaux et plasmas. Des animations scientifiques sont aussi organisés par les référents calculs des laboratoires participants. Le comité de pilotage composé de la cellule technique et des directeurs d'unité des laboratoires participants donnent les orientations et définit les différentes stratégies du mésocentre .

Contact Roch Smets

Institutions CNRS Ile-de-France Gif-sur-Yvette (Centre National de la Recherche Scientifique) et X (Ecole Polytechnique)

Financeurs CNRS et Ecole Polytechnique,

Conditions d'accès Ouvert aux projets dont les responsables dépendent de l'Institut Polytechnique de Paris par demandes au fil de l'eau. Ouvert aux établissements situés sur le Plateau de Saclay par demandes au fil de l'eau et signature d'une convention bipartite

Services proposés HPC. Intelligence Artificielle. Jupyter Cloud. Réseaux. Animations scientifiques

Nombre de cœurs 6613 cœurs

Mémoire 40 Tio

Stockage 485 Tio

Nombre de GPUs 16 GPUs

Cholesky

Nombre de cœurs 6613 cœurs

RAM 40 Tio

Nombre de GPUs 16 GPUs

Gestionnaire de tâches slurm

Type de réseau infiniband

Bande passante réseau 100.0 Gb/s

Topologie réseau fat tree

Constructeur Dell

MeSU

MeSU est le mésocentre de Sorbonne-Université.

Contact Nicolas BENOIT

Institutions Sorbonne-Université

Financeurs PIA Équipement d’Excellence Equip@meso, SESAME RefICS Région Ile de France, PIA laboratoire d’excellence Calsimlab, Projet Opérationnel “Compétitivité régionale et emploi” FEDER, Programme SATS-SU ICS@SU et Budget investissement plateforme Sorbonne-Université

Conditions d'accès Ouvert aux membres de Sorbonne-Université, aux structures de recherche publiques et aux entreprises ; inscription sur formulaire soumise à approbation par le responsable de la plateforme

Nombre de cœurs 4504 cœurs

Mémoire 34.9 Tio

Stockage 280 Tio

Nombre de GPUs 2 GPUs

mesu

Nombre de cœurs 4504 cœurs

RAM 34.9 Tio

Nombre de GPUs 2 GPUs

Gestionnaire de tâches pbs

Type de réseau infiniband

Bande passante réseau 56.0 Gb/s

Topologie réseau hypercube

Constructeur SGI

MesoPSL

MesoPSL est le mésocente de l'Université PSL.

Contact Jacques Laskar

Institutions Observatoire de Paris, École Normale Supérieure et Université PSL

Financeurs Equip@meso, Région Ile de France, Observatoire de Paris et INSU

Conditions d'accès Ouvert aux membres d'un institut ou laboratoire rattaché à PSL. Demandes au fil de l'eau

Nombre de cœurs 5432 cœurs

Mémoire 26.3 Tio

Stockage 430 Tio

Nombre de GPUs 1 GPUs

mesopsl1

Nombre de cœurs 1472 cœurs

RAM 5.89 Tio

Nombre de GPUs

Gestionnaire de tâches slurm

Type de réseau infiniband

Bande passante réseau 40.0 Gb/s

Topologie réseau fat tree

Constructeur NEC

mesopsl2

Nombre de cœurs 576 cœurs

RAM 2.3 Tio

Nombre de GPUs

Gestionnaire de tâches slurm

Type de réseau infiniband

Bande passante réseau 40.0 Gb/s

Topologie réseau fat tree

Constructeur Dell

astro

Nombre de cœurs 3384 cœurs

RAM 18.1 Tio

Nombre de GPUs 1 GPUs

Gestionnaire de tâches slurm

Type de réseau infiniband

Bande passante réseau 100.0 Gb/s

Topologie réseau fat tree

Constructeur Dell

home

Type de stockage home

Système de fichiers NFS

Volumétrie 30 Tio

travail

Type de stockage scratch

Système de fichiers BeeGFS

Volumétrie 400 Tio

S-CAPAD

Service de Calcul Parallèle et de Traitement de Données en sciences de la terre.

Service de Calcul Parallèle et de Traitement de Données en sciences de la terre

Contact Geneviève Moguilny

Institutions IPGP

Financeurs IPGP et Région Île de France

Services proposés HPC

Nombre de cœurs 7168 cœurs

Mémoire 18.3 Tio

Stockage 913 Tio

Nombre de GPUs 12 GPUs