Accueil > Informations > Offres d’emploi > Annonces de thèses

Annonces de thèses

mercredi 11 avril 2012, par Webmaster

Cette page recense différentes annonces de thèses liées au calcul. Vous pouvez ajouter votre annonce en utilisant le lien ci-dessous. Elle sera publiée rapidement après vérification. Vous pouvez y adjoindre des documents de type pdf.

Lorsque votre offre est périmée, merci de le signaler à mailto:calcul-contact@services.cnrs.fr

Messages

  • The Institut des Sciences de la Terre de Paris (ISTEP) invites for application for an ERC funded three-year PhD thesis in numerical modeling and geodynamics

    "Numerical modelling of small to large-scale rheological behaviour of the lithosphere"

    Key words : numerical thermo-mechanical modelling, parallel computing, mechanics of the lithosphere, rheology.

    Project description : Rheological behaviour of the lithosphere and mechanisms of strain localization are subject of long debate that cannot be resolved within purely experimental approach due to the enormous time and spatial scale gaps between the laboratory and natural scales. One of the ways to understand and parameterize rheological laws for geodynamic scales is to test various thermo-rheological hypothesis using thermo-mechanical models of small and large-scale deformation, at short (rock mechanics experiments, post-seismic) and large geological time scales. This has to be done by resolving , on the way, a number of important problems such as account for fluid circulation, partial melting, frictional heating, thermodynamic processes, rheological properties of aggregates, anisotropic behaviours and by studying new complex rheological models including those of strain-localizing properties. The main topic of the three years PhD project is to develop a multi-scale 2D- and 3D numerical models of small and large-scale lithospheric deformation, with particular but not exclusive applications to the Aegean realm, incorporating and further investigating the above-described mechanisms either in the existing numerical codes such as FLAMAR , and/or by developing new numerical codes, specifically in 3D.
    The study will be performed using parallel computational facilities of ISTEP, that will be largely enhanced by acquisition of new thick-node super-cluster within the ERC project. During his/her study the student will cooperate with modellers, experimentalists and geologists from ISTEP and ERC partner institutions (ISTO Orléans) and travel to a number of top research laboratories collaborating with the project (ETH-Zurich, T. Gerya, in particular) where he/she will spent a considerable time working on co-development of 3D numerical models.

    The host institution and the laboratory : ISTEP (Institute des Sciences de la Terre de Paris) belongs to the University of Pierre et Marie Curie (UPMC, Paris-6), arguably the leading and largest University in France (30000 undergraduate students, 120 laboratories, 3200 researchers and 3500 PhD students) one of top 10 European University systematically ranked first or second among the French Universities by international ranking bodies. ISTEP is one of the largest research laboratories in Earth Sciences in France. It counts more than 120 members, more than 50 of which are permanent research staff teaching Earth Sciences at the University. 6 research teams of ISTEP cover broad spectra of Earth Sciences, from sedimentary and bio-environmental sciences to lithosphere and deep processes. The Co-PI of ERC RHEOLITH E. Burov is the head of the “Lithosphere and Deep Processes” (LPP) team. LPP (12 researchers) is composed of geologists with strong petrologic and structural background, geophysicists (seismics, gravity) and specialists in numerical thermo-mechanical modelling. The group is built around common scientific problems focused on the lithosphere rheology and dynamics, with a regional accent on the Arab plate and Mediterranean region as well as the European lithosphere. At UPMC ERC RHEOLITH will involve 5 academic staffs, 3-4 PhD students, and 2 post-docs thus making an interactive research team.

    Eligibility : We are seeking for a creative individual with a solid background in numerical modelling. Substantial background in physics or mechanics and sensibility to geological and geodynamic problems is an advantage.

    Funding context : the research and the scholarship will be funded by the RHEOLITH ERC Advanced Research Grant (P.I. L. Jolivet, co-PI E. Burov)

    Application : Requests and applications including a motivation letter, CV, as well as the names and email addresses of two potential referees should be submitted as a single pdf file by email to Pr. E. Burov (evgenii.burov@upmc.fr) and Dr. S. Wolf (sylvie.wolf@upmc.fr). Deadline for application is July 15, 2012.

  • a 3-year PhD position open for application

    at the Ecole normale supérieure de Lyon, Laboratory of Physics

    on "numerical investigation of superfluid turbulence"
    (see detailed presentation form attached).

    the thesis will be supervised by E. Lévêque (Laboratory of physics, Ens de Lyon) and P.-E. Roche (Institut Néel, Grenoble).

  • Résumé :

    Le sujet de thèse s’intéresse à la modélisation de la reconstruction osseuse. Lors d’opérations post accidentelles, de fractures, de poses d’articulations artificielles ou de traitement de maladies spécifiques, des matériaux sont souvent utilisés pour renforcer la structure osseuse déficiente, pour la reconstruire ou la remplacer. Actuellement, des matériaux micro ou nanostructures, de caractéristique poreuse, permettent d’envisager leur disparition progressive et leur remplacement par un os naturel.
    De nombreux travaux existent déjà sur le sujet, notamment la modélisation de cette reconstruction osseuse en tenant compte des phénomènes biologiques mis en jeu. Ces modélisations utilisent des modèles continus de gradient élevés afin de prendre en compte les phénomènes de microstructure existant. On peut citer en particulier les travaux des équipes romaines, polonaises et de l’INSA de Lyon qui ont conduit à des résultats très intéressants et à des simulations originales et performantes.
    Le sujet s’inscrit dans la poursuite des travaux effectués par ces équipes et en collaboration avec elles. Il s’agira de tester les modèles existant et d’engager des constructions de simulation 2D et 3D couplant la résorption du matériau artificiel et son remplacement par un os naturel. Une des difficultés consiste en l’identification précise d’un certain nombre de paramètres de modélisation qui pourront être obtenus à l’aide d’expérimentation in vivo suivies par imagerie médicale performante.
    Le sujet nécessite une bonne connaissance de la mécanique et de la physique numérique et un goût pour la simulation numérique.

    Contact : george@unistra.fr

    Détails du sujet, voir fichier joint.

  • L’étude proposée concerne la modélisation numérique et le calcul haute performance pour
    la simulation des écoulements souterrains.

    Pour candidater envoyer à Jerome.Jaffre@inria.fr et Stephane.Lanteri@inria.fr,
    - un CV détaillé,
    - une lettre de motivation,
    - 2 ou 3 avis (responsable ou intervenant dans la formation de Master, responsable de stage).

    Les avis seront demandés par le candidat aux personnes concernées qui devront les transmettre
    aux contacts ci-dessus.

  • Cette thèse concerne le développement de méthodes multi-échelles pour la
    résolution numérique de problèmes de combustion et de plasmas (voir sujet).
    Elle s’effectuera à l’ONERA Toulouse dans le cadre de l’ANR MACOPA et en relation
    avec l’IMFT, l’IRIT et le LAPLACE.

    contact : rogier@onera.fr

  • Goal : The goal of this PhD is to study the design and the implementation of generic control algorithms for systems composed of distributed MEMS in a semi-centralized context (i.e. only the direct neighbors can communicate).

    Experiments will concern the “active skin” developed by the Mechanics department in the context of the Labex project ACTION (see icb.u-bourgogne.fr/labex/index.html). First of all, this platform will be adapted by a student master. Currently, this system performs distributed control close to noise propagating in a nozzle. The control is handled by microphones and speakers disposed along the nozzle boundary. It is computed in real time by a network of independent microcontrollers, each of them being associated with a couple of sensor and actuator. So the challenge is to introduce the possibility of communications between neighbor microcontrollers in order to implement control laws based on communications between neighbors.

    The thesis will consist in a theoretical study of distributed control laws suited for the platform and their approximation for an implementation on the microcontrollers network. Three controllers should be established, simulated and then implemented on the platform : two passive ones based on the advection equation and on the square root of the wave equation operator (i.e. the d’Alembertien), and a dynamic one governed by an optimal control law as LQG or H-infinite controls. They will be tested on a simulation that will be built for the occasion. The work will be based on the theoretical frameworks introduced in [1] and [2].

    The three steps regarding modeling, control law design and its approximation will have to be optimized as far as computation and communication constraints are concerned. The proposed models and the resulting algorithms should take into account the limited computing capacities of microcontrollers and communications only available between direct neighbors. The key element is certainly the algorithmic complexity in order to be able to obtain a real-time control. In this context, communications play a major role. Finally, taking into account the disturbance of communications and fault of computing units, sensors and actuators will provide more robustness to the system.

    Required skills : The candidate must have strong skills in Mathematics especially in Partial Differential Equations and in Computer Science.

    Conditions : PhD Thesis at FEMTO-ST. Duration 3 years. Earning : about 1400€/month. Start of the PhD Thesis September 2012. Location : Belfort, France

    Application deadline : 9th July. 2012.

    Please email a CV and a letter outlining your areas of research interest, along with names and contact details of two referees who can comment on your academic suitability to :
    raphael.couturier@univ-fcomte.fr, michel.lenczner@utbm.fr

    [1] M. Lenczner, G. Montseny, Y. Yakoubi Diffusive Realizations for Solutions of Some Operator Equations : the One-Dimensional. Math.of Comp. 81(2012), 319-344 .
    [2] M. Lenczner, Y. Yakoubi Semi-decentralized Approximation of Optimal Control for Partial Differential Equations in Bounded Domains. Comptes rendus de l’Académie des Sciences - Mécanique, Vol.337, Issue 4, pp.245—250, 2009

  • Field of studies : applied mathematics and/or computer science.
    Starting time : Fall 2012 (3 years funding).
    Advisors : Rodolphe Le Riche (CNRS permanent research associate), Xavier Bay and Eric Touboul (assistant professors).
    Contacts : leriche@emse.fr, touboul@emse.fr, bay@emse.fr .
    Laboratory : France, Saint-Etienne, ENSM-SE, Henri Fayol Institute, DEMO department.
    Salary : 1700 euros/month.

    Scientific context for the PhD
    Numerical optimization is a fundamental part of engineering sciences. It is involved in optimal design, optimal control and model identification. Numerical blackbox optimization methods, interpreting a problem as a blackbox where the only available information is the obtained function value for some query points, are the methods of choice when models are too complex to be mathematically tractable. This is the most often encountered situation where the optimized model is a given simulation software, like a finite element program.
    This model is typically computationally expensive. Optimization should then iteratively 1) build a statistical model of the expensive model, 2) use the statistical model to guide the search. Kriging (i.e., conditioned random process) is the statistical model of choice in this context [1,2].

    PhD Objectives
    The overall objective of this work is to improve optimization approaches for expensive to evaluate functions. This is of primary practical importance for all optimization applications.
    More specifically, this PhD research will have two objectives
    1) Investigate how covariance kernels, which are at the heart of the kriging statistical models, should be built in the context of optimization (as opposed to data modeling). This investigation will be both theoretical and experimental thanks to the COCO (COmparing Continuous Optimizers, [3]) platform.
    2) Most practical optimization problems have constraints. The second objective of this PhD will be to study how to handle constraints in kriging-based optimization.

    Project scientific originalities
    - Although the project is not directly made to solve a specific industrial test case, it is based on lessons learned from many previous industrial collaborations (OMD, OMD2, ID4CS, DICE to name a few).
    - The COCO platform allows massive testing and comparison of optimizers. It will shed new lights on kriging-based optimizers.
    - Kriging parameters (hence kernels) will be studied in the dynamic context of optimization as opposed to the static context of data-mining.
    - Optimization constraints have received little attention so far in kriging-based methods (excepted in [4], and partly in [5] and [6]).

    Related research program
    This PhD is part of the French research program NumBBO (analysis, improvement and evaluation of Numerical BlackBox Optimizers ), funded by the French National Research Foundation (ANR, « Agence Nationale de la Recherche »). The NumBBO program is a joint work between INRIA TAO and DOLPHIN, and TU Dortmund (Germany). This PhD will be based in the DEMO team of the Henri Fayol Institute at the Ecole des Mines de Saint-Etienne. The team has a long experience in metamodel assisted optimization gained through the past ANR/OMD, ANR/OMD2, ANR/ID4CS and DICE projects.

    References
    [1] Donald R. Jones. A taxonomy of global optimization methods based on response surfaces. J. of Global Optimization, 21:345–383, December 2001.
    [2] D. Ginsbourger, R. Le Riche, and L. Carraro. Kriging is well-suited to parallelize optimization. In Y. Tenne and C.-K. Goh, editors, Computational Intelligence in Expensive Optimization Problems, pages 131–162. Springer, 2010.
    [3] N. Hansen, A. Auger, S. Finck, and R. Ros. Real-parameter black-box optimization benchmarking 2009 : Experimental setup. Technical Report RR-6828, INRIA, 2009.
    [4] Michael J. Sasena. Flexibility and Efficiency Enhancements for Constrained Global Design Optimization with Kriging Approximations. PhD thesis, Univ. of Michigan, 2002.
    [5] V. Picheny, D. Ginsbourger, O. Roustant, and R.T. Haftka. Adaptive designs of experiments for accurate approximation of a target region. Journal of Mechanical Design, 132(7), 2010.
    [6] Vincent Dubourg. Adaptive surrogate models for reliability analysis and reliability based design optimization. PhD thesis, Univ. Blaise Pascal Clermont Ferrand II, France, 2011.

    Candidate profile :
    • Computer scientist (with a taste for optimization and learning algorithms) or applied mathematician (optimization).
    • The candidate should like collaborating with other research teams (other partners of the NumBBO projects).
    • The candidate should like programming (in R and C).

  • Cette thèse s’intègre dans le cadre des études des perturbations atmosphériques, naturelles ou non, dont l’importance des effets sur la propagation des ondes électromagnétiques est bien connue. De façon générale, les modèles utilisés pour décrire l’évolution en temps court de ces perturbations sont de type « MHD » (Magnétohydrodynamique), le champ magnétique pouvant être figé ou pas selon l’intensité de la perturbation considérée. A contrario, en temps long, les modèles utilisés sont de type « Dynamo » ou « Striation ». Il va de soi que la cohérence des modèles doit être respectée si l’on veut restituer le plus fidèlement possible ces perturbations à l’aide de logiciels numériques s’appuyant sur ces modèles. En particulier, les modèles en temps long sont basés a priori sur des modèles MHD prenant en compte l’effet Hall, et ce dernier doit donc être aussi traité dans la phase temps court.
    L’objectif de cette thèse est donc de développer une méthode numérique efficace permettant de prendre en compte l’effet Hall dans les modèles « MHD » à champ figé ou non.

  • Contexte et motivation

    Ce sujet concerne la mise en oeuvre de méthodes statistiques pour l’optimisation du temps de calcul de codes complexes en présence d’incertitudes. Il s’inscrit dans le cadre du consortium ReDICE qui réunit partenaires industriels (EDF, Renault, IFP, CEA, IRSN) et académiques (Mines de St Etienne, Centrale Lyon, Université de Berne) autour de la question de l’exploration des gros codes de calculs. Cette thématique est particulièrement importante pour l’IRSN qui utilise, de façon intensive, dans sa mission d’expertise, des logiciels simulant les phénomènes physiques au sein d’un réacteur nucléaire. En pratique, les données d’entrée de ces codes ne sont pas connues précisément. On parle alors de grandeurs incertaines. L’impact de ces incertitudes sur les évaluations numériques doit donc être estimé. A cet effet, l’IRSN a développé au cours de ces 10 dernières années de nouvelles approches pour la modélisation et la propagation des incertitudes à travers des codes de calcul [1]. L’étape de propagation s’appuie le plus souvent sur des techniques de type Monte-Carlo. Elle peut devenir numériquement coûteuse, un très grand nombre de simulations étant requis pour explorer l’ensemble de variation des données d’entrée et décrire fidèlement le comportement des sorties d’intérêt. Afin de réduire le coût de calcul, des approches statistiques basées sur la théorie des plans d’expériences [2] sont utilisées. Il existe deux grandes stratégies pour construire un plan d’expériences : la première s’appuie sur des considérations géométriques dans l’espace des entrées et conduit à des plans qui fournissent une bonne couverture de l’espace de variation des données d’entrée incertaines. La seconde suppose que la relation entre la sortie et les entrées du code de calcul peut être approchée par un modèle simplifié et consiste à choisir les expériences numériques de façon à optimiser une fonction coût qui traduit la qualité d’approximation du modèle ([3], [4]). Cette dernière approche - quand l’approximation se base sur un modèle de krigeage [5] - a été appliquée avec succès au sein de l’IRSN et a conduit notamment à des résultats prometteurs dans les études de fissuration des gaines de combustible [6]. Son intérêt se situe dans la flexibilité du choix de la fonction coût qui permet de raffiner automatiquement les simulations dans des zones pertinentes pour l’analyse de risque (région où la sortie dépasse un seuil de sûreté par exemple). Cependant, l’approximation par krigeage que l’on fixe avant de faire la planification suppose le plus souvent que les données à approcher sont stationnaires, ce qui est rarement le cas en pratique (discontinuité, oscillations à différentes fréquences). Cela nécessite alors de définir plusieurs fonctions coûts ainsi qu’une règle pour les agréger.
    Afin d’éviter des choix arbitraires, cette thèse est donc dédiée au développement, à l’implémentation et à l’application de nouvelles techniques de planification pour capturer toutes les caractéristiques d’intérêt de données non stationnaires. Plutôt que d’introduire une fonction de pondération qui favoriserait l’exploration de zones spécifiques, on s’appuiera ici sur une modélisation à l’aide de covariances non-stationnaires par zones et sur le couplage entre krigeage et algorithmes de segmentation de données. Pour la segmentation, on s’intéressera en particulier aux techniques à base d’ondelettes [8] très populaires dans le cadre du traitement d’images et qui ont récemment fourni des résultats prometteurs pour l’exploration des codes de calcul.

    Déroulement

    Une première étape de la thèse consistera d’abord à réaliser une étude bibliographique sur les techniques géostatistiques de krigeage [5], de planification d’expériences ([2], [3], [4]) ainsi que de modélisation à l’aide de covariances non stationnaires ([9],[10],[11],[12]). Il s’agira ensuite de proposer une nouvelle approche de planification adaptative qui intègrera une étape de segmentation à base d’ondelettes par exemple en s’inspirant des travaux de [13]. Pour ce travail, le doctorant pourra bénéficier de l’appui de l’Ecole Centrale Marseille (Prof. Jacques Liandrat) et de l’Université de Berne (Dr. David Ginsbourger). Il aura également des interactions avec les membres du consortium ReDICE spécialistes de la question de l’exploration des codes de calcul complexes. Dans un deuxième temps, le doctorant appliquera la méthode construite et analysée dans la première étape à des cas synthétiques puis à plusieurs cas réels issus des activités en mécanique du laboratoire commun IRSN-CNRS-UM2 MIST. Le nouvel algorithme de planification pourra notamment être utilisé pour les études de fissuration des gaines de combustible à l’aide du logiciel Xper [14]. A l’échelle microscopique, la gaine est modélisée par un matériau bi-phasé composé d’une matrice en Zircaloy et d’inclusions sous forme de plaquettes d’hydrures. On pourra s’intéresser en particulier à l’influence sur l’énergie de rupture apparente du gainage hydruré : 1/ des longueurs d’inclusion et 2/ du rapport entre la cohésion matrice/inclusion et la ténacité des inclusions. De plus, compte tenu de la généricité des méthodes développées, une application à la thématique extension de la durée de vie d’exploitation des centrales nucléaires est également envisagée.

    Contact

    J. Baccou jean.baccou@irsn.fr
    F. Perales frederic.perales@irsn.fr

    Lieu : Cadarache (13)

    Bibliographie
    [1] E. Chojnacki, J. Baccou et S. Destercke , Numerical accuracy and efficiency in the treatment of epistemical and aleatory uncertainty, International J. of General Systems, 39(7), 683-704, 2010.
    [2] G. Box et N. Draper, Empirical model-building and response surfaces, Wiley series in probability and mathematical statistics, 1987.
    [3] J. Sacks, W.J. Welch, T.J. Mitchell and P. Wynn, Design and analysis of computer experiments, Statistical Science, 4(4), 409-423, 1989.
    [4] V. Picheny, D. Ginsbourger, O. Roustant, R.T. Haftka, Adaptive designs of experiments for accurate approximation of a target region, J. Mech. Des., 132(7), 2010.
    [5] N. Cressie, Statistics for spatial data, Wiley series in probability and mathematical statistics, 1993.
    [6] T. Mokhtari, Planification adaptative d’expériences numériques, Rapport TFE, ENSMSE, 2012.
    [7] L. Buslig, J. Baccou et V. Picheny, Construction and efficient implementation of adaptive objective-based DoEs, soumis à Math. Geo., 2012.
    [8] I. Daubechies, Ten lectures on wavelets, SIAM, 1992
    [9] Y. Xiong, W. Chen, D. Apley et X. Ding, A non-stationary covariance-based Kriging method for metamodelling in engineering design, Int. J. for Num. Meth. in Engineering, 71, 733-756, 2007.
    [10] D.J.J. Toal and A.J. Keane, Non-Stationary Kriging for Design Optimization, Engineering Optimization, 44(6), 741-765, DOI : 10.1080/0305215X.2011.607816.
    [11] S. Ba and V. Roshan Joseph, Composite Gaussian Process Models for Emulating Expensive Functions, Annals of Applied Statistics, to appear, 2012.
    [12] tgp : An R Package for Bayesian Nonstationary, Semiparametric Nonlinear Regression and Design by Treed Gaussian Process Models, J. of Statistical Software, 19(9), 2007.
    [13] D. Castano et A. Kunoth, Robust regression of scattered data with adaptive Spline-Wavelets, IEEE Trans. Imag. Proc., 15 (6), 1621-1632, 2006.
    [14] F. Perales, F. Dubois, Y. Monerie, B. Piar, L. Stainier, A NonSmooth Contact Dynamics-based multi-domain solver. Code coupling (Xper) and application to fracture, Eur. J. Comp. Mech. 19, 389-417, 2010.

  • Le sujet s’intéresse particulièrement à la prise en compte et l’introduction de la microstructure et de
    l’anisotropie osseuse lors de sa reconstruction par une approche mécanique numérique théorique
    initialement mise en évidence par les travaux de Germain (1972, 1973), Mindlin (1964, 1968) et
    Toupin (1962). Cette approche théorique nous permet, à travers l’écriture du principe des
    puissances virtuelles, d’intégrer les effets locaux de la microstructure grâce à la prise en compte du
    second gradient du déplacement. Ces effets devront être intégrer de manière anisotropique locale
    en intégrant la prise en compte de l’évolution de la densité osseuse anisotrope durant la
    reconstruction en fonction de l’environnement biologique et des actions externes appliquées. Une
    approche par homogénéisation locale sera nécessaire afin de pouvoir être intégrée dans le modèle
    macroscopique homogène en second gradient. Il s’agit ici d’un sujet de recherche fondamentale en
    amont de toute application biomédicale immédiate et n’est donc pas compatible avec de possibles
    supports financiers à « transfert de technologie ». En revanche, un fort potentiel applicatif est
    envisagé car il n’existe, à l’heure actuelle, aucun modèle numérique permettant la prise en compte
    de la reconstruction anisotrope « réelle » de l’os dans son environnement biologique. Le sujet
    nécessitera un développement théorique et numérique de modèles en 2D et 3D couplant la
    résorption du matériau artificiel et son remplacement par l’os naturel. La principale difficulté
    concernant la validation du modèle consiste en l’identification précise d’un certain nombre de
    paramètres de modélisation qui pourront être obtenus de manière expérimentale in-vivo par nos
    collaborateurs.
    Pour plus de détails, voir document pdf joint.

  • Les projets d’aménagement d’une ville doivent préserver (ou améliorer) la qualité de vie de ses habitants et la qualité de l’environnement. Dans le cadre du projet Equipex « Sense-City », des outils de modélisation et de simulation seront développés en vue de suivre le comportement d’une ville ou d’en prédire l’évolution. Ces outils pourront également être appliqués à des projets d’urbanisme de villes nouvelles.
    Les outils de modélisation et de simulation développés devront faire appel à des méthodes de résolution suffisamment rapides pour être utilisés dans des procédures d’optimisation ou de suivi en temps réel de quantités d’intérêt. En effet, au cours de ces procédures les modèles devront être appliqués en faisant varier les paramètres caractéristiques des configurations étudiées (géométrie, propriétés physiques, ...). Pour un problème réel, la complexité des modèles rendra le coût des simulations numériques très important. Ceci interdit l’utilisation des
    modèles complets pour la détermination de quantités d’intérêt en temps réel visée dans le projet « Sense-City ». Afin de contourner cette limitation, la thèse se propose de développer des techniques de résolution fondées sur l’utilisation de bases réduites. On obtiendra ainsi des résultats approchés satisfaisant en des temps acceptables.
    La méthode des bases réduites peut être très performante dans ce cadre et des progrès récents ont permis de la fiabiliser. Elle a été appliquée avec succès dans différents contextes : le « multi-requêtes » (résolution multiple de problèmes semblables), le calcul en « temps réel » et le calcul « embarqué ». Cependant les logiciels habituellement utilisés pour la simulation directe des problèmes réels ne permettent pas de rentrer suffisamment dans le code de simulation pour une mise en œuvre performante de la méthode (le code de simulation étant
    utilisé en "boîte noire").

    Profil des candidats :
    Le candidat devra avoir une solide formation en analyse numérique (analyse et discrétisation des EDPs) et en calcul scientifique. La connaissance d’au moins un langage de programmation (C++ préféré) est un atout supplémentaire.

    La procédure IFSTTAR de sélection des candidats comprend 2 étapes :
    i) admissibilité après étude du dossier de candidature (courant mai)
    ii) admission après audition par un jury (courant juin)

    Voir en ligne : Méthode des bases réduites non intrusive pour la modélisation de la ville

  • Certains besoins sociétaux majeurs dans le domaine de l’environnement ou de l’énergie, comme par exemple la reconnaissance de réservoirs candidats au stockage du CO2 ou l’exploration de nouveaux gisements énergétiques, nécessitent une imagerie et une caractérisation fines du sous-sol. Or, dans les zones géologiques complexes il est souvent difficile de retrouver à partir des profils sismiques la vraie géométrie des structures géologiques. Pour résoudre ce problème (inverse), il est nécessaire de maîtriser le problème direct et donc d’être capable de modéliser de manière réaliste la propagation des ondes sismiques en 3D.
    En géophysique, différents codes basés sur différentes techniques numériques ont été développés et sont, à des fins de validation, généralement confrontés à d’autres méthodes « validées » sur une configuration synthétique test. Cette démarche, bien que courante, possède néanmoins des limitations, en particulier lorsque la propagation des ondes se produit dans un environnement complexe pour lequel il est difficile de savoir au final quel code s’approche au mieux de la « vraie » solution. Une autre démarche couramment utilisée en géophysique consiste à valider ces codes via une confrontation directe aux données réelles acquises in situ. Malheureusement, la mauvaise connaissance de l’environnement géologique rend difficile l’interprétation des résultats. Aussi, le fait de disposer de mesures de référence calibrées acquises dans des configurations très complexes, mais contrôlées, constituerait une alternative particulièrement intéressante pour la validation de ces codes numériques.
    L’objectif du projet international BENCHIE est précisément d’apporter cette alternative originale en proposant d’éprouver différentes familles de méthodes numériques par des benchmarks expérimentaux de laboratoire en environnements complexes (mais contrôlés). Ces environnements présentent des topographies irrégulières qui sont connues pour générer la plupart des cas problématiques rencontrés en configuration sismique (zones d’ombre, propagation d’ondes latérales, diffractions, caustiques...). L’approche expérimentale basée sur des mesures ultrasonores permet ainsi de cerner au mieux les phénomènes physiques impliqués grâce à la parfaite connaissance du modèle.
    Le sujet de thèse proposé ici s’inscrit clairement dans le projet international BENCHIE porté par le LMA et dans lequel sont actuellement impliqués des laboratoires norvégiens et russes, et à court terme des laboratoires américains et hollandais. Il s’agira essentiellement de comparer simulations numériques de propagation d’ondes et benchmarks expérimentaux, et ainsi de mettre en lumière les qualités et défauts respectifs des différentes familles de méthodes numériques (en collaboration avec les laboratoires étrangers). Un des objectifs visés est de définir une stratégie d’évolution de ces méthodes vers une simulation plus performante de la propagation des ondes (problème direct) et de l’imagerie sismique (problème inverse), en vue d’applications environnementales appliquées et industrielles. Le (la) candidat(e) participera aussi bien à la mise en place des expériences qu’à l’obtention de résultats numériques via la mise en œuvre du logiciel SPECFEM3D.

    Lieu : LMA Laboratoire de Mécanique et d’acoustique Marseille

    Contact : cristini@lma.cnrs-mrs.fr ou favretto@lma.cnrs-mrs.fr

  • De part son large spectre d’applications, la simulation et la modélisation de la propagation d’ondes de choc en milieux complexes reste un sujet majeur. En effet, ces phénomènes font intervenir des problèmes multi-physiques très importants et sont présents dans des domaines très variés allant de l’astrophysique, la dynamique des gaz et celles des structures, les sciences des matériaux jusqu’à la nouvelle génération de propulseurs aéronautique. Le but de cette thèse est de mettre au point des méthodes numériques innovantes permettant de résoudre des problèmes multi-échelles et multi-physiques en tirant parti du calcul massivement parallèle. Dans le cadre de ce projet, l’accent sera mis sur les phénomènes de propagation d’ondes dans les milieux complexes parmi lesquels figurent la turbulence compressible, les détonations, la propagation haute fréquence des ondes et leur atténuation dans les milieux hétérogènes (obstacles solides). Le projet s’articule autour du concept de modularité, le couplage multi-physique reposant sur des outils adaptatifs et spécialisés dans la modélisation des divers phénomènes mis en jeu.

    Voir en ligne : http://www.coria.fr

  • La prédiction de la dynamique d’un scalaire transporté par un écoulement turbulent est une question centrale dans de nombreuses applications. Le champ scalaire peut être utilisé pour décrire un champ de température pour des problèmes de thermique, ou la concentration d’une espèce chimique ou d’un polluant lorsque l’on traite des applications liées à la combustion ou à la qualité de l’air, ou encore un marqueur de l’interface entre les phases d’un écoulement multi-phasique.

    Lorsque la diffusivité du scalaire est faible devant la viscosité du fluide, il est souhaitable d’utiliser une plus forte résolution dans la simulation du transport de scalaire que pour la résolution de l’écoulement et des solveurs adaptés aux équations de transport et aux équation de Navier-Stokes. L’objet de cette thèse est de développer un outil de simulation couplant une méthode Lagrangienne d’ordre élevé pour le scalaire et une méthode de volumes-finis pour les équations de Navier-Stokes utilisant des grilles espace-temps différentes. La méthode sera développée et exploitée dans un environnement de calcul parallèle.

  • Applications are invited for a three year PhD scholarship in the framework of a collaboration between the FEMTO-ST Institute (see www.femto-st.fr) in Besançon, LORIA in Nancy (http://www.loria.fr/), and Laboratory of Astrophysics (LAM) in Marseille (http://lam.oamp.fr) in FRANCE.
    Closing date for applications : July 1st, 2013.

    This PhD thesis is in the context of development of mathematical tools and software MEMSALab for aided design of multi-physics and multi-scale systems based on asymptotic methods. The first applications are for arrays of micro-systems and nano-systems, but broader range of applications are expected. The multi-scale model construction starts from a system of partial differential equations and combines principles of multi-scale approximation with symbolic computation methods from computer sciences. MEMSALab is an implementation of such mathematical model derivations by rewriting techniques with TOM, a well-known existing rewrite based tool developed at LORIA. In the medium term, it will allow to automatically generate a wide class of multi-scale models. By nature, they are also systems of partial differential equations, but much less expensive to solve by a computer. Once built, they should be automatically transferred to a finite element software package. In our package, we complement it by a toolkit for parameter optimization and calibration.

    The PhD thesis will derive a multi-scale model for the LAM’s array of micro-mirrors. Mathematical and computer science techniques will be established for more general modeling in MEMSALab. The model of micro-mirror array will be used for simulation, design optimization, parameter calibration and to prepare an optimized version of the device.

    Arrays of micro-mirrors are designed for generating slit masks at the entrance of multi-object spectrographs (MOS) in Astronomy. This astronomical technique is used extensively to investigate the formation and evolution of galaxies. MOS with multi-slits is the best approach to eliminate the problem of spectral confusion, to optimize the quality and the SNR of the spectra, to reach fainter limiting fluxes and to maximize the scientific return both in cosmology and in legacy science. Conventional masks or complex fiber-optics-based mechanisms are limited for future space and ground-based telescopes. The programmable multi-slit mask requires remote control of the multi-slit configuration in real time. A promising solution is the use of micro-electro-optical-mechanical system (MOEMS) devices such as micro-mirror arrays, generating reflective slits. This device is also foreseen for applications in Physics or Biology. LAM, in collaboration with EPFL (Switzerland), are engaged in a European development of micro-mirror arrays for generating reflective slit masks. Prototypes with 2048 individually addressable micro-mirrors made of single-crystalline silicon were successfully designed, fabricated and tested.
    The scholarship is valued at about 1,400€ net per month for three years. Application to a room on the campus is possible for low rate. Applicants should have a good undergraduate degree and a master in Pure or Applied Mathematics, or in Physics. Additional background in theoretical computer science is welcome.

    Please email a CV and a letter outlining your areas of research interest, along with names and contact details of two referees who can comment on your academic suitability to Dr. Michel Lenczner, Dr. Horatiu Cirstea and Dr. Frédéric Zamkotsian.

    The contacts for this project are :
    Dr. Michel Lenczner, FEMTO-ST 26, Chemin de l’épitaphe 25030 Besançon. Phone : +33 (0) 3 81 40 28 27, e-mail : michel.lenczner[at]utbm.fr ;
    Dr. Horatiu Cirstea, LORIA, Batiment C, Campus scientifique, BP 239, 54506 Vandoeuvre-lès-Nancy Cedex. Phone : +33 (0)3 54 95 84 06, e-mail : Horatiu.Cirstea[at]loria.frf ;
    Dr. Frédéric Zamkotsian, LAM-CNRS, 38 rue Frédéric Joliot-Curie, 13388 Marseille Cedex 13. Phone : +33 (0) 4 95 04 4151, e-mail : frederic.zamkotsian[at]oamp.fr.

  • La prévision de la production d’énergie photovoltaïque dépend essentiellement du rayonnement solaire descendant au sol qui est fortement influencé par la couverture nuageuse. Les modèles opérationnels de prévision de production photovoltaïque sont actuellement fondés sur les prévisions de rayonnement des modèles météorologiques (Météo France ou Centre européen) pour des horizons de prévision allant de l’infrajournalier à 14 jours. Ces prévisions sont alors limitées par les fortes incertitudes des simulations météorologiques, en particulier à échelle locale. Il existe un besoin de plus en plus pressant pour l’amélioration de la prévision et l’estimation de son incertitude, qui est une information presque aussi importante que la prévision elle-même.

    L’objectif ambitieux de la thèse est de construire un système de prévision du rayonnement solaire permettant d’anticiper à 6h-48h la production photovoltaïque de l’ensemble du parc EDF. L’approche reposera sur des ensembles de simulations météorologiques, calculés par le modèle WRF dans le système de prévision ou/et par un centre météorologique. L’ensemble des prévisions sera combiné pour (1) obtenir de bonnes prévisions du rayonnement à tous les sites de production, (2) estimer les incertitudes des prévisions. Les méthodes seront mises au point et évaluées sur des mesures de rayonnement in situ (notamment au SIRTA) et sur des données satellitaires (par exemple, Héliosat). Le travail débouchera sur un prototype opérationnel de prévision du rayonnement solaire descendant au sol, à l’échelle de la métropole, voire du continent européen, mais avec une résolution aussi locale que possible.

    Dans le cadre de la thèse, on souhaite allier des simulations numériques issues de modèles météorologiques de prévision et des méthodes statistiques ou probabilistes. L’objectif est d’exploiter au mieux les différentes sources d’informations : (a) plusieurs prévisions météorologiques, issues de modèles numériques, qui décrivent chacune une répartition spatiale et une évolution temporelle du rayonnement sur la région d’intérêt ; (b) les observations passées disponibles localement sur des sites de mesures ; (c) les observations satellitaires qui couvrent toute la région d’intérêt.

    Description plus complète de la thèse : http://www.rocq.inria.fr/clime/jobs/2013/these_photovoltaique.pdf

    Contact : Vivien Mallet (vivien.mallet@inria.fr, 1 39 63 55 76)

  • Objectives :

    The program of the doctoral school aims at training doctoral students with strong scientific and/or professional capabilities on Computational Mechanics and Engineering of Materials, and, in general, on Civil and Industrial Engineering as well as Applied Mathematics.

    The key areas of study include all aspects of modeling and simulation of structures and materials, ranging from structural engineering to biomedical fields, always following a rigorous approach from a mathematical and a theoretical point of view.

    Basic elements of the training are interdisciplinary, international experience, the constant reference to the most advanced research and the attention to both theoretical and applied aspects. Internationality is an important component of the program, thanks to a strong international characterization of the program, to the contribution of top level Professors and to the strong partnerships (many of which are already well-established) with world’s top research centers in the field of Computational Mechanics.

    Fields of interest :

    Mechanics of Solids
    Structural Engineering
    Numerical Analysis
    Calculus
    Industrial Bioengineering
    Materials Science and Technology
    Hydraulics
    Geotechnics
    Probability and Mathematical Statistics
    Mathematical Physics

    On going projects :

    Isogeometric analysis
    Innovative Immersed Boundary methods for biomedical applications
    Constitutive modeling of shape memory alloys.
    SPH methods

    Required Skills : A Master of Science in engineering, mathematics, or physics is required.

    Conditions : The PhD program will take place in Pavia (Italy) at the Dipartimento di Ingegneria Civile ed Architettura. The program expected to last 3 years and scholarships are available.

    Deadline : September 13, 2013.

    Complete description is given at : http://www-2.unipv.it/compmech/phd_home.html

    Contact : phd.compmech[at]iusspavia.it

    Voir en ligne : Compmech PhD program

  • L’utilisation de simulations numériques pour concevoir un système faisant intervenir un grand nombre de composants, ainsi que des phénomènes physiques de nature variée, est un enjeu très important pour de nombreux acteurs industriels, en particulier dans le domaine de l’automobile et de l’aéronautique. De telles simulations numériques sont, par exemple, utilisées pour maximiser les performances des systèmes, les rendre plus sûrs et respectueux de l’environnement, dans un contexte économique et environnemental exigeant [...]

    Voir en ligne : lire sujet complet (PDF)

  • Cette thèse concerne la modélisation numérique et la simulation d´un problème thermique multi phases (solide, liquide, gaz) avec changements de phases et suivi d’interfaces dans le but de mieux comprendre et contrôler un procédé de soudure laser.

    La thèse s’effectuera en Suède à l´Université West (Trollhättan) en collaboration avec GKN Aerospace, dans le cadre d´un projet de recherche financé sur 4 ans. L´anglais (oral et écrit) sera la langue de communication utilisée.

    Pour plus de détails sur le sujet et sur les modalités de candidature, aller sur :
    http://www.hv.se/en/about-university-west/job-opportunities
    et cliquer sur le lien « PhD student in Production Technology- with focus on CFD for laser welding » accessible dans la liste « Job opening ».

    contact : isabelle.choquet@hv.se

  • PhD will begin in 2014.
    The PhD candidate will work at The Center for Exploration Targeting at the University of Western Australia and the University of Toulouse/CNRS. The Post-Doctoral Fellow will integrate into a team of geophysicists and geologists as part of new initiative into integrated 3D technologies. The principal goal is to co-develop and validate a near-real time 3D joint geophysical/geological inversion code, and to apply this parallel code to the inversion of the geology of the 50 million km3 volume beneath Western Australia. Experience in applied mathematical or geophysical coding is essential and parallel coding skills would be welcome.

    Subject of the thesis :
    The CET at the University of Western Australia offers an award for a postgraduate student for research associated with a project focussing on the development and application of workflows which combine multiple geological hypotheses of the 3D geology of the earth as inputs for joint geophysical inversion in order to build an iterative coupled geological/geophysical solver. The PhD student will integrate into a team of geophysicists and geologists as part of new initiative into integrated 3D technologies. The project is in collaboration between The Center for Exploration Targeting at the University of Western Australia and the West Australian Geological Survey, The Geological Survey of Canada and Monash University. The PhD student will work under the joint supervision of Prof. Mark Jessell (CET) and Dr. Roland Martin at the CNRS laboratory of Geosciences Environnement Toulouse in France. A joint degree between Monash University and Paul Sabatier University will be arranged. The PhD candidate will develop with Roland Martin several improvements in the parallel code TOMOFAST3D which is able to perform joint inversions of massive data sets of different nature (gravimetry and magnetism for instance). Experience in geological modelling and coding skills are welcome and extended visits to France will be required during the PhD period.

    Available in the 2014 IPRS application main round. ** Please note the IPRS applications close 30/12/2013.
    Available in the 2014 Main Australian Postgraduate Award Round.

    Candidates profile :
    International applicants will also have to apply for a Scholarship International Research Fees (SIRF)

    Experience in geological modelling and coding skills are welcome and extended visits to France will be required during the PhD period.

    Scientific areas : Earth and Environment, Earth Sciences, Geology, Oil and Gas Engineering, Science, Software Engineering, Exploration Geoscience, Geoscience, Exploration Targeting

    Contacts :
    Roland Martin : Research scientist at CNRS GET (Geosciences Environment Toulouse Department) laboratory. Observatoire Midi-Pyrénées, Toulouse 31400 France
    Mark Jessell : Professor University of Western Australia - Perth

    Emails : roland.martin@get.obs-mip.fr, mark.jessell@uwa.edu.au

  • Les accidents vasculaires cérébraux nécessitent un traitement dans les trois heures suivants les premiers symptômes. La mise au point d’un diagnostique rapide est un sujet de recherche actif. Pour des raisons pratiques, un diagnostique rapide doit être basé sur des équipements mobiles utilisables par des équipes d’urgence médicale. Une technique envisagée est basée sur une méthode de tomographie électromagnétique.

    D’un point de vue mathématique, il s’agit de retrouver les coefficients des équations de Maxwell tridimensionnelles à partir de mesures électromagnétiques sur le cerveau du patient. Le stage consistera à étudier ce problème dans un cadre bidimensionnel simplifié. Les simulations des expériences de mesure et les problèmes inverses seront programmés en FreeFem++.

    Ce stage s’inscrit dans le cadre d’un financement public via l’ANR-Medimax à laquelle participent les laboratoires J.L. Lions (Paris 6), Laboratoire de Mathématiques Appliquées (Paris 5), le laboratoire J.A. Dieudonné (Nice), le Laboratoire d’Electronique, Antennes et Télécommunications (Nice) et la société EMTensor (Autriche).

    Ce stage pourra se poursuivre par une thèse, des demandes de financement seront déposées.

  • Direction :
    Josselin Garnier (Université Paris-Diderot), Laboratoire de Probabilités et Modèles Aléatoires, Bât. Sophie Germain, 5 rue Thomas Mann, 75205 Paris Cedex 13
    Tél. : 01 57 27 91 07
    Fax : 01 57 27 93 43
    Email :garnier_at_math.univ-paris-diderot.fr

    Eric Savin (ONERA et Ecole Centrale Paris), Simulation Numérique des écoulements et Aéroacoustique, 29 avenue de la Division Leclerc, 92322 Châtillon cedex
    Tél. : 01 46 73 46 45
    Fax : 01 46 73 41 66
    Email : eric.savin_at_ecp.fr

    L’objectif de la thèse est de développer des outils numériques d’imagerie et de localisation de sources par interférométrie cohérente pour des applications en aérodynamique, hydrodynamique et/ou aéroacoustique. L’algorithme CINT notamment est fondé sur la rétro-propagation numérique de corrélations empiriques localisées en temps et en espace. On tâchera de l’appliquer à des cas académiques génériques de systèmes d’EDP linéarisées issus de la mécanique des fluides. Pour cela, on s’appuyera sur un code de recherche pour la simulation numérique des écoulements par des schémas d’ordre élevé. Un des aspects à développer sera la prise en compte d’hétérogénéités aléatoires pour la génération de données bruitées simulées qui seront ensuite traitées par les algorithmes d’imagerie proposés.

    Les techniques d’imagerie procèdent usuellement en deux étapes : l’acquisition des signaux, puis leur traitement par résolution d’un problème inverse. Le bruit est, dans les techniques classiques, considéré comme une nuisance dont il faut essayer de réduire l’influence dans le traitement des enregistrements, notamment par des approches probabilistes. Des expériences récentes en sismologie, notamment, ont montré qu’au contraire le bruit ambiant pouvait être utilisé efficacement à des fins d’identification et de localisation. En effet, si l’on considère que les sources de bruit émettent des signaux de nature aléatoire, alors leurs corrélations empiriques permettent d’accéder à des informations très pertinentes sur le milieu de propagation, et ainsi de construire des algorithmes d’imagerie dite passive. La méthode CINT que l’on se propose d’étudier dans ce travail tire pleinement partie de ces observations et constitue une extension prometteuse des méthodes de migration usuelles en sismologie ou acoustique sous-marine notamment.

  • Introduction

    Historiquement, il existe deux classes de codes Monte-Carlo (M-C) pour le transport des particules : les code M-C de neutronique, et les code M-C pour la physique des hautes énergies. En physique des hautes énergies, ces codes permettent de transporter toutes les particules connues, à toutes les énergies, en utilisant des modèles théoriques pour décrire les interactions entre particules (MCNP-X [1][2] et Geant4 [4][5] sont des exemples de ce type de code). En neutronique, les contraintes sur la précision des calculs de radioprotection et de criticité sont très fortes, et les codes Monte-Carlo comme TRIPOLI-4® (ou MCNP-5 [3][2]) par exemple utilisent par conséquent des évaluations internationales pour la description des interactions des neutrons et des gammas que ces codes permettent de transporter à des énergies inférieures à 20 MeV.
    Récemment, de nombreuses applications sont apparues qui nécessitent l’utilisation simultanée de chacun de ces deux types de code, comme l’étude des antineutrinos issus des réacteurs, la spallation ou la physique pour le médical.
    S’il est possible d’imaginer coupler les deux codes (par exemple Geant4 et TRIPOLI-4®) afin de couvrir un grand nombre d’applications, il n’en reste pas moins que les temps de calcul longs inhérents à l’utilisation des codes Monte-Carlo pour certaines applications peuvent constituer un frein à leur utilisation. Ainsi, l’utilisation des techniques les plus récentes en matière de calcul haute performance est elle cruciale pour ce type de code.
    D’un côté, de par sa nature, la méthode Monte Carlo est naturellement parallélisable et cet aspect a été largement utilisé par la plupart des codes Monte Carlo en transport neutronique que cela soit par un parallélisme de tâches en mémoire distribuée ou en mémoire partagée [1][7][8][11].
    D’autre part, et plus récemment, au-delà du parallélisme naturel de tâches, un deuxième niveau de parallélisme est étudié avec une décomposition des données, qui offre l’avantage de distribuer également la mémoire et plus uniquement les calculs [9][10][15][16].
    Avec l’avènement des accélérateurs de calcul, notamment les GPU (Graphics Processing Unit) de nouvelles recherches ont eu lieu sur l’utilisation de ce type d’architectures pour accélérer le processus Monte Carlo, que cela soit sur la phase de suivi des trajectoires des particules dans la géométrie (particle tracking) ou sur la partie calcul des informations physiques (énergie déposée,…) [12][13][14].
    L’utilisation des accélérateurs de calcul est prometteuse en termes de gains potentiels sur le temps de calcul. Cependant, le comportement stochastique par essence des trajectoires est souvent antinomique avec la régularité nécessaire des traitements de données notamment sur GPU [18]. Les études réalisées sont souvent sur des applications restreintes du transport Monte Carlo (transport photonique, applications en radiothérapie …). En outre les modèles d’architecture et de programmation des accélérateurs graphiques en termes entrainent des limitations. Le modèle de programmation privilégié est le langage CUDA et seulement des portions de codes peuvent être déportées sur accélérateurs [17].
    Très récemment, Intel a proposé de nouvelles architectures de calcul, « Many Integrated Core » (MIC) avec le Xeon Phi [19] qui offre l’avantage d’être basées sur des processeurs de type x86 et donc avec des modèles de programmation compatibles avec des processeurs standards. Il est cependant nécessaire d’utiliser les différents niveaux de « parallélisme », multithreading et vectorisation, pour tirer parti des performances de ce type d’architecture [20]. Outre les langages et modèles de programmations classiques (C/C++, Fortran, MPI, OpenMP), de nouveaux langages, comme Cilk+ ou TBB, compatibles avec les CPUs standards, sont utilisables et offrent la possibilité d’exprimer plus simplement les différents niveaux d’accélérations.
    Au-delà de l’utilisation « simple » d’un processeur standard et d’un accélérateur, de manière couplée ou non, l’apport de multiples accélérateurs de calculs (GPU ou MIC) en parallèle sont également des options à étudier pour accélérer de manière massive le transport Monte Carlo.
    Contributions attendues

    Dans le cadre de cette thèse, nous nous proposons d’étudier l’apport des accélérateurs de type Intel MIC pour le transport de particules par la méthode Monte Carlo.
    Les différentes étapes de la simulation seront à étudier (tracking, scoring, ….) ainsi que les meilleures approches en termes de modèles de programmation afin d’assurer le meilleur compromis possible entre performances et pérennité des modèles utilisés.
    Une démarche incrémentale sera utilisée avec une validation des différentes étapes en termes de précision des calculs et des performances apportées par les nouvelles approches par rapport à des calculs de références avec le code de transport TRIPOLI4.
    Une attention particulière devra être apportée sur l’architecture logicielle du code développé permettant notamment de prendre en compte la pérennité indispensable du code de calcul.
    Dans un deuxième temps, ces études seront étendues à l’utilisation de plusieurs accélérateurs de calcul en parallèle pour aboutir à un transport Monte Carlo sur un cluster d’accélérateurs de type Intel Xeon Phi

    Références
    [1] https://rsicc.ornl.gov/codes/ccc/ccc7/ccc-740.html
    [2] Gregg W. McKinney, "Physics and Algorithm Enhancements for a Validated MCNPX Monte Carlo Simulation Tool", ARI Grantees Conference, Washington, DC, April 6-9, 2009
    [3] F.B. Brown, B.C. Kiedrowski, J.S. Bull, J.T. Goorley, H.G. Hughes, M.R. James, "Advances in the Development and Verification of MCNP5 and MCNP6", International Conference on Nuclear Criticality, Edinburgh, Scotland, 19-22 September 2011
    [4] http://geant4.web.cern.ch/geant4/
    [5] Nuclear Instruments and Methods in Physics Research A 506 (2003) 250-303
    [6] P.K. Romano and B. Forget, “The OpenMC Monte Carlo particle transport code”, Annals of Nuclear Energy, 51, C, 274-281 (2013).
    [7] P.K. Romano, B. Forget and F. Brown, “Towards scalable parallelism in Monte Carlo particle transport codes using remote memory access”, Progress in nuclear science and technology, 2, 670-675 (2011).
    [8] A.R. Siegel, K. Smith, P.K. Romano, B. Forget and K.G. Felker, “Multi-core performance studies of a Monte Carlo neutron transport code”, International Journal of High Performance Computing Applications (2013.
    [9] P.K. Romano, A.R. Siegel, B. Forget and K. Smith, “Data decomposition of Monte Carlo particle transport simulations via tally servers”, Journal of Computational Physics, 252, 0, 20-36 (2013).
    [10] R. Procassini, M. O’Brien and J. Taylor, “Load balancing of parallel Monte Carlo transport calculations”, International Conference on Mathematics and Computation (2005).
    [11] W.R. Martin et al “Monte Carlo photon transport on shared memory and distributed memory parallel processors”, International Journal of High Performance Computing Applications, 1.3, 57-74 (1987).
    [12] J. Tickner, “Monte Carlo simulation of X-ray and gamma-ray photon transport on a graphics-processing unit,” Comp. Phys. Comm., 181, 1821–1832 (2010).
    [13] F. W. L. Jahnke, J. Fleckenstein and J. Hesser, “GMC : a GPU implementation of a Monte Carlo dose calculation based on Geant4,” Phys. Med. Biol., 57, 1217–1229 (2012).
    [14] George Xu, Tianyu Liu, Lin Su, Xining Du, Matthew Riblett, Wei Ji., “An Update of ARCHER, a Monte Carlo Radiation Transport Software Testbed for Emerging Hardware Such as GPUs”, American Nuclear Society Annual Meeting, Atlanta, GA, June 16-20, 2013.
    [15] J.Liang, Y.Cai, K.Wang et al., “Implementation of Domain Decomposition and Data Decomposition Algorithms in RM Ccode”, Joint International Conference on Supercomputing in Nuclear Applications and Monte Carlo 2013, (2013).
    [16] D. Dureau, G. Poëtte, “Hybrid parallel programming models for AMR neutron Monte Carlo transport”, Joint International Conference on Supercomputing in Nuclear Applications and Monte Carlo 2013, (2013).
    [17] “CUDA Toolkit,” https://developer.nvidia.com/cuda-toolkit/.
    [18] “Control Flow Divergence,” http://developer.download.nvidia.com/CUDA/training/Inst_limited_kernels_Oct2011.pdf.
    [19] James Reinders, “An overview of programming for Intel Xeon Phi processors and Intel Xeon Phi coprocessors” (2012)
    [20] C. Calvin, F. Ye and S. Petiton, “The Exploration of Pervasive and Fine-Grained Parallel Model Applied on Intel Xeon Phi Coprocessor”, 8th International Conference on P2P, Parallel, Grid, Cloud and Internet Computing (2013).
    [21] “Intel Xeon Phi Coprocessors System Software Developers Guide” (2012)

    Voir en ligne : http://www.maisondelasimulation.fr/...

  • Contexte et problématique :

    Durant leur séjour en réacteur, les matériaux composant les éléments des centrales électronucléaires sont soumis à de fortes contraintes en température, pression et irradiation. Les mécanismes de vieillissement des composants sont très divers : corrosion, fatigue, irradiation, évolution microstructurelle du béton, vieillissement physique et chimique des polymères, etc.
    Afin d’anticiper les effets du vieillissement, l’IRSN étudie cette thématique dans ses programmes de recherche. En particulier, le laboratoire MIST (laboratoire commun IRSN/CNRS UMR5508/UMII) s’intéresse aux recherches avancées sur le vieillissement du béton (enceinte de confinement) et des composants métalliques (cuve, interne de cuve et générateur de vapeur). L’approche micromécanique développée par l’IRSN en collaboration avec le Laboratoire de Mécanique et de Génie Civil de Montpellier (UMR5508) dans le cadre des recherches relatives à la sûreté des réacteurs à eau sous pression pour l’analyse des tenue des gaines de combustible lors de transitoires accidentels peut être transposée aux problématiques liées au vieillissement des matériaux.
    Cette approche repose sur les notions de modèles de zone cohésive frottante (MZCF) et de méthodes de modélisation numérique des systèmes multicorps basées sur l’approche Non Smooth Contact Dynamics (NSCD). Les MZCF permettent de simuler l’initiation, la propagation de multifissures et les comportements non réguliers post-fracture tels que le contact frottant. La résolution des problèmes de contact non réguliers est effectuée à l’aide de l’approche NSCD et ne nécessite ni régularisation ni pénalisation. L’approche micromécanique a été implémentée dans la plateforme numérique Xper basée sur le couplage des bibliothèques PELICANS (IRSN) et LMGC90 (CNRS UMR5508) permet de traiter en grandes déformations l’initiation et la propagation de multifissures de matériaux hétérogènes.

    L’approche micromécanique développée permet une résolution fine des phénomènes physiques et notamment d’accéder aux informations locales sur les états de fissuration. Cependant, les temps de calcul sont élevés pouvant atteindre plusieurs semaines en 2D.
    La thèse proposée entre dans le cadre de la réduction du coût numérique. L’objectif est l’adaptation de la résolution fine en espace dans les zones d’intérêt. La stratégie repose ici sur des techniques de raffinement local adaptatif. Au cours du calcul, le maillage est raffiné dans des zones suivant un indicateur. L’indicateur pressenti est fourni par la méthode de fissuration appelée « Eigenerosion » qui a l’avantage d’être indépendante au maillage tout en conservant un coût de calcul raisonnable de l’ordre d’une résolution Eléments Finis standard. Une attention particulière sera portée d’une part à l’écriture des algorithmes de raffinement local adaptatif et notamment à l’insertion de modèles surfaciques fournies par les MZCF aux frontières des éléments et d’autre part à la résolution du problème discret reposant sur des préconditionneurs multigrilles.

    Le candidat pourra s’appuyer particulièrement sur les développements numériques implémentés et disponibles dans la bibliothèque PELICANS.
    Les travaux permettront de réduire considérablement le temps calcul en ne réalisant les calculs coûteux que dans les zones de propagation de fissures. Cela permettra à terme d’effectuer des études fines en 3D de fissuration de matériaux hétérogènes soumis à des chargements thermomécaniques représentatifs de transitoires accidentels inaccessibles actuellement.

    Lieu :

    Cadarache (13)

    Contact :

    frederic.perales@irsn.fr

  • Les villes souhaitent aujourd’hui se munir d’outils de surveillance et d’aide à la décision dans de nombreux domaines de leur compétence. Ces outils peuvent reposer sur l’observation dans la ville ou sur la modélisation numérique. Ces deux approches sont complémentaires, et les futurs systèmes de gestion des villes devront faire un usage optimal et combiné des deux.

    Le couplage entre la modélisation numérique et l’observation est réalisé par des méthodes d’assimilation de données. Elles permettent d’estimer au mieux l’état d’un système, d’améliorer des prévisions et de quantifier les incertitudes associées. Les techniques d’assimilation sont historiquement issues de la météorologie et ont énormément contribué à l’amélioration des prévisions. De nombreux domaines en environnement bénéficient de ces techniques. L’assimilation de données perce aujourd’hui en médecine et en biologie.

    À l’échelle d’une ville, des modèles existent pour le trafic routier, pour l’exposition au bruit, pour la gestion des eaux, etc. Des observations, souvent issues de capteurs distribués dans la ville, apportent généralement une information ponctuelle mais précise. La question posée dans la thèse est de combiner de manière optimale modèles et observations pour la gestion d’une ville. Il s’agira de proposer une approche complète d’un système urbain fondée sur un ou plusieurs modèles de simulation et des données d’observation. Les objectifs scientifiques concerneront principalement l’estimation d’état, la quantification d’incertitude a priori et a posteriori (i.e., avant et après assimilation des observations) et l’optimisation du réseau d’observation.

    Les travaux seront au moins déclinés autour de la qualité de l’air. La question de l’optimisation du réseau d’observation sera un aspect important du projet. On s’intéressera tout particulièrement aux données issues de capteurs mobiles (par exemple, installés sur des bus) pour lesquels la stratégie de collecte des données doit être optimisée. D’autres applications pourront être envisagées, notamment autour du bruit, sur lequel deux des équipes de recherche impliquées commencent à travailler.

    Les méthodes employées reposeront sur la réduction de modèle, les simulations Monte Carlo et l’inférence bayésienne. Cf. la description plus complète de la thèse : http://www-rocq.inria.fr/clime/jobs/2014/these-ville_numerique.pdf

  • La prévision de la qualité de l’air à l’échelle urbaine nécessite de coupler plusieurs modèles : des modèles de sources d’émissions, dont en particulier le trafic routier ; un modèle météorologique ; un modèle de chimie-transport atmosphérique. Chacun de ces modèles est source d’incertitudes. L’objectif de la thèse proposée est d’estimer l’incertitude d’un modèle d’émissions du trafic routier. Ce sujet s’inscrit au coeur du projet de recherche ESTIMAIR (estimation d’incertitude en simulation de la qualité de l’air à l’échelle urbaine). Le modèle d’émission du trafic routier utilisé dans ESTIMAIR comprend deux composantes. La première est un modèle d’affectation dynamique de trafic (LADTA), développé par l’École des Ponts ParisTech. La deuxième composante est formée des facteurs d’émission publiés par l’Agence Européenne de l’Environnement (COPERT IV).

    La thèse portera essentiellement sur la modélisation de l’incertitude du modèle d’affectation dynamique de trafic. Une affectation consiste à calculer un équilibre offre-demande, sous contrainte de capacité des arcs du réseau, de telle sorte que, à chaque instant, les usagers soient distribués sur des itinéraires concurrents iso-coût. Alors que le problème d’affectation statique se formule comme un problème classique d’optimisation, le cas dynamique est mathématiquement plus complexe (système d’inéquations variationnelles). De ce fait, la modélisation de l’incertitude en affectation dynamique de trafic est un sujet encore peu exploré. Cela implique dans un premier temps l’identification et la caractérisation des sources d’incertitude concernant en particulier : l’offre de transport (structure du réseau, capacités des arcs, etc.) ; la demande de transport, exprimée sous la forme d’une matrice origine-destination dynamique qui associe un débit de demande à chaque instant de la période d’étude et à chaque couple origine-destination ; les modèles de comportement des usagers (ex : choix d’itinéraire).

    Pour évaluer au mieux les incertitudes associées aux simulations numériques, une stratégie est de reposer sur un ensemble de simulations qui échantillonne correctement les erreurs que peut commettre une simulation. Cet ensemble peut être généré par une approche Monte Carlo. Nous prévoyons de générer un ensemble d’affectations de trafic et de calibrer cet ensemble à partir des observations trafic. Il s’agira : (1) de générer un ensemble d’affectations de trafic en utilisant une approche Monte Carlo ; (2) de proposer des indicateurs pertinents pour l’évaluation de cet ensemble ; (3) de calibrer cet ensemble pour qu’il soit représentatif des incertitudes. Ce afin de déterminer une forme raisonnable de la distribution de probabilité des incertitudes sur les données d’entrées, d’une part, et des incertitudes de modélisation, d’autre part. L’incertitude dans le calcul des émissions nécessitera, dans un second temps, de perturber les facteurs d’émission COPERT. Le doctorant sera pleinement intégré à l’équipe projet ESTIMAIR. Il aura à disposition les données et modèles fournis par les partenaires du projet. En particulier, les ensembles d’émissions générés permettront un couplage avec le modèle de qualité de l’air SIRANE sur l’agglomération de Clermont-Ferrand. La méthodologie que le doctorant développera, appliquée à la question des émissions du trafic routier, a vocation à être générique et applicable à toute chaîne complexe de modélisation.

  • In the Numerical Analysis and Scientific Computing team of the Department of
    Mathematics and Statistics of the University of Strathclyde, Glasgow (United Kingdom) we are looking to fill a fully
    funded 3-year PhD position. The candidate must be European citizen in order to be
    eligible for funding.

    Imaging subsurface structures, e.g. concrete tanks, pipes, cavities, is carried out using
    mainly non-intrusive techniques. Such techniques have the ability to gather information
    across an entire area but their detecting ability is often restricted due to unfavourable on-
    site conditions. In addition, the estimation of the location of any structure is based on
    simplistic velocity models for the subsurface and thus introducing big uncertainties in the
    final solution. More complicated models would require the design of numerical algorithms
    for large-scale accurate simulations, something that has not been applied in seismic
    surveys or in Seismology before.

    One of the objectives should be the development of new methods for the elastodynamics
    equations in frequency regime. This systems is indefinite in nature, with highly
    heterogeneous coefficients and multiple spatial scales. Moreover, since the properties of
    the medium are very often unknown, this implies the solution of inverse problems, which
    lead to repeatedly solve large and complex linear systems, whose size could attain
    millions of unknowns in the high frequency regime. This project will contribute by large
    scale numerical simulation of partial differential equations based models in an in-depth
    knowledge of different aspects of mathematical models from geophysics and geology.

    Contact for application : Victorita.Dolean@strath.ac.uk

  • The aim of the thesis is to develop a numerical method to provide a new identification methodology that can be applied to models with many parameters. Among these models, we focus on classical viscoplastic models, which require finding several sets of 5 or 7 parameters, depending on the smoothness of the model regarding temperature variations. The core of the method is a tensor approximate representation of response surfaces. At the end of the thesis, we would like to identify models involving 20 parameters, despite the curse of dimensionality. The tensor approximation will be based on the results of nonlinear mechanical predictions. Due to the numerical complexity of the models, we want to achieve these simulations on the fly, to treat the problems they are necessary to treat. We propose to develop an a priori model reduction method on the basis of the TT-cross approximation which does not suffer from the curse of dimensionality. This method should lead to a factorization of intensive computations.
    References
    A priori hypereduction method : an adaptive approach, D. Ryckelynck, Journal of Computational Physics, Vol. 202 , N°1 , pp 346 - 366, (2005).
    TT-cross approximation for multidimensional arrays, Ivan Oseledets, Eugene Tyrtyshnikov, Linear Algebra and its Applications 432 (2010) 70–88.
    Low-Rank Tensor Completion by Riemannian Optimization, Daniel Kressner, Michael Steinlechner, Bart Vandereycken, BIT Numerical Mathematics, DOI 10.1007/s10543-013-0455-z, (2013).

  • Le CIRIMAT (Toulouse, FR) propose un sujet de thèse à la fois théorique (calculs DFT et MD) et expérimental (films minces, XPS, AFM) qui devra permettre d’élaborer un modèle mécanistique de la formation de films métalliques sur matériaux composite à matrice polymère.

    Il s’agit d’une thèse avec bourse ministérielle (MESR), soutenue par des projets ANR et région Midi-Pyrénées.

    Nous cherchons un(e) candidat(e) issu(e) d’une formation physique/chimie du solide, ou science des matériaux, capable ou désireux/se d’appréhender les deux aspects du projet, avec le soutien des deux encadrants (l’un théoricien, professeur à l’ENSIACET, l’autre expérimentateur, chercheur CNRS).

    Merci de proposer votre candidature en premier lieu à thomas.duguet@ensiacet.fr et corinne.dufaure@ensiacet.fr (CV, motivation, notes Master II), avant de candidater sur le site de l’école doctorale Science de la Matière (http://www.edsdm.ups-tlse.fr/ - sujet CIRIMAT MESR Priorité 4).

  • In their move toward more efficient use of infrastructures, communication and services, cities need better tools for decision making, especially for environmental management. These tools should rely on in situ observations and numerical simulations, and optimally merge these two information sources for analysis and forecast. A key and challenging point is to always provide uncertainty estimation along with the analyses and forecasts. The PhD offer precisely deals with the development of methods for uncertainty quantification, with application to traffic simulation at urban scale.

Un message, un commentaire ?

modération a priori

Ce forum est modéré a priori : votre contribution n’apparaîtra qu’après avoir été validée par un administrateur du site.

Qui êtes-vous ?
Votre message
  • Pour créer des paragraphes, laissez simplement des lignes vides.

  • Lien hypertexte

    (Si votre message se réfère à un article publié sur le Web, ou à une page fournissant plus d’informations, vous pouvez indiquer ci-après le titre de la page et son adresse.)

Ajouter un document