Commit ffa0b835 authored by gouarin's avatar gouarin
Browse files

remove md files

parent 63dbdc8c
title: Ecole Thématique du GDR Calcul : "Méthodes multirésolution et méthodes de raffinement adaptatif de maillage"
date: 2010-02-18 10:36:59
modified: 2010-06-21 14:09:14
category: evt_sci
tags: ['article']
slug: spip_article-131
authors: Loïc Gouarin
summary: None
Depuis quelques années, le besoin se fait sentir de réaliser la simulation numérique de problèmes multi-échelles de plus en plus complexes.
La complexité croissante de ces problèmes, intéressants des disciplines scientifiques diverses (combustion, médecine, fusion ...), nécessite des méthodes adaptées, tant du point de vue numérique, que du point de vue informatique au niveau de leur implémentation. Ces deux aspects sont fortement liés.
Nous proposons, dans cette école thématique, de faire le point sur les méthodes de multirésolution adaptatives et les méthodes de raffinement adaptatif de maillage pour la simulation des équations aux dérivées partielles évolutives, qu’elles soient de type paraboliques ou hyperboliques. Ces méthodes sont particulièrement efficaces pour des solutions qui présentent soit des singularités, soit des fronts raides, fortement localisés en espace et se propageant dans le temps. Elles permettent alors de traiter le caractère multi-
échelle spatial, et éventuellement temporel, d’un ensemble de problèmes couvrant un large spectre d’applications (dynamique des gaz, biomédical, combustion, dynamique chimique non-linéaire, décharges plasmas).
## Description
Les objectifs de cette école thématique sont:
- de faire connaître les avancées récentes du calcul scientifique sur ces méthodes,
- d'évoquer les questions liées à leur implémentation (structures des données, algorithmes, ...) en lien avec les architectures de calcul émergentes (et notamment le massivement parallèle),
- d'aborder ces deux points sur le plan pratique.
L'école s'est déroulé du 14 juin 2010 au 18 juin 2010 à Fréjus. Elle a été constituée de 3 cours théoriques de 6h donnés par K. Schneider, R.
Deiterding, Sonia Gomez, Kolja Brix et Sorana Melian (collaborateurs de S.
Mueller). Et s'est terminée par 3h de cours et 3h de TP sur l'implémentation de ces méthodes donnés par Guillaume Latu, Christian Tenaud et Max Duarte. Ces cours ont été complétés en soirée par des exposés scientifiques donnant des applications concrètes de ces méthodes.
Les cours donnés vont être publiés sous la forme de [ESAIM proceedings](http://www.esaim-proc.org/) :
- Publication editor(s) : E. Cancès (ESAIM, CERMICS - Ecole des Ponts ParisTech), V. Louvet (Institut Camille Jordan, Lyon), M. Massot (EM2C, ECP, Paris).
Les supports de cours et les TP sont disponibles sur demande à louvet@math.univ-lyon1.fr.
## Comité Scientifique
- Stéphane Descombes (Dieudonné, NIce)
- Marc Massot (ECP, Paris)
- Marie Postel (LJLL, Paris)
- Kai Schneider (CMI, Marseille)
- Eric Sonnendrücker (IRMA, Strasbourg)
- Christian Tenaud (LIMSI, Orsay)
*Cette école s’appuie sur un récent colloque ["Multiresolution and Adaptive Methods for Convection-Dominated Problems"](http://www.ann.jussieu.fr/mamcdp09/) organisé en janvier 2009 au Laboratoire Jacques-Louis Lions à Paris, un [mini-symposium du congrès SMAI 2009 sur le sujet]({filename}/evt_sci/spip_article-76.md), ainsi qu'une [journée scientifique du GDR Calcul en automne 2009]({filename}/evt_sci/spip_article-82.md).*
## Comité d'organisation
- Max Duarte (EM2C, ECP, Paris)
- Thierry Dumont (Institut Camille Jordan, Lyon)
- Sylvain Faure (Maths,Orsay)
- Loïc Gouarin (Maths, Orsay)
- Violaine Louvet (Institut Camille Jordan, Lyon)
title: Journée GNR MOMAS / GDR Calcul, 5 mai 2010, Paris
date: 2010-02-19 12:15:34
modified: 2010-05-17 06:29:19
category: evt_sci
tags: ['article']
slug: spip_article-135
authors: Webmaster
summary: None
Le [GNR Momas](http://www.gdrmomas.org/presentation.html) et le [GDR Calcul]({filename}/groupe/spip_rubrique-42.md) ont organisé une journée commune sur le thème calcul haute performance et applications au stockage souterrain des déchets.
*Organisateurs* : Grégoire Allaire (MOMAS), Stéphane Lantéri, Violaine Louvet (Calcul)
Les conférenciers ont été invités à la fois par le GDR Calcul, et par le GNR MOMAS. Le but de cette journée était de favoriser les échanges entre les deux communautés en apportant des éclairages différents sur les enjeux, les méthodes et les algorithmes utilisés en HPC.
**Supports des présentations**
- *Ph. Montarnal*, CEA Saclay, co-auteurs Th. Abballe, F. Caro et E. Laucoin
- [développements pour les écoulements et le transport en milieux poreux dans le code MPCube : mise en œuvre dans un environnement parallèle et EF/VF multi-échelles.](attachments/spip/Documents/Journees/mai2010/PMontarnal.pdf)
- *Olivier Le Maitre*, LIMSI
- [Méthodes spectrales, grilles creuses, et analyses multirésolution pour la propagation des incertitudes.](attachments/spip/Documents/Journees/mai2010/OLeMaitre.pdf)
- *Sylvie Granet*, EDF Clamart
- [Les calculs hautes performances à EDF autour des codes utilisés pour le stockage.](attachments/spip/Documents/Journees/mai2010/SGranet.pdf)
- *Marc Leconte et Bernard Vialay*, ANDRA
- [Le calcul haute performance à l'Andra : quelques exemples de réalisations à ce jour.](attachments/spip/Documents/Journees/mai2010/BVialay-MLeconte.pdf)
- *Luc Giraud*, INRIA
- [Solveurs linéaires parallèles par décomposition de domaine algébrique.](attachments/spip/Documents/Journees/mai2010/LGiraud.pdf)
- *Caroline Japhet*, Paris 13
- [Méthodes de raffinement espace-temps.](attachments/spip/Documents/Journees/mai2010/CJaphet.pdf)
- *Stéphane Descombes*, Laboratoire J.Dieudonné
- [Méthodes numériques performantes en espace/temps pour la simulation des fluides réactifs.](attachments/spip/Documents/Journees/mai2010/SDescombes.pdf)
- *Jocelyne Erhel*, IRISA
- [Méthodes numériques pour des modèles couplés et stochastiques d'hydrogéologie.](attachments/spip/Documents/Journees/mai2010/JErhel.pdf)
- *Luigi Genovese*, ESRF, prix BULL-Fourier 2009
- [Le projet BigDFT : Méthodes Ab initio, ondelettes et supercalculateurs massivement parallèles avec GPU.](attachments/spip/Documents/Journees/mai2010/LGenovese.pdf)
title: Confirmation de pré-inscription à l'Ecole Thématique
date: 2010-02-19 12:30:19
modified: 2010-02-19 13:19:17
category: evt_sci
tags: ['article']
slug: spip_article-138
authors: Webmaster
summary: None
Merci pour votre pré-inscription.
**L'inscription ne sera définitive qu'à réception du dossier complet accompagné du règlement avant le 30 avril 2010.**
[Toutes les informations pour envoyer ce dossier sont en ligne]().
[Retour à la page de l'Ecole Thématique.]({filename}/evt_sci/spip_article-131.md)
title: Programme détaillé
date: 2010-05-10 13:36:19
modified: 2010-06-21 14:09:34
category: evt_sci
tags: ['article']
slug: spip_article-141
authors: Webmaster
summary: None
Les supports de cours et les TP sont disponibles sur demande à louvet@math.univ-lyon1.fr.
## Cours AMR
**Ralf Deiterding (RD), Oak Ridge National Laboratory, USA**
*6 hours (4 x 1.5 h)*
Adaptive Mesh Refinement Methods for Conservation Laws
Theory, Implementation and Application
## Cours MR 1
**Kai Schneider (KS), CMI Universite de Provence, Marseille, France**
*6 hours (4 x 1.5 h)*
Adaptive Multiresolution Methods for PDEs:
Fundamentals, Modeling and Applications
## Cours MR 2
**Sonia Gomes (SG), Unicamp, Brasil**
*3 hours (2 x 1.5 h)*
Adaptive Multiresolution Methods for Conservation Laws:
Numerical analysis
## Cours MR 3
**Kolja Brix (KB)/Sorana Melian (SM), RWTH Aachen, Germany**
*3hours (2 x 1.5 h)*
Adaptive Multiresolution Methods:
Practical issues on Data Structures, Implementation and Parallelization
## Cours Informatique et implémentation
**Guillaume Latu (GL), CEA, France**
*3 hours (2 x 1.5 h)*
- Multi-resolution methods: some applications
- Algorithmic and high-performance tools
- Data structures for multiresolution
- Some wavelet algorithms (1D)
- Optimization
## TP Informatique et implémentation
**Christian Tenaud(CT), LIMSI, France; Max Duarte (MD) ECP/EM2C, France**
*3 hours (2 x 1.5 h)*
## Séminaires
*4 x 45 mn*
- **Thibaut Ménard, CORIA, Rouen**, "An adaptive mesh refinement method for incompressible two phase-flows"
- **Max Duarte, EM2C, ECP**
- **Kolja Brix, RWTH Aachen, Germany**
title: Mini-symposium CANUM 2010 "Modélisation et calcul scientifique : les enjeux en génération d'images"
date: 2010-05-17 08:01:39
modified: 2010-06-07 13:58:03
category: evt_sci
tags: ['article']
slug: spip_article-148
authors: Webmaster
summary: None
Ce mini-symposium du [CANUM 2010](http://smai.emath.fr/canum2010/) a été organisé par Stéphane Labbé (LJK, Grenoble) pour le GDR Calcul.
L'évolution des moyens de calcul de ces dernières années a permis non seulement d'augmenter considérablement le volume des simulations mais aussi la taille des images qui peuvent être traitées. Dans les deux cas, la mise en place de nouvelles techniques adaptées aux dernières architectures devient indispensable. Afin d'illustrer ces évolutions, trois exposés ont été proposés :
- **Parallélisation d'opérateurs de TI: multi-coeurs, Cell ou GPU**, *Lionel Lacassagne, Université Paris Sud.* [Support](attachments/spip/Documents/Manifestations/CANUM2010/lacassagne.pdf)
- **Visualisation Distante Temps-Réel de Données Massives**, *Sébastien Barbier, CEA.* Support à venir.
- **Réduction de graphes pour la segmentation d’images par graph cuts**, *Nicolas Lermé, Université Paris 13.* [Support](attachments/spip/Documents/Manifestations/CANUM2010/lerme.pdf)
Les thèmes abordés à travers ses trois exposés sont la segmentation d'images et le développement d'algorithmes adaptés à de grands volumes de données, la visualisation des données des simulations de grande taille et la comparaison d'architectures de machines dans le cadre de calculs pour le traitement d'images.
## Résumés
- **Parallélisation d'opérateurs de TI: multi-coeurs, Cell ou GPU**
Nous présentons une évaluation des performances de 3 classes architectures actuelles : processeurs généralistes multicoeurs (GPP), carte graphique (GPU) et processeur Cell. L’algorithme retenu est l’opérateur de Harris pour sa représentativité du traitement d'image bas niveau (calculs réguliers, opérateurs ponctuels et convolutions). Le but est de guider l’utilisateur dans le choix d’une architecture parallèle et d’ évaluer l’impact des différentes transformations algorithmiques et optimisations logicielles afin d’avoir une implantation en adéquation avec l’architecture.
- **Visualisation Distante Temps-Réel de Données Massives**
La croissance des supercalculateurs et de leur capacité de calculs repousse sans cesse les limitations en taille des maillages pour le code de calcul. Ceux-ci atteignent aujourd’hui les gigaoctets voire les petaoctets. Le dépouillement visuel par le biais de la visualisation scientiï¬que de ces données massives peut devenir problématique lorsque l’utilisateur réalise le post-traitement sur sa machine de travail et non sur le supercalculateur distant. Ces problèmes sont de deux ordres : le stockage limité de l’information sur la machine locale et l’interactivité de la visualisation.
Pour pallier à ces goulots d’étranglements, la visualisation scientiï¬que a mis en place des solutions dites distantes sur un modèle client/serveur. Ces solutions proposent de diminuer la quantité d’informations transmise par le réseau. Elles peuvent reposer sur la simpliï¬cation guidée des données mais
provoquent une dégradation de l’image ï¬nale pouvant perturber l’analyse. Cette approche est couplée avec la génération d’images à haute qualité directement depuis le supercalculateur. Cela peut induire une latence lors de la manipulation spatiale du point de vue via les interfaces utilisateurs (souris,
clavier) et impose une grappe d’odinateurs dédiée à la visualisation scientiï¬que.
Nous proposons une solution alternative pour la visualisation scientiï¬que distante reposant sur les approches dites multirésolution et la connaissance des zones d’intérêt au sein des données issues de la simulation. Elle consiste à envoyer un maillage dégradé au sein duquel sera insérée une zone à résolution initiale (ou haute) contrôlée par l’utilisateur. Un unique maillage est affiché avec des techniques de visualisation usuelles (sprites, isosurface, lignes de courant). Ce maillage, dit birésolution, est constitué de
trois zones : une simplifiée, une à haute résolution dirigée par l’utilisateur et une dite de recollement. Le maillage simplifié pourra être issu d’une précédente simulation à moindre échelle ou extrait par des algorithmes de simpliï¬cation spécifiques en prétraitement. La zone de recollement est extraite à la volée en fonction de la zone à haute résolution grâce au précalcul d’une surjection unissant les sommets du maillage dégradée à ceux du maillage haute résolution. Le calcul du maillage birésolution est optimisé
au sein des mémoires centrales et des cartes graphiques dans le cadre d’un usage local, puis au sein d’une version en mémoire externe pour un usage distant via un partitionnement préalable des données.
Une telle solution assure ainsi un compromis sur l’envoi par le réseau de la géométrie. Plus précise qu’une dégradation complète, elle garantit une meilleure compréhension visuelle des données lors de manipulation du point de vue (rotation, translation) ou de la zone d’intérêt. Elle permet l’interactivité lors d’un usage en local et un dépouillement temps-réel relatif au débit du réseau disponible contrairement à l’utilisation d’un maillage à pleine résolution ne pouvant être transmis et stocké sur la machine locale.
- **Réduction de graphes pour la segmentation d’images par graph cuts**
En quelques années, les graph cuts se sont imposés comme un outil majeur capable de résoudre de nombreux problèmes issus du traitement d’images et de la vision par ordinateur. Néanmoins, pour de gros volumes de données, cette technique implique la construction de graphes qui ne rentrent pas toujours en mémoire centrale. Actuellement, la plupart des algorithmes de flot maximum / coupe minimum sont incapables de résoudre de telles instances. Dans le cadre de la segmentation d’images, pour pallier
ce problème, certains auteurs ont proposé des heuristiques grossières qui ne permettent d’obtenir qu’un optimum local de l’énergie. Nous proposons une nouvelle stratégie pour réduire les graphes durant leur création : les noeuds du graphe réduit sont typiquement localisés dans une bande étroite autour des contours des objets à segmenter. Empiriquement, les solutions obtenues par le graphe réduit et le graphe non réduit sont identiques. De plus, grâce à un algorithme rapide, nous montrons que le temps de calcul nécessaire à la réduction est souvent compensé par le faible temps de calcul de la coupe minimum sur le graphe réduit. Le réglage d’un paramètre supplémentaire permet de diminuer davantage la taille du graphe réduit tout en contrôlant la segmentation obtenue. Enfin, nous présentons quelques résultats expérimentaux pour la segmentation de volumes de données 2D et 3D par un modèle semi-interactif de type Boykov/Jolly et un modèle basé sur la variation totale.
title: Journées du GDR et du réseau Calcul, 9 et 10 novembre 2010
date: 2010-07-23 06:49:48
modified: 2010-11-30 07:24:24
category: evt_sci
tags: ['article']
slug: spip_article-157
authors: Webmaster
summary: None
Le Groupe Calcul (réseau et GDR) a organisé ses journées 2010 les
9 et 10 novembre à Lyon, sur le thème : **"Nouvelles
tendances en calcul scientifique"**.
- [Affiche de la journée](attachments/spip/Documents/Journees/nov2010/affiche2010.pdf)
- [Liste des inscrits]()
## Support des exposés
- **Christophe Prudhomme**, Université de Grenoble, *"Génération Automatique de Codes Efficaces pour des Architectures Hybrides pour des Méthodes de type Galerkin généralisé"*.
- [Support de l'exposé](attachments/spip/Documents/Journees/nov2010/C-Prudhomme.pdf)
We review and update the standard Galerkin context within Feel++(formerly known as Life): first we present the mathematical/computational framework as well as the variational formulation language. Then we propose a strategy to for our computational framework to exploit hybrid architectures (CPU/GPU) and some first results.
- **Nicolas Brisebarre**, CNRS, LIP/Arénaire, ENS Lyon, *"Synthèse de polynômes efficaces en machine"*
- [Support de l'exposé](attachments/spip/Documents/Journees/nov2010/N-Brisebarre.pdf)
Quand on implante des fonctions en machine, on utilise presque toujours des approximations polynomiales. Dans la plupart des cas, le polynôme qui approche le mieux (pour une norme et un intervalle donnés) une fonction a des coefficients qui ne sont pas exactement représentables sur un nombre fini de bits, ce qui est pourtant une des contraintes à respecter impérativement par ces bons approximants. Nous présenterons une méthode heuristique utilisant l’algorithmique des réseaux euclidiens, et notamment l’algorithme LLL, qui permet de produire une très bonne (voire la meilleure) approximation polynomiale sous ce type de contraintes quand la norme considérée est la norme sup. Des techniques similaires fonctionnent pour la norme L2. [Travaux de B., Chevillard, Hanrot, Muller, Tisserand et Torres].
- **Victorita Dolean**, Université de Nice, *"Grilles grossières pour les méthodes de décomposition de domaine avec des fortes hétérogénéités"*
- [Support de l'exposé](attachments/spip/Documents/Journees/nov2010/V-Dolean.pdf)
Les grilles grossières sont un ingrédient important pour obtenir des méthodes de décomposition de domaine qui passent à l’échelle. On propose la construction d’un espace grossier en utilisant les modes basses fréquence des opérateurs DtN (Dirichlet-Neumann) et on applique le préconditionneur à deux niveaux ainsi obtenu au système linéaire issu d'une décomposition de domaine avec recouvrement. Notre méthode est adaptée à une implémentation parallèle et son efficacité est montrée à l'aide des exemples numériques sur des problèmes avec des grandes hétérogénéités.
- **Jean Claude Yakoubsohn**, Université de Toulouse, *"LEDA : Logistique des Equations Différentielles Algébriques"*
- [Support de l'exposé](attachments/spip/Documents/Journees/nov2010/JC-Yakoubsohn.pdf)
Dans cet exposé j'expliquerai tout d'abord pourquoi les équations différentielles algébriques interviennent naturellement dans les applications (mécanique,chimie,biologie). Puis je présenterai le programme LEDA
concernant leur résolution formelle et numérique.
- **D. Komatitsch**, Université de Pau, *"Modélisation de la propagation des ondes sismiques en multi-GPUs"*
- [Support de l'exposé](attachments/spip/Documents/Journees/nov2010/D-Komatitsch.pdf)
Dans cet exposé je discuterai de l'utilisation de gros clusters de cartes graphiques GPU combinées à du passage de messages non bloquants par MPI pour modéliser la propagation des ondes sismiques dans la Terre à la suite d'un tremblement de terre. Je montrerai que des facteurs d'accélération d'environ 20x ou 25x peuvent être obtenus par rapport au cas séquentiel sur un coeur de CPU.
- **Francis Bach**, INRIA - Ecole Normale Supérieure, *"Calcul scientifique et apprentissage statistique"*
- [Support de l'exposé](attachments/spip/Documents/Journees/nov2010/F-Bach.pdf)
Les algorithmes d’apprentissage statistique utilisent de nombreuses techniques de calcul scientifique (systèmes linéaires, factorisation de matrices, matrice structurées, valeurs propres, etc.). Ces techniques sont souvent utilisées comme des boîtes noires. De plus en plus, la communauté apprentissage cherche à comprendre et étendre ces outils. Dans cet exposé, je présenterai les problèmes principaux liés a l’apprentissage statistique supervisé et non supervisé.
- **Bruno Dubroca**, Université de Bordeaux, *"Modélisation et approximation numérique des collisions relativistes pour l’interaction laser-plasma et la production d’énergie par fusion"*
- [Support de l'exposé](attachments/spip/Documents/Journees/nov2010/B-Dubroca.pdf)
Le calcul du transport des électrons est un point important pour la fusion nucléaire contrôlée. Pour les nouvelles installations envisagées pour l'approche par fusion inertielles les effets cinétiques sont trop importants pour être négligés. Les équations d'Euler bi-températures (Ti-T-e) ne sont plus valides dans tout le domaine de calcul et il faut considérer la résolution des équations de Fokker-Planck-landau couplées aux équations de Maxwell. Nous aborderons les problèmes numériques et de calcul posées par la résolution de ces équations.
La même théorie décrit la propagation des électrons dans le corps humain? Ce sont ces électrons qui détruisent les cellules cancéreuses pendant une radiothérapie. Nous donnerons une application directe des considérations précédentes pour la simulation de la dose radiologique déposée dans un patient.
- **Sébastien Barbier**, CEA, *Visualisation Scientifique Distante de Grands Volumes de Données*
- [Support de l'exposé](attachments/spip/Documents/Journees/nov2010/S-Barbier.pdf)
La croissance des supercalculateurs et de leur capacité de calculs repousse sans cesse les limitations en taille des maillages pour le code de calcul. Le dépouillement par le biais de la visualisation scientifique de ces données massives peut devenir problématique lorsque l'utilisateur réalise le post-traitement sur sa machine de travail et non sur le supercalculateur distant.
La visualisation scientifique a mis en place des solutions dites distantes sur un modèle client/serveur pour de telles configurations. Nous proposons une solution reposant sur les approches multirésolution et la connaissance des zones d'intérêt au sein des données issues de la simulation. Notre approche consiste à envoyer un maillage grossier au sein duquel est insérée une zone à résolution fine, zone contrôlée par l'utilisateur. Un unique maillage dit birésolution est reçu par le client et est affiché avec des techniques de visualisation usuelles (sprites, isosurface, lignes de courant, ...).
Le calcul du maillage birésolution est optimisé au sein des mémoires centrales et des cartes graphiques dans le cadre d'un usage local, puis au sein d'une version en mémoire externe pour un usage distant sur des supercalculateurs.
- **Nicolas Louvet**, ENS Lyon, *"Arithmétique flottante IEEE 754 et amélioration de la précision des calculs"*
- [Support de l'exposé](attachments/spip/Documents/Journees/nov2010/N-Louvet.pdf)
Depuis 1985, le standard IEEE 754 pour l'arithmétique binaire à virgule flottante s'est largement imposé sur les machines généralistes et dans les environnements de programmation. Ce standard a fourni un cadre rigoureux pour l'implantation fiable, portable et efficace de programmes flottants. Néanmoins, 15 ans après sa publication, le besoin de révision du standard devenait clairement apparent : afin de standardiser les nouvelles instructions mises à disposition des programmeurs sur les processeurs, comme par exemple le Fused Multiply-Add (FMA) des architectures IBM-POWER ou Intel-IA64 ; pour formaliser les formats flottants décimaux ainsi que les formats de grandes précision ; pour prendre en compte les avancées, en matière d'arrondi correct des fonctions élémentaires par exemple ; mais également pour tenter de corriger certaines des ambiguïtés que laissait subsister le standard de 1985. La révision a débuté en 2000, et le nouveau standard, souvent appelé IEEE 754-2008, a été adopté en juin 2008.
Dans cet exposé, nous passerons en revue certains des points les plus importants du standard IEEE 754-2008, en insistant sur les apports et les évolutions par rapport à sa précédente version. Nous verrons également comment les nouvelles opérations introduites dans le standard peuvent être utilisées afin d'améliorer la précision des algorithmes flottants : nous nous baserons pour cela sur l'exemple de l'évaluation de polynômes.
- **Sylvain Collange**, ENS de Lyon, *"Parallélisme et Calcul flottant dans les GPU"*
- [Support de l'exposé](attachments/spip/Documents/Journees/nov2010/S-Collange.pdf)
Les GPU nous permettent d'atteindre en 2010 le teraflop au sein d'une même puce. Cette puissance de calcul a été jusqu'alors principalement étudiée et utilisée pour traiter plus rapidement des problèmes plus gros. Ces implémentations reposent sur une adéquation entre le parallélisme présent nativement ou pas dans l'application et l'organisation matérielle de ces processeurs.
Après une présentation de l'arithmétique flottante disponible dans les GPU, nous montrerons à travers des exemples qu'il est possible d'utiliser ces accélérateurs pour implémenter efficacement d'autres arithmétiques.
- Philippe Helluy, Université de Strasbourg, "Initiation à OpenCL, Applications à la mécanique des fluides compressibles"
- [Support de l'exposé](attachments/spip/Documents/Journees/nov2010/P-Helluy.pdf)
OpenCL est un standard récent pour la programmation des périphériques de type GPU. Après une rapide formation à OpenCL et sa philosophie, je présenterai quelques applications à des calculs de type volumes finis pour des écoulements compressibles.
- **Sylvie Putot**, CEA, *"Vers l’analyse statique de programmes numériques"*
- [Support de l'exposé](attachments/spip/Documents/Journees/nov2010/S-Putot.pdf)
- Vidéos associées : <http://www.lix.polytechnique.fr/Labo/Sylvie.Putot/Householder3.mov>, <http://www.lix.polytechnique.fr/Labo/Sylvie.Putot/Filterset-DIGITEOnew.mov>,<http://www.lix.polytechnique.fr/Labo/Sylvie.Putot/HouseholderMontage01_huit.mov>
Certains programmes, dont le bon fonctionnement est critique en particulier lorsqu’ils peuvent impacter la sécurité de personnes, requièrent une preuve formelle de leur bon comportement. Une propriété classique d’intérêt est l’absence d’erreurs à l’exécution dans le programme, qui a par exemple pu être prouvée automatiquement par analyse statique pour le programme complet de commande de vols des Airbus A340-A380. Cependant, la preuve automatiques de propriétés fines de comportement sur des programmes numériques même relativement simples reste un problème mal résolu.
Nous présenterons ici une approche basée sur l’analyse statique par interprétation abstraite, dans laquelle nous bornons non seulement les valeurs prises par les variables du programme, mais également la différence de comportement entre l’implémentation en nombres flottants d’un programme et son comportement idéalisé en nombres réels. Nous montrerons ensuite des applications, depuis l’analyse de briques élémentaires de programmes de contrôle-commande, jusqu’à de premiers résultats sur des petits algorithmes classiques du calcul scientifique.
- **Raymond Namyst**, Université de Bordeaux, *"Programmation des machines multicoeur hétérogènes: quel(s) support(s) d'exécution ?"*
- [Support de l'exposé](attachments/spip/Documents/Journees/nov2010/R-Namyst.pdf)
Les machines multicoeur équippées d'accélérateurs tels que les GPU ajoutent une dimension hétérogène à des architectures parallèles déjà difficiles à programmer, en raison du caractère hiérarchique de l'organisation de la mémoire et des coeurs. Dans cet exposé, je présenterai le support d'exécution StarPU conçu pour exploiter efficacement les configurations multi-accélérateur en cherchant à atteindre une répartition optimale des traitements sur l'ensemble des unités de calcul. Je discuterai plus généralement des défis posés par l'évolution actuelle des architectures parallèles, sous l'angle des modèles de programmation et des supports d'exécution.
- **Emmanuel Jeannnot**, LABRI, *"Placement de processus MPI sur archi multicore NUMA"*
- [Support de l'exposé](attachments/spip/Documents/Journees/nov2010/E-Jeannot.pdf)
Dans cet exposé nous discuterons de l'importance de l'affinité des processus parallèles entre eux et comment le placement de ces processus peu avoir de l'influence sur la durée des communications dans le cas des machines hiérarchiques multi-coeurs disponibles aujourd'hui.
title: Journée en l'honneur des soixante ans de Thierry Dumont
date: 2010-11-19 11:44:24
modified: 2011-04-14 07:17:02
category: evt_sci
tags: ['article']
slug: spip_article-165
authors: Webmaster
summary: None
A l'occasion des soixante ans de Thierry Dumont a été organisée une journée scientifique à Lyon, à l'[Institut Camille Jordan, salle Fokko Ducloux](http://math.univ-lyon1.fr/divers/?option=acces), le 17 décembre 2010.
**Organisateurs :** Stéphane Descombes, Violaine Louvet, Magali Ribot.
<html>
<img src="attachments/spip/Documents/Manifestations/TD60/thierry-dumont.JPG"/>
</html>
## Programme
<html>
<ul>
<li>
<b>
9h
</b>
:
<i>
Accueil
</i>
</li>
<li>
<b>
9h30-10h
</b>
:
<b>
Philippe Depouilly
</b>
, Institut de Mathématiques de Bordeaux,
<b>
Joël Marchand
</b>
, Observatoire de Paris
<li>
<b>
10h-10h30
</b>
:
<b>
Didier Bresch
</b>
, LAMA, Université de Savoie
<ul>
<li>
<i>
"Thierry : L'homme visco-élasto-plastique."
</i>
</li>
<li>
<b>
Résumé
</b>
:
<i>
Thierry a apporté sa pierre à l'édifice Mathématique-Numérique lié à des modèles pour fluides complexes. Après avoir rappelé
ses diverses contributions, cet exposé aura pour but de présenter
quelques résultats nouveaux sur ce sujet.
</i>
</li>
</ul>
</li>
<li>
<b>
10h30-11h
</b>
:
<b>
Max Duarte
</b>
, EM2C, Ecole Centrale Paris
</li>
<li>
<b>
11h-11h20
</b>
:
<i>
Pause
</i>
</li>
<li>
<b>
11h20-11h50
</b>
:
<b>
Magali Ribot
</b>
, Laboratoire J. Dieudonné, Nice
<ul>
<li>
<i>
"Quand Thierry se coupe en se rasant le matin"
</i>
</li>
</ul>
</li>
<li>
<b>
11h50-12h35
</b>
:
<b>
Pierre Crepel
</b>
, Institut Camille Jordan, Lyon
<ul>
<li>
<i>
"Thierry Dumont convoqué par l'AERES (Agence d'évaluation des retraites et de l'économie sénile)"
</i>
</li>
</ul>
</li>
<li>
<b>
12h35-13h45
</b>
:
<i>
Buffet
</i>
</li>
<li>
<b>
13h45-14h15
</b>
:
<b>
Thierry Dumont
</b>
, Université Lyon 1
</li>
<ul>
<li>
<i>
"Tableau noir, tableau blanc"
</i>
</li>
</ul>
<li>
<b>
14h15-14h45
</b>
:
<b>
Carole Rosier
</b>
, Université du Littoral
</li>
<ul>
<li>
<i>
"Thierry, la tête dans les étoiles"
</i>
</li>
</ul>
<li>
<b>
14h45-15h30
</b>
:
<b>
Raoul Robert
</b>
, UJF, Grenoble
<ul>
<li>
<i>
"Du hasard bénin au hasard sauvage"
</i>
</li>
</ul>
</li>
<li>
<b>
15h30-15h50
</b>
:
<b>
Jean-Charles Delépine
</b>
, Amiens,
<ul>
<li>
<i>
Aldil et logiciels libres
</i>
</li>
</ul>
</li>
<li>
<b>
15h50-16h10
</b>
:
<i>
Pause
</i>
</li>
<li>
<b>
16h10-16h40
</b>
:
<b>
Marie Aimée Dronne
</b>
, Université Lyon 1
</li>
<li>
<b>
16h40-17h10