Séminaires du laboratoire ID

Année 2004-2005

Date
Intervenant
Intitulé
30.09.2004
Lukasz Masko, Marek Tudruj
Institute of Computer Science of the Polish Academy of Sciences
Program Scheduling Based on Moldable Tasks Approach in Dynamic SMP Clusters with Communication on the Fly (Résumé)
07.10.2004
Brigitte Plateau, Bruno Gaujal, Jean-Louis Roch,
Denis Trystram, Adrien Lebre
Laboratoire ID
Séminaire de rentrée du laboratoire ID
21.10.2004
Les membres du laboratoire ID
Présentation du laboratoire ID aux étudiants de l'ENS Cachan
28.10.2004
Bruno Gaujal
Laboratoire ID
Minimization of circuit registers.
(Résumé)
18.11.2004
Wolf Zimmermann
University of Halle-Wittenberg
Hierarchical Task Scheduling and Compilers
(Résumé)
25.11.2004
Axel Krings
University of Idaho, Moscow, USA
Several Research Topics in Computer and Network Survivability
(Résumé)
02.12.2004
Chercheurs grenoblois
Séminaire Grenoblois sur l'Evaluation de Performances
09.12.2004
Jaroslaw Zola
Laboratoire ID
Large Scale Multiple Sequence Alignment Based on Distributed Caching
(Résumé)
16.12.2004
Michael A. Bender
SUNY Stony Brook
Communication-Aware Processor Allocation for Supercomputers
(Résumé)
6.01.2005
Lionel Eyraud, Denis Trystram
Laboratoire ID
Comment couper un gateau équitablement et sans jalousie
Application aux grilles de calcul, avec démonstration pratique.
20.01.2005
Vandy Berten
Université Libre de Bruxelles
On the distribution of sequential jobs in random brokering for heterogeneous computational grids
(Résumé)
08.02.2005
Christian Perez
INRIA, Iriasa
Des composants logiciels pour la programmation des grilles de calcul
(Résumé)
24.02.2005
Abdou Guermouche Algorithmes distribués pour l'ordonnancement dans les méthodes parallèles de factorisation de matrices creuses
(Résumé)
17.03.2005
Marin Bertier
Service de détection de défaillances pour les Grilles
(Résumé)
24.03.2005
Arnaud Giersh
Ordonnancement sur plates-formes hétérogènes de tâches partageant des données
(Résumé)
31.03.2005
Olivier Richard
interne
14.04.2005
Vincent Danjean
Processus légers pour le calcul hautes performances sur architectures multiprocesseurs.
(Résumé)
21.04.2005
Armelle Merlin
BSPA : Algèbre de processus et modèles de performance pour laprogrammation parallèle BSP distribuée
(Résumé)
28.04.2005
Yves Caniou
Ordonnancement sur une plate-forme de métacomputing
(Résumé)
09.05.2005
Florence Zara
Visualisation scientifique et simulation num�rique
(Résumé)
12.05.2005
Florence Clévenot-Perronnin
Modèles Fluides pour l'Evaluation de Performance des Systèmes de Distribution de Contenu
(Résumé)
9.06.2005
Frederic Wagner
Ordonnancement des communications pour la redistribution de données
(Résumé)
13.06.2005
(pas un jeudi!)
Dr. Ashley Morris Analytical Processing for Spatial Data
(Résumé)
07.07.2005 Said Ej Hajji The common eigenvector problem
(Résumé)



        The common eigenvector problem

Said El Hajji
Faculté des sciences, Université Mohammed V, Rabat, Maroc

Résumé:
There are a number of classical theorems and some relatively recent
results, that give conditions under which two squares matrices A and B
have a common eigenvector. We propose some algorithms to approximate
(when it exist) this common eigenvector. These algorithms are based on a
normwise backward error formula for the common eigenvector problem.

Keywords: Eigenvector, Eigenvalue, Backward error, Newton, Gauss-Newton, Steepest decent, BFGS.



        Ordonnancement des communications pour la redistribution de données

Frederic Wagner
http://www.loria.fr/~wagnerf/

Résumé:
Au cours des dernières années, la mise en place de réseaux de plus en plus performants a permis l'émergence du calcul distribué
à grande échelle. Néanmoins, les temps de transferts de données entre sites distants sont à l'heure actuelle loins d'être négligeables, et peuvent se révéler un handicap crucial pour des applications hautes performances, en particulier les applications nécessitant des transferts de données fréquents, comme les applications de couplage de code. Nous présentons ici un aperçu de nos travaux : différents algorithmes optimisant le temps nécessaire pour redistribuer des données entre deux grappes d'ordinateurs connectées par un réseau à haut débit en ordonnançant les différentes communications.



        Analytical Processing for Spatial Data

Dr. Ashley Morris is an associate professor at the CTI of DePaul University, Chicago.  He joined the CTI faculty in September of 2000, after two years on the faculty of Computer Science at the University of Idaho. Prior to that, he worked full-time as a consultant at AT&T, Oracle, PacifiCare, and Digital Equipment Corporation, among others. His research focuses on databases, GIS, fuzzy logic, artificial intelligence, and the merging of all of these fields to create more intuitive software and more informed decision making.

Résumé:
As spatial databases become more ubiquitous, they are also shifting toward object-oriented and object-relational storage mechanisms.  With this shift, it is becoming easier to provide facilities for analytical processing, either online OLAP or batch.  We will discuss data representations for analytical and spatial data, and ways to map and optimize spatial to analytical mappings.




      Program Scheduling Based on Moldable Tasks Approach in Dynamic SMP Clusters with Communication on the Fly

Lukasz Masko, Marek Tudruj
Institute of Computer Science of the Polish Academy of Sciences

The presentation concerns parallel program graph scheduling using the concept of moldable computational tasks in a parallel architecture based on SMP processor clusters with data communication on the fly. The arcjitecture is based on dynamic (i.e. program run-time modifiable) processor clusters organized around shared memory modules. Data reads on the fly are provided in these clusters, which means that processors in a cluster can read data, which are written or read to/from a memory module through an internal cluster data exchange network. Processors switched between clusters at program run-time bring data in their data caches to be next used for reads on the fly (communication on the fly). SMP clusters implementation assumes network on chip (NoC) technology. The scheduling algorithm decomposes an initial program graph to sub-graphs, which fulfill the definition of a moldable task. The identified moldable tasks are then scheduled to NoC clusters using an algorithm with warranted schedule length. The algorithm assigns tasks to processors and inter-task shared memory communication to dynamic processor clusters, so as to obtain the minimal program execution time. It converts standard communication into reads on the fly and communication on the fly.


     Minimization of circuit registers.

Bruno Gaujal, Jean Mairesse et Alexander Karzanov.

In this talk, we prove that bi-infinite and causal one-periodic graphs admit one-periodic maximum flows and consecutive minimum cuts. By viewing such a graph as the unfolding of the dependences in a digital circuit, we will show how this can be used for register minimization in circuit design.



   Hierarchical Task Scheduling and Compilers

Wolf Zimmermann
University of Halle-Wittenberg

We show how task-scheduling techniques can be integrated into compilers for parallel languages. Such an integration allows to compile parallel languages without the need for explicit definition of data distributions and control-flow parallelism. Our approach is robust when libraries are used. The key technique is the use of hierarchically scheduling malleable tasks, i.e., tasks that can be executed on several processors.

(Joint work with Welf Loewe)



  Several Research Topics in Computer and Network Survivability

Axel Krings

After having been at ID-IMAG now for 2 months, I would like to take this seminar as an opportunity to introduce some research I have been working on.  Several projects are discussed:
1)  Agent Survivability: Secret Sharing Transformation
    A model is shown that formalizes secret sharing of mobile agents as a chain constraint scheduling problem
2)  Survivability of Intelligent Transportation Systems
    A model is presented that views an ITS as a set of functionalities and component.  A survivability architecture is derived and applied to a real ITS.
3)  Low-level attack recognition
    A kernel-level attack recognition method is discussed which has been implemented in Lunix clusters.
4)  Certification of peer-to-peer applications
    If time permits, some current work of certification of applications with dependencies in the presence of possible massive attacks will be discussed.



    Large Scale Multiple Sequence Alignment Based on Distributed Caching  

Jaroslaw Zola

In this talk we are going to present a new approach to the generalized tree alignment problem for large sets of genomic data. Our method is an extension of previously proposed PhylTree (PT) heuristics and is based on distributed caching. We show how PT has been parallelized and we highlight some of its properties which allowed us to apply caching. We discuss also possible applications of our approach targeted toward grid environments and distributed genbanks.


       Communication-Aware Processor Allocation for Supercomputers

Michael A. Bender

In this talk we present algorithms for scheduling and allocating parallel  jobs on commodity-based parallel supercomputers.  In this application,
whenever a parallel job is due to run, it is assigned to a  set of processors.  The objective is to choose a set of processors to  reduce the communication costs between the processors.

We first describe the algorithms that we have implemented in the Cplant System Software at Sandia National Laboratories.  We then address the more general allocation problem, giving approximation algorithms for the problem. Finally, we consider the continuous version of the processor allocation problem.


Michael A. Bender is an associate professor of computer science at SUNY Stony Brook.  His research interests include analysis of algorithms, data
structures, scheduling, parallel computing, cache- and I/O efficient computing, and robot algorithms. He has coauthored over 60 articles on
these and other topics in computer science. Professor Bender received his BA in Applied Mathematics from Harvard University in 1992 and obtained a DEA in Computer Science from the Ecole Normale Superieure de Lyon, France in 1993.  He completed a PhD on Scheduling Algorithms from Harvard University in 1998.     


       On the distribution of sequential jobs in random brokering for heterogeneous computational grids

Vandy Berten

This paper analyses of the way jobs are distributed in a computational grid environment where the brokering is done in such a way that each Computing Element has a probability to be chosen proportionnal to its number of CPUs and its speedup. We give the asymptotic behaviour for several metrics (queue sizes, slowdown ...) in several cases, or, in some case, an approximation of this behaviour.

       Des composants logiciels pour la programmation des grilles de calcul

Christian Perez
INRIA, Irisa

La puissance de calcul offerte par les grilles de calcul est très intéressante pour les applications de couplage code. Cependant, il  apparaît nécessaire de masquer la complexité des grilles de calcul par un modèle de programmation adéquat tout en permettant une exécution  efficace. Les modèles de composant logiciels offrent un cadre prometteur pour gérer cette complexité. Cependant, certaines particularités des applications et/ou des grilles doivent être prises en compte. Par exemple, les applications visées sont typiquement parallèles. Une direction de recherche consiste donc à proposer des modèles de composant permettant de définir des composants parallèles. Certains d'entre eux supportent des redistributions de données lors des communications entre composants. Un autre exemple de la spécificité des grilles concerne la gestion des machines. Ainsi, les modèles de déploiement des composants logiciels peuvent être spécialisés pour rechercher des ressources pertinentes.

Cet exposé introduit la problématique de la programmation des grilles de calcul pour les applications de couplage de code et la réponse apportée par les modèles de composants logiciels ainsi que le support à l'exécution requis.


       Algorithmes distribués pour l'ordonnancement dans les méthodes parallèles de factorisation de matrices creuses


Abdou Guermouche


Les méthodes directes de résolution de systèmes linéaires creux sont connues pour leurs besoins mémoire importants qui peuvent constituer une barrière au traitement de problèmes de grande taille. De ce fait, les travaux présentés dans cet exposé porteront sur l'amélioration du comportement mémoire tout en gardant de bonnes performances. Ceci sera fait en concevant de nouvelles heuristiques d'ordonnancement. La méthode parallèle étudiée (en l'occurrence la méthode multifrontale) repose sur une combinaison d'approches d'ordonnancement statique et dynamique visant principalement l'obtention de bonnes performances lors de la factorisation. Les ordonnanceurs dynamiques sur lesquels nous insisterons sont distribués et locaux à chacun des processeurs prenant part à la factorisation. Ils requièrent des informations relatives à l'état des autres processeurs (charge, mémoire disponible,...) pour pouvoir prendre des décisions. Ainsi, une étude comparative de deux familles d'algorithmes distribués dont l'objectif est de fournir ces informations sera présentée. Les algorithmes étudiés sont d'une part les algorithmes "à la demande" reposant sur le concept de photographie d'un système distribué (distributed snapshot), et d'autre part des mécanismes visant le maintien de la vue du système au niveau de chacun des processeurs. Cette étude a été effectuée sur un solveur parallèle implémentant une méthode multifrontale (MUMPS). La deuxième partie de l'exposé portera sur la présentation de techniques d'ordonnancement dynamique ayant un double objectif de bonnes performances et de bon comportement mémoire. Ainsi, un ordonnaceur dynamique basé sur l'équilibrage de charge avec contraintes mémoire (mémoire disponible, taille des tampons de communication, etc ...) a été proposé.  De plus, la souplesse offerte par ce nouvel ordonnanceur a permis d'améliorer le processus d'estimation de la mémoire nécessaire au déroulement de la factorisation. Notons cependant que la réduction de la taille de la mémoire (estimée) nécessite l'ajout de nouvelles contraintes mémoire dans nos ordonnanceurs dynamiques. Une étude expérimentales illustrant l'intérêt de ce nouveau type d'ordonnanceurs aussi bien en terme de temps de factorisation qu'en terme de comportement mémoire sera présentée.
 


       Ordonnancement sur plates-formes hétérogènes de tâches partageant des données


Arnaud Giersh

Je présenterai les résultats de mes travaux sur des stratégies d'ordonnancement et d'équilibrage de charge pour des plates-formes hétérogènes distribuées. Le problème est d'ordonnancer un ensemble de tâches indépendantes afin d'en réduire le temps total d'exécution. Ces tâches utilisent des
données d'entrée qui peuvent être partagées : chaque tâche peut utiliser plusieurs données, et chaque donnée peut être utilisée par plusieurs tâches. Les tâches ont des durées d'exécution différentes, et les données ont des tailles différentes. Toute la difficulté est de réussir à placer sur un même processeur des tâches partageant des données, tout en conservant un bon équilibrage de la charge des différents processeurs.

Le problème étudié est progressivement généralisé au cours de la présentation. Je me limite, dans un premier temps, au cas simple où il n'y a pas de partage de données, où les tailles des tâches et des données sont homogènes, et où la plate-forme est de type maître-esclave. Le partage des données est ensuite introduit, ainsi que l'hétérogénéité pour les tailles des tâches et des données. Le modèle de plate-forme est finalement généralisé à un ensemble décentralisé de serveurs reliés entre eux par un réseau d'interconnexion quelconque.

La complexité théorique du problème est étudiée. Pour les cas simples, des algorithmes calculant une solution optimale sont proposés, puis validés par des résultats expérimentaux avec une application scientifique réelle. Pour les cas plus complexes, nous proposons de nouvelles heuristiques pour résoudre le problème d'ordonnancement. Ces nouvelles heuristiques, ainsi que des heuristiques classiques comme min-min et sufferage, sont comparées entre elles à l'aide de nombreuses simulations. Nous montrons ainsi que nos nouvelles heuristiques réussissent à obtenir des performances aussi bonnes que les heuristiques classiques, tout en ayant une complexité algorithmique d'un ordre de grandeur plus faible.



       Service de détection de défaillances pour les Grilles

Marin Bertier

Les détecteurs de défaillances, introduits par Chandra et Toueg,  s'imposent comme un élément de base dans la construction d'applications réparties.
Cet exposé décrit la conception et la réalisation d'un service de détection de défaillances adaptable optimisé pour les architectures de
type grilles de calcul.
Le premier aspect de ce travail consiste à optimiser la qualité de service de la détection et de concevoir une architecture permettant au
détecteur d'adapter son comportement en fonction de son environnement : les demandes des applications utilisatrices et de l'état courant du réseau... La deuxième spécificité est l'organisation hiérarchique de notre service qui réduit ainsi sa charge induite et donc permet son utilisation sur un grand nombre de machines.


       BSPA : Algèbre de processus et modèles de performance pour la programmation parallèle BSP distribuée

Armelle Merlin
(http://www.univ-orleans.fr/lifo/Members/merlin/)

Le modèle BSP (Bulk Synchronous Parallelism) est un modèle de
programmation data-parallèle explicite qui propose un modèle de coût
simple.

Dans cet exposé, je vous présenterai succintement deux machines
virtuelles pour le langage BSML qui associe BSP, la programmation
fonctionnelle et l'estimation des performances.  Puis je parlerai plus
largement de BSPA (Bulk Synchronous Process Algebra) : une algèbre de
processus étendue pour préserver les caractéristiques de programmes
BSP, ainsi que son modèle de coût associé. Je donnerai quelques
exemples d'application à des problèmes d'ordonnancement posés par
l'informatique globalisée ou meta-computing.

Enfin je montrerai comment le modèle de coût associé à BSPA peut être
associé à d'autres algèbres de processus. Je parlerai donc d'un modèle
de dépense de ressources mémoire pour l'algèbre de processus SPPA
dediée aux protocoles cryptographiques et en particulier au protocole
TCP.

       Processus légers pour le calcul hautes performances sur architectures multiprocesseurs.

Vincent Danjean
(http://dept-info.labri.fr/~danjean/)

Résumé :
Les processus légers sont au coeur des systèmes d'exploitation modernes.
Dans le cadre du calcul hautes performances ceux-ci sont tout aussi
incontournables car ils permettent d'exprimer le parallélisme
intrinsèque aux applications, d'utiliser simultanément des
environnements complexes de programmation comme MPI ou Corba et
d'exploiter pleinement les ordinateurs multiprocesseurs.

L'objet de ces travaux est la conception d'une bibliothèque de processus
légers à deux niveaux dotées des fonctionnalités requises par les
programmes de calcul hautes performances. Cette bibliothèque se doit
d'être à la fois portable et performante sur un vaste ensemble
d'architectures, y compris les architectures ccNUMA.

Dans un premier temps, le modèle des Scheduler Activations (proposé par
Anderson et al.) a été profondément revisité et intégré au sein du noyau
Linux, permettant ainsi aux threads de l'espace utilisateur de réagir
aux interruptions. Ce mécanisme a ensuite été généralisé dans le but
d'unifier la gestion des interruptions et des scrutations dans un
environnement multithreadé. Enfin, ces travaux exposent un mécanisme de
prise de traces peu intrusif permettant de reconstituer précisément le
déroulement d'un programme multithreadé, y compris lorsque
l'ordonnancement est à deux niveaux.
Afin d'exploiter efficacement les architectures ccNUMA présentes au
CEA, ces travaux ont dû être adaptés et étendus.

L'ensemble de ces travaux sont implémentés au sein de la bibliothèque
Marcel de la suite logicielle PM2. Les performances obtenues en termes
de création / destruction / synchronisation / changement de contexte se
comparent très favorablement à celles des meilleures bibliothèques du
moment. Les gains en terme de réactivité prouvent l'intérêt des
techniques développées.



       Ordonnancement sur une plate-forme de métacomputing

Yves Caniou
(http://graal.ens-lyon.fr/~ycaniou/)

Résumé :
L'exécution d'une application sur la grille de calcul se fait au moyen
de couches logicielles intermédiaires. Parmi ces couches, nous
trouvons les intergiciels de grille. L'objectif du travail consiste à
proposer des algorithmes d'ordonnancement dynamiques
efficaces dans le cadre des systèmes GridRPC.

Dans une première partie, je présenterai un module de prédiction de
performances (HTM) et des heuristiques dynamiques d'ordonnancement qui
ont été conçus pendant mon travail de thèse. Le HTM donne des
estimations fiables des durées des tâches séquentielles qui peuvent
s'exécuter concurremment sur un serveur de calcul. Les heuristiques
d'ordonnancement sont multi-critères et reposent sur le HTM. En plus
du makespan, les heuristiques tentent de donner une meilleure qualité
de service à chaque requête, comme de réduire le temps de réponse
moyen.

Les heuristiques et le HTM ont été implantés afin de les étudier à
l'aide de simulations. Puis, des expériences intensives et réelles ont
permis d'étudier concrètement les performances du HTM au sein d'un
intergiciel, d'affiner la précision de ses informations en
introduisant des mécanismes de synchronisation et d'étudier
l'efficacité des heuristiques.

Dans une seconde partie, je présenterai la problématique de la
soumission de tâches parallèles sur la grille pour leur
ordonnancement.  Je reviendrai tout d'abord sur le manque de standard
pour les soumissions Batch ainsi que pour les évaluations de
performances. Je présenterai les travaux en cours dans DIET afin
d'automatiser le processus de soumission, les contraintes dues au
principe même du métacomputing et les premières approches abordées.



        Modèles Fluides pour l'Evaluation de Performance des Systèmes de Distribution de Contenu

Florence Clévenot-Perronnin
Projet Maestro
INRIA Sophia-Antipolis
http://www-sop.inria.fr/maestro/personnel/Florence.Clevenot/

Résumé:
Les systèmes de distribution de contenu comme les caches web et les réseaux d'échanges de fichiers doivent être capables
de servir une population de clients à la fois très grande  (centaines de milliers) et fortement dynamique (temps de
connexion très courts). Ces caractéristiques rendent leur  analyse très coûteuse par les approches traditionnelles comme
les modèles markoviens ou la simulation. Dans ces travaux nous  proposons des modèles fluides simples permettant de s'affranchir
de l'une des dimensions du problème. Nous les appliquons à  différents systèmes de distribution de contenu, en particulier
des systèmes de caches web et un système pair-à-pair de  distribution de fichiers appelé BitTorrent.
Nous montrons que ces modèles permettent, pour une faible  complexité, de mieux comprendre ces systèmes et de résoudre
certains problèmes d'optimisation.


        Visualisation scientifique et simulation numérique

Florence Zara, LSIIT-IGG

Résumé:
Je présenterai durant ce séminaire, le travail de recherche que j'ai effectué en postdoc au sein de l'équipe IGG du LSIIT de Strasbourg. Ce travail de recherche rentre dans le cadre du projet INRIA-CALVI (http://math.u-strasbg.fr/calvi/) qui traite des probl�mes issus de la physique des plasmas. Mon travail concerne d'une part l'élaboration d'*outils de visualisation* permettant d'analyser les *données 4-D* (6-D à plus long terme) issues de simulations de plasmas et de faisceaux de particules (2 Go de données par pas de temps), et d'autre part l'élaboration d'une *plate-forme de simulation * permettant l'intégration des diff�rents codes de simulations existants ainsi que les modules de visualisation.




logo_info.gif Pratique
enveloppe Ecrire à l´administrateur


 Dernière mise à jour : 25 avril 2005