Séminaires
du laboratoire ID
Année
2004-2005
Date
|
Intervenant
|
Intitulé
|
30.09.2004
|
Lukasz Masko, Marek Tudruj
Institute of Computer Science of the Polish Academy of Sciences |
Program Scheduling Based
on Moldable
Tasks Approach in Dynamic SMP Clusters with Communication on the Fly (Résumé)
|
07.10.2004
|
Brigitte Plateau, Bruno
Gaujal,
Jean-Louis Roch,
Denis Trystram, Adrien Lebre
Laboratoire ID
|
Séminaire de
rentrée
du laboratoire ID
|
21.10.2004
|
Les membres du laboratoire
ID
|
Présentation du
laboratoire
ID aux étudiants de l'ENS Cachan
|
28.10.2004
|
Bruno Gaujal
Laboratoire ID
|
Minimization of circuit
registers.
(Résumé)
|
18.11.2004
|
Wolf Zimmermann
University of Halle-Wittenberg |
Hierarchical Task
Scheduling
and Compilers
(Résumé)
|
25.11.2004
|
Axel Krings
University of Idaho, Moscow, USA |
Several Research Topics in
Computer
and Network Survivability
(Résumé)
|
02.12.2004
|
Chercheurs grenoblois
|
Séminaire
Grenoblois sur
l'Evaluation de Performances
|
09.12.2004
|
Jaroslaw Zola
Laboratoire ID
|
Large Scale Multiple
Sequence
Alignment Based on Distributed Caching
(Résumé)
|
16.12.2004
|
Michael A. Bender
SUNY Stony Brook
|
Communication-Aware Processor Allocation
for
Supercomputers
(Résumé)
|
6.01.2005
|
Lionel Eyraud, Denis
Trystram
Laboratoire ID |
Comment couper un gateau
équitablement
et sans jalousie
Application aux grilles de calcul, avec démonstration pratique. |
20.01.2005
|
Vandy Berten
Université Libre de Bruxelles |
On the distribution of sequential jobs in
random
brokering for heterogeneous computational grids
(Résumé) |
08.02.2005
|
Christian Perez
INRIA, Iriasa
|
Des composants logiciels pour la
programmation
des grilles de calcul
(Résumé)
|
24.02.2005
|
Abdou Guermouche |
Algorithmes distribués pour l'ordonnancement
dans
les méthodes parallèles de factorisation de matrices
creuses
(Résumé)
|
17.03.2005
|
Marin Bertier
|
Service de
détection de
défaillances pour les Grilles
(Résumé)
|
24.03.2005
|
Arnaud Giersh
|
Ordonnancement sur plates-formes
hétérogènes
de tâches partageant des données
(Résumé)
|
31.03.2005
|
Olivier Richard
|
interne
|
14.04.2005
|
Vincent Danjean
|
Processus légers
pour
le calcul hautes performances sur architectures multiprocesseurs.
(Résumé)
|
21.04.2005
|
Armelle Merlin
|
BSPA : Algèbre de processus et
modèles
de performance pour laprogrammation parallèle BSP
distribuée
(Résumé)
|
28.04.2005
|
Yves Caniou
|
Ordonnancement sur une plate-forme de
métacomputing
(Résumé)
|
09.05.2005
|
Florence Zara
|
Visualisation scientifique et simulation
num�rique
(Résumé)
|
12.05.2005
|
Florence
Clévenot-Perronnin
|
Modèles Fluides
pour
l'Evaluation de Performance des Systèmes de Distribution de
Contenu
(Résumé)
|
9.06.2005
|
Frederic Wagner
|
Ordonnancement des
communications pour la redistribution de données
(Résumé)
|
13.06.2005
(pas un jeudi!)
|
Dr. Ashley Morris |
Analytical
Processing for Spatial Data
(Résumé)
|
07.07.2005
|
Said Ej Hajji |
The common eigenvector problem
(Résumé)
|
The common eigenvector problem
Said El Hajji
Faculté des sciences, Université Mohammed V, Rabat, Maroc
Résumé:
There are a number of classical theorems and some relatively recent
results, that give conditions under which two squares matrices A and B
have a common eigenvector. We propose some algorithms to approximate
(when it exist) this common eigenvector. These algorithms are based on a
normwise backward error formula for the common eigenvector problem.
Keywords: Eigenvector, Eigenvalue, Backward error, Newton,
Gauss-Newton, Steepest decent, BFGS.
|
Ordonnancement des communications
pour la redistribution de données
Frederic Wagner
http://www.loria.fr/~wagnerf/
Résumé:
Au cours des dernières années, la mise en place de
réseaux de plus en plus performants a permis l'émergence
du calcul distribué
à grande échelle. Néanmoins, les temps de
transferts de données entre
sites distants sont à l'heure actuelle loins d'être
négligeables, et
peuvent se révéler un handicap crucial pour des
applications hautes
performances, en particulier les applications nécessitant des
transferts de données fréquents, comme les applications
de couplage de
code. Nous présentons ici un aperçu de nos travaux :
différents
algorithmes optimisant le temps nécessaire pour redistribuer des
données entre deux grappes d'ordinateurs connectées par
un réseau à
haut débit en ordonnançant les différentes
communications.
|
Analytical
Processing for Spatial Data
Dr. Ashley Morris is an associate professor at the CTI of DePaul
University, Chicago. He joined the CTI faculty in September of
2000,
after two
years on the faculty of Computer Science at the University of Idaho.
Prior to that, he worked full-time as a consultant at AT&T, Oracle,
PacifiCare, and Digital Equipment Corporation, among others. His
research focuses on databases, GIS, fuzzy logic, artificial
intelligence, and the merging of all of these fields to create more
intuitive software and more informed decision making.
Résumé:
As spatial databases become more ubiquitous, they are also shifting
toward object-oriented and object-relational storage mechanisms.
With this shift, it is becoming easier to provide facilities for
analytical processing, either online OLAP or batch. We will
discuss data representations for analytical and spatial data, and ways
to map and optimize spatial to analytical mappings.
|
Program Scheduling Based on Moldable
Tasks
Approach in Dynamic SMP Clusters with Communication on the Fly
Lukasz Masko, Marek Tudruj
Institute of Computer Science of the Polish Academy of Sciences
The presentation concerns parallel program graph scheduling using the
concept
of moldable computational tasks in a parallel architecture based on SMP
processor
clusters with data communication on the fly. The arcjitecture is based
on
dynamic (i.e. program run-time modifiable) processor clusters organized
around
shared memory modules. Data reads on the fly are provided in these
clusters,
which means that processors in a cluster can read data, which are
written
or read to/from a memory module through an internal cluster data
exchange
network. Processors switched between clusters at program run-time bring
data
in their data caches to be next used for reads on the fly
(communication
on the fly). SMP clusters implementation assumes network on chip (NoC)
technology.
The scheduling algorithm decomposes an initial program graph to
sub-graphs,
which fulfill the definition of a moldable task. The identified
moldable
tasks are then scheduled to NoC clusters using an algorithm with
warranted
schedule length. The algorithm assigns tasks to processors and
inter-task
shared memory communication to dynamic processor clusters, so as to
obtain
the minimal program execution time. It converts standard communication
into
reads on the fly and communication on the fly.
|
Minimization of circuit
registers.
Bruno Gaujal, Jean Mairesse et Alexander Karzanov.
In this talk, we prove that bi-infinite and causal one-periodic graphs
admit
one-periodic maximum flows and consecutive minimum cuts. By viewing
such a
graph as the unfolding of the dependences in a digital circuit, we will
show
how this can be used for register minimization in circuit design.
|
Hierarchical Task Scheduling and
Compilers
Wolf Zimmermann
University of Halle-Wittenberg
We show how task-scheduling techniques can be integrated into compilers
for
parallel languages. Such an integration allows to compile parallel
languages
without the need for explicit definition of data distributions and
control-flow
parallelism. Our approach is robust when libraries are used. The key
technique
is the use of hierarchically scheduling malleable tasks, i.e., tasks
that
can be executed on several processors.
(Joint work with Welf Loewe) |
Several Research Topics in Computer
and Network
Survivability
Axel Krings
After having been at ID-IMAG now for 2
months,
I would like to take this seminar as an opportunity to introduce some
research
I have been working on. Several projects are discussed:
1) Agent Survivability: Secret Sharing Transformation
A model is shown that formalizes secret sharing of
mobile
agents as a chain constraint scheduling problem
2) Survivability of Intelligent Transportation Systems
A model is presented that views an ITS as a set of
functionalities
and component. A survivability architecture is derived and
applied to
a real ITS.
3) Low-level attack recognition
A kernel-level attack recognition method is
discussed which
has been implemented in Lunix clusters.
4) Certification of peer-to-peer applications
If time permits, some current work of certification
of
applications with dependencies in the presence of possible massive
attacks
will be discussed.
|
Large Scale
Multiple Sequence Alignment Based on Distributed
Caching
Jaroslaw Zola
In this talk we are going to present a
new
approach to the generalized tree alignment problem for large sets of
genomic
data. Our method is an extension of previously proposed PhylTree (PT)
heuristics
and is based on distributed caching. We show how PT has been
parallelized
and we highlight some of its properties which allowed us to apply
caching.
We discuss also possible applications of our approach targeted toward
grid
environments and distributed genbanks.
|
Communication-Aware
Processor
Allocation for Supercomputers
Michael A. Bender
In this talk we present algorithms for
scheduling
and allocating parallel jobs on commodity-based parallel
supercomputers.
In this application,
whenever a parallel job is due to run, it is assigned to a set of
processors.
The objective is to choose a set of processors to reduce the
communication
costs between the processors.
We first describe the algorithms that we have implemented in the Cplant
System
Software at Sandia National Laboratories. We then address the
more
general allocation problem, giving approximation algorithms for the
problem.
Finally, we consider the continuous version of the processor allocation
problem.
Michael A. Bender is an associate professor of computer science at SUNY
Stony
Brook. His research interests include analysis of algorithms, data
structures, scheduling, parallel computing, cache- and I/O efficient
computing,
and robot algorithms. He has coauthored over 60 articles on
these and other topics in computer science. Professor Bender received
his
BA in Applied Mathematics from Harvard University in 1992 and obtained
a DEA
in Computer Science from the Ecole Normale Superieure de Lyon, France
in
1993. He completed a PhD on Scheduling Algorithms from Harvard
University
in 1998.
|
On the distribution of
sequential
jobs in random brokering for heterogeneous computational grids
Vandy Berten
This paper analyses of the way jobs
are distributed
in a computational grid environment where the brokering is done in such
a
way that each Computing Element has a probability to be chosen
proportionnal
to its number of CPUs and its speedup. We give the asymptotic behaviour
for
several metrics (queue sizes, slowdown ...) in several cases, or, in
some
case, an approximation of this behaviour.
|
Des composants logiciels pour
la
programmation des grilles de calcul
Christian Perez
INRIA, Irisa
La puissance de calcul offerte par les
grilles
de calcul est très intéressante pour les applications de
couplage
code. Cependant, il apparaît nécessaire de masquer
la
complexité des grilles de calcul par un modèle de
programmation
adéquat tout en permettant une exécution efficace.
Les
modèles de composant logiciels offrent un cadre prometteur pour
gérer
cette complexité. Cependant, certaines particularités des
applications
et/ou des grilles doivent être prises en compte. Par exemple, les
applications
visées sont typiquement parallèles. Une direction de
recherche
consiste donc à proposer des modèles de composant
permettant
de définir des composants parallèles. Certains d'entre
eux
supportent des redistributions de données lors des
communications
entre composants. Un autre exemple de la spécificité des
grilles
concerne la gestion des machines. Ainsi, les modèles de
déploiement
des composants logiciels peuvent être spécialisés
pour
rechercher des ressources pertinentes.
Cet exposé introduit la problématique de la programmation
des
grilles de calcul pour les applications de couplage de code et la
réponse
apportée par les modèles de composants logiciels ainsi
que
le support à l'exécution requis.
|
Algorithmes
distribués
pour l'ordonnancement dans les méthodes parallèles de
factorisation
de matrices creuses
Abdou Guermouche
Les méthodes directes de
résolution
de systèmes linéaires creux sont connues pour leurs
besoins
mémoire importants qui peuvent constituer une barrière au
traitement
de problèmes de grande taille. De ce fait, les travaux
présentés
dans cet exposé porteront sur l'amélioration du
comportement
mémoire tout en gardant de bonnes performances. Ceci sera fait
en
concevant de nouvelles heuristiques d'ordonnancement. La méthode
parallèle
étudiée (en l'occurrence la méthode multifrontale)
repose
sur une combinaison d'approches d'ordonnancement statique et dynamique
visant
principalement l'obtention de bonnes performances lors de la
factorisation.
Les ordonnanceurs dynamiques sur lesquels nous insisterons sont
distribués
et locaux à chacun des processeurs prenant part à la
factorisation.
Ils requièrent des informations relatives à l'état
des
autres processeurs (charge, mémoire disponible,...) pour pouvoir
prendre
des décisions. Ainsi, une étude comparative de deux
familles
d'algorithmes distribués dont l'objectif est de fournir ces
informations
sera présentée. Les algorithmes étudiés
sont
d'une part les algorithmes "à la demande" reposant sur le
concept
de photographie d'un système distribué (distributed
snapshot),
et d'autre part des mécanismes visant le maintien de la vue du
système
au niveau de chacun des processeurs. Cette étude a
été
effectuée sur un solveur parallèle implémentant
une
méthode multifrontale (MUMPS). La deuxième partie de
l'exposé
portera sur la présentation de techniques d'ordonnancement
dynamique
ayant un double objectif de bonnes performances et de bon comportement
mémoire.
Ainsi, un ordonnaceur dynamique basé sur l'équilibrage de
charge
avec contraintes mémoire (mémoire disponible, taille des
tampons
de communication, etc ...) a été proposé. De
plus,
la souplesse offerte par ce nouvel ordonnanceur a permis
d'améliorer
le processus d'estimation de la mémoire nécessaire au
déroulement
de la factorisation. Notons cependant que la réduction de la
taille
de la mémoire (estimée) nécessite l'ajout de
nouvelles
contraintes mémoire dans nos ordonnanceurs dynamiques. Une
étude
expérimentales illustrant l'intérêt de ce nouveau
type
d'ordonnanceurs aussi bien en terme de temps de factorisation qu'en
terme
de comportement mémoire sera présentée.
|
Ordonnancement sur
plates-formes
hétérogènes de tâches partageant des
données
Arnaud Giersh
Je présenterai les
résultats
de mes travaux sur des stratégies d'ordonnancement et
d'équilibrage
de charge pour des plates-formes hétérogènes
distribuées.
Le problème est d'ordonnancer un ensemble de tâches
indépendantes
afin d'en réduire le temps total d'exécution. Ces
tâches
utilisent des
données d'entrée qui peuvent être partagées
: chaque
tâche peut utiliser plusieurs données, et chaque
donnée
peut être utilisée par plusieurs tâches. Les
tâches
ont des durées d'exécution différentes, et les
données
ont des tailles différentes. Toute la difficulté est de
réussir
à placer sur un même processeur des tâches
partageant
des données, tout en conservant un bon équilibrage de la
charge
des différents processeurs.
Le problème étudié est progressivement
généralisé
au cours de la présentation. Je me limite, dans un premier
temps,
au cas simple où il n'y a pas de partage de données,
où
les tailles des tâches et des données sont
homogènes,
et où la plate-forme est de type maître-esclave. Le
partage
des données est ensuite introduit, ainsi que
l'hétérogénéité
pour les tailles des tâches et des données. Le
modèle
de plate-forme est finalement généralisé à
un
ensemble décentralisé de serveurs reliés entre eux
par
un réseau d'interconnexion quelconque.
La complexité théorique du problème est
étudiée.
Pour les cas simples, des algorithmes calculant une solution optimale
sont
proposés, puis validés par des résultats
expérimentaux
avec une application scientifique réelle. Pour les cas plus
complexes,
nous proposons de nouvelles heuristiques pour résoudre le
problème
d'ordonnancement. Ces nouvelles heuristiques, ainsi que des
heuristiques
classiques comme min-min et sufferage, sont comparées entre
elles
à l'aide de nombreuses simulations. Nous montrons ainsi que nos
nouvelles
heuristiques réussissent à obtenir des performances aussi
bonnes
que les heuristiques classiques, tout en ayant une complexité
algorithmique
d'un ordre de grandeur plus faible.
|
Service de détection de
défaillances
pour les Grilles
Marin Bertier
Les détecteurs de
défaillances,
introduits par Chandra et Toueg, s'imposent comme un
élément
de base dans la construction d'applications réparties.
Cet exposé décrit la conception et la réalisation
d'un
service de détection de défaillances adaptable
optimisé
pour les architectures de
type grilles de calcul.
Le premier aspect de ce travail consiste à optimiser la
qualité
de service de la détection et de concevoir une architecture
permettant
au
détecteur d'adapter son comportement en fonction de son
environnement
: les demandes des applications utilisatrices et de l'état
courant
du réseau... La deuxième spécificité est
l'organisation
hiérarchique de notre service qui réduit ainsi sa charge
induite
et donc permet son utilisation sur un grand nombre de machines.
|
BSPA :
Algèbre
de processus et modèles de performance pour la programmation
parallèle
BSP distribuée
Armelle Merlin
(http://www.univ-orleans.fr/lifo/Members/merlin/)
Le modèle BSP (Bulk Synchronous
Parallelism)
est un modèle de
programmation data-parallèle explicite qui propose un
modèle
de coût
simple.
Dans cet exposé, je vous présenterai succintement deux
machines
virtuelles pour le langage BSML qui associe BSP, la programmation
fonctionnelle et l'estimation des performances. Puis je parlerai
plus
largement de BSPA (Bulk Synchronous Process Algebra) : une
algèbre
de
processus étendue pour préserver les
caractéristiques
de programmes
BSP, ainsi que son modèle de coût associé. Je
donnerai
quelques
exemples d'application à des problèmes d'ordonnancement
posés
par
l'informatique globalisée ou meta-computing.
Enfin je montrerai comment le modèle de coût
associé à
BSPA peut être
associé à d'autres algèbres de processus. Je
parlerai
donc d'un modèle
de dépense de ressources mémoire pour l'algèbre de
processus
SPPA
dediée aux protocoles cryptographiques et en particulier au
protocole
TCP.
|
Processus légers pour le calcul hautes
performances
sur architectures multiprocesseurs.
Vincent Danjean
(http://dept-info.labri.fr/~danjean/)
Résumé :
Les processus légers sont au coeur des systèmes
d'exploitation
modernes.
Dans le cadre du calcul hautes performances ceux-ci sont tout aussi
incontournables car ils permettent d'exprimer le parallélisme
intrinsèque aux applications, d'utiliser simultanément des
environnements complexes de programmation comme MPI ou Corba et
d'exploiter pleinement les ordinateurs multiprocesseurs.
L'objet de ces travaux est la conception d'une bibliothèque de
processus
légers à deux niveaux dotées des
fonctionnalités
requises par les
programmes de calcul hautes performances. Cette bibliothèque se
doit
d'être à la fois portable et performante sur un vaste
ensemble
d'architectures, y compris les architectures ccNUMA.
Dans un premier temps, le modèle des Scheduler Activations
(proposé
par
Anderson et al.) a été profondément
revisité et
intégré au sein du noyau
Linux, permettant ainsi aux threads de l'espace utilisateur de
réagir
aux interruptions. Ce mécanisme a ensuite été
généralisé
dans le but
d'unifier la gestion des interruptions et des scrutations dans un
environnement multithreadé. Enfin, ces travaux exposent un
mécanisme
de
prise de traces peu intrusif permettant de reconstituer
précisément
le
déroulement d'un programme multithreadé, y compris lorsque
l'ordonnancement est à deux niveaux.
Afin d'exploiter efficacement les architectures ccNUMA présentes
au
CEA, ces travaux ont dû être adaptés et
étendus.
L'ensemble de ces travaux sont implémentés au sein de la
bibliothèque
Marcel de la suite logicielle PM2. Les performances obtenues en termes
de création / destruction / synchronisation / changement de
contexte
se
comparent très favorablement à celles des meilleures
bibliothèques
du
moment. Les gains en terme de réactivité prouvent
l'intérêt
des
techniques développées.
|
Ordonnancement sur une plate-forme de
métacomputing
Yves Caniou
(http://graal.ens-lyon.fr/~ycaniou/)
Résumé :
L'exécution d'une application sur la grille de calcul se fait au
moyen
de couches logicielles intermédiaires. Parmi ces couches, nous
trouvons les intergiciels de grille. L'objectif du travail consiste
à
proposer des algorithmes d'ordonnancement dynamiques
efficaces dans le cadre des systèmes GridRPC.
Dans une première partie, je présenterai un module de
prédiction
de
performances (HTM) et des heuristiques dynamiques d'ordonnancement qui
ont été conçus pendant mon travail de
thèse.
Le HTM donne des
estimations fiables des durées des tâches
séquentielles
qui peuvent
s'exécuter concurremment sur un serveur de calcul. Les
heuristiques
d'ordonnancement sont multi-critères et reposent sur le HTM. En
plus
du makespan, les heuristiques tentent de donner une meilleure
qualité
de service à chaque requête, comme de réduire le
temps
de réponse
moyen.
Les heuristiques et le HTM ont été implantés afin
de
les étudier à
l'aide de simulations. Puis, des expériences intensives et
réelles
ont
permis d'étudier concrètement les performances du HTM au
sein
d'un
intergiciel, d'affiner la précision de ses informations en
introduisant des mécanismes de synchronisation et
d'étudier
l'efficacité des heuristiques.
Dans une seconde partie, je présenterai la problématique
de
la
soumission de tâches parallèles sur la grille pour leur
ordonnancement. Je reviendrai tout d'abord sur le manque de
standard
pour les soumissions Batch ainsi que pour les évaluations de
performances. Je présenterai les travaux en cours dans DIET afin
d'automatiser le processus de soumission, les contraintes dues au
principe même du métacomputing et les premières
approches
abordées.
|
Modèles Fluides pour
l'Evaluation
de Performance des Systèmes de Distribution de Contenu
Florence Clévenot-Perronnin
Projet Maestro
INRIA Sophia-Antipolis
http://www-sop.inria.fr/maestro/personnel/Florence.Clevenot/
Résumé:
Les systèmes de distribution de contenu comme les caches web et
les
réseaux d'échanges de fichiers doivent être
capables
de servir une population de clients à la fois très
grande
(centaines de milliers) et fortement dynamique (temps de
connexion très courts). Ces caractéristiques rendent
leur
analyse très coûteuse par les approches traditionnelles
comme
les modèles markoviens ou la simulation. Dans ces travaux
nous
proposons des modèles fluides simples permettant de s'affranchir
de l'une des dimensions du problème. Nous les appliquons
à
différents systèmes de distribution de contenu, en
particulier
des systèmes de caches web et un système
pair-à-pair
de distribution de fichiers appelé BitTorrent.
Nous montrons que ces modèles permettent, pour une faible
complexité,
de mieux comprendre ces systèmes et de résoudre
certains problèmes d'optimisation. |
Visualisation
scientifique
et simulation numérique
Florence Zara, LSIIT-IGG
Résumé:
Je présenterai durant ce séminaire, le travail de
recherche
que j'ai effectué en postdoc au sein de l'équipe IGG du
LSIIT
de Strasbourg. Ce travail de recherche rentre dans le cadre du projet
INRIA-CALVI
(http://math.u-strasbg.fr/calvi/) qui traite des probl�mes issus de la
physique
des plasmas. Mon travail concerne d'une part l'élaboration
d'*outils
de visualisation* permettant d'analyser les *données 4-D* (6-D
à
plus long terme) issues de simulations de plasmas et de faisceaux de
particules
(2 Go de données par pas de temps), et d'autre part
l'élaboration
d'une *plate-forme de simulation * permettant l'intégration des
diff�rents
codes de simulations existants ainsi que les modules de visualisation.
|
Pratique
Ecrire à
l´administrateur
Dernière
mise
à jour : 25 avril 2005
|