logo publicité Visiter le site national
retour à l'accueil plan du site Contacter le groupe régional administration du site
GROUPE D’EXPERTS QUALITE CNAM 292 rue Saint-Martin 75003 PARIS tél : 01 42 72 64 40 Fax : 01 42 78 26 43
Vous êtes ici : Projets > Sécurité Informatique > QSE : Benchmark pour les systèmes informatiques
Actualité
Pour vous, l’actu. QSE
CNAM : références
Colloques & Conférences
Des côtés sympa !
École Vaucanson
Humour
Re-Coins et bricolages !
Soucis et attentes

Charte GEQseC
Le GEQC se définit sous tous ses aspects...
Remerciements
Attente et besoin QSE
Comité de direction
Découvrez nos experts
Offres d’emplois
Séminaires QSE CNAM

Projets
Tous nos projets par domaines ...
Aide à projet qualité
Aide à tous
Biologie
CNRS : PLUME
Energie
Maîtrise des risques
Management
Mardis de l’innovation
MDE - Ing.. De Modèle
Nations Unies : FAO
Process et Mgt. MA
Prospective, les bases
Santé ... Environnement
Sécurité
Sécurité Informatique
Transition énergétique en Bretagne
Week End Rando Visite

Publications
Tous les écrits du GEQC, classés par thèmes. La référence.
Colloques
Ouvrages et publications

Nos référents
Progression scientifique
Direction de Recherhe et HDR CNAM
Laurence Berlie
Anne Labarre
R. Chevance
F. Dieng Diop
J. Foos
M. Godet
A. LeBeau
F. Meunier
H. Mitonneau
T. de Montbrial
L. Bloch
Y. Pesqueux
C. Pinet
J. Printz
A. Rémondière
Anne Marchais-Roubelat
JJ. Salomon
J.L. Thomas
Gilles Teneau
Réflexion et philosophie
HDR et Thèses
Accès aux standards

QSE : Benchmark pour les systèmes informatiques
lundi 22 septembre 2008


  • Dependability Benchmarking for Computer Systems
  • Gathers together all dependability benchmarks developed to date by industry and academia ...

Toutes les sources auprès de notre collègue du LAAS-CNRS

Wiley - IEEE Practitioners Series Hbk, 362 pages August 2008 ISBN : 9780470230558

A comprehensive collection of benchmarks for measuring dependability in hardware-software systems

This book gathers together all dependability benchmarks developed to date by industry and academia and explains the various principles and concepts of dependability benchmarking. It collects the expert knowledge of DBench, a research project funded by the European Union, and the IFIP Special Interest Group on Dependability benchmarking, to shed light on this important area. It also provides a large panorama of examples and recommendations for defining dependability benchmarks.

Dependability Benchmarking for Computer Systems includes contributions from a credible mix of industrial and academic sources : IBM, Intel, Microsoft, Sun Microsystems, Critical Software, Carnegie Mellon University, LAAS-CNRS, Technical University of Valencia, University of Coimbra, and University of Illinois. It is an invaluable resource for engineers, researchers, system vendors, system purchasers, computer industry consultants, and system integrators.

  • Contents

- Preface.

- Prologue :

  • Dependability Benchmarking : A Reality or a Dream ?
  • (Karama Kanoun, Phil Koopman, Henrique Madeira, and Lisa Spainhower)

- 1. The Autonomic Computing Benchmark

  • (Joyce Coleman, Tony Lau, Bhushan Lokhande, Peter Shum, Robert Wisniewski, and Mary PetersonYost).

- 2. Analytical Reliability, Availability, and Serviceability Benchmarks

  • (Richard Elling, Ira Pramanick, James Mauro, William Bryson, and Dong Tang).

- 3. System Recovery Benchmarks

  • (Richard Elling, Ira Pramanick, James Mauro, William Bryson, and Dong Tang).

- 4. Dependability Benchmarking Using Environmental test Tools

  • (Cristian Constantinescu).

- 5. Dependability Benchmark for OLTP Systems

  • (Marco Vieira, João Duraes, and Henrique Madeira).

- 6. Dependability Benchmarking of Web Servers

  • (João Duraes, Marco Vieira, and Henrique Madeira).

- 7. Dependability Benchmark of Automotive Engine Control Systems

  • (Juan-Carlos Ruiz, Pedro Gil, Pedro Yuste, and David de-Andrés).

- 8. Toward Evaluating the Dependability of Anomaly Detectors

  • (Kymie M. C. Tan and Roy A. Maxion).

- 9. Vajra : Evaluating Byzantine-Fault-Tolerant Distributed Systems

  • (Sonya J. Wierman, and Priya Narasimhan).

- 10. User-Relevant Software Reliability Benchmarking

  • (Mario R. Garzia).

- 11. Interface Robustness Testing : Experience and Lessons Learned from the Ballista Project

  • (Philip Koopman, Kobey DeVale, and John DeVale).

- 12. Windows and Linux Robustness Benchmarks with Respect to Application Erroneous Behavior

  • (Karama Kanoun, Yves Crouzet, Ali Kalakech, and Ana-Elena Rugina)

- 13. DeBERT : Dependability Benchmarking of Embedded Real-Time off-the Shelf Components for Space Applications

  • (Diamantino Costa, Ricardo Barbosa, Ricardo Maia, and Francisco Moreira).

- 14. Benchmarking the Impact of Faulty Drivers : Application to the Linux Kernel

  • (Arnaud Albinet, Jean Arlat, and Jean-Charles Fabre).

- 15. Benchmarking the Operating System against Faults Impacting Operating System Functions

  • (Ravishankar Iyer, Zbigniew Kalbarczyk, and Weining Gu).

- 16. Neutron Soft Error Rate Characterization of Microprocessors

  • (Cristain Constantinescu).

- Index.

IMPRIMER L'ARTICLE
IMPRIMER
QSE : Benchmark pour les systèmes informatiques

Dans la même rubrique :
Comprendre les supercalculateurs ! Tera to petascale !
CONCEPTION ET IMPLANTATION D’UNE GRILLE DE CALCULS DE RISQUES TOLERANTE AUX PANNES
Grid Computing : fault tolerance
MESCAL : Middleware Efficiently SCALable
QSE : Reliability Design ; Modèles de fiabilité


Proposer un article | Nous contacter | Plan du site | Admin | Accueil
Union des Ingénieurs CNAM Association reconnue d'utilité publique (loi de 1901) Ce site est réalisé grâce au système de publication SPIP