Voici les éléments 1 - 10 sur 502
  • Publication
    Métadonnées seulement
    A Roadmap for Research in Sustainable Ultrascale Systems
    (Bruxelles: EU-COST IC1305, 2018)
    Sousa, Leonel
    ;
    ;
    Kuonen, Pierre
    ;
    Prodan, Radu
    ;
    Trinh, Tuan Anh
    ;
    Carreto, Jesus
    The COST Action IC1305 (NESUS) proposes in this research roadmap research objectives and twelve associated recommendations, which in combination, can help bring about the notable changes required to make true the existence of sustainable ultrascale computing systems. Moreover, they are useful for industry and stakeholders to define a path towards ultrascale systems.
  • Publication
    Métadonnées seulement
    Experiences with object group systems
    (2000)
    Guerraoui, Rachid
    ;
    Eugster, Patrick
    ;
    ;
    Garbinato, Benoit
    ;
    Mazouni, Karim
    The GARF, East, and OGS systems represent the resulting efforts of a multi-year 'object group' program at the Swiss Federal Institute of Technology in Lausanne, The intent of the program was to understand the extent to which one could build flexible and performance system supports to encapsulate object plurality, That is, we experimented with various ways to build libraries and services to support object groups in a distributed setting. This paper summarizes the main steps of the efforts and draws some conclusions about the successes and failures of our approaches. Copyright (C) 2000 John Wiley & Sons, Ltd.
  • Publication
    Métadonnées seulement
    Scheduling Support for Transactional Memory Contention Management
    (2010) ; ; ;
    Suissa, Adi
    ;
    Hendler, Danny
    ;
    Fedorova, Alexandra
    ;
    Lawall, Julia
    ;
    Muller, Gilles
  • Publication
    Métadonnées seulement
    SPINET: A Parallel Computing Approach to Spine Simulations
    (1996-1-22) ;
    Lederer, Edgar F. A.
    ;
    Steffen, Thomas
    ;
    Guggisberg, Karl
    ;
    Schneider, Jean-Guy
    ;
    Schwab, Peter
    Research in scientitic programming enables us to realize more and more complex applications, and on the other hand, application-driven demands on computing methods and power are continuously growing. Therefore, interdisciplinary approaches become more widely used. The interdisciplinary SPINET project presented in this article applies modern scientific computing tools to biomechanical simulations: parallel computing and symbolic and modern functional programming. The target application is the human spine. Simulations of the spine help us to investigate and better understand the mechanisms of back pain and spinal injury. Two approaches have been used: the first uses the finite element method for high-performance simulations of static biomechanical models, and the second generates a simulation developmenttool for experimenting with different dynamic models. A finite element program for static analysis has been parallelized for the MUSIC machine. To solve the sparse system of linear equations, a conjugate gradient solver (iterative method) and a frontal solver (direct method) have been implemented. The preprocessor required for the frontal solver is written in the modern functional programming language SML, the solver itself in C, thus exploiting the characteristic advantages of both functional and imperative programming. The speedup analysis of both solvers show very satisfactory results for this irregular problem. A mixed symbolic-numeric environment for rigid body system simulations is presented. It automatically generates C code from a problem specification expressed by the Lagrange formalism using Maple.
  • Publication
    Métadonnées seulement
    Programming with object groups in PHOENIX
    (Paris: Prentice Hall, 1995) ;
    Guerraoui, Rachid
  • Publication
    Accès libre
    Information retrieval of digitized medieval manuscripts
    This dissertation investigates the retrieval of noisy texts in general and digitized historical manuscripts in particular. The noise originates from several sources, these include imperfect text recognition (6% word error rate), spelling variation, non-standardized grammar, in addition to user-side confusion due to her/his limited knowledge of the underlying language and/or the searched text. Manual correction or normalization are very time-consuming and resource-demanding tasks and are thus out of the question. Furthermore, external resources, such as thesauri, are not available for the older, lesser-known languages. In this dissertation, we present our contributions to overcoming or at least coping with these issues. We developed several methods that provide a low-cost yet highly-effective text representation to limit the negative impact of recognition error and the variable orthography and morphology. Finally, to account for the user-confusion problem, we developed a low-cost query enrichment function which we deem indispensable for the challenging task of one-word queries.
  • Publication
    Accès libre
    Variations autour de tf idf et du moteur Lucene
    (2008) ;
    Dolamic, Ljiljana
    A l'aide d’un corpus écrit en langue française et composé de 299 requêtes, cet article analyse et compare l’efficacité du dépistage de diverses stratégies d’indexation et de recherche basées sur le modèle classique « tf idf ». Cette dernière formulation demeure ambiguë et cache diverses variantes possédant des performances différentes, performance mesurée soit par la précision moyenne (MAP) soit par le rang moyen de la première bonne réponse (MRR). Notre analyse confirme que la meilleure efficacité s’obtient par le modèle Okapi. Mais lorsque nous sommes dans des contextes particuliers (e.g., systèmes distribués) dans lesquels la valeur de l’idf n’est pas connue lors de l’indexation des documents, nous démontrons que des stratégies simples, basées uniquement sur la fréquence d’occurrence (ou tf) permettent d’obtenir une performance significativement meilleure que le modèle classique « tf idf ». En utilisant le moteur Lucene (logiciel libre), nous avons également évalué deux de ses facettes, à savoir l’accroissement d’importance attachée aux mots des titres et la prise en compte du nombre de termes en commun entre le document dépisté et la requête., This paper evaluates and compares the retrieval effectiveness resulting from various models derived from the classical tf idf paradigm when searching into a test-collection written in the French language (CLEF, 299 queries). We show that the simple paradigm “tf idf” may hide various formulations providing different retrieval effectiveness measured either by the mean average precision (MAP) or the mean reciprocal rank (MRR). Our analysis demonstrates that the best retrieval performance can be obtained from applying the Okapi probabilistic model. However, when faced with particular contexts (e.g. distributed IR) where the idf value cannot be obtained during the indexing process, we demonstrated that a simple indexing scheme (based only the frequency of occurrence or tf) may produce a significantly better performance than the classical « tf idf » model. Using the Lucene search engine, we also analyze and evaluate two particular features of this open-source system (namely the boost and coordinate level match).
  • Publication
    Accès libre
    Exploring the potential of modern hardware-assisted security and networking technologies
    (Neuchâtel, 2023)
    De plus en plus d’entreprises migrent progressivement leurs charges de travail informatiques vers le cloud afin de répondre à leurs besoins croissants en ressources informatiques tout en simplifiant leurs opérations quotidiennes. Transférer la responsabilité de l’infrastructure à un tiers peut poser des problèmes de confidentialité et de sécurité en raison de la perte de contrôle par rapport aux données. Concurremment, les opérateurs de services cloud doivent faire face à un trafic réseau en constante augmentation. Les nouvelles technologies d’accélération matérielle, telles que les environnements d’exécution de confiance (TEE) et les commutateurs programmables au niveau du plan de données, représentent des innovations prometteuses. La première permet de décharger des calculs concernant des données sensibles vers un tiers auquel on ne fait pas confiance tout en préservant la confidentialité des données. Les commutateurs programmables représentent quand à eux une avancée dans le domaine des appareils de mise en réseau, permettant une programmabilité complète sans pour autant compromettre la performance. Dans cette thèse, nous étudions comment ces deux technologies d’accélération matérielle peuvent aider à résoudre des problèmes contemporains. Nous présentons plusieurs nouveaux systèmes afin de montrer que l’accélération matérielle permet non seulement d’exécuter des tâches existantes plus efficacement, mais aussi qu’elle permet de créer des solutions complètement nouvelles. Nous commençons par évaluer les performances de quelques TEE commerciaux, en partie en construisant nos propres outils. Nous constatons que les garanties de sécurité supérieures offertes par la technologie Software Guard Extensions (SGX) d’Intel par rapport à la technologie Secure Encrypted Virtualization (SEV) d’AMD conduisent à des performances généralement inférieures, mais qu’une utilisation intelligente de la technologie permet d’éviter ces surcoûts. Néanmoins, nous découvrons que les performances d’un TEE en particulier peuvent changer au fil du temps, à mesure que les correctifs de sécurité sont publiés par son fournisseur. Comme Intel SGX 1 possède des limites importantes quant à l’utilisation mémoire, nous concevons et développons un orchestrateur qui permet de déployer efficacement des charges de travail SGX conteneurisées de manière répartie, tout en intégrant les charges de travail et serveurs existants (sans SGX). Par la suite, nous résolvons un problème fréquent, à savoir comment partager des données au sein d’un groupe tout en préservant la confidentialité. Nous concevons et développons un système élastique hébergé dans le cloud dont la performance surpasse l’état de l’art de trois ordres de grandeur, grâce à une réduction de la complexité d’un algorithme cryptographique permise par les garanties de sécurité que SGX fournit. Ensuite, nous montrons qu’avoir SGX sur les machines clientes permet d’y décharger des charges de travail traditionnellement effectuées par des appareils réseau dédiés. Grâce à cet arrangement non conventionnel, les ressources inutilisées des machines clientes peuvent aider les grands opérateurs de réseau à faire face à l’utilisation accrue du réseau. Notre prototype passe à l’échelle de façon linéaire en fonction du nombre de clients, atteignant un débit jusqu’à 3.8× supérieur à celui d’un appareil réseau centralisé similaire. Toujours dans le but de trouver des solutions permettant de faire face à l’augmentation constante du trafic réseau, nous montrons que la technique de dé-duplication généralisée (GD) peut être utilisée comme algorithme de compression. Grâce à son utilisation restreinte en termes de ressources et à son exécution en temps constant, nous pouvons implémenter un prototype intégré à un commutateur programmable. Nous pouvons donc compresser et décompresser de manière transparente les paquets réseau au sein même du réseau, sans matériel supplémentaire et sans perte de performance. Notre prototype parvient à réduire la taille d’une trace de données provenant du monde réel de près de 90 %. Enfin, nous proposons de désagréger la mémoire de travail non-volatile (NVMM) dans le réseau, conformément à la tendance contemporaine d’hyper-convergence. La polyvalence et la position des commutateurs programmables dans le réseau nous permettent de développer un prototype qui intercepte et modifie de manière transparente les accès directs à la mémoire distante (RDMA) entre les clients et les serveurs NVMM. Nous tirons parti de la présence de registres dans le commutateur programmable pour implémenter un mécanisme d’entrelacement et de mise en miroir des données qui permet d’accéder à la NVMM plus rapidement qu’en mode natif tout en augmentant la fiabilité.
  • Publication
    Métadonnées seulement
    Design choices for content distribution in P2P networks
    (2005)
    Al Hamra, Anwar
    ;
    Content distribution using the P2P paradigm has become one of the most dominant services in the Internet today. Most of the research effort in this area focuses on developing new distribution architectures. However, little work has gone into identifying the principle design choices that draw the behavior of the system. In this paper, we identify these design choices and show how they influence the performance of different P2P architectures. For example, we discuss how clients should organize and cooperate in the network. We believe that our findings can serve as guidelines in the design of efficient future architectures.
  • Publication
    Métadonnées seulement