Voici les éléments 1 - 10 sur 88
  • Publication
    Accès libre
    Swiss health metadata repository : implementation recommendations - requirements, recommended architecture and prototype implementation
    (Université de Neuchâtel Institut du management de l'information, 2021-6-1) ; ; ;
    In the context of a decentralized approach for health data resources, a central metadata repository becomes essential for the identification/description of the necessary resources. A Swiss Health Metadata Repository is expected to enable multiple advantages, namely: to provide a single entry point for searching/retrieving health-related resources; to help identify possible semantic linking between data sources; to provide a consistent data catalog ensured by the use of standardized vocabularies/ontologies; to enable potential exchange of experience and know-how between health data-related projects in Switzerland; and to increase the capacity of research groups to share/access/analyse health related data. This policy brief focuses on the implementation aspects of a proof-of-concept proto-type for Swiss Health Metadata Repository.
  • Publication
    Accès libre
    Design principles of a central metadata repository as a key element of an integrated health information system
    (Université de Neuchâtel Institut du management de l'information, 2020-1-31) ; ; ;
    The Swiss Health System is a complex system with different groups of actors for which data is collected and analyzed using various methods, leading to a large heterogeneity and dispersion of available data. The specificities of a Swiss Health System favor a hybrid infrastructure to manage the heterogeneity and dispersion of Swiss health-related data. This policy brief shows the importance of a metadata management infrastructure to identify and describe health data resources and highlights several essential key elements for the design of a metadata repository and also raises important practical questions.
  • Publication
    Accès libre
    Towards the democratization of ontological modeling through a new pervasive means of representation
    Malgré leur utilité prouvée dans de nombreux domaines de l’ingénierie des connaissances, les ontologies ne parviennent pas à égaler cette position comme des modèles de domaine dans le secteur de développement de logiciels d’entreprise. Tout en ayant pour but de rendre les ontologies accessibles à un plus grand nombre d’intervenants dans le cadre du développement de logiciels, cette thèse cherche à étudier les facteurs qui se dressent entre les efforts de recherche sur l’intégration des ontologies comme elle est, d’une part, décrite par la littérature, et, d’autre part, une démocratisation menée à terme. Tout comme notre analyse préliminaire le suggère, la réticence qui caractérise l’adoption des ontologies au sein de la communauté des ingénieurs est en partie due à une sémantique opposée, ainsi qu’aux différentes hypothèses sous-jacentes utilisées dans les ontologies, par rapport à d’autres normes de modélisation d’entreprise plus conventionnels. Les piles techniques derrière l’application des ontologies et les logiciels d’entreprise conventionnels varient considérablement; des langues aux éditeurs en passant par l’appui aux infrastructures.
    Les raisons mentionnées ci-dessus prennent une nouvelle tournure syntactique, sémantique et paradigmatique que le développeur doit prendre en compte à chaque fois qu’il utilise les ontologies. Afin de minimaliser ces diverses tournures, la première étape vers la réalisation de cette thèse a été la proposition d’une fonction de traduction sans perte qui pourrait faciliter la tâche d’intégration des ontologies vers les référentiels de code plus conventionnels en les exprimant directement dans le même langage de programmation en usage.
    La deuxième étape franchie fut l’implémentation, de manière concrète, de la fonction de traduction en considérant C\# comme langage cible. Cette implémentation prend également en compte de potentielles optimisations du processus de conversion. Le choix de C\# est motivé par un certain nombre de facteurs discutés dans le chapitre correspondant. Cette implémentation prend également en compte de potentielles optimisations du processus de conversion. On obtient une réduction significative de la taille de l'exécutable en exploitant la notation du langage de programmation qui permet d’éviter la redondance inhérent à la source de la sérialisation XML. De plus, une technique de compression qui détecte les modèles anonymes redondants récurrents dans l’ontologie source est proposée afin de réduire la taille de l’exécutable qui en résulte en générant une classe correspondante unique pour chaque ensemble de concepts récurrents. Ceci peut être particulièrement utile dans le domaine biomédical, où l’étendue des ontologies constitue en elle-même un problème. Par ailleurs, la technique proposée n’est pas restreinte aux ontologies exécutables, mais peut aussi être généralisée à d’autres formats syntactiques d’ontologies OWL.
    Cette thèse illustre également deux applications potentielles de conversions d’ontologies en représentation exécutable. Ces deux applications visent à aborder les difficultés relatives à l’exploitation efficace des ontologies dans des environnements de développement conventionnels. Dans un premier temps, nous proposons un procédé de pontage de l’interstice de commande impératif généralement présent dans les formes d’ontologie passives en fournissant des ontologies exécutables avec des extensions procédurales dans la forme de procédés orientés objets. Dans un deuxième temps, nous nous axons sur la présentation d’un prototype plus élaboré de pile simplifiée pour un système de base de connaissances pouvant fournir des services de raisonnement légers en exploitant le support de l’environnement de programmation. Nous conduisons une expérience afin d’évaluer l’utilité du prototype en répondant à certains types de requêtes sémantiques sans avoir recours à un raisonneur de Description Logique (DL). Enfin, les résultats empiriques obtenus fournissent des éléments de preuve démontrant la faisabilité du prototype proposé., Despite their proven utility in various areas of knowledge engineering, ontologies are falling short of reaching an equal position as formal domain models in the landscape of enterprise software development. With the ultimate goal of making ontologies more accessible to a wider audience of software development stakeholders, this thesis investigates the reasons that are still standing between ontology integration research efforts as depicted in literature and a successful democratization of ontologies. As our preliminary analysis results suggest, the shy adoption of ontologies in software engineering communities is partially due to the opposing semantics and the different underlying assumptions used in ontologies compared to the other more conventional software modeling paradigms. The technical stacks behind ontological applications and conventional enterprise software also vary greatly; from languages and editors to infrastructure support.
    The above reasons constitute a syntactic, semantic and paradigmatic twist the developer has to go through each time trying to use ontologies. In order to minimize this manifold twist, this thesis proposes a loss-less translation function that would facilitate the task of integrating ontologies into conventional code repositories by expressing them directly in the same general-purpose programming language already in use. Such a translation of ontologies from their passive external form into an active executable form does not only enhance the portability of ontologies but also contributes to a substantial reduction in both the steep learning curve and the overhead of the technical stacks usually associated with ontologies. This proposition is further crystallized by the implementation of the translation function using C\# as the target language of the translation. Our choice for C\# is motivated by a number of factors that we discuss in the corresponding chapter. The implementation also takes into account potential optimizations of the translation process. A substantial reduction in the executable size is achieved by exploiting the dot notation of the target programming language to avoid the redundant representation style inherent in the source XML serialization. Additionally, a compressing technique that detects redundant recurrent anonymous patterns in the source ontology is proposed to reduce the size of the resulting executable by generating a unique corresponding class for each set of recurrent patterns. This can be particularly useful in the bio-medical domain where the sheer size of ontologies is itself an issue. Furthermore, the proposed technique is not unique to executable ontologies but can also be generalized to other syntactic formats of OWL ontologies.
    The thesis further illustrate two potential applications of translating ontologies into an executable representation. Both applications are geared towards addressing the difficulties of fully exploiting ontologies in conventional development environments. We first propose bridging the imperative control gap usually present in the passive form of ontologies by providing executable ontologies with procedural extensions in the form of object-oriented methods. We then move to present a more elaborated prototype of a simplified stack for a knowledge base system that can provide light-weight reasoning services by exploiting the support of the programming environment. An experiment is conducted to assess the utility of the prototype in answering certain types of semantic queries without invoking a DL reasoner. The empirical results obtained provide a supporting evidence of the feasibility of the proposed prototype.
  • Publication
    Accès libre
    Ontology engineering using formal concept analysis from unstructured textual data
    L’extraction de connaissances, en particulier à partir de données non structurées tels que les textes, a longtemps était considérée comme une des demandes les plus souhaitées, avec un grand nombre d’applications dans presque toutes les industries. La conception, ainsi que la mise en place de solutions capables d’extraire des connaissances, de façon presque automatique, est loin d’être une tâche facile. Depuis déjà plusieurs décennies, différents chercheurs ont proposé une variété de méthodologies et d’algorithmes afin de décrire comment donner une certaine structure à des données textuelles, avec pour but ultime l’extraction de connaissances. Un des éléments clés de ces solutions est d’utiliser une ontologie reposant sur une structure de graphe, et rendant possible une représentation de connaissances. Cependant, la construction d’ontologies, en particulier à partir de textes, n’est pas aisée. A notre connaissance, il n’y a pas encore de méthodologie complète décrivant la construction d’une ontologie à partir du traitement de données textuelles, dans un domaine d’intérêt donné, pour être par la suite utilisée pour l’extraction de connaissances explicites ainsi que implicites (sémantiques). L’objectif de cette thèse est de proposer un pipeline décrivant comment partir de l’analyse de textes pour finalement arriver à une ontologie comprenant les propositions les plus informatives de ce corpus de textes sur un contexte donné, et dans le but d’être utilisé pour l’extraction de connaissances. Ce pipeline repose sur l’utilisation de trois méthodes d’analyse de données, tout aussi différentes que complémentaires, incluant (i) le traitement du langage naturel, (ii) l’analyse formelle de concepts, et (iii) l’apprentissage d’ontologies. En résumé, le pipeline débutera par une exploration du corpus de textes en entrée (pour un domaine d’intérêt bien défini), faisant usage des techniques de traitement du langage naturel les plus avancées. L’analyse formelle de concepts sera par la suite utilisée pour former les concepts et construire leurs hiérarchies (i.e., un treillis de concepts), constituant le fondement de l’ontologie désirée. Enfin, les propositions les plus informatives du corpus de textes seront intégrées au sein de l’ontologie, dérivée au préalable d’un ensemble d’algorithmes proposés dans cette thèse et appliqués au treillis de concepts susmentionné. Afin de valider la précision de notre pipeline, nous l’avons testé avec quelques exemples synthétiques ainsi qu’avec de vrais cas d’utilisation dans le contexte de l’industrie pharmaceutique. Nous avons pu démontrer qu’une telle ontologie obtenue peut être utilisée pour interroger d’importantes connaissances ainsi que des informations extraites de données textuelles non structurées, et peut être employée comme élément central au sein d’un moteur de recherche intelligent, avec des applications en analyse sémantique. Un des avantages de notre solution est de minimiser l’intervention humaine, contrairement à beaucoup d’autres solutions déjà existantes et aux performances fortement dépendantes de la présence ou non d’un expert en la matière tout au long du processus de construction de l’ontologie. Lors du processus de validation, nous impliquons toutefois toujours l’expertise humaine, afin de garantir la constante amélioration de notre ontologie., Knowledge extraction especially from unstructured data such as texts has been always considered as one of the highly demanded requests with lots of applications in almost all industries. Design and building of solutions that are capable of extracting knowledge, in an almost automated way, is not an easy task at all. Many researchers have proposed variety of methodologies and algorithms to describe how one can give some structure to textual data with the ultimate goal of knowledge extraction since decades ago. One of the key elements of those solutions is to utilize ontology as a graph-like structure for representing knowledge. Building ontologies especially from textual data, however, is not quite straightforward. To the best of our knowledge, there is no yet a comprehensive methodology to describe how one can form an ontology from processing textual data in a given domain of interest to be later used for explicit as well as implicit (or semantic) knowledge extraction. In this thesis, we propose a pipeline to describe how we can start from analyzing texts to end up with an ontology, which is equipped with the most informative statements of that text corpus about a given context, in order to be used for knowledge extraction. The proposed pipeline is based on utilization of three different yet complementary data analysis methods including (i) natural language processing, (ii) formal concept analysis, and (iii) ontology learning. In a nutshell, the pipeline will start by mining the input text corpus (in a given domain of interest) using state-of-the-art natural language processing techniques. The formal concept analysis will then be used to form the concepts and build the hierarchies among them (i.e., a concept lattice) as the cornerstone of the desired ontology. Finally, the most informative statements extracted from text corpus will be embedded into the ontology, that has been derived from a set of proposed algorithms applied on the aforementioned concept lattice. To validate the accuracy of the proposed pipeline we tested it on a few toy examples as well as a real use case in the context of pharmaceuticals. We could demonstrate that such an engineered ontology can be used for querying valuable knowledge and insights from unstructured textual data, and to be employed as the core component of smart search engines with applications in semantic analysis. One of the advantages of our proposed solution is that it does not require so much of human intervention, as opposed to many existing solutions whose performance highly depends on the presence of a subject matter expert along the ontology engineering process. It does not, however, mean that our proposed pipeline cannot benefit from existence of such additional information resources to be further empowered by human expertise in shaping ontologies.
  • Publication
    Métadonnées seulement
    Object-Oriented Modeling with Ontologies Around: A Survey of Existing Approaches
    Despite the many integration tools proposed for mapping between OWL ontologies and the object-oriented paradigm, developers are still reluctant to incorporate ontologies into their code repositories. In this paper we survey existing approaches for OWL-to-OOP mapping trying to identify reasons for this shy adoption of ontologies among conventional software developers. We present a classification of the surveyed approaches and tools based on their technical characteristics and their resulting artifacts. We discuss further potential reasons beyond what have been addressed in the literature before finally providing our own reflection and outlook.
  • Publication
    Métadonnées seulement
    Object-oriented Software Modeling with Ontologies Around
    Despite the many integration tools proposed for mapping between OWL ontologies and the object-oriented paradigm, developers are still reluctant to incorporate ontologies into their code repositories. In this paper we survey existing approaches for OWL to OOP mapping trying to identify reasons for this shy adoption of ontologies among conventional software developers. We present a classification of the surveyed approaches and tools based on the characteristics of their resulting artifacts. We finally provide our own reflection for other potential reasons beyond those addressed in the literature.
  • Publication
    Métadonnées seulement
    OntoJIT: Exploiting CLR Compiler Support for Performing Entailment Reasoning over Executable Ontologies
    Most recent efforts on bringing ontologies into mainstream programming languages were hindered by some fundamental issues; mainly the lack of expressiveness of programming languages compared to the declarative nature of ontological languages as well as the different assumptions on which reasoning in these languages is based on. In this paper we give the idea of adopting ontological programming approaches a second thought by proposing a prototype for a C# ontological knowledgebase system where ontologies are expressed directly in an executable form. We present our experience on bridging the semantic gab in general purpose programming languages and on exploiting metaprogramming and the dynamic compilation feature of modern compilers for performing certain entailment queries without the need for the bulky ontology classification step usually required in the case of conventional ontological tools.
  • Publication
    Métadonnées seulement
    Procedural extensions for executable ontologies in conventional software development
    (Belfast, North Ireland: World Scientific, 2018) ;
    Ontologies have gone lengths in various areas of knowledge engineering, yet they are falling short of reaching an equal position as formal domain models in the landscape of enterprise software development. In this paper, we present an approach for integrating ontologies into the code space of conventional software. We argue that the limited adoption of ontologies in software development is partially due to the lack of imperative programming capabilities. We propose extending ontologies with procedural extensions by expressing them in an executable form. Finally, we discuss the advantages of this representation and the possibilities for further improvements.