Voici les éléments 1 - 10 sur 18
  • Publication
    Accès libre
    Data integration and automated geological modeling of Quaternary aquifers
    (Neuchâtel : Université de Neuchâtel, 2024) ;
    Cette thèse a pour sujet d’étude la modélisation de l’hétérogénéité des aquifères et formations géologiques du Quaternaire. Plus particulièrement, elle cherche à intégrer au mieux les données géologiques existantes au sein des procédures de modélisation et à trouver des façons de les automatiser au maximum. Différents axes de recherches sont investigués afin de répondre à ces problématiques. Dans un premier temps, une revue littéraire des méthodes de modélisation de faciès, caractérisant largement l’hétérogénéité du sous-sol, est réalisée afin d’avoir une vue aussi complète que possible sur les algorithmes et méthodes existantes. Le but était aussi de proposer une classification récente et actualisée de ces méthodes dans le but d’aider à la sélection d’une méthode en fonction des situations. Les potentielles lacunes en matière de recherche dans ce domaine sont également identifiées. A la suite de cela, une proposition d’une approche hiérarchique, semi-automatique et stochastique, appelée ArchPy est proposée. Elle permet de facilement combiner l’expertise géologique, représentée sous la forme d’une pile stratigraphique, et les différentes données géologiques. Cette approche hiérarchique opère en trois étapes: unité stratigraphique, faciès et propriétés pétrophysiques. Elles représentent différentes échelles de complexité géologique et permettent d’atteindre une grande complexité en terme d’hétérogénéité. ArchPy a ensuite été utilisé sur différents sites géologiques afin de démontrer ses capacités de modélisation. Cependant, ArchPy est confronté à certains problèmes qui limitent son automatisation. En particulier, la difficulté associée à la construction de la pile stratigraphique a conduit à la proposition d’un nouvel algorithme pour déterminer automatiquement la pile stratigraphique sur la base des données lithologiques des forages. Une méthode est également proposée afin de résoudre le problème récurrent des informations stratigraphiques manquantes dans les données de forages. Une fois l’approche ArchPy mise en place, il est nécessaire d’affiner sa deuxième étape - la modélisation des faciès - qui est particulièrement délicate à modéliser en fonction du contexte géologique. Dans ce but, une nouvelle méthode de modélisation des faciès, appelée EROSim, permet de mieux représenter les structures sédimentaires. Cette méthode a la particularité qu’elle utilise des surfaces pour représenter les différents évènements géologiques pouvant affecter l’hétérogénéité d’une formation sédimentaire. Les outils et méthodes présentées montrent l’intérêt et le bénéfice des méthodes stochastiques, automatisées et en accès libre pour la modélisation géologique. ArchPy pose notamment les bases d’une boite à outils de modélisation géologique stochastique ayant un large panel d’utilisations, tel que la réalisation de modèles géologiques complexes ou le couplage dans des processus d’inversion. Cette thèse participe ainsi au développement d’une modélisation géologique devenant de plus en plus accessible et libre d’accès, pour le bien commun de la communauté géoscientifique, et au-delà. ABSTRACT The subject of this thesis is the modeling of heterogeneity in Quaternary aquifers and geological formations. More specifically, it seeks to integrate existing geological data into modeling procedures and find ways of automating them as far as possible. Various lines of research are being investigated to address these challenges. First, a literature review of facies modeling methods, characterizing the heterogeneity of the subsurface, is carried out in order to gain an overview as complete as possible of existing algorithms and methods. The aim was also to propose a recent and up-to-date classification of these methods, to help in the selection of a method according to the situation. Potential research gaps in this field are also identified. Second, an approach and module is developed to tackle the challenges of the thesis. The result is the proposal of a hierarchical, semi-automatic and stochastic approach, called ArchPy, which makesit easy to combine geological expertise, represented in the form of a stratigraphic pile, and various geological data. This hierarchical approach operatesin three stages: stratigraphic unit, facies and petrophysical properties. These represent different scales of geological complexity, and enable a high degree of heterogeneity to be achieved. In order to demonstrate ArchPy’s usefulness, it is then applied to different geological sites and improved at several pointsdepending on the situation. However, ArchPy faces some issues that limits its automation. In particular, the difficulty associated with the construction of the stratigraphic pile led to the proposition of a new algorithm to automatically determine the stratigraphic pile based on borehole records. A method is also proposed to solve the recurrent problem of missing stratigraphic information in drilling data. Once ArchPy approach is set up, it is necessary to refine its second step - facies modeling - which is particularly to accurately model depending on the geological context. To this aim, a novel facies modeling methods, called EROSim, to better represent sedimentary structures is proposed. This method is distinctive because it employs surfaces to represent various geological events that can impact the heterogeneity of a sedimentary formation. The presented tools and methods showcase the advantages and usefulness of stochastic, automated, and open-access methods for geological modeling. Specifically, ArchPy establishes the groundwork for a stochastic geological modeling toolbox with a broad range of applications, including the creation of intricate geological models or coupling in inversion processes. This thesis contributes to the development of geological modeling, which is becoming more accessible and available to the geoscientific community and beyond.
  • Publication
    Accès libre
    Stochastic multiple data integration for the characterization of quaternary aquifers
    La gestion des ressources en eaux souterraines nécessite souvent le développement de modèles géologiques et hydrogéologiques. Cependant, la construction de modèles précis peut s’avérer une tâche difficile et longue, en particulier dans les vastes zones présentant des dépôts quaternaires complexes. Or, ces zones sont souvent celles qui sont le plus fréquemment soumises à l’exploitation des ressources et à la pollution. Pour résoudre ce problème, plusieurs études ont proposé des méthodologies innovantes pour intégrer différents types de données, notamment des données sur les puits, des données géophysiques et des données hydrogéologiques. L’objectif est de faciliter la construction de ces modèles dans des cadres cohérents et reproductibles avec une estimation robuste des erreurs. Nous présentons ici quatre études qui proposent de nouvelles méthodologies pour relever ce défi. La première étude présente un vaste et dense ensemble de données électromagnétiques dans le domaine temporel (TDEM) acquises dans la haute vallée de l’Aar, en Suisse, afin d’améliorer la connaissance des variations spatiales des dépôts quaternaires. Les modèles de résistivité inversée dérivés de cette acquisition ont été publiés et pourraient être utilisés pour diverses études futures. Cette étude met également en évidence le potentiel de l’ensemble de données pour le développement d’algorithmes d’intégration de données en raison de l’abondance de diverses données librement disponibles sur la même zone. La deuxième étude propose une nouvelle méthodologie pour combiner les forages et les données géophysiques avec une propagation de l’incertitude pour prédire la probabilité d’argile à l’échelle d’une vallée. Une fonction de translation variant dans l’espace a été utilisée pour estimer la fraction d’argile à partir de la résistivité. Les paramètres de cette fonction sont inversés en utilisant la description des forages comme points de contrôle. Ils combinent cette estimation de la fraction d’argile avec un cadre d’interpolation stochastique 3D non déterministe basé sur un algorithme de statistiques à points multiples et une fonction aléatoire gaussienne afin d’obtenir un modèle 3D réaliste à haute résolution spatiale de la fraction d’argile pour la haute vallée de l’Aar. L’étude démontre la qualité des valeurs prédites et leurs incertitudes correspondantes en utilisant la validation croisée. La troisième étude porte sur la possibilité d’intégrer des données de forage, géophysiques et hydrogéologiques, tout en conservant la cohérence du concept géologique des modèles. Nous avons utilisé un générateur stochastique de modèles géologiques pour construire un ensemble de modèles préalables basés sur les forages. Nous proposons ensuite une approche d’inversion multi-échelle qui combine des modèles peu fidèles et moins précis avec des modèles plus fidèles et plus précis afin de réduire le temps nécessaire à la convergence de l’inversion. Les données géophysiques et hydrogéologiques sont intégrées à l’aide d’un algorithme ES-MDA (Ensemble Smoother with Multiple Data Assimilation Algorithm). Le flux de travail garantit que les modèles sont géologiquement cohérents et estime de manière robuste l’incertitude associée au modèle final. L’étude démontre l’efficacité de cette approche pour un cas synthétique contrôlé. Elle montre que ArchPY et ES-MDA sont capables de générer des réalisations plausibles de la subsurface pour les modèles sédimentologiques du Quaternaire. Enfin, la quatrième étude présente une méthodologie innovante qui combine l’algorithme ES-MDA avec un code de modélisation géologique hiérarchique open-source pour intégrer des sources de données multiples et construire des modèles géologiquement cohérents avec une estimation d’erreur robuste. La méthodologie est appliquée à un cas de terrain dans la haute vallée de l’Aar, en Suisse. Un cadre de validation croisée est mis en oeuvre afin d’évaluer la méthodologie. L’approche aboutit à des modèles finaux qui équilibrent efficacement la précision et l’incertitude et qui peuvent prendre en compte diverses sources de données, y compris des données géophysiques, des connaissances conceptuelles régionales, des forages et des mesures hydrogéologiques à l’échelle d’une vallée. En résumé, cette thèse présente plusieurs méthodes innovantes qui pourraient être appliquées à la réalisation de modèles hydrogéologiques à petite ou grande échelle. ABSTRACT Groundwater resource management often requires the development of geological and hydrogeological models. However, constructing accurate models can be a challenging and time-consuming task, especially in large areas with complex Quaternary deposits. However, these areas are often the most frequently subject to resource exploitation and pollution. To address this issue, several studies have proposed innovative methodologies to integrate various types of data, including wells, geophysical, and hydrogeological data. The objective is to facilitate the construction of these models within coherent and reproducible frameworks with robust error estimation. In these, we present four studies that present novel methodologies to address this challenge. The first study presents a large and dense Time Domain ElectroMagnetic (TDEM) dataset acquired in the upper Aare Valley, Switzerland, to improve knowledge of the spatial variations of Quaternary deposits. The inverted resistivity models derived from this acquisition were published and could be used for various future studies. It also highlights the data set’s potential for data integration algorithm development because of the abundance of various freely available data on the same zone. The second study proposes a new methodology to combine boreholes and geophysical data with a propagation of the uncertainty to predict the probability of clay at the scale of a valley. A spatially varying translator function was used to estimate the clay fraction from resistivity. The parameters of this function are inverted using the description of the boreholes as control points. They combine this clay fraction estimation with a nondeterministic 3D stochastic interpolation framework based on a Multiple Points Statistics algorithm and Gaussian Random Function to obtain a 3D realistic high spatial resolution model of clay fraction for the upper Aare valley. The study demonstrates the quality of the predicted values and their corresponding uncertainties using cross-validation. The third study addresses the possibility of integrating boreholes, geophysical, and hydrogeological data, while keeping the geological concept of the models coherent. We used a stochastic geological model generator to construct a set of prior models based on the boreholes. We then propose a multiscale inversion approach that combines low-fidelity and less accurate models with high-fidelity and more accurate models to reduce the time needed for the inversion to converge. Both geophysical and hydrogeological data are integrated, using an Ensemble Smoother with Multiple Data Assimilation Algorithm (ES-MDA) algorithm. The workflow ensures that the models are geologically consistent and robustly estimate the associated uncertainty with the final model. The study demonstrates the effectiveness of this approach for a controlled synthetic case. It shows that ArchPY and ES-MDA are capable of generating plausible subsurface realizations for Quaternary Sedimentological Models. Finally, the fourth study presents an innovative methodology that combines the ES-MDA algorithm with an open-source hierarchical geological modeling code to integrate multiple data sources and construct geologically consistent models with robust error estimation. The methodology is applied to a field case in the upper Aare Valley, Switzerland. In order to benchmark the methodology, a cross-validation framework is implemented. The approach results in final models that effectively balance accuracy and uncertainty and can take into account various data sources, including geophysical data, regional conceptual knowledge, boreholes, and hydrogeological measurements at a valley scale. In summary, this thesis presents several innovative methods that could be applied on small to large scale hydrogeological model realization.
  • Publication
    Accès libre
    Hydro-geological modeling of the Roussillon aquifer : integrating geological knowledge uncertainties and geostatistical methods in groundwater modeling
    Ce travail de thèse porte sur la modélisation géologique et hydrodynamique de l’aquifère du Roussillon, en mettant l’accent sur la transition d’un modèle géologique détaillé, utilisant la méthode géostatistique de simulation multipoint (MPS), vers des modèles hydrodynamiques. La première étape de ce travail de thèse a consisté à créer les enveloppes du modèle géologique 3D du Roussillon. Les principales unités géologiques de l’aquifère du Roussillon comprennent le Pliocène marin, le Pliocène continental et le Quaternaire. La compilation d’une base de données géologiques, composés de logs géophysiques et de ligne sismiques, a permis de comprendre les structures de l’aquifère et d’interpoler les surfaces 2D qui délimitent le modèle géologique 3D. Une fois les enveloppes interpolées, la seconde étape de modélisation de ce travail s’est concentrée sur la simulation des faciès sédimentaire composant l’aquifère du Pliocène Continental. L’utilisation de l’approche de simulation multipoint (MPS) a permis de créer des modèles réalistes de faciès sédimentaire dans l’unité du Pliocène continental, en reproduisant des structures alluviales à l’échelle régionale. En complément de la simulation MPS, deux autres modèles sédimentaires ont été créés. Le premier est déterministe et se base sur l’interprétation d’essais de pompage pour caractériser les propriétés physiques du Pliocène Continental. Le second utilise une approche géostatistique appelée simulations séquentielles d’indicateurs (SIS) pour générer les propriétés hydrodynamiques de l’aquifère. Cette seconde approche géostatistique est plus couramment utilisée que le MPS et est plus simple à mettre en œuvre. La troisième étape de ce travail consiste en la définition du modèle hydrodynamique de l’aquifère du Roussillon. Le modèle hydrodynamique a été réalisé en considérant les conditions aux limites, les budgets de prélèvement asso- ciés, les observations piézométriques disponibles, et a été pré-calibrer en régime d’écoulement permanent dans une première phase de modélisation. Les modèle d’écoulement ont été réalisés avec le logiciel MODFLOW 6. La dernière étape de modélisation consiste en la création de modèle d’écoulement en régime transitoire ainsi que dans la création d’une approche de calibration des paramètres physique du modèle MPS du Pliocène Continental. Un défi important de ce travail réside dans la conciliation des modèles géologiques avec les données hydrodynamiques, ce qui nécessite une approche spécifique pour garantir de préserver les structures sédimentaires simulées, lors du processus de calibration. Il convient de noter que peu d’études existent sur la calibration des modèles MPS régionaux, et que souvent, les processus de calibration ne prennent pas en compte les éléments structuraux géologiques. La comparaison des approches de modélisation sédimentologique, effectuée en régime d’écoulement permanent et transitoire, met en avant une homogénéité des résultats entre les différentes approches. Les résultats en régime permanent sont satisfaisants pour les trois approches, mais peine à reproduire certains signaux en régime transitoire. Les problèmes des modèles en régime transitoire sont probablement dus à un problème d’initialisation du système hydrodynamique et de calibration des conditions limites. Ce travail propose donc une comparaison d’approches de modélisation sédimentologique et de leur impact sur les simulations hydrodynamiques. Il met en évidence des améliorations potentielles pour le modèle hydrogéologique de l’aquifère du Roussillon. Des données d’observation plus fiables et des informations sédimentologiques supplémentaires sont fortement recommandées, en particulier dans les zones présentant des différences significatives par rapport aux niveaux d’eau simulés, afin d’améliorer le modèle hydrogéologique. Cela permettrait de mieux comprendre le fonctionnement du système et de faciliter les ajustements locaux du modèle sédimentologique et des conditions hydrodynamiques. Malgré les difficultés rencontrées, notamment concernant la reproduction de certain signal piézométrique lors des simulations en régime transitoire, cette étude contribue à la compréhension de l’état de l’aquifère en identifiant les principales sources d’incertitude dans le modèle actuel de l’aquifère du Roussillon. ABSTRACT The presented study focuses on the geological and hydrodynamic modeling of the Roussillon aquifer. Located in southern France, near the Mediterranean Sea, the Roussillon plain covers an area of over 800 km2 and serves as the most important source of fresh water for the local community, supporting various needs such as irrigation, drinking water, and industrial usage. This aquifer is situated in one of the driest regions of France. Additionally, the aquifer experiences heavy water abstraction, mainly for drinking and agricultural purposes, leading to a steady decline in its water level over the years. The region is also affected by climatic changes, including rising sea levels and potential disruptions in precipitation patterns, which further impact the aquifer’s water availability. Balancing water management and conservation in the face of increasing population and climate change poses significant challenges for the Roussillon aquifer. The primary aim of the thesis is to enhance the geological understanding of the Roussillon aquifer and develop a hydrodynamic model to gain deeper insights into the functioning of the aquifer system. Additionally, the study aimed to create a solid foundation for investigating the potential consequences of climate change on this essential regional resource. The geological model consists of three main units, starting with the deepest unit, the Marine Pliocene unit, followed by the Continental Pliocene unit, and finally at the top the Quaternary unit. The initial phase of this work involved compiling a comprehensive geological database using onshore and offshore data sets to develop a conceptual understanding of the aquifer’s structures and to interpolate the main 2D surfaces that separate the 3D geological model. Within the Continental Pliocene layer, four subintervals were defined, and the elevation map of the three surfaces dividing these subintervals was mapped and interpolated using geophysical logs and offshore seismic data. The geological data set, although limited in resolution and coverage, served as conditioning data for the geostatistical simulation of the Continental Pliocene layer. We then used the multiplepoint simulation approach (MPS) to simulate realistic lithofacies patterns representative of the sediment spatial distribution in the Continental Pliocene layer. The 3D model of the Continental Pliocene layer was created by stacking 2D simulations controlled by vertical conditioning sampling. The results demonstrated satisfactory reproduction of sedimentary structures at the regional scale. In addition to the MPS simulation, two other approaches, a depth related approach and a Sequential Indicator Simulation (SIS) set, were used to generate hydro physical property fields for the aquifer. The depth related approach is based on the interpretation of hydraulic pumping tests, to assign hydraulic conductivity values based on the cell’s depth in the grid. The SIS employed a variogram based algorithm to simulate simple lithofacies structures (more simple compared to the MPS models). These three sets of hydraulic conductivity and specific storage values are used to feed the hydrodynamic simulations and estimate the propagated uncertainty of the sedimentological models on the hydrodynamic simulations. This work then focuses on defining the conceptual hydrodynamical model of the Roussillon aquifer. We present the main boundary conditions, their associated budgets, available piezometric observations, and the main modeling assumptions, linked to the different components of the MODFLOW 6 hydrodynamic model. In the first modeling step, a steady state calibration is performed to calibrate river parameters and mean hydraulic conductivity of simulated facies with the goal of preserving the simulated lithofacies patterns while matching the hydrodynamic observations. Once calibrated, we used these parameters for transient hydrodynamic models over a 20 years period. The three model approaches are used and compared in this study. It appears that reproducing the piezometric transient observation series presented some difficulties, with the models failing to capture the main trend of the piezometric levels on some locations. The reproduction of these piezomet ric series suffered from limited data availability, simplified river systems, and uncertainties regarding the local hydraulic conductivity and specific storage parameters. To better reproduce the piezometric series, this work ends with a short study on the use of the ES-MDA approach to attempt local corrections of the hydraulic conductivity and specific storage parameters. These initial tests faced limitations, as many forward models failed to converge during the process, limiting the applicability of the calibration process. Overall, this work proposes a unique regional comparison of sedimentological modeling approaches and their influence on hydrodynamic simulations. It also identifies directions for improving the aquifer model’s performance. Obtaining more reliable observation data series, as well as more onshore sedimentological information, especially in areas with significant deviations from simulated water levels, is highly recommended for improving the Roussillon hydrogeological model. This would aid in better understanding the system’s behavior and facilitate localized modifications of the sedimentological model and the hydrodynamic conditions. Despite the challenges faced, the study contributes to understanding the aquifer’s transient state, emphasizing the importance of sedimentological models in hydrodynamic studies, and identifying major sources of uncertainty in the current model of the Roussillon aquifer.
  • Publication
    Accès libre
    The Travelling Pilot Point Method for solving groundwater inverse problems in aquifers with categorical distributions
    Les distributions discrètes de paramètres sont courantes dans les systèmes hydrogéologiques constitués de faciès/catégories géologiques aux propriétés distinctes, par exemple, des chenaux de forte perméabilité noyés dans une matrice de faible perméabilité. Par exemple, les sites contaminés sont souvent constitués d’aquifères aux faciès géologiques distincts. L’identification des faciès de faible perméabilité est très importante sur ces sites car ces faciès stockent une partie de la masse de solutés et agissent comme des sources secondaires pour les faciès à perméabilité plus élevée, maintenant les concentrations pendant des décennies tout en augmentant le risque et les coûts de décontamination. L’estimation de ces paramètres est difficile car les discontinuités dans l’espace des paramètres entravent le problème inverse. Les recherches précédentes dans ce domaine se sont concentrées sur l’utilisation de méthodes stochastiques. Dans cette thèse, une nouvelle approche basée sur des points pilotes voyageurs (TRIPS) pour résoudre le problème inverse catégorique est présentée. Dans les implémentations traditionnelles, les propriétés de l’aquifère (par exemple, la conductivité hydraulique) sont estimées aux emplacements fixes des points pilotes. Dans l’implémentation TRIPS, les propriétés associées aux points pilotes et leurs emplacements sont estimés. Des contraintes de régularisation de Tikhonov sont incorporées dans le processus d’estimation des paramètres pour produire des représentations réalistes des paramètres. Le cadre TRIPS est alternativement combiné avec la méthode Null Space Monte Carlo (NSMC) et le filtre d’ensemble pestpp-ies pour résoudre le problème inverse catégorique pour un aquifère hypothétique. Alors que la méthode NSMC et la méthode pestpp-ies ont produit des ensembles a posteriori similaires à un ensemble estimé à l’aide de l’échantillonnage par rejet (RS), la méthode pestpp-ies a été capable d’échantillonner la distribution a posteriori avec un nombre inférieur d’évaluations, et ce de manière plus complète. Des techniques de sélection de modèles ont été utilisées pour créer un ensemble a priori plus petit mais stratégiquement diversifié qui, une fois lissé, a produit un ensemble a posteriori avec des propriétés similaires à celles d’un ensemble a posteriori plus grand. De plus, TRIPS et pestpp-ies ont été utilisés ensemble pour développer des ensembles de paramètres catégoriques qui honorent simultanément les charges hydrauliques et les concentrations mesurées dans les aquifères. Les résultats indiquent que même avec un modèle géologique préalable approximatif, un haut degré de paramétrisation et de correspondance de l’historique peut conduire à des ensembles de paramètres qui peuvent être utiles pour faire certains types de prédictions (exemple : prédictions de concentration). Cependant, pour des prédictions plus exigeantes (exemple : masse), un modèle géologique préalable approximatif n’est pas adéquat. L’analyse a été utilisée pour démontrer comment un cadre comportant plusieurs pièces de puzzle (paramétrage géologique, ajustemen des données historiques et prévisions de remédiation) pouvait être assemblé efficacement pour guider les décideurs sur les sites contaminés en quantifiant l’incertitude prédictive associée à l’incertitude des paramètres. En passant des modèles prédictifs basés sur un seul modèle calibré à une approche basée sur un ensemble, les décideurs peuvent quantifier l’incertitude et prendre des décisions pragmatiques. Les analyses de la valeur des données qui peuvent guider les futurs efforts de collecte de données pourraient également être intégrées au cadre afin d’améliorer les résultats futurs. ABSTRACT Categorical parameter distributions are commonplace in hydrogeological systems consisting of geologic facies/categories with distinct properties, e.g., high-permeability channels embedded in a low-permeability matrix. Contaminated sites are often underlain by aquifers with distinct geological facies. Identifying low-permeability facies is very important at these sites because these facies store solute mass and act as secondary sources to higher-permeability facies, sustaining concentrations for decades while increasing risk and life-cycle costs. Parameter estimation is difficult in such systems because the discontinuities in the parameter space hinder the inverse problem. Previous research in this area has been focused on the use of stochastic methods. In this thesis, a novel approach based on Traveling Pilot points (TRIPS) to solve the categorical inverse problem is presented. In traditional implementations, aquifer properties (e.g., hydraulic conductivity) are estimated at fixed pilot point locations. In the TRIPS implementation, both the properties associated with the pilot points and their locations are estimated. Tikhonov regularization constraints are incorporated in the parameter estimation process to produce realistic parameter depictions. The TRIPS framework is alternatively combined with the Null Space Monte Carlo (NSMC) method and the pestpp-ies ensemble smoother to solve the categorical inverse problem for a hypothetical aquifer. While both NSMC and pestpp-ies produced posterior ensembles with similarities to an ensemble estimated using Rejection Sampling (RS), pestpp-ies was able to sample the posterior distribu tion with lesser number of forward run evaluations in a more comprehensive manner. Model selection techniques, a combination of multi-dimensional scaling and K-Means clustering, were used to create a smaller but strategically diverse prior ensemble that when smoothed produced a posterior ensemble with properties similar to that of a larger posterior ensemble. Additionally, TRIPS and pestpp-ies together were used to develop categorical parameter ensembles that honor measured aquifer heads and concentrations simultaneously. The results indicated that even with an approximate geological prior model, a high degree of parameterization and history matching can lead to parameter ensembles that can be useful for making certain types of predictions (example: concentration predictions). However, for more demanding predictions (example: mass), an approximate geological prior is not adequate. The analysis was used to demonstrate how a framework with multiple puzzle pieces (geological pa rameterization, history matching, and remedial forecasts) could be efficiently assembled to guide decision makers at contaminated sites by quantifying the predictive uncertainty associated with parameter uncertainty. By pivoting from predictive models based on a single calibrated model to an ensemble-based approach, decision-makers can quantify uncertainty and take pragmatic decisions. Data worth analyses that can guide future data collection efforts could also be integrated into the framework to better future outcomes.
  • Publication
    Accès libre
    Conditioning groundwater flow parameters with iterative ensemble smoothers: analysis and approaches in the continuous and the discrete cases
    L’assimilation de données consiste à combiner de façon optimale les observations (données) et les prévisions produites par un modèle numérique d’un système dynamique étudié. Au cours de la dernière décennie, les méthodes basées sur le filtre de Kalman d’ensemble (EnKF) pour l’assimilation de données ont été particulièrement explorées dans diverses disciplines des géosciences pour résoudre des problèmes inverses. Bien que ces méthodes d’ensemble aient été développées afin de pouvoir traiter efficacement des problèmes de grandes dimensions, elles supposent que les erreurs qui affectent les observations et le modèle suivent une loi de distribution Gaussienne multivariée. Pour traiter de potentielles nonlinéarités entre les données et les variables paramètres ou d’état que l’on souhaite conditionner, des variantes itératives de méthodes existantes ont été proposées. Dans cette thèse, nous nous intéressons dans un premier temps à la performance de deux principales méthodes de lisseur d’ensemble itératif pour le calage d’un modèle synthétique d’écoulement souterrain 2D. A partir du même jeu de données ponctuelles (locales) et transitoires (dynamiques), nous analysons la performance de chaque méthode pour le conditionnement d’un ensemble de champs multi-Gaussiens de valeurs de conductivité hydraulique. Nous explorons ensuite plus particulièrement l’application d’une des méthodes, ES-MDA, dans des situations plus ou moins complexes suivant la méthode de simulation géostatistique employée pour représenter l’information géologique a priori. Nous évaluons tout d’abord la pertinence d’une paramétrisation basée sur une transformation normal-score dans un cas non-multi-Gaussien. La robustesse de la méthode d’ensemble face aux nonlinéarités est ensuite plus particulièrement testée dans le cas de réalisations de variables discrètes de facies géologique obtenues par la technique des gaussiennes tronquées et mises à jour via leurs variables continues sous-jacentes. En nous basant sur les limitations et avantages observées expérimentalement pour les paramétrisations précédemment évoquées, nous proposons finalement une nouvelle méthodologie d’assimilation de données dynamiques. Bien qu’elle implique une méthode classique de Kalman d’ensemble, la méthodologie proposée permet spécifiquement le conditionnement de champs de facies géologiques, soit de variables discrètes, qui sont initialement simulés par statistiques à points multiples (MPS). Cette méthodologie s’appuie sur une paramétrisation multi-résolutions nouvelle de la simulation MPS catégorique où, l’ensemble de paramètres latents est défini initialement à partir des simulations à l’échelle la plus grossière d’un ensemble de simulations MPS multi-résolutions. Comme cet ensemble n’est pas multi-Gaussien, des étapes additionnelles précédant le calcul de la première correction sont proposées. Notamment, les paramètres sont corrigés à des points prédéfinis à l’échelle la plus grossière, puis intégrés en tant que données de conditionnement pour générer une nouvelle simulation MPS multi-résolutions. Les résultats obtenus sur le problème synthétique montrent que la méthode converge vers un ensemble de réalisations catégoriques finales cohérent avec l’ensemble catégorique initial. La convergence est fiable en ce sens qu’elle est contrôlée entièrement par l’intégration de la correction de ES-MDA dans les nouvelles simulations MPS multi-résolutions conditionnelles. De plus, grâce à la paramétrisation proposée, l’identification des structures géologiques durant l’assimilation des données est particulièrement efficace pour cet exemple. La comparaison entre l’incertitude estimée et une estimation de référence obtenue avec une méthode de Monte-Carlo révèle que l’incertitude n’est pas sévèrement réduite durant l’assimilation comme cela est souvent observé. La connectivité des structures est bien reproduite durant la procédure itérative malgré la distance plutôt élevée entre les points d’observation., Data assimilation (DA) consists in combining observations and predictions of a numerical model to produce an optimal estimate of the evolving state of a system. Over the last decade, DA methods based on the Ensemble Kalman Filter (EnKF) have been particularly explored in various geoscience fields for inverse modelling. Although this type of ensemble methods can handle high-dimensional systems, they assume that the errors coming from whether the observations or the numerical model are multi-Gaussian. To handle potential nonlinearities between the observations and the state or parameter variables to estimate, iterative variants have been proposed. In this thesis, we first focus on two main iterative ensemble smoother methods for the calibration of a synthetic 2D groundwater model. Using the same set of sparse and transient flow data, we analyse each method when employing them to condition an ensemble of multi-Gaussian hydraulic conductivity fields. We then further explore the application of one iterative ensemble smoother algorithm (ES-MDA) in situations of variable complexity, depending on the geostatistical simulation method used to simulate the prior geological information. The applicability of a parameterization based on the normal-score transform is first investigated. The robustness of the method against nonlinearities is then further explored in the case of discrete facies realizations obtained with a truncated Gaussian technique and updated via their underlying continuous variables. Based on the observed limitations and benefits of the forementioned parameterizations, we finally propose a new methodology for the conditioning of categorical multiple-point statistics (MPS) simulations to dynamic data with a state-of-the-art ensemble Kalman method by taking the example of the Ensemble Smoother with Multiple Data Assimilation (ES-MDA). Our methodology relies on a novel multi-resolution parameterization of the categorical MPS simulation. The ensemble of latent parameters is initially defined on the basis of the coarsest-resolution simulations of an ensemble of multi-resolution MPS simulations. Because this ensemble is non-multi-Gaussian, additional steps prior to the computation of the first update are proposed. In particular, the parameters are updated at predefined locations at the coarsest scale and integrated as hard data to generate a new multi-resolution MPS simulation. The results on the synthetic problem illustrate that the method converges towards a set of final categorical realizations that are consistent with the initial categorical ensemble. The convergence is reliable in the sense that it is fully controlled by the integration of the ES-MDA update into the new conditional multi-resolution MPS simulations. Moreover, thanks to the proposed parameterization, the identification of the geological structures during the data assimilation is particularly efficient for this example. The comparison between the estimated uncertainty and a reference estimate obtained with a Monte Carlo method shows that the uncertainty is not severely reduced during the assimilation as is often the case. The connectivity is successfully reproduced during the iterative procedure despite the rather large distance between the observation points.
  • Publication
    Accès libre
    Process based modeling of the karstification processes in the region of Tulum, Mexico
    (2017)
    Maqueda, Axayacatl
    ;
    Les grottes sont importantes car elles constituent des voies préférentielles pour l’écoulement des eaux souterraines. La connaissance des grottes ou du karst est essentielle pour une bonne gestion des ressources en eau, mais l’exploration des grottes est un défi majeur. Une alternative pour étudier les grottes et leur structure est de simuler les processus liés è la croissance des grottes. La motivation de cette thèse est d’étudier de grands réseaux karstiques dans la région de Tulum, au Mexique. L’objectif de l’étude est de comprendre comment et pourquoi les systèmes de grotte ont été formés dans cette région.
    La première étape consistait à examiner les informations disponibles sur la zone d’étude. Pendant le travail sur le terrain d’étude, nous avons observé la propagation de la marée dans le réseau karst. Cette observation conduit à se demander quel serait l’effet de l’échange d’eau induite par les marées entre les grottes et le calcaire environnant. Un modèle conceptuel et un modèle numérique ont été développés pour quantifier la dissolution dans ces conditions. Les résultats montrent que l’échange d’eau peut conduire à une dissolution minérale importante, ou à la croissance des grottes. Ce processus de dissolution s’ajoute à la dissolution qui se produit à la surface de la paroi de la grotte, donc la superposition du processus de dissolution peut expliquer le taux de croissance rapide des grottes nécessaire pour expliquer les grands réseaux karstiques dans la région.
    En plus, un cadre de modèle numérique a été développé pour simuler le développement de fractures dans des réseaux de conduites. La simulation du développement de réseaux synthétiques peut donner une idée du développement de grottes réelles., Caves are important since they are preferential paths for groundwater flow. Knowledge of caves or karst is essential for proper management of water resources, but the exploration of caves is a major challenge. An alternative to study caves and their structure is to simulate the processes related to cave growth. The motivation of this thesis is to study large karst networks in the region of Tulum, Mexico. The objective of the study is to understand how and why the cave systems formed in this region.
    The first step was to do a review of the information available on the study area. During field work in the study area we observed the propagation of the sea tidal wave into the karst network. This observation lead to question what would be the effect of tidal induced water exchange between caves and surrounding limestone. A conceptual model and a numerical model were developed to quantify dissolution in these conditions. Results show that water exchange can lead to significant mineral dissolution, or cave growth. This dissolution process is additional to dissolution occurring at cave wall surface, therefore the superposition of both dissolution process may explain the fast paced cave growth rate needed to explain the large karst networks in the area.
    Additionally, a numerical model framework was developed to simulate the development of fractures into conduit networks. The simulation of development of synthetic networks can provide insight on the development of real caves.
  • Publication
    Accès libre
    Scaling behaviours of karst networks around Tulum (Mexico): characterization, model and application
    (2016)
    Hendrick, Martin
    ;
    La compréhension de la structure et du comportement à grandes _échelles des réseaux karstiques reste une question en suspens, bien que, la caractérisation de ces systèmes soit de première importance pour de nombreuses raisons pratiques liées à l'exploitation et à la préservation de la qualité de l'eau.
    L'objectif de cette thèse est d'étudier les propriétés invariantes d'échelles des réseaux de karsts localisés dans la région de Tulum (Mexique). Nous avons mis en évidence la structure fractale de ces systèmes. Cette caractérisation nous a permis de construire un modèle réaliste de réseaux karstiques. Ce modèle nous apprend que la structure des réseaux de Tulum est telle qu'elle tend à minimiser l'énergie dissipée par friction dû à l'écoulement de l'eau tout en gardant une taille totale restreinte. Le modèle développé est ensuite utilisé pour étudier le transport de polluant et la vulnérabilité de la région de Tulum., An unsolved problem in the field of karst networks is to understand and describe their large scale behaviours. The characterization of the structure of karst systems is crucial for many practical purposes, as for example, ground surface stability assessment and water resource management. However, there is no general framework that allows to fully characterize and model a network.
    Natural systems often present scale invariant features. The objective of this thesis is then to initiate the characterization and the modelling of karstic structures based on scale invariances. We study, at different length scale, the properties of the mapped karst networks in the region of Tulum, Mexico. We find that these networks are well defined fractal structures. Based on this characterization, we build a model that is able to generate networks exhibiting similar scale invariances than those observed. We make the assumption that Tulum's karstic networks are structures that dissipate a minimal amount of energy due to friction forces for a minimal number of conduits. In the examined region around Tulum, there are still several unexplored areas where we expect to find similar karstic networks. Therefore, in a second step, our model is used to generate realistic networks that could be located in these zones. The aim of this last part is to simulate the networks in a region where they are unknown as a prerequisite to assess the aquifer's vulnerability which suffers from the development of tourism.
  • Publication
    Accès libre
    Stochastic heterogeneity modeling of braided river aquifers: a methodology based on multiple point statistics and analog data
    In this thesis a new pseudo-genetic method to model the heterogeneity of sandy gravel braided-river aquifers is proposed. It is tested and compared with other modeling approaches on a case study of contaminant transport. Indeed, in Switzerland or in mountainous regions, braided-river aquifers represent an important water resource that need to be preserved. In order to manage this resource, a good understanding of groundwater flow and transport in braided-river aquifers is necessary. As the complex heterogeneity of such sedimentary deposits strongly influences the groundwater flow and transport, groundwater behavior predictions need to rely on a wide spectrum of geological model realizations.
    To achieve realistic sedimentary deposits modeling of braided river aquifers, the proposed pseudo-genetic algorithm combines the use of analogue data with Multiple-Point Statistics and process-imitating methods. The integration of analogue data is a key feature to provide additional, complementary and necessary information in the modeling process. Assuredly, hydrogeologist are often subject to field data scarcity because of budget, time and field constraints. Multiple-Points Statistics recent algorithms, on one hand, allow to produce realistic stochastic realizations from training set with complex structures and at the same time allow to honor easily conditioning data. On the other hand, process-imitating methods allow to generate realistic patterns by mimicking physical processes.
    The proposed pseudo-genetic algorithm consists of two main steps. The first step is to build main geological units by stacking successive topography realizations one above the other. So, it mimics the successive large flood events contributing to the formation of the sedimentary deposits. The successive topographies are Multiple-Point Statistics realizations from a training set composed of Digital Elevation Models of an analogue braided-river at different time steps. Each topography is generated conditionally to the previous one. The second step is to generate fine scale heterogeneity within the main geological units. This is performed for each geological unit by iterative deformations of the unit bottom surface, imitating so the process of scour filling. With three main parameters, the aggradation rate, the number of successive iterations and the intensity of the deformations, the algorithm allows to produce a wide range of realistic cross-stratified sedimentary deposits.
    The method is tested in a contaminant transport example, using as reference Tritium tracer experiment concentration data from MADE site, Columbus, Mississippi, USA. In this test case, an assumption of data scarcity is made. Analogue data are integrated in the geological modeling process to determine the input parameters required -- characteristic dimensions and conductivity statistical properties -- for two variants of the proposed pseudo-genetic algorithm as well as for multi-gaussian simulation and object based methods. For each conceptual model, flow and transport simulations are run over 200 geological model realizations to cover a part of the uncertainty due to the input parameters. A comparison of the plume behavior prediction is performed between the different conceptual models.
    The results show that geological structures strongly influence the plume behavior, therefore the choice or the restriction to specific conceptual models will impact the prediction uncertainty. Though little information are available for the modeler, it is possible to achieve reasonable predictions by using analogue data. Of course, with limited information, it is impossible to make an accurate prediction to match the reference, and none of each conceptual model produces better predictions but all are useful to cover the uncertainty range. The results also underline the need to consider a wide exploration of the input parameters for the various conceptual models in order to recover the uncertainty.
  • Publication
    Accès libre
    Stochastic simulation of rainfall and climate variables using the direct sampling technique
    An accurate statistical representation of hydrological processes is of paramount importance to evaluate the uncertainty of the present scenario and make reliable predictions in a changing climate. A wealth of historic data has been made available in the last decades, including a consistent amount of remote sensing imagery describing the spatio-temporal nature of climatic and hydrological processes. The statistics based on such data are quite robust and reliable. However, to explore their variability, most stochastic simulation methods are based on low-order statistics that can only represent the heterogeneity up to a certain degree of complexity.
    In the recent years, the stochastic hydrogeology group of the University of Neuchâtel has developed a multiple-point simulation method called Direct Sampling (DS). DS is a resampling technique that allows the preservation of the complex data structure by simply generating data patterns similar to the ones found in the historical data set. Contrarily to the other multiple-point methods, DS can simulate either categorical or continuous variables, or a combination of both in a multivariate framework.
    In this thesis, the DS algorithm is adapted to the simulation of rainfall and climate variables in both time and space. The developed stochastic weather or climate generators include the simulation of the target variable with a series of auxiliary variables describing some aspects of the complex statistical structure characterizing the simulated process. These methods are tested on real application cases including the simulation of rainfall time-series from different climates, the variability exploration of future climate change scenarios, the missing data simulation within flow rate time-series and the simulation of spatial rainfall fields at different scales. If a representative training data set is used, the proposed methodologies can generate realistic simulations, preserving fairly well the statistical properties of the heterogeneity. Moreover, these techniques result to be practical simulation tools, since they are adaptive to different data sets with minimal effort from the user perspective. Although leaving large room for improvement, the proposed simulation approaches show a good potential to explore the variability of complex hydrological processes without the need of a complex statistical model.
  • Publication
    Accès libre
    Gravimetry for geothermal exploration: methodology, computer programs and two case studies in the Swiss Molasse basin
    (2015)
    Altwegg, Pierrick
    ;
    In Switzerland and neighboring countries, most deep geothermal projects target deep aquifers associated with major fault zones. The objective of this thesis is to develop and test a methodology for the estimation and localization of such high porosity rock volumes in the underground using gravity data and 3D geological modeling.
    To reach that aim, the computer program GInGER – GravImetry for Geothermal ExploRation - was developed. It allows computing rapidly and efficiently the intensity of the gravity field in surface from 3D geological models. Then the user can compare the calculated response with measured gravity data and strip the effect of geological structures that are not relevant for the project. One of the main originality of GInGER is that it permits to directly assess the porosity of fault damage zones when providing their geometry. The software is also endowed with a graphical user interface and density inversion capabilities to be user friendly. In addition, for sensitivity analysis, an independent sister software named GInGERSP, based on the same principles allow to compute the gravity effects of simple geometrical shapes which can be superposed to a given geological model. This tool is particularly designed for rapid sensitivity analysis.
    The two computer programs and the underlying methodology were tested on two ongoing geothermal projects in Switzerland, the projects of Sankt Gallen and Eclépens. Both projects are targeting deep aquifers associated with major faults zones affecting the Mesozoic sediments under the Swiss Molasse Basin.
    In both case studies, a preliminary step was to conduct a sensitivity analysis to determine the prerequisites allowing the assessment of faults damage zone porosity. This was done in 2D for the case study of Sankt Gallen and it appeared that, if the geometry of the fault zone is constrained enough, if the damage zone of the fault represent a sufficient volume and the error on gravity measurement is kept as small as possible, typically under 0.1 mGal. It should be possible to assess the porosity induced by the damage zone of the fault using gravity data and that even if the induced porosity is rather small, under 1-2 % if the affected volume is big enough.
    In Sankt Gallen, the 3D geological model was established using 3D seismic data. Comparing the gravity effect of this model with gravity data specifically acquired, we were able to make a first estimation of fracture porosity that compared well with later measurements obtained from drilling. However, the presence of a Permo-Carboniferous graben in the vicinity of the fault zone prevents us from removing all ambiguities on the result.
    In Eclépens, the 3D geological model was established using only 2D seismic data and oil exploration wells. As no accurate geometry of the different fault zones exist, it was not possible to assess precisely the porosity of the damage zones. However, using gravity measurements, acquired during this study, and the two computer programs, GInGER and GInGERSP, it was possible to make a sensitivity analysis, compare the possible effects of the various fault zones porosity and highlight the most suitable targets. This demonstrates how a user could use these two tools for any case study. Note also, that this work also revealed that a major Permo-Carboniferous graben of regional extent likely crosses the northern part of the model. This could, to a certain extent, explain the high geothermal gradient found in the Eclépens-1 oil prospection well which is located in the central part of the targeted area of the geothermal project.
    For these two case studies, the application of the proposed methodology and the combined use of 3D modelling, gravity data, GInGER, and GInGERSP allowed to bring new and useful information for the geothermal projects.