Options
Besson, Olivier
Résultat de la recherche
Numerical optimization of Dirichlet-Laplace eigenvalues on domains in surfaces
2013, Straubhaar, Régis, Besson, Olivier, Colbois, Bruno
Le spectre de l'opérateur de Laplace-Dirichlet défini sur un domaine borné d'une surface lisse et complète est une suite strictement positive, croissante, tendant vers l'infini. Le but de cette thèse est d'approcher les premières valeurs propres de cet opérateur de manière numérique à l'aide d'une méthode d'éléments finis, puis de considérer le problème d'optimisation suivant: quel est le domaine qui minimise la k-ème valeur propre parmi tous les domaines d'aire donnée, et que vaut cette valeur propre? Ce dernier trouve son origine dans les théorèmes de Faber-Krahn et Krahn-Szegö, qui règlent le cas de la première et de la deuxième valeur propre d'un domaine de l'espace euclidien. Des méthodes en optimisation de forme ont été élaborées pour proposer des domaines candidats à être solution pour des valeurs propres plus élevées ainsi que pour d'autres surfaces sous-jacentes comme la sphère et l'espace hyperbolique. Cela a donné lieu à des observations sur la comparaison de valeurs propres associées à des domaines sur différentes surfaces. Le problème du placement d'un obstacle circulaire à l'intérieur d'une boule afin de maximiser les premières valeurs propres est aussi abordé dans cette thèse.
Pricing, implementation and calibration of credit derivatives in incomplete market
2011, Houssou, Régis, Besson, Olivier
Après la crise financière de 2008, on a pu observer que le marché des dérivés de crédit avait fortement perdu son niveau courant de liquidité. L'existence de dérivés de crédit illiquides qui ne peuvent pas être parfaitement couverts signifie que le marché est incomplet. Comme conséquence, dans l'univers risque-neutre les approches classiques de valorisation des dérivés de crédit ne prendront pas en compte les risques non couverts. Dans cette thèse, nous abordons ces questions en modifiant les modèles classiques d'intensité de défaut en les intégrant dans le cadre des problèmes de portefeuille optimal, une méthodologie qui prend en compte l'aversion au risque de l'investisseur.
Grâce à des méthodes de contrôle optimal stochastique, nous avons employé la valorisation par indifférence d'utilité exponentielle pour déterminer les prix des obligations risquées et des primes de Credit Default Swap (CDS). Les équations d'Hamilton-Jacobi-Bellman des fonctions de valeur sont dérivées. Les primes de CDS des acheteurs et des vendeurs sont déterminées grâce à des méthodes numériques, sur la base de l'indifférence des deux problèmes de maximisation d'utilité de l'investisseur. Nous examinons comment ces quantités sont affectées qualitativement par l'aversion au risque, l'intensité de défaut, le coefficient de corrélation et le taux de recouvrement. De plus, le comportement asymptotique des courbes des primes est étudié.
La calibration du modèle de valorisation des CDS dans le cas où l'intensité de defaut suit un processus de CIR est discutée. Cela donne lieu à des problèmes inverses non linéaires, car les primes de CDS dépendent de façon non linéaire des paramètres de l'intensité et du coefficient de l'aversion au risque. Dans une première étape en utilisant les données des primes de CDS de Markit, les estimations des séries temporelles de l'intensité de défaut sont obtenues pour chaque classe de notation donnée. Dans une deuxième étape, en utilisant les séries d'intensité construites dans la première étape, les paramètres du modèle CIR-intensité et le coefficient de l'aversion au risque sont estimés. Les résultats des estimations montrent que pendant la période de crise hypothécaire, plus les investisseurs sont sensibles au risque, plus ces derniers préfèrent acheter la protection contre la faillite des entreprises à faible qualité de crédit. Par ailleurs, les estimations des paramètres d'intensité sont en général significatives et augmentent lorsque la qualité de crédit est en baisse., After the financial crisis of 2UU8. it is observed that tlie liquidity of many credit derivatives has dried up. The existence of illiquid credit derivatives that can not be perfectly hedged means that the market is incomplete. Therefore. the classical risk-neutral approach to valuing the credit derivatives will not take account, the risks that remain after the hedging. In this thesis, we address these issues by modifying the classical intensity-based models for credit derivatives by embedding them into the framework of optimal portfolio problems, a methodology that, takes into account; the investor's risk aversion.
Through stochastic optimal control methods, we use indifference pricing with exponential utility function to determine tlie defaultable bond prices and Credit Default Swap (CDS) spreads. The Hamilton-Jacobi-Bellman (HJB) equations for the value functions are derived. The bid and ask spreads are numerically solved based on the indifference between the investor's two utility maximization problems. We examine how these quantities are affected clualitatively by the risk aversion, the default intensity, the correlation coefficient and the recovery rate. Moreover, the asymptotic behavior of the spread curves is studied.
The calibration of tlie indifference pricing model of CDS spreads in the context of CIR-intensity is investigated. This gives rise to nonlinear inverse problems since the price of tlie CDS spreads depends in a non-linear way on the intensity's parameters and tlie risk aversion coefficient. In a first step using the data of CDS spreads from Markit, the estimates of time series for tlie default intensity for a given rating class are obtained. In a, second step, including the default intensities constructed in the first step, the parameters of the CIR intensity model and the absolute risk aversion coefficient are estimated. The estimation results reveal that during the subprime crisis, more risk averse investors prefer to buy the protection against the default of low credit quality firms. In addition, estimates for the parameters of CIR-intensity are in general significant and are increasing when the credit quality is decreasing.
Préconditionnement de systèmes linéaires symétriques définis positifs: application à la simulation numérique d’écoulements océaniques tridimensionnels
2007, Straubhaar, Julien, Besson, Olivier
Cette thèse est constituée de deux parties distinctes. La première partie est consacrée au développement de préconditionneurs de systèmes linéaires symétriques définis positifs. Les systèmes considérés sont de grande taille et creux (i.e. les matrices ont une faible proportion de coefficients non nuls). Ils sont résolus avec l’algorithme du gradient conjugué dont la vitesse de convergence est contrôlée par la condition de la matrice. Une nouvelle classe de préconditionneurs dépendant de plusieurs paramètres est présentée. Elle est basée sur un procédé d’orthogonalisation conjuguée de Gram-Schmidt et une méthode de moindres carrés. Des résultats théoriques sont donnés, notamment une majoration de la condition du système préconditionné. Différentes variantes (couplage, traitement par blocs) sont considérées. Cette nouvelle classe de préconditionneurs est comparée à quelques préconditionneurs connus à l’aide de tests numériques. De plus, la parallélisation des méthodes est étudiée et des tests numériques sont effectués afin d’évaluer la performance des algorithmes en termes de speed-up et d’efficience. Le but de la seconde partie est de simuler des écoulements océaniques tridimensionnels induits par les vents en surface. Pour cela, les équations de Navier-Stokes non stationnaires sont formulées pour un fluide incompressible anisotrope à densité constante. La force de Coriolis est prise en compte et les tractions dues aux vents constituent le moteur du système. Un vecteur de viscosité turbulente intègre l’influence du rapport d’aspect du bassin (i.e. ε = h 0 /d, où h 0 est la profondeur maximale et d le diamètre horizontal) de sorte à vérifier asymptotiquement l’approximation hydrostatique. Ceci donne le caractère anisotrope du fluide. Un modèle numérique pour la résolution de ces équations est présenté en détails. La discrétisation temporelle est traitée avec des méthodes de prédicteur-correcteur afin de dissocier le calcul de la vitesse et de la pression. Chaque pas de temps est décomposé en deux sous-pas, le premier consiste en une étape de prédiction et le second en une étape de correction. Des éléments finis de type Q 1 et Q 2 sont utilisés pour la discrétisation spatiale. Les problèmes faibles approchés obtenus sont des systèmes linéaires symétriques définis positifs et creux. Une méthode de pénalisation est considérée pour le calcul de la pression dont la matrice du système est mal conditionnée. Finalement, les méthodes de préconditionnement de la première partie et la mise en œuvre de logiciels parallèles ont permis de traiter le cas de l’océan Atlantique nord. Des cartes de courants sont présentées. Les données (bathymétrie, vents) ont été fournies par le projet de recherche français Mercator Océan (http://www.mercator-ocean.fr/). Les logiciels parallèles nécessaires à ce travail ont été développés sur les machines parallèles CRAY XT3 du CSCS (Swiss National Supercomputing Center, http://www.cscs.ch).
Analyse mathématique et simulation numérique de modèles d'écoulement de fluides incompressibles en surface libre et milieu poreux déformable
2005, Kane, Soulèye, Besson, Olivier
Milieu poreux déformable. On dérive un modèle mathématique pour un milieu poreux déformable en utilisant la conservation de la masse, la loi de Darcy généralisée et le tenseur de déformation dépendant de la fonction de retrait de vertisol de E. Braudeau. On démontre l'existence globale d'une solution faible de ce problème. On utilise pour la preuve un théorème de compacité de Dubinskii, généralisé pour des hypothèses plus faibles. On montre que les paramètres de Van Genuchten associés à la conductivité hydraulique et au potentiel matriciel sont liés à la régularité de la solution faible. Un logiciel calculant la teneur en eau du milieu poreux déformable, écrit en fortran 90, est mis en place. La méthode des éléments finis et un schéma d'Euler implicite sont utilisés pour le code de calcul. Modèle de Saint-Venant visqueux. On étudie l'existence de solutions pour un modèle de Saint-Venant non linéaire décrivant mathématiquement l'écoulement d'un cours d'eau pour une formulation hauteur-débit. Utilisant la technique du point fixe de Banach dans le cas du système linéarisé on démontre l'existence globale et l'unicité de solutions. Dans le cas non linéaire, l'utilisation du théorème de point fixe de Schauder et d'un résultat de compacité de J. Simon nous permet de prouver l'existence d'une solution pour des temps petits. Des résultats d'une simulation numérique du système de Saint-Venant sont présentés dans le cas d'une rupture de barrage. Des comparaisons sont données en fonction de la viscosité et de la non-linéarité du problème.
Méthodes de décomposition de domaines pour les équations de Navier-Stokes en jonction fleuve/océan et les lois de conservation scalaires
2012, Doucouré, Souleymane, Besson, Olivier
L’objet de cette thèse est l’approximation du point de vue mathématique et numérique des équations de Navier-Stokes anisotropiques et des lois de conservations scalaires en espace-temps pour des applications à l’environnement côtier.
Dans la première partie, les méthodes de décomposition de domaines sont appliquées à un modèle de viscosité turbulente 3-D afin d’améliorer l’hypothèse hydrostatique dans une jonction entre deux bassins peu-profonds dont l’un est mince (e.g fleuve/océan). Des résultats théoriques sont prouvés pour donner un sens mathématique au modèle asymptotique obtenu. Ce modèle est ensuite réduit à un problème asymptotique 2-D de type Saint-Venant. En utilisant le schéma de différentiation rétrograde d’ordre 2, les modèles stationnaires obtenus sont formulés en des équations d’interface (dites de Steklov-Poincaré), qui sont résolues par des schémas itératifs entre sous-domaines. Finalement des résultats numériques sont donnés pour illustrer l’influence des quantités physiques (e.g viscosité, termes surfaciques du vent) sur la stabilité des algorithmes.
Dans la deuxième partie, l’équation de Steklov-Poincaré est analysée en espace-temps pour les lois de conservation scalaires en appliquant la méthode STILS (Space-Time Integrated Least-Square method). Un schéma itératif entre sous-domaines est alors proposé pour la résolution de cette équation avec des approximations marche-en temps de STILS. Des résultats numériques sont alors donnés pour l’exemple de Hansbo et de Smolarkiewicz. On prouve enfin que cette méthode de décomposition de domaine peut être interprétée comme une extension du schéma itératif d-ADN (damped and Adaptive Dirichlet-Neumann) pour un problème de diffusion défini par un tenseur de rang 1.,
The purpose of this thesis is to investigate from both mathematical and numerical view point the anisoropic Navier-Stokes equations in a river/ocean junction and scalar conservation laws in space-time, with particular concern on environmental applications.
In the first part domain decomposition methods are applied to set up effective interface conditions for asymptotic approximations of a turbulent viscosity model. This asymptotic analysis performs the hydrostatic hypothesis in a junction between two shallow domains when one has the property to be thin (e.g estuaries). Assuming the junction with a rigid-lid flow, existence results are proved for different asymptotic models. In the free-surface flow case, the conditions are reduced to couple 2-D shallow water equations. Then theses equations are formulated in Steklov-Poincaré equations. Iteration schemes are proposed to perform the interface equations. Some numerical results are given to illustrate the influence of the physical quantities on the satability of the schemes.
In the second part, the Steklov-Poincaré equation is analyzed in space-time frame for scalar conservation laws in using the STILS (Space-Time Integrated Least-Square) method. An iteration scheme is proposed to solve this equation with time-marching approximation of STILS. Some numerical results are given to test the performance of the method for the cylinder rotating and flow distorsion examples. Finally we prove that our method can be seen as a generalization of the classical d-ADN (damped and Adaptive Dirichlet-Neumann) method in space-time framework.
K-theory and K-homology for semi-direct products of Z2 by Z
2011, Isely, Olivier, Valette, Alain, Besson, Olivier
Dans ce travail, étant donné un produit semi-direct de Z2 par Z, nous étudions d'une part les groupes de K-théorie de sa C*-algèbre associée et d'autre part les groupes de K-homologie géométrique de son espace classifiant. Plus concrètement, nous déterminons ces groupes et, dans certains cas, des générateurs explicites en fonction des coefficients de la matrice entière décrivant le produit semi-direct.
Pour cela, nous utilisons la suite exacte de Pimsner et Voiculescu en K-théorie et, pour la partie concernant la K-homologie, nous démontrons l'existence d'une suite exacte à six termes associée à un tore d'application.
Hele-Shaw approximation for resin transfer molding
2005, Besson, Olivier, Pousin, Jérôme
A Hele-Shaw flow is studied as the limit of a Stokes flow. The velocity fields associated to each fluid solve a fluid dynamic problem with time dependent domain. The moving boundary formulation is based on a pseudo-concentration equation. Some existence of solution of this set of equations is given using the classical Leary-Schauder Theorem and the use of space-time integrated least square method for the transport equation.
An Improved Parallel Multiple-Point Algorithm Using a List Approach
2011-4, Straubhaar, Julien, Renard, Philippe, Mariethoz, Grégoire, Froidevaux, Roland, Besson, Olivier
Among the techniques used to simulate categorical variables, multiple-point statistics is becoming very popular because it allows the user to provide an explicit conceptual model via a training image. In classic implementations, the multiple-point statistics are inferred from the training image by storing all the observed patterns of a certain size in a tree structure. This type of algorithm has the advantage of being fast to apply, but it presents some critical limitations. In particular, a tree is extremely RAM demanding. For three-dimensional problems with numerous facies, large templates cannot be used. Complex structures are then difficult to simulate. In this paper, we propose to replace the tree by a list. This structure requires much less RAM. It has three main advantages. First, it allows for the use of larger templates. Second, the list structure being parsimonious, it can be extended to include additional information. Here, we show how this can be used to develop a new approach for dealing with non-stationary training images. Finally, an interesting aspect of the list is that it allows one to parallelize the part of the algorithm in which the conditional probability density function is computed. This is especially important for large problems that can be solved on clusters of PCs with distributed memory or on multicore machines with shared memory.
Optimisation issues in 3D multiple-point statistics simulation
2008-12, Straubhaar, Julien, Walgenwitz, Alexandre, Froidevaux, Roland, Renard, Philippe, Besson, Olivier
Multiple-point statistics simulation has gained wide acceptance in recent years and is routinely used for simulating geological heterogeneity in hydrocarbon reservoirs and aquifers. In classical implementations, the multiple-point statistics inferred from the reference training image are stored in a dynamic data structure called search tree. The size of this search tree depends on the search template used to scan the training image and the number of facies to be simulated. In 3D applications this size can become prohibitive. One promissing avenue for drastically reducing the RAM requirements consists of using dynamically allocated lists instead of search trees to store and retrieve the multiple–point statistics. Each element of this list contains the identification of the data event together with occurence counters for each facies. First results show that implementing this list based approach results in reductions of RAM requirement by a factor 10 and more. The paper discusses in detail this novel list based approach, presents RAM and CPU performance comparisons with the (classical) tree based approach.
- «
- 1 (current)
- 2
- 3
- »