In this talk, I will introduce you to the main electrical concepts to model the electrical response of a solar module. We will answer some questions like 'Why do we need an electrical model?', 'What is the electrical data we can extract from the real world?', and 'How do we treat such data?'. For this purpose, the main concepts will be conceptualized with a simple example.
Wave breaking is a challenging subject that is not encompassed in the usual mathematical description of water waves. This is the consequence of the impossibility to represent the water-air interface as the graph of a function. In the first part of this presentation, we shall exhibit the strong non-linear nature of the breaking phenomena through the mathematical study of two water waves models: (1) KdV, whose solutions do not break and (2) Camassa-Holm, whose non-global solutions do break at some point. Next we shall discuss the way to incorporate multi-valued interfaces in the usual water waves problem before discussing whether or not this model efficiently describes the breaking phenomenon. In a third, ultimate, part we will present new numerical results that have been obtained using a finite-element code to solve the free-surface Navier-Stokes equations for an initial condition leading to a plunging jet. We compare these results with those obtained solving the Euler equation in the exact same configuration and conclude about the convergence of the two methods whenever the Reynolds number increases. We also discuss the influence of viscous dissipation on the overall shape of the wave.
I describe a P-time heuristic to reconstruct a subclass of degree sequences of 3-uniform hypergraphs. The heuristic bases on some geometrical properties of the involved hypergraphs and also produces a small set of ambiguous hyperedges that has to be individually considered.
We consider the problem of detecting and reconstructing degree sequences of 3-uniform hypergraphs. The problem is known to be NP-hard, so some subclasses are inspected in order to detect instances that admit a P-time reconstruction algorithm. Here, I consider instances having specific numerical patterns and I show how to easily reconstruct them.
Logarithmic-analytic functions are iterated compositions (from either side) of globally subanalytic functions (i.e. functions definable in the o-minimal structure $\R_{an}$ of restricted analytic functions) and the global logarithm. Their definition is kind of hybrid. From the viewpoint of logic, log-analytic functions are definable in the o-minimal expansion $\R_{an,exp}$ of $\R_{an}$ by the global exponential function; in fact they generate the whole structure $\R_{an,exp}$. But from the point of analysis their definition avoids the exponential function and should therefore also not exhibit properties of the function $\exp(−1/x)$ as flatness or infinite differentiability but not real analyticity. This seems to be obvious. But the problem is that a composition of globally subanaytic functions and the logarithm allows a representation by ’nice’ terms only piecewise. Moreover, the ’pieces’ are in general not definable in $\R_{an}$ but only in $\R_{an,exp}$. And the existing preparation results for log-analytic functions involve functions which are not log-analytic. But by elaborating on the preparation theorems one can identify situations where the preparation can be carried out inside the log-analytic category. And these situations are sufficient to obtain the following results: We show that the derivative of a log-analytic function is log-analytic. We prove that log-analytic functions exhibit strong quasianalytic properties. We establish the parametric version of Tamm’s theorem for log-analytic functions. It seems also to be obvious that log-analytic functions are polynomially bounded. This is indeed true in the univariate case. But, surprisingly, multivariate log-analytic functions can exhibit exponential growth. We give examples and present structural results on the growth.
We initiate the study of the algorithmic complexity of Maker-Breaker games played on edge sets of graphs for general graphs. We mainly consider three of the big four such games: the connectivity game, perfect matching game, and H-game. Maker wins if she claims the edges of a spanning tree in the first, a perfect matching in the second, and a copy of a fixed graph H in the third. We prove that deciding who wins the perfect matching game and the H-game is PSPACE-complete, even for the latter in graphs of small diameter if H is a tree. Seeking to find the smallest graph H such that the H-game is PSPACE-complete, we also prove that there exists such an H of order 51.
On the positive side, we show that the connectivity game and arboricity-k game are polynomial-time solvable. We then give several positive results for the H-game, first giving a structural characterization for Breaker to win the P4-game, which gives a linear-time algorithm for the P4-game. We provide a structural characterization for Maker to win the K_{1,l}-game in trees, which implies a linear-time algorithm for the K_{1,l}-game in trees. Lastly, we prove that the K_{1,l}-game in any graph, and the H-game in trees are both FPT parameterized by the length of the game. We leave the complexity of the last of the big four games, the Hamiltonicity game, as an open question.
Motivic integration is a powerful tool in algebraic geometry for studying singularities. The theory was conceived by Kontsevich in 1989 to provide a shorter proof of Batyrev's theorem. In 2009, a more "modern" form of this theory has emerged, spearheaded by Cluckers and Loeser. First, I'll talk about p-adic integration and motivations. Then I'll try to introduce the theory's basic objects, such as model theory and Grothendieck groups. Finally, if time permits, I'll set out some axioms of the motivic integral.
L'imagerie haute résolution de la Terre, et en particulier de la croûte, est fondamentale pour la transition énergétique: pour la massiffication du stokage de CO2, une technologie mise en avant par le GIEC pour lutter contre le réchauffement climatique, mais aussi pour l'exploitation des ressources nécessaires pour la construction des infrastructures énergétiques éoliennes et salaires, et les batteries électriques. L'état de l'art pour l'imagerie haute résolution de la croûte repose sur une méthode appelée "inversion des formes d'ondes complètes". D'un point de vue mathématique, ceci revient à un problème d'estimation de paramètres d'une équation aux dérivées partielles (EDP) modélisant la propagation d'ondes dans le sous-sol à partir de données collectées ponctuellement en surface. Dans cette présentation, on introduit les bases géophysiques et mathématiques autour de cette méthode, avant de passer en revue des travaux de recherche menés au sein du projet SEISCOPE. Ces travaux recoupent les thèmes suivants: méthode d'optimisation de second-ordre basées sur des méthodes adjointes d'ordre deux, utilisation de distances transport optimal pour lutter contre le caractère mal posé du problème inverse, modélisation numérique 3D de la propagation d'onde dans l'approximation élastique, théorie des milieux équivalents (homogénisation) pour la propagation d'ondes en milieux élastiques, estimation des incertitudes pour les problèmes inverse de grande taille en se basant sur une méthode de filtre de Kalman d'ensemble.
Après un rappel sur les équations d'Euler 2D, je parlerai des tourbillons concentrés. J’exposerai les arguments principaux pour montrer la persistance de la concentration vers des points vérifiant le système des points vortex. Dans la seconde partie, je présenterai les équations des lacs qui peuvent se voir comme une généralisation d’Euler 3D axisymétrique sans swirl. Je montrerai que les points vortex se déplacent selon une loi de type « courbure binormale ». Ce travail est en collaboration avec Lars Eric Hientzsch et Evelyne Miot.
Je vais montrer les caractères topologiques d'une variété complexe projective qui déterminent le degré de la variété duale.
Ce sont des caractéristiques d’Euler-Poincaré associées à la stratification de Whitney minimale de la variété.
Tous les termes utilisés seront expliqués.
ML modules offer large-scale notions of composition and modularity. Provided as an additional layer on top of the core language, they have proven both vital to the working OCaml and SML programmers, and inspiring to other use-cases and languages. Unfortunately, their meta-theory remains difficult to comprehend, and more recent extensions (abstract signatures, module aliases) lack a complete formalization. Building on a previous translation from ML modules to Fω, we propose a new comprehensive description of a significant subset of OCaml modules, including both applicative and generative functors and transparent ascription -- a useful new feature. By exploring the translations both to and from Fω, we provide a complete description of the signature avoidance issue, as well as insights on the limitations and benefits of the path-based approach of OCaml type-sharing.
Geophysical phenomenon such as magnetic field reversal are a challenge to observe numerically. They are quite demanding in terms of numerical resources, and with the upcoming generation of exascale computers, it becomes necessary to ensure an efficient and full usage of such clusters. In geophysical and astrophysical flows, the classical method for parallelism is data parallelism. The physical domain is distributed across a large number of cores. The scaling of such a distribution can quickly saturate when the number of cores increases. Introducing an additional pipeline parallelism, through a distribution of a time interval across a number of cores, is a potential solution to use a larger number of cores, and perform numerical simulations of magnetic field reversals. When used by parallel in time schemes, time-steppers need to validate a few of criteria. We extracted 18 time-steppers from literature, from second to eighth order of accuracy. We will compare the accuracy and efficiency of those time steppers in the context of liquid planetary cores, in order to identify potential candidates to build parallel in time schemes.
We start from categorical semantics of dependent types and propose structural rules involving a new notion of subtyping. We begin by recalling a few classical models, which traditionally have been heavily set-based: this is the case for categories with families, categories with attributes, and natural models. In particular, all of them can be traced back to certain discrete fibrations. We extend this intuition to the case of general, non necessarily discrete, fibrations, and use the newly found structure on the fibers to interpret a form of subtyping. Interestingly, the emerging notion turns out to be closely related to that of coercive subtyping. This is joint work with J. Emmenegger.
Une sémantique des jeux opérationelle certifiée en Coq
La sémantique des jeux opérationelle (OGS) est une méthode pour transformer l'évaluateur d'un langage de programmation en une sémantique correcte vis-à-vis de l'équivalence contextuelle, basée sur l'interprétation des termes ouvert comme des "stratégies" pour interagir avec n'importe quel environnement d'exécution. Avec mes encadrants de thèse j'ai développé une formalisation en Coq de cette construction en s'abstrayant légèrement des détails syntaxiques du langage considéré. Je vais commencer par motiver et présenter le fonctionnement intuitif des OGS, puis donner un aperçu de nos contributions. Et enfin pour les plus courageux détailler un point technique de la preuve de correction: la propriété "d'avancement" de la composition d'une stratégie active avec une stratégie passive.
Operational game semantics, certified in Coq
Operational game semantics (OGS) is a method to transform an evaluator for a programming language into a semantic space which is correct with respect to contextual equivalence. It is based on interpreting open terms as "strategies" to interact with any execution environment. With my doctoral advisors I have developped a Coq formalization of this construction, abstracting away some syntactic details of the considered language. I will start this talk by motivating and presenting OGS intuitively, and will then give a high level view of our contributions. Finally for the bravest I will detail a technical point of the correction proof, namely the "progress" property of the composition of an active strategy with a passive strategy.
Étant donné deux fonctions réelles $f$ et $g$, qui engendrent deux structures o-minimales, respectivement $M(f)$ et $M(g)$, on dira que $f$ est définissable à partir de $g$ si le graphe de $f$ appartient à $M(g)$. On peut considérer la non-interdéfinissabilité de deux fonctions o-minimales $f$ et $g$ comme une sorte d'indépendance fonctionnelle, qui généralise celle différentielle-algébrique. La motivation initiale de ce travail est la question suivante : soient $f$ la restriction à la demi-droite réelle ${ x: x>1}$ de la fonction $\zeta$ de Riemann et $g$ la restriction à la demi-droite réelle positive de la fonction Gamma d'Euler (deux fonctions o-minimales). Est-ce que $f$ est définissable à partir de $g$ ? Pour répondre (négativement) à cette question (et à d'autres questions dans le même esprit), nous montrons que l'on peut plonger le corps des germes de fonctions définissables dans une structure o-minimale $M$ engendrée par une classe quasi-analytique généralisée, dans un corps de séries logarithmico-exponentielles, et que l'image $F$ d'un germe $f$ par ce plongement est un développement trans-asymptotique de $f$ dans une échelle asymptotique appropriée. En étudiant les propriétés de tels objets formels $F$ (support, coefficients, convergence...) on peut déduire que certains germes réels ne sont pas définissables dans la structure $M$. (travail en cours avec J.-P. Rolin et P. Speissegger).
We state and prove a version of Kurdyka-Lojasiewicz inequality for a mapping definable in an o-minimal structure, with values in $\R^k$, $k>1$. It implies a uniform bound for the measure of submanifolds transversal to the fibers.
Complexité des jeux positionels.
Les jeux positionnels sont des jeux à deux joueurs joués sur un hypergraphe. Les joueurs sélectionnent alternativement des sommets de l'hypergraphe et les conditions de victoires dépendent du remplissage des hyperarêtes. Le Morpion est le plus célèbre exemple de jeu positionnel avec les lignes, colonnes et diagonales formant les hyperarêtes et le premier joueur à remplir une hyperarête gagnant la partie. Les jeux positionnels ont été étudiés depuis leur introduction par Hales et Jewett en 1963, et ont été popularisés par Erdős et Selfridge en 1973. La version Maker-Breaker des jeux positionnels, la version la plus étudiée, a été prouvée comme étant PSPACE-complet par Schaefer en 1978, mais de nombreux problèmes restent ouverts concernant la complexité des jeux positionnels. En particulier, la complexité de la version Avoider-Enforcer restait ouverte, et les jeux positionnels et leur complexité étaient peu étudiés sur des classes restreintes d'hypergraphes. Dans cette présentation, nous allons commencer par introduire les jeux positionnels et donner un aperçu des principaux résultats du domaine. Puis, nous esquisserons une preuve de la PSPACE-complétude de la version Avoider-Enforcer. Enfin, nous conclurons cette présentation en étudiant les jeux positionnels en lien avec des problèmes de graphes et la complexité de tels problèmes.
Complexity of positionnal games
Positional games are two-player games played on a hypergraph. The players alternate selecting vertices of the hypergraph, and the winning conditions depend solely on the filling of the hyperedges. Tic-tac-toe is a famous example of a positional game, with the rows, columns, and diagonals forming the hyperedges and the first player to fill a hyperedge winning the game. Positional games have been studied since their introduction by Hales and Jewett in 1963, and were popularized by Erdős and Selfridge in 1973. Even though the Maker-Breaker convention, the most studied form of positional games, was proven to be PSPACE-complete by Schaefer in 1978, many problems remained open regarding the complexity of positional games. In particular, the complexity of the Avoider-Enforcer convention remained open, and positional games and their complexity were little considered on more restricted classes of hypergraphs. This presentation will begin with an introduction to positional games, providing an overview of the main results in the field. Then, we will give a proof sketch for PSPACE-completeness of the Avoider-Enforcer game. Finally, we will conclude this presentation by studying positional games in relation to graph problems and the complexity of such problems.
Motivés par les travaux de Batyrev sur la correspondance de McKay, Denef et Loeser ont défini une mesure motivique sur les variétés algébriques $X$ avec des singularités quotient, la mesure d'orbifold. Le volume de cette mesure est lié à la cohomologie orbifold de $X$.
Dans un travail en cours avec Michael Groechenig et Paul Ziegler nous étendons cette théorie aux quotients de variétés lisses par des groupes réductifs. Il n'y a pas d'analogue de la cohomologie d'orbifold connu en général, mais pour certaines classes d'espaces de modules, notamment pour des fibrés vectoriels sur une courbe, le bon analogue semble être la cohomologie dite BPS issue de la théorie de Donaldson-Thomas.
Universal algebra and equational logic stand as well-established tools for reasoning about programs and program equivalences. Universal quantitative algebra and quantitative equational logic were introduced in 2016 as a natural extension of these to reason about program distances. I will present the result of a few years of work with Matteo Mio and Valeria Vignudelli on improving and streamlining the original paper.
A central result in the classical realm is the correspondence between algebraic theories and (finitary) monads on the category Set. While a complete axiomatization of monads corresponding to quantitative algebraic theories remains out of reach, I will show every lifting of a monad on Set with an algebraic presentation can be presented by a quantitative algebraic theory. This result encompasses all currently known applications.
La modélisation et la simulation d’écoulements diphasiques constituent un sujet de recherche important, notamment pour leurs applications en sûreté nucléaire. Dans certains scenarii d’accidents interviennent des écoulements très hétérogènes, constitués d’eau liquide et de bulles d’air et de vapeur. Afin de modéliser de tels écoulements, on privilégie des modèles moyennés, donnant une description macroscopique des écoulements, la description à l’échelle des interfaces eau-gaz étant hors portée. Cependant connaître les propriétés de l’interface, en particulier l’évolution de l’aire interfaciale et de la tension de surface, demeure important. Le but de cet exposé est de présenter deux manières de dériver des modèles moyennés d’écoulements diphasiques avec tension de surface, la première par une méthode d’homogénéisation, la seconde par un principe d’Hamilton.