Press "Enter" to skip to content

Libres pensées d'un mathématicien ordinaire Posts

Petites pensées de rentrée

Doisneau - Écolier
Écoliers – Robert Doisneau.

Vice-présidence. La rentrée est aussi celle des vice-présidents en charge du numérique… La mienne fut, comme d’habitude, sans costume ni cravate, et sans compte Twitter, malgré une pression de conformité parfois marquée sur ces aspects à Dauphine ! À ce propos, je n’ai décidément aucun regret d’avoir fermé mes comptes Twitter et Facebook vers 2010. Le temps gagné permet de se consacrer à des tâches plus intéressantes, et parfois beaucoup plus numériques, comme par exemple l’apprentissage du langage de programmation Julia. Du reste, déserter ces deux réseaux sociaux constitue actuellement, semble-t-il, une disruption socio-numérique naturelle. En ce qui concerne la cravate et le costume, je fais preuve d’un grand conformisme disciplinaire, car les mathématiciens et les informaticiens sont en général vêtus de manière peu formelle, et cela a même très bien diffusé dans l’industrie du numérique !

Référentiels. L’informatique des organisations n’échappe pas aux analyses polarisées et aux discours simplificateurs. Il en va ainsi par exemple du sujet des référentiels. Dans un système d’information, un référentiel est une base de données qui fait référence. Idéalement, tout système d’information devrait comporter des référentiels (personnes, entreprises, …), auxquels sont connectées toutes les briques logicielles. Dans la réalité, les systèmes d’information sont bien souvent loin de cet idéal, et sont le fruit d’une accumulation historique de sous-systèmes désordonnés et mal connectés. Comme toute organisation, les systèmes d’information sont semblables aux organismes biologiques, fruit du hasard et de la nécessité. Les tenants du tout-référentiel s’épuisent souvent à construire des connecteurs complexes lors de l’insertion de référentiels, tandis que les anti-référentiels prennent le risque de faire perdurer les saisies multiples et les incohérences. Une approche sans doute plus pragmatique consiste à mettre en place un référentiel quand le rapport coût/bénéfice est favorable, et consiste aussi à décider que certains sous-systèmes peuvent constituer, par leur base de données interne, des référentiels naturels de fait. La situation est évidement différente lorsque le système d’information n’existe pas et qu’il faut tout mettre en place. Cela ressemble en somme à de l’architecture urbaine, et les théoriciens de l’informatique des organisations l’ont bien compris depuis longtemps, même s’ils ont engendré des religieux structuralistes ou anti-structuralistes. Comme souvent, tout est dans la nuance, la dose, la capacité à penser une chose et son contraire, bref la dynamique et la dialectique… Mais ce paragraphe n’est-il pas lui-même polarisé et simplificateur ?

Probabilités. J’ai échangé avec des collègues sur l’enseignement des probabilités, notamment en licence. Voici, pêle-mêle, quelques aspects qui comptent à mes yeux :

  • émailler son propos d’anecdotes concrètes et de mise en perspective avec l’actualité et les autres domaines, en évoquant le fil de l’histoire et la lente élaboration des concepts, éviter de faire croire que l’édifice optimisé que l’on présente est arrivé tel quel, faire comprendre qu’il est le fruit d’une lente digestion collective, mais aussi humaniser les héros, oser montrer leurs errances, faiblesses, erreurs, exigences, et audaces;
  • mettre en avant les réflexes probabilistes, le comptage et la sommation, le principe des tiroirs, le passage au complémentaire, la sous-additivité et borne de l’union, diviser pour régner comme dans la preuve probabiliste du théorème de Weierstrass, la probabilité comme espérance d’indicateur, l’usage élémentaire de l’indépendance et du conditionnement;
  • illustrer les concepts, conceptualiser les exemples, jongler entre abstraction et intuition, mettre en avant la structure, l’ossature, l’analogie, se servir de l’esthétique pour séduire;
  • mettre en avant le concept de loi uniforme et l’algorithmique associée, lié à la combinatoire, ce qui conduit au problème général de la simulation, mais aussi aux suites récurrentes aléatoires, aux chaînes de Markov, et aux phénomènes de renforcement;
  • mettre en avant les modèles aléatoires de base, leur ubiquité, leur richesse, et les méthodes qu’ils suscitent naturellement : tirages aléatoires, jeu de pile ou face, jeu de dés, coupons, branchement, marches aléatoires, etc. Le jeu de pile ou face et son extension aux dés par exemple fait apparaître naturellement la plupart des lois discrètes classiques, puis le processus de Poisson, tandis que les tirages aléatoires font la jonction entre l’uniformité discrète et le jeu de pile ou face via les lois hypergéométriques;
  • connecter les probabilités à la physique, à l’informatique, et à la statistique dès le départ, mais aussi à la géométrie, à l’analyse, et à la combinatoire, au travers d’exemples, d’exercices, de problèmes;
  • mettre en avant l’idée qu’un phénomène aléatoire est au fond décrit par un objet assez rapidement de dimension infinie, et qu’il est alors naturel de tester cet objet contre des familles à la fois riches et structurées de fonctions tests, adaptées à la structure du modèle. C’est ainsi qu’on conçoit de manière unifiée les fonctions génératrices, la transformée de Laplace, la transformée de Fourier, la transformée de Cauchy-Stieltjes, etc. Cette idée remonte à la physique mathématique de la première moitié du vingtième siècle, et a été bien mathématisée par la théorie des distributions de Laurent Schwartz. Passer sous silence cet aspect des choses serait une perte de sens et de temps pour les élèves, mais y réduire les probabilités serait tout aussi regrettable. Dire explicitement que la puissance ou l’exponentielle permettent d’exploiter l’indépendance en transformant les sommes en produit sous l’espérance;

Absolu. Mes collègues mathématiciens et sociologues ont des points communs fréquents dans leur façon d’aborder certains thèmes notamment les sujets de société liés à l’université. Mais tandis que chez les sociologues, c’est la posture de la sociologie sport de combat déconstructrice des dominations qui est répandue, chez les mathématiciens, c’est plutôt le rapport à l’absolu disciplinaire qui rend éventuellement difficiles les compromissions avec les imperfections du réel.

Éternité. Nicolas Bourbaki voulait refonder les mathématiques pour l’éternité, et n’a finalement produit qu’une œuvre éphémère marquée par le structuralisme de l’époque. Ce contraste entre l’ambition d’éternité et l’éphémère du résultat est saisissant. C’était donc bien et avant tout une œuvre humaine, alors même qu’elle chassait l’humain de son expression, tenait à distance l’intuition et toute la magie alchimique des mathématiques vivantes.

Cariatide. L’insignifiance de la production scientifique individuelle peut entraîner un fort sentiment d’absurdité. Malgré tout, c’est précisément cette multitude d’activités individuelles insignifiantes qui maintient le savoir humain au plus haut niveau, dans une sorte de grande victoire collective de l’énergie sur l’entropie, et permet de ce fait l’éclosion régulière des grandes découvertes. Nous sommes tous les cariatides du savoir, et nous le sommes avec passion !

Vélo. Je me suis rendu compte que j’utilise mon vélo quotidiennement comme un fixie car je ne change presque pas de vitesse ! Ma préférée est celle obtenue avec le petit plateau avant et le petit pignon arrière. Ceci permet au grand plateau avant de rester bien propre et de ne plus salir mes pantalons. Je vais moins vite sur le plat, mais je force moins sur mes articulations lors des redémarrages. Je n’ai plus à anticiper les rétrogradages avant arrêt. Ceci ne m’empêche pas d’utiliser ce vélo autrement en dehors du quotidien, en randonnée par exemple.

Leave a Comment

Mathématiques de l’aléatoire et physique statistique

Adolphe Quetelet
Adolphe Quetelet (1796 – 1874) Grand diffuseur des méthodes statistiques dans les sciences

Ce billet constitue la version préliminaire d’un petit texte (10000 caractères) de contribution à un volume spécial édité pour les cinquante ans de l’université Paris-Dauphine. Le texte est en partie inspiré d’un billet de blog précédent intitulé «Mathematiques, probabilites, algorithmes».

Les mathématiques se sont construites au fil du temps à partir de préoccupations concrètes liées notamment à la mesure et au partage. Elles sont directement issues de notre appréhension logique et quantitative du monde physique. De nos jours, elles forment un immense corpus fait de concepts épurés et de méthodes de pensée. Elles ont acquis une autonomie intellectuelle et constituent désormais un monde parallèle au monde physique, un monde logique et imagé, au langage universel, exploré par les mathématiciens du monde entier. Les mathématiques constituent également le langage, efficace, de la physique, tandis que la physique continue de les nourrir et de les questionner vigoureusement. Les mathématiques comportent d’autre part un pan algorithmique puissant appelé informatique, dont l’importance concrète est de plus en plus marquée. Les mathématiques sont enfin connectées, plus généralement, bien au-delà de la physique, par la quantification et la modélisation, à toutes les sciences du monde physique : biologie, chimie, sciences humaines, sciences sociales.

Les succès concrets ou utilitaires des mathématiques tiennent beaucoup à des modélisations mécanistes simples, accessibles au calcul et aux algorithmes, et capables de produire des prédictions. La loi de l’attraction universelle, la théorie de la relativité, et la théorie de l’information en sont des exemples emblématiques qui ont révolutionné notre quotidien, souvent à notre insu.

Les phénomènes de nature aléatoire ou statistique ont longtemps résisté aux tentatives de mathématisation. Pour certains grands esprits mécanistes de la fin du dix-huitième siècle comme Pierre-Simon de Laplace, le hasard n’est que l’expression de notre ignorance des causes. Lorsque l’on lance une pièce de monnaie, le résultat final, pile ou face, reste difficile à prévoir car nous connaissons mal les conditions initiales du lancer, ce qui empêche d’exploiter le caractère prévisible de la trajectoire. Tout se passe comme si l’incertitude sur la condition initiale se propageait le long de la trajectoire. Lorsqu’une pierre dévale le flanc d’une montagne à partir de son sommet, sa position finale, au bas de la montagne, est difficile à prévoir car non seulement les conditions initiales sont mal connues, mais aussi parce que les irrégularités du terrain, dont on ignore le détail, provoquent un très grand nombre de chocs successifs qui dévient sa trajectoire. Des phénomènes similaires sont à l’œuvre dans la plupart des phénomènes naturels complexes, comme par exemple l’évolution des espèces, la génétique, la démographie, le cours des actifs financiers, les mouvements de foule, etc.

La mécanique du hasard, tapie sous le désordre apparent, a finalement été découverte par petites touches successives. Cela débute sans doute dès le dix-septième siècle avec l’étude des jeux de dés et de cartes, mais aussi avec l’étude des statistiques en sciences humaines et sociales. Les grandes figures de cette époque sont entre autres Pierre de Fermat, Thomas Bayes, Abraham de Moivre, Jacques Bernoulli, et Pierre-Simon de Laplace. Cela se poursuit ensuite tout le long du dix-neuvième siècle avec notamment l’étude des mécanismes de l’évolution des espèces de Charles Darwin, de la statistique humaine et sociale d’Adolphe Quételet, de la théorie cinétique des gaz et de la mécanique statistique de James Maxwell, Ludwig Boltzmann, et Willard Gibbs, et de la génétique des populations de Gregor Mendel.

Un concept important de cette mécanisation est le suivant : plutôt que de chercher à décrire l’évolution d’un seul système complexe, il est fructueux de considérer l’évolution de la distribution statistique de systèmes complexes du même type. Bien souvent, l’évolution de la description statistique du hasard n’est plus hasardeuse et obéit à une loi déterminée. Si au lieu d’étudier la chute d’une seule pierre de la montagne, nous analysons un grand nombre de pierres, nous voyons apparaître l’évolution de la distribution de la position le long des trajectoires. C’est cette distribution et son évolution qui deviennent déterminées et qui permettent de fabriquer des intervalles de prédiction pour la position. Cette approche s’applique aussi bien au problème de la particule de poussière dans un liquide qu’à celui des actifs financiers mentionnés précédemment, étudiés sous cet angle par Albert Einstein, Marian Smoluchowski, et Louis Bachelier notamment, au tout début du vingtième siècle.

Le vingtième siècle est aussi le siècle de la mécanique quantique de Max PlanckWerner HeisenbergLouis de Broglie, et Erwin Schrödinger, profondément probabiliste, le siècle de la théorie de l’information de Claude Shannon, tout aussi probabiliste, qui a révolutionné la communication et l’informatique, et aussi le siècle de la mathématisation rigoureuse des probabilités et de la statistique, avec notamment Ronald Fisher, Andreï Markov, Andreï Kolmogorov, Joseph Doob, Kiyoshi Itō, Paul Lévy, et tant d’autres, peu connus du grand public.

La position finale de la pierre qui dévale la montagne est en quelque sorte une superposition d’un grand nombre de déviations désordonnées. Il en va de même pour la position d’une particule de poussière dans un liquide qui subit un grand nombre de chocs dus aux molécules du liquide, ou pour la valeur d’un actif financier qui subit un grand nombre d’achats ou de ventes. La physique statistique a précisément pour objet l’étude de tels systèmes complexes constitués d’un grand nombre de constituants plus simples. Il s’agit en un sens de la science des systèmes désordonnés ou critiques, de leurs fluctuations et de leurs phénomènes de seuil ou transitions de phase. La physique statistique se serait peut-être appelée aujourd’hui physique stochastique ou physique aléatoire ou tout simplement physique des systèmes désordonnés. Elle constitue le versant physique de la mathématisation du hasard, et utilise les mêmes outils et concepts mathématiques que la théorie des probabilités et de la statistique.

Les mathématiques font partie des disciplines fondatrices de l’université Paris-Dauphine, établissement centré autour des organisations et de la décision. L’étude des systèmes complexes y occupe une place naturelle et importante. Les mathématiciens probabilistes du centre d’enseignement et de recherche en mathématiques de la décision (CEREMADE) sont pour beaucoup d’entre eux versés en physique statistique. Il y a dans leurs travaux une unité de méthodes et une variété de modèles. La théorie des grandes déviations, par exemple, peut être utilisée pour quantifier des probabilités d’événements rares ou exceptionnels dans les systèmes désordonnés complexes, quelle qu’en soit la nature, pourvu qu’ils soient justiciables de la même modélisation. Ainsi un problème de biologie des populations peut ressembler à un problème d’économie, quand ils ont la même physique, et être abordés avec les mêmes outils. Il en va de même de la théorie des matrices aléatoires, de la théorie des processus stochastiques, etc. C’est là une force des mathématiques : l’identification de structures communes dans des situations concrètes d’apparences différentes.

La présence d’une certaine physique mathématique au CEREMADE peut surprendre les esprits qui pensent qu’une université comme Paris-Dauphine, centrée sur les organisations et sur la décision, est de fait éloignée de la physique. C’est mal comprendre la nature même des mathématiques et de la mathématisation du monde. Il y a en effet une physique des algorithmes, une physique de l’économie, une physique des organisations, une physique des réseaux, etc, bref une physique des systèmes complexes. Lorsque ces systèmes complexes sont désordonnés, il s’agit naturellement de physique statistique, tout simplement. À titre d’exemple, la physique de la finance a donné lieu à ce qu’on appelle parfois l’éconophysique, qui connaît un certain succès dans le monde avec par exemple James Simons, Edward Thorp, Doyne Farmer, ou Jean-Philippe Bouchaud.

Se priver de la physique statistique reviendrait à se priver d’un pan important et pertinent de la modélisation mathématique des systèmes complexes désordonnés. Bien entendu, cette physique est une physique conceptuelle, mathématique, dont le caractère expérimental peut passer par des simulations numériques sur ordinateur sans nécessiter de laboratoire d’expérimentation.

La recherche autour des mathématiques de l’aléatoire au CEREMADE ne se résume pas à de la physique statistique. Cette dernière ne constitue qu’un courant culturel important qui irrigue les recherches, notamment celles des probabilistes. Parmi les recherches les plus fructueuses menées dans ce courant, on peut citer notamment les travaux autour de la fluctuation des processus de Markov et de leur comportement en temps long, autour des méthodes de Monte-Carlo pour la simulation numérique, autour des cascades multiplicatives et de la théorie quantique des champs, autour des marches aléatoires en environnement aléatoire et/ou en paysage aléatoire, autour des polymères, autour des spectres de grandes matrices et grands graphes aléatoires, des systèmes de particules en interaction de type champ moyen, etc. Les travaux menés au CEREMADE par le physicien et mathématicien Massimiliano Gubinelli autour de l’analyse des trajectoires aléatoires rugueuses, précurseurs de ceux de Martin Hairer, médaillé Fields 2014, méritent sans doute une mention spéciale.

Leave a Comment

Free Journal Network

Free Journals Network

The free journals Electronic Journal of Probability (EJP), Electronic Communications in Probability (ECP), Electronic Journal of Statistics (EJS), Probability Surveys, and Statistics Surveys, all published by the Institute of Mathematical Statistics (IMS) and the Bernoulli Society, are now members of the Free Journal Network (FJN).

Leave a Comment

Automatic differentiation

Seppo Linnainmaa (1945 — ) Inventor of automatic differentiation in 1970.

This micro post is about automatic differentiation, a programming technique allowing to compute automatically the derivative of a function from its source code. This technique in attributed to Seppo Linnainmaa who introduced the idea in his Master thesis in 1970.

How to compute the derivative of a numerical function? If we have a symbolic mathematical expression for it, then we can use the rules of differential calculus, and this can be automated: this is known as symbolic differentiation. If the function is a black box, then we can compute numerically the differential ratio by using evaluations for very close arguments: this is known as numerical differentiation. But actually, if we have the source code of the function, one could follow the code and create an augmented code in parallel that computes the effect of each elementary operation on the derivative: this is known as automatic differentiation. Automatic differentiation can be implemented by using object programming and operators overloading. Automatic differentiation can be in trouble in the presence of conditionals.

Nowadays automatic differentiation is fashionable, partly because of the development of deep machine learning and multi-layered neural networks. For more,  take a look at the Wikipedia article. If you like the Julia programming language, you may take a look at JuliaDiff.

Leave a Comment
Syntax · Style · Tracking & Privacy.