Ce billet constitue la version préliminaire d’un petit texte (10000 caractères) de contribution à un volume spécial édité pour les cinquante ans de l’université Paris-Dauphine. Le texte est en partie inspiré d’un billet de blog précédent intitulé «Mathematiques, probabilites, algorithmes».
Les mathématiques se sont construites au fil du temps à partir de préoccupations concrètes liées notamment à la mesure et au partage. Elles sont directement issues de notre appréhension logique et quantitative du monde physique. De nos jours, elles forment un immense corpus fait de concepts épurés et de méthodes de pensée. Elles ont acquis une autonomie intellectuelle et constituent désormais un monde parallèle au monde physique, un monde logique et imagé, au langage universel, exploré par les mathématiciens du monde entier. Les mathématiques constituent également le langage, efficace, de la physique, tandis que la physique continue de les nourrir et de les questionner vigoureusement. Les mathématiques comportent d’autre part un pan algorithmique puissant appelé informatique, dont l’importance concrète est de plus en plus marquée. Les mathématiques sont enfin connectées, plus généralement, bien au-delà de la physique, par la quantification et la modélisation, à toutes les sciences du monde physique : biologie, chimie, sciences humaines, sciences sociales.
Les succès concrets ou utilitaires des mathématiques tiennent beaucoup à des modélisations mécanistes simples, accessibles au calcul et aux algorithmes, et capables de produire des prédictions. La théorie de la gravitation, la théorie de la relativité, et la théorie de l’information en sont des exemples emblématiques qui ont révolutionné notre quotidien, souvent à notre insu.
Les phénomènes de nature aléatoire ou statistique ont longtemps résisté aux tentatives de mathématisation. Pour certains grands esprits mécanistes de la fin du dix-huitième siècle comme Pierre-Simon de Laplace, le hasard n’est que l’expression de notre ignorance des causes. Lorsque l’on lance une pièce de monnaie, le résultat final, pile ou face, reste difficile à prévoir car nous connaissons mal les conditions initiales du lancer, ce qui empêche d’exploiter le caractère prévisible de la trajectoire. Tout se passe comme si l’incertitude sur la condition initiale se propageait le long de la trajectoire. Lorsqu’une pierre dévale le flanc d’une montagne à partir de son sommet, sa position finale, au bas de la montagne, est difficile à prévoir car non seulement les conditions initiales sont mal connues, mais aussi parce que les irrégularités du terrain, dont on ignore le détail, provoquent un très grand nombre de chocs successifs qui dévient sa trajectoire. Des phénomènes similaires sont à l’œuvre dans la plupart des phénomènes naturels complexes, comme par exemple l’évolution des espèces, la génétique, la démographie, le cours des actifs financiers, les mouvements de foule, etc.
La mécanique du hasard, tapie sous le désordre apparent, a finalement été découverte par petites touches successives. Cela débute sans doute dès le dix-septième siècle avec l’étude des jeux de dés et de cartes, mais aussi avec l’étude des statistiques en sciences humaines et sociales. Les grandes figures de cette époque sont entre autres Pierre de Fermat, Thomas Bayes, Abraham de Moivre, Jacques Bernoulli, et Pierre-Simon de Laplace. Cela se poursuit ensuite tout le long du dix-neuvième siècle avec notamment l’étude des mécanismes de l’évolution des espèces de Charles Darwin, de la statistique humaine et sociale d’Adolphe Quételet, de la théorie cinétique des gaz et de la mécanique statistique de James Maxwell, Ludwig Boltzmann, et Willard Gibbs, et de la génétique des populations de Gregor Mendel.
Un concept important de cette mécanisation est le suivant : plutôt que de chercher à décrire l’évolution d’un seul système complexe, il est fructueux de considérer l’évolution de la distribution statistique de systèmes complexes du même type. Bien souvent, l’évolution de la description statistique du hasard n’est plus hasardeuse et obéit à une loi déterminée. Si au lieu d’étudier la chute d’une seule pierre de la montagne, nous analysons un grand nombre de pierres, nous voyons apparaître l’évolution de la distribution de la position le long des trajectoires. C’est cette distribution et son évolution qui deviennent déterminées et qui permettent de fabriquer des intervalles de prédiction pour la position. Cette approche s’applique aussi bien au problème de la particule de poussière dans un liquide qu’à celui des actifs financiers mentionnés précédemment, étudiés sous cet angle par Albert Einstein, Marian Smoluchowski, et Louis Bachelier notamment, au tout début du vingtième siècle.
Le vingtième siècle est aussi le siècle de la mécanique quantique de Max Planck, Werner Heisenberg, Louis de Broglie, et Erwin Schrödinger, profondément probabiliste, le siècle de la théorie de l’information de Claude Shannon, tout aussi probabiliste, qui a révolutionné la communication et l’informatique, et aussi le siècle de la mathématisation rigoureuse des probabilités et de la statistique, avec notamment Ronald Fisher, Andreï Markov, Andreï Kolmogorov, Joseph Doob, Kiyoshi Itō, Paul Lévy, et tant d’autres, peu connus du grand public.
La position finale de la pierre qui dévale la montagne est en quelque sorte une superposition d’un grand nombre de déviations désordonnées. Il en va de même pour la position d’une particule de poussière dans un liquide qui subit un grand nombre de chocs dus aux molécules du liquide, ou pour la valeur d’un actif financier qui subit un grand nombre d’achats ou de ventes. La physique statistique a précisément pour objet l’étude de tels systèmes complexes constitués d’un grand nombre de constituants plus simples. Il s’agit en un sens de la science des systèmes désordonnés ou critiques, de leurs fluctuations et de leurs phénomènes de seuil ou transitions de phase. La physique statistique se serait peut-être appelée aujourd’hui physique stochastique ou physique aléatoire ou tout simplement physique des systèmes désordonnés. Elle constitue le versant physique de la mathématisation du hasard, et utilise les mêmes outils et concepts mathématiques que la théorie des probabilités et de la statistique.
Les mathématiques font partie des disciplines fondatrices de l’université Paris-Dauphine, établissement centré autour des organisations et de la décision. L’étude des systèmes complexes y occupe une place naturelle et importante. Les mathématiciens probabilistes du centre d’enseignement et de recherche en mathématiques de la décision (CEREMADE) sont pour beaucoup d’entre eux versés en physique statistique. Il y a dans leurs travaux une unité de méthodes et une variété de modèles. La théorie des grandes déviations, par exemple, peut être utilisée pour quantifier des probabilités d’événements rares ou exceptionnels dans les systèmes désordonnés complexes, quelle qu’en soit la nature, pourvu qu’ils soient justiciables de la même modélisation. Ainsi un problème de biologie des populations peut ressembler à un problème d’économie, quand ils ont la même physique, et être abordés avec les mêmes outils. Il en va de même de la théorie des matrices aléatoires, de la théorie des processus stochastiques, etc. C’est là une force des mathématiques : l’identification de structures communes dans des situations concrètes d’apparences différentes.
La présence d’une certaine physique mathématique au CEREMADE peut surprendre les esprits pour qui une université comme Paris-Dauphine, centrée sur les organisations et sur la décision, est de fait éloignée de la physique. C’est mal comprendre la nature même des mathématiques et de la mathématisation du monde. Il y a en effet une physique des algorithmes, une physique de l’économie, une physique des organisations, une physique des réseaux, etc, bref une physique des systèmes complexes. Lorsque ces systèmes complexes sont désordonnés, il s’agit naturellement de physique statistique, tout simplement. À titre d’exemple, la physique de la finance a donné lieu à ce qu’on appelle parfois l’éconophysique, qui connaît un certain succès dans le monde avec par exemple James Simons, Edward Thorp, Doyne Farmer, ou Jean-Philippe Bouchaud.
Se priver de la physique statistique reviendrait à se priver d’un pan important et pertinent de la modélisation mathématique des systèmes complexes désordonnés. Bien entendu, cette physique est une physique conceptuelle, mathématique, dont le caractère expérimental peut passer par des simulations numériques sur ordinateur sans nécessiter de laboratoire d’expérimentation.
La recherche autour des mathématiques de l’aléatoire au CEREMADE ne se résume pas à de la physique statistique. Cette dernière ne constitue qu’un courant culturel important qui irrigue les recherches, notamment celles des probabilistes. Parmi les recherches les plus fructueuses menées dans ce courant, on peut citer notamment les travaux autour de la fluctuation des processus de Markov et de leur comportement en temps long, autour des méthodes de Monte-Carlo pour la simulation numérique, autour des cascades multiplicatives et de la théorie quantique des champs, autour des marches aléatoires en environnement aléatoire et/ou en paysage aléatoire, autour des polymères, autour des spectres de grandes matrices et grands graphes aléatoires, des systèmes de particules en interaction de type champ moyen, etc. Les travaux menés au CEREMADE par le physicien et mathématicien Massimiliano Gubinelli autour de l’analyse des trajectoires aléatoires rugueuses, précurseurs de ceux de Martin Hairer, médaillé Fields 2014, méritent sans doute une mention spéciale.