Press "Enter" to skip to content

Libres pensées d'un mathématicien ordinaire Posts

Mathematical citation quotient for probability and statistics journals – 2016 update

We have already considered the mathematical citation quotient (MCQ) in a couple of posts (here and there). We give below the 2016 update of the MCQ evolution for probability journals, and for statistics journals. The graphics were produced using MathSciNet, Python, and LibreOffice. Since the MCQ normalization is with respect to papers and not with respect to pages, the MCQ is not in favor of journals publishing exclusively or frequently short papers such as Electronic Communications in Probability (ECP) and Journal of Statistical Physics (JSP). We still see on these graphics the three (maybe four) clusters for probability, and the domination of a Europe-USA couple for statistics. We also see a possible beginning of domination of a Europe-USA couple in probability. Is it an instance of some sort of self-organized criticality? The concept seems to be vague enough to include the phenomenon.

MCQ 2015 Probability

MCQ 2015 Statistics

Here is the MCQ for some famous generalist mathematics journals:

MCQ for some mathematics journals

Leave a Comment

Dauphine Plurielle

Dauphine Plurielle

À Paris-Dauphine, le second mandat du président Laurent Batsch s’achève bientôt. Ses années de pouvoir ont été marquées par une conjoncture et des décisions stratégiques pour l’établissement.

Le 22 novembre auront lieu les élections quinquennales pour les conseils centraux : conseil d’administration (CA), conseil de la formation et de la vie étudiante (CFVE), et conseil scientifique (CS). Le mandat correspond à la période 2017-2022. Je soutiens les listes Dauphine Plurielle www.dauphineplurielle.net menées par Isabelle Huault, qui rassemblent des collègues de toutes les composantes de l’université, notamment plusieurs collègues mathématiciens.

Urnes dans un couloir de Dauphine, novembre 2016
Urnes dans un couloir de Dauphine, novembre 2016
Leave a Comment

Mathématiques, probabilités, algorithmes

L'École d'Athènes, par Raphaël
L’École d’Athènes de Raphaël (1483 – 1520) vers 1509-1510

 

«What exactly is mathematics ? Many have tried but
nobody has really succeeded in defining mathematics ;
it is always something else».
Stanisław Marcin Ulam,
Adventures of a Mathematician, 1976.

Les mathématiques sont probablement issues histo­riquement des préoccupations de la vie quotidienne. Le besoin de compter, de déterminer des proportions, de quantifier des surfaces et des volumes, de répartir un héritage, de fluidifier des échanges économiques, de mettre au point des calendriers, de prédire l’astronomie, autant de raisons d’introduire et de développer les mathématiques. Cet ancrage numérique et géométrique, lié à la mesure de l’espace et du temps, est bien visible chez les peuples de l’Antiquité, qui n’en sont pas moins déjà très attirés par les abstractions dépouillées.

Inspirés au départ par le concret, les mathématiciens ont construit peu à peu un monde parallèle abstrait et idéal. Ce monde esthétique, fait de concepts et de raisonnements logiques, a fini par acquérir une véritable autonomie au fil du temps. Ce détachement du réel permet l’épure de la pensée. C’est ce monde au langage universel que les mathématiciens partagent et explorent aujourd’hui. La géométrie plane d’Euclide en fournit une belle illustration. Les droites et les cercles d’Euclide sont des êtres mathématiques, des concepts obtenus en épurant et en idéalisant la réalité. Cette manière de procéder est suggérée par notre perception du réel. Les mathématiques sont le résultat naturel des capacités sensorielles et cognitives humaines. Elles constituent une formalisation communicable et utilisable de notre appréhension du monde. Les théorèmes de Pythagore et de Thalès, obtenus par la pensée logique dans le cadre idéal de la géométrie plane d’Euclide, s’avèrent remarquablement utiles dans le monde réel. Passer par l’idéalisation permet un progrès concret. Le phénomène est également visible dans la découverte, au XIXe  siècle, des géométries non euclidiennes en mathématiques, puis hors des mathématiques.

Au fil du temps, les mathématiques sont devenues le langage de la physique, avec une efficacité stupéfiante, tandis que, réciproquement, la physique demeure une profonde source d’inspiration pour les mathématiques. Notre vie quotidienne serait bien différente sans les théories mathématisées d’Isaac Newton, Albert Einstein, James C. Maxwell et Claude Shannon, pour ne citer qu’elles. La distinction faite parfois entre mathématiques fondamentales et mathématiques appliquées est artificielle et manque de pertinence face à la réalité de la science elle-même, bien qu’elle puisse correspondre à l’organisation des mathématiciens à l’échelle individuelle et sociale. Par ailleurs, l’utilité des mathématiques ne doit pas faire oublier qu’elles sont aussi un art créatif de la pensée, avec ses artistes, ses esthétiques et ses controverses. Les mathématiques constituent enfin un immense terrain de jeux intellectuels, pour petits et grands.

Et les probabilités, dans tout ça ?

En guise de clin d’œil à Jacques Monod, il est plutôt plaisant de souligner que les probabilités se sont imposées à la fois en physique et en mathématiques comme une nécessité. De nos jours, ce qu’on appelle « théorie des probabilités » constitue une branche incontournable des mathématiques, au même titre que l’algèbre, l’analyse ou la géométrie. De  conception tardive, cette branche est très connectée à toutes les autres.

Les mathématiques se sont préoccupées au départ de problèmes déterministes, dans lesquels les informations initiales permettent d’élaborer des solutions déterminées, comme dans les théorèmes de Pythagore et de Thalès. Cette approche ne fonctionne plus lorsque le problème met en jeu des ingrédients imprévisibles, ce qui est le cas typiquement des jeux de cartes ou de dés. C’est d’ailleurs l’étude des jeux de hasard qui a conduit, dès le XVIIe  siècle, avec notamment Blaise Pascal, Pierre de Fermat, Jacques Bernoulli, Abraham de Moivre et Thomas Bayes, à développer les prémisses d’une théorie des probabilités fondée sur la combinatoire. Les probabilités sont alors un art du calcul des proportions entre ensembles des possibles. Cette approche simple permet déjà d’aborder le jeu de hasard de la génétique au cœur des travaux à venir de Gregor Mendel. Dans son livre Théorie analytique des probabilités paru au début du XIXe  siècle, Pierre-Simon de Laplace explique que « la théorie des hasards consiste à réduire tous les événements du même genre, à un certain nombre de cas également possibles, c’est-à-dire,  tels que nous soyons également indécis sur leur existence ; et à déterminer le nombre de cas favorables à l’événement dont on cherche la probabilité. »

Avant l’avènement de la mécanique quantique, certains scientifiques, à l’image de Pierre-Simon de Laplace, concevaient le hasard comme l’expression de l’ignorance des causes. L’idée est la suivante : si nous avions accès aux conditions initiales du jet de dé ainsi qu’aux caractéristiques du dé avec suffisamment de précision, alors nous pourrions prévoir l’évolution de sa trajectoire et donc sa position finale en utilisant les équations du mouvement de Newton. Comme ces informations ne sont pas accessibles en général, la position finale du dé apparaît comme imprévisible, hasardeuse, aléatoire, stochastique (terme d’origine grecque utilisé en mathématiques). Cette vision incite à penser qu’il pourrait en être de même pour la position à long terme des planètes dans le système solaire, mais nous ne n’en dirons pas plus ici.

Adolphe Quetelet
Adolphe Quetelet (1796 – 1874) Grand diffuseur des méthodes statistiques dans les sciences et techniques.

L’un des premiers à passer outre cette limitation fut sans doute Ludwig Boltzmann, en plein XIXe  siècle. La thermodynamique, à l’époque à peine née des travaux de Sadi Carnot et de Rudolf Clausius, stipule que l’énergie interne totale d’un système physique isolé est conservée au cours du temps (premier principe), tandis qu’il existe une mesure du désordre, appelée « entropie », qui ne peut qu’augmenter au cours du temps (second principe). Boltzmann souhaite déduire le second principe du premier par le raisonnement, en utilisant une hypothèse atomiste controversée à l’époque. Pour fixer les idées, Boltzmann considère un gaz isolé dans une enceinte. En supposant que le gaz est constitué de particules atomiques1, chaque particule est l’analogue d’un dé et il y en a un nombre astronomique. L’idée géniale de Boltzmann est de considérer non plus l’évolution au cours du temps de l’ensemble des positions et vitesses des particules, mais plutôt celle de la distribution statistique – ou histogramme – des positions et vitesses (on parle de distribution cinétique). Il écrit ensuite une équation d’évolution pour cette distribution, qui tient compte à la fois du mouvement des particules et des collisions, ainsi que de la conservation de l’énergie (premier principe). Boltzmann découvre alors qu’une certaine caractéristique simple et globale de la solution de cette équation d’évolution croît au cours du temps (second principe !). La perte d’information microscopique est compensée par l’apparition d’un comportement macroscopique déterministe. Ce faisant, Boltzmann fait une découverte fondamentale : le hasard du modèle, résumé par une distribution, suit une loi déterministe. Ce qui est prévisible, c’est la distribution statistique de l’imprévisible. L’équation de Boltzmann fait penser à une équation d’évolution obtenue un siècle plus tôt par Leonhard Euler en mécanique des fluides.

(1) En langage moderne, il s’agit de molécules plutôt que d’atomes.

Le travail de Boltzmann en théorie cinétique des gaz, poursuivi notamment par Josiah Willard Gibbs, fait émerger une physique nouvelle : la physique statistique. L’œuvre de Boltzmann a encore aujourd’hui une influence considérable en physique mathématique avec, par exemple, les travaux actuels de Cédric Villani et de Laure Saint-Raymond. Par ailleurs, l’entropie statistique conçue par Boltzmann a été redécouverte avec grand profit par Claude Shannon, au cœur du XXe  siècle, lors du développement de la théorie de l’information. Ce lien entre entropie et information avait déjà été identifié par Leó Szilárd. C’est semble-t-il John von Neumann qui a signalé judicieusement à Claude Shannon la proximité de son travail avec celui de Boltzmann. La théorie de l’information de Claude Shannon est fondamentale pour le codage et la compression de données, ainsi que pour les télécommunications numériques d’aujourd’hui.

L’idée de Boltzmann d’écrire une équation d’évolution déterministe pour une distribution décrivant la statistique du hasard est féconde. Cette vision mécaniste des aléas de la nature n’est pas sans rappeler celle de Charles Darwin, dont Boltzmann admirait l’œuvre. Elle s’exprime par la suite clairement au début du XXe  siècle dans les travaux d’Andreï Markov sur les processus stochastiques, qualifiés aujourd’hui de « markoviens ».

Le début du XXe siècle voit également la victoire de l’atomisme avec les travaux d’Albert Einstein, Paul Langevin et Marian Smoluchowski sur le phénomène du mouvement brownien2 d’une particule immergée dans un fluide, soumise aux chocs incessants et aléatoires des molécules du fluide. Le « mouvement brownien » des mathématiques actuelles en est directement inspiré et constitue un processus stochastique markovien fondamental de la théorie des probabilités.

(2) Du nom du botaniste Robert Brown, qui a observé un grain de pollen au microscope.

La même veine se retrouve ensuite au cœur du XXe siècle, dans l’œuvre des grands probabilistes Andreï Kolmogorov, Kiyoshi Itō, Joseph Doob et Paul Lévy. De nos jours, la théorie moderne des probabilités est construite rigoureusement, au sein des mathématiques, sur un substrat de combinatoire et d’analyse, en cohérence notamment avec la statistique mathématique. La théorie des probabilités intervient dans la mathématisation de tous les phénomènes dans lesquels une notion d’aléa ou de bruit intervient, autant dire quasiment tous ! Elle engendre par ailleurs ses propres questions, de nature probabiliste, et fournit de plus à l’ensemble des mathématiques des concepts et des outils pour étudier les problèmes sous un angle nouveau.

Le XXe siècle est bien sûr aussi le siècle de la mécanique quantique, une théorie importante de la physique qui fait appel dès le départ à une interprétation probabiliste, alors même que la théorie des probabilités est encore en gestation en mathématiques ! En mécanique quantique, les concepts de position et de vitesse des particules élémentaires sont des distributions statistiques dont les dispersions sont typiquement antagonistes : on ne peut déterminer simultanément les deux avec précision ; c’est le fameux principe d’incertitude de Werner Heisenberg. Cette théorie physique, incomplète et controversée – en particulier par Einstein lorsqu’il écrit : Gott würfelt nicht (« Dieu ne joue pas aux dés ») – reste néanmoins d’une grande efficacité concrète. Dans le futur, l’avènement d’ordinateurs quantiques pourrait révolutionner l’informatique.

Le XXe siècle est enfin le siècle du projet Manhattan. C’est dans le sillage de ce projet, dans un laboratoire de recherche à Los Alamos, au Nouveau-Mexique, que Nicholas Metropolis et John von Neumann ont développé l’un des tous premiers ordinateurs, le Mathematical Analyzer, Numerator, Integrator, and Computer (MANIAC). C’est aussi à Los Alamos que Stanisław Ulam et John von Neumann ont mis au point l’algorithme de simulation aléatoire dit « de Monte-Carlo », qui révolutionnera les calculs numériques.

Mais qu’est-ce qu’un algorithme, au juste ?

Un algorithme est une procédure standardisée qui permet d’obtenir un résultat. Les mathématiques proposent des algorith­mes pour construire des objets. Beaucoup de démonstrations mathématiques sont en réalité des algorithmes. À titre d’exemple, en géométrie plane, la méthode de construc­tion de la médiatrice d’un segment à la règle et au compas est un algorithme. En arithmétique, le calcul du plus grand commun diviseur peut être effectué, par divisions euclidiennes successives, en utilisant l’algorithme d’Euclide. Encore plus simplement, la méthode pour calculer à la main ou poser une addition, une multiplication ou une division est un algorithme. L’informatique constitue de nos jours le versant algorith­mique le plus concret des mathématiques. Un algorithme n’est rien d’autre qu’un programme exécutable par un humain ou une machine. Le boulier asiatique, la machine arithmétique de Blaise Pascal, la machine à différence puis la machine analytique de Charles Babbage sont des ancêtres remarquables des ordinateurs modernes.

De nos jours, les algorithmes sont le plus souvent exécutés par des ordinateurs et concernent des données numériques. À titre d’exemple, le format de fichier d’image JPEG ainsi que le format de fichier musical MP3 font appel, entre autres choses importantes, à un algorithme de compression de données dû à David Huffman. Cet algorithme implémente de manière constructive un théorème de Claude Shannon à base d’entropie. Le moteur de recherche de Google fait appel à un algorithme appelé PageRank basé sur l’utilisation d’une idée markovienne. Le programme spatial Apollo a fait appel à un algorithme de filtrage de données aléatoires de trajectoires markoviennes développé par Rudolf Kalman. L’algorithme de Monte-Carlo de Ulam et von Neumann permet de produire des nombres pseudo-aléatoires dont la distribution suit (parfois approximativement) une distribution statistique arbitrairement fixée, ce qui rend possibles des calculs approchés jusque-là inaccessibles, notamment pour des problèmes combinatoires complexes.

Beaucoup d’activités humaines sont quantifiées et optimisées. Cette optimisation se fait bien souvent en utilisant des algorithmes conçus et étudiés par des mathématiciens, parfois inspirés par des physiciens, programmés par des informaticiens et exécutés par des ordinateurs3. Tout récemment, des progrès spectaculaires ont été accomplis en intelligence artificielle et apprentissage automatique, domaines dans lesquels des données massives et de grande dimension ont fait leur apparition (images, sons, etc.). Les succès récents de l’apprentissage profond (deep learning), développé notamment par de grandes firmes comme Google4 et Facebook, doivent beaucoup non seulement à la puissance des ordinateurs actuels et à la présence d’immenses bases de données, mais aussi de manière cruciale au développement d’algorithmes d’optimisation stochastique.

(3) Certains scientifiques sont à la fois mathématiciens, physiciens et informaticiens.

(4) Le programme AlphaGo a battu récemment le champion du monde de jeu de go.

Algorithmes stochastiques

Nous vivons une époque dans laquelle la prise de conscience des risques et l’aversion au risque sont élevés. Dans quelle mesure peut-on ne rien laisser au hasard et maîtriser l’imprévisible ? La théorie des probabilités permet en quelque sorte de dompter l’aléatoire en le mathématisant, et ouvre la voie aux algorithmes. Les algorithmes stochastiques sont les algorithmes qui font intervenir une dose d’aléatoire. Cette dose d’aléatoire peut provenir des données du problème ou du déroulement de l’algorithme, l’un n’empêchant pas l’autre. Il se trouve que l’algorithme de simulation de Monte-Carlo de Ulam et von Neumann, évoqué précédemment, a inspiré un algorithme de simulation développé par Nicholas Metropolis à base de chaînes de Markov. Cet algorithme a suscité à son tour l’algorithme du recuit simulé, qui permet d’optimiser un coût arbitraire. Inspiré de la métallurgie, cet algorithme est très utilisé et fait toujours l’objet de recherches.

Pierre Monmarché

Les résultats de Pierre Monmarché sont motivés par l’étude et le développement d’algorithmes stochastiques, notamment d’algorithmes similaires au recuit simulé. Ils apportent en particulier une meilleure compréhension du comportement en temps long de processus stochastiques naturels inspirés des travaux de Markov. Parmi les concepts en jeu figurent ceux que Cédric Villani a développés dans le cadre d’une théorie dite « de l’hypocoercivité », inspirée à l’origine par la théorie cinétique des gaz de Boltzmann. Les résultats de Pierre Monmarché ont la particularité de mêler des univers et des influences multiples, entre théorie des probabilités, physique statistique, analyse des équations aux dérivées partielles et ingénierie. Ils sont reliés également à des processus stochastiques déterministes par morceaux, qui interviennent dans des modélisations mathématiques en biologie et en informatique. Ces travaux sont très appréciés et promettent de futurs développements passionnants. J’ai plusieurs fois rencontré Pierre Monmarché pendant sa thèse, à Toulouse, à Cracovie et à Paris. Son indépendance d’esprit, son enthousiasme, sa curiosité et sa ténacité m’ont beaucoup marqué. Ce sont les qualités reines d’un chercheur. Aussi est-ce avec un sentiment de grand honneur et beaucoup de plaisir que j’écris ces quelques lignes introductives à l’occasion de ce prix qui récompense ses recherches.

P.S. : ce texte est plus vague sur les algorithmes car cela fait l’objet du texte de Monmarché.

“The actual science of logic is conversant at present
only with things either certain, impossible or entirely doubtful,
none of which fortunately we have to reason on.
Therefore the true logic for this world is the calculus of Probabilities,
which takes account of the magnitude of the probability which is,
or ought to be, in a reasonable man’s mind.”

James Clerk Maxwell,
Lettre à Lewis Campbell, juillet 1850.

 


 

J’ai eu le plaisir d’écrire le texte ci-dessus pour introduire, en tant qu’«aîné», un texte de Pierre Monmarché, lauréat du Prix du Monde de la recherche 2015. Je remercie Cédric Villani pour sa confiance et les Éditions Le Pommier pour leur aimable autorisation à reproduire ce texte ici, à quelques détails près postérieurs à la publication.

Couverture du livre sur les lauréats du prix Le Monde 2015

Dans ce livre paru ce mois-ci aux Éditions Le Pommier, Cédric Villani présente les cinq lauréats du Prix du Monde de la recherche universitaire en sciences de la matière, de l’Univers et de la vie, remis en novembre 2015. Le jury a distingué, outre la qualité de leur thèse de doctorat et son originalité, les qualités de communication dont ils ont fait preuve, de même que l’intérêt que ces thèses peuvent avoir pour le grand public.

Les thèmes sont : Les neiges du plateau Antarctique (physique du climat) par Quentin Libois, La mécanique de la cellule et œuf mollet (biologie), par Agathe Chaigne, La lutte contre les maladies infectieuses : la piste de la génétique humaine (génétique), par Quentin Vincent, Le cerveau sans mode d’emploi (interface homme machine), par Jonathan Grizou, Le bon dosage de l’aléatoire dans nos recherches (mathématiques), par Pierre Monmarché.

Les lauréats racontent les raisons de leur engagement, les conditions, l’environnement et le déroulement de leur travail aussi bien que son explication proprement dite, l’exposé de ses résultats et de ce que l’on peut en attendre. Ces exposés sont précédés de présentations d’« aînés » qui resituent les résultats de ce premier travail de recherche dans le tissus scientifique actuel, en composant ainsi un paysage de la science contemporaine.

Leave a Comment

Réflexions sur les frais d’inscription en licence à l’université

Université_Paris-Dauphine

Ce petit billet regroupe quelques libres pensées personnelles éparses sur les droits ou frais d’inscription en licence à l’université en France. En France, le diplôme de licence est national, et sa délivrance est soumise à un certain nombre de contraintes, comme par exemple l’absence de sélection à l’inscription ainsi que le respect de frais d’inscription nationaux fixés par l’état. Une inscription en année de licence coûte actuellement 184 €, et seulement 12 € pour les boursiers.

On a coutume de dire de manière générale que faire payer à tout le monde le même prix est plutôt de droite, tandis que moduler le prix en fonction du revenu est plutôt de gauche. De ce point de vue, la TVA est plutôt un impôt de droite, tandis que la CSG est plutôt un impôt de gauche. Le prix de beaucoup de biens et de services est modulé en fonction du revenu, de manière plus ou moins fine : cantines scolaires, équipements sportifs, transports, etc. Les frais d’inscription de licence, qui sont modulés de manière binaire selon que l’étudiant est boursier ou non, sont plus de droite que de gauche, et ne permettent pas vraiment de redistribution locale au niveau de l’université.

Un idéal de gauche voudrait que les impôts soient collectés globalement par l’état, que la redistribution soit globale plutôt que locale, et que l’éducation soit gratuite, y compris à l’université, ce qui donnerait des frais d’inscription nuls. On peut considérer que les 184 € actuels sont proches de zéro et que nous ne sommes donc pas loin de l’idéal. La réalité est plus sombre. Depuis plusieurs dizaines d’années, les standards internationaux libéraux mettent sous pression les états, et ces derniers rechignent de plus en plus à collecter l’impôt globalement. La France ne fait pas exception et la dotation des universités en pâtit alors même que les dépenses augmentent. Or les frais d’inscription des diplômes nationaux sont fixés par l’état. L’état ne souhaite pas s’en servir comme variable d’ajustement, par démagogie et peur des manifestations étudiantes. Les universités ici et là ont donc recours à des méthodes détournées, comme par exemple la création de diplômes spéciaux contournant le dispositif national, avec des frais plus élevés. Il est peu probable qu’un gouvernement ose augmenter franchement les impôts globaux et/ou instaurer une modulation des frais d’inscription. Il est probable que ce blocage perdure et provoque mécaniquement une lente dégradation des conditions de travail et d’étude dans les universités.

Étant donné la situation de l’état et son caractère probablement durable, des frais d’inscription modulés en fonction du revenu seraient plus vertueux que le système binaire fixe actuel et permettraient au passage une redistribution dans les universités qui accueillent à la fois des étudiants riches et des étudiants pauvres (cela varie beaucoup en fonction de la discipline et de la position géographique). Il est toutefois peu probable que cela soit fait dans un avenir proche.

La situation à l’université Paris-Dauphine est spécifique à plus d’un titre. Le diplôme national a été abandonné au profit d’un diplôme d’établissement qui a grade de licence, afin de se libérer à la fois de la contrainte d’absence de sélection et de la contrainte des frais d’inscription fixés par l’état. Le département d’informatique et de mathématiques de la décision et des organisations (MIDO) pratique actuellement les tarifs suivants pour les frais d’inscription en licence, hors boursiers : 530 € pour les deux premières années et 184 € pour la troisième année. D’un autre côté, le département de licence en sciences des organisations (LSO) vient de mettre en place une modulation des frais d’inscription en licence en fonction du revenu, qui fait qu’un nombre non négligeable d’étudiants payent moins qu’avant tandis que la somme totale récoltée a doublé. Cette modulation n’est donc pas du tout synonyme d’augmentation des frais pour tous les étudiants : cela dépend du revenu ! Dauphine accueille beaucoup d’étudiants aisés, mais pas seulement. Les populations étudiantes des départements MIDO et LSO semblent peu différentes du point de vue de la distribution des revenus, comme le suggèrent les données des catégories socio-professionnelles des parents récoltées au moment de l’inscription. De fait, le système modulé utilisé désormais par le département LSO est plus juste et plus redistributif que celui utilisé par le département MIDO, et rapporte plus à l’université, alors même que l’immense majorité des personnels du département MIDO souhaite la justice sociale. Le paradoxe est manifeste. Si la question cachée est de savoir si telle ou telle sous catégorie de la classe moyenne est plus pressurée que les autres, la réponse est encore une fois dans la modulation, dont la mise en place peut tenir compte de la distribution des revenus. Indépendamment de ce que pourrait décider le département MIDO, il est probable qu’au fil des ans le manque d’engagement de l’état entraîne une augmentation de la recette globale des frais d’inscription afin de maintenir les conditions de travail et d’étude. Il est évidemment préférable de vivre cette augmentation probable avec des frais modulés plutôt qu’avec des frais binaires. Le contrôle des flux générés devient en tout cas très politique, sur fond de différences de pratiques budgétaires notables entre disciplines. Ces flux nouveaux pourraient être utilisés en partie pour renforcer le système d’aide aux étudiants, en tenant compte à la fois du social et du mérite.

À titre personnel, j’apprécie plus que toute autre l’université Paris-Dauphine, unique en France, entre grande école et université, entre professionnalisation et recherche de pointe. La sélection est une bonne chose car elle donne de la valeur aux diplômes. La modulation des frais est une bonne chose car elle est socialement juste. Il serait désolant que Paris-Dauphine finisse par revenir au standard universitaire français à bout de souffle, par conformisme, dogmatisme, nostalgie, ou démagogie, en faisant l’économie d’une mise à plat interne de ses pratiques budgétaires.

2 Comments