vendredi 4 septembre 2009

Réglementation - Régulation - Régularisation


L'idée du marché auto-régulateur est que le marché peut être considéré comme un processus d'optimisation réparti conduisant à un optimum global de l'utilisation des ressources.

L'optimisation est-elle toujours souhaitable ? Pour un statisticien, la réponse n'est pas un "oui" franc et massif mais un "oui mais" bien plus nuancé: "optimiser" ne signifie rien en soi, il faut encore préciser dans quel espace (dans quelle classe de solutions) on optimise et toute la nuance peut-être résumée ("avec les mains", que les spécialistes me pardonnent) dans la notion de "dilemme biais-variance".

En un mot: la qualité de la solution trouvée dépend de deux termes,
  • le biais, à savoir la distance minimale entre la cible et la classe de solution dans laquelle on cherche
  • la variance, à savoir la distance entre la solution effectivement trouvée et la solution optimale dans la classe où on cherche
Ce qui est essentiel ici est de comprendre que ces deux termes varient en sens inverse en fonction de la complexité de la classe de solution dans laquelle on cherche:
  • le biais diminue évidemment quand la complexité de la classe augmente
  • au contraire, la variance augmente quand la complexité de la classe augmente; en effet, plus la complexité de cette classe est grande, plus j'ai besoin d'information pour trouver la solution optimale (en d'autres termes, des solutions très complexes et très différentes -- mais dans une classe donnée -- peuvent apparaître équivalentes quand on ne dispose pas d'information suffisante): à information finie, l'optimisation dans une classe de solutions très complexe va ramener une solution statistiquement d'autant plus éloignée de la "vraie" solution que l'écart entre complexité de la classe et information disponible sera grand





Bien, pour ceux qui souhaiteraient un exposé vraiment formel, voir, par exemple, Vladimir Vapnik, The nature of statistical learning (Springer).

La première "morale" de tout cela, c'est qu'il faut chercher la solution dans une classe dont la complexité soit en rapport avec la quantité d'information dont on dispose.
La seconde "morale", c'est que, à information finie, ne pas borner la complexité de la classe dans laquelle on optimise, c'est accepter de trouver une solution "optimale" n'ayant rien à voir avec la solution correcte avec une très forte probabilité.

Ce sont ces deux "morales" qui peuvent constituer un socle pour comprendre l'exigence de réglementation du marché: on peut considérer que les outils financiers sophistiqués que la fertile imagination des quants a produit constituent des classes de complexité de plus en plus grande où on a laissé le marché chercher un optimum sans contrainte. L'expérience des éclatements de bulles pourrait s'interpréter comme une illustration de la médiocre qualité des optima trouvés, indiquant que la complexité des modèles a dépassé de beaucoup l'information disponible, d'où la nécessité de limiter la complexité de l'espace où le marché optimise: une "régulation".

Là encore, l'expérience statistique peut éclairer deux types de démarches différentes: d'une part, limiter la complexité de la classe à une valeur compatible avec l'information disponible, d'autre part "régulariser" la solution en pénalisant les solutions les plus complexes.

En d'autres termes, pour le cas des marchés, d'une part interdire le recours à certains outils financiers ou à certains comportements (voir par exemple la proposition de Paul Jorion d'interdiction des paris sur les prix), d'autre part "taxer" les outils les plus complexes (par exemple, la taxe Tobin), ce qui rejoint la discussion sur la déontologie à la Bentham: extrême difficulté de définir convenablement la "bonne" façon de pénaliser les actions, inclusion inévitable du régulateur parmi les acteurs etc.

La position du déontologue est aussi une position qui n'est tenable qu'à information infinie: on pourrait voir le déontologue benthamien comme une sorte de démon de Maxwell des marchés. A information finie (et finie au sens pratique, pas au sens "théorique" qui arrachait ce sarcasme à Léonid Levin "Only math nerds would consider 2^500 finite"; finie au sens de "très nettement insuffisante"), il est tout aussi illusoire d'espérer "optimiser" de façon fiable dans des espaces de complexité énorme (rêve de quant ...) qu'il est illusoire d'espérer "réguler" dans ces mêmes espaces. Ce sont là les deux faces d'une même illusion, celle qui s'imagine que l'optimisation va produire une solution optimale sans tenir compte de l'information disponible.

Pas étonnant dès lors que quand la discussion s'approche des notions de réglementation, s'il fallait choisir, les marchés préfèrent, et de loin, qu'on les "régularise" plutôt qu'on les réglemente !

Une illustration parfaite ne s'est pas fait attendre; à croire que dans ce domaine, c'est comme les étoiles filantes en août, il suffit de lever le nez et d'attendre !

Minuscule ajout suite à une remarque.

Aucun commentaire: