La répartition fractale des entreprises en concurrence

 

 

 

On peut faire remonter l’idée que la mesure de certaines valeurs donnera des résultats d’autant plus grands que l’étalon de mesure est plus petit (ou que la précision de l’instrument de mesure est plus grande) à la préface de 1912 du beau livre de Jean Perrin, Les atomes[1]. Les exemples pris par Jean Perrin, de la mesure de la longueur des côtes de Bretagne aux colloïdes, préfigurent les exemples « canoniques » de la théorie des fractales qui sera développée plus tard par Mandelbrot.[2] Et c’est la Loi de Richardson qui permettra d’exprimer la relation mathématique entre les grandeurs comprenant de nombreuses aspérités et l’étalon de mesure.[3]

L’idée que la mesure d’une grandeur puisse significativement dépendre de l’étalon de mesure peut être étendue à d’autres domaines que la physique, la géographie, ou à l’étude mathématique des courbes « continues qui n’ont pas de dérivée », et même faire l’objet d’analogies avec des phénomènes humains.[4] Par exemple, si un physicien voulait trouver une nouvelle variante de la théorie des cordes, il aurait intérêt à déjà bien connaître toutes les variantes existantes. On pourrait traduire cela en disant que la grandeur de l’information qu’il pourrait (peut-être) trouver devrait dépendre de la grandeur de l’information préexistante, qui jouerait le rôle de la précision de l’instrument de mesure. Ou encore, si une entreprise souhaite innover dans un domaine, et (de préférence) en tirer des bénéfices, elle devrait disposer préalablement des connaissances technologiques et commerciales adéquates. La question reste toujours de savoir si ces considérations qualitatives, voire subjectives, peuvent trouver une traduction rigoureuse, et dans le cas présent si l’on est en droit de transposer la loi de Richardson à certains processus d’optimisation économique.

            L’objet de cet article est de proposer une telle transposition, dans le cas de la répartition des entreprises sur un marché donné, et de l’évolution de cette répartition.

 

 

La loi de Richardson

 

On peut introduire la loi de Richardson à partir des différences dans les longueurs mesurées sur un même segment de droite, selon que les mesures sont effectuées avec des règles elles-mêmes de longueurs différentes.[5] Soit L(l) la longueur d’un segment mesuré avec une règle de longueur l, et L(l/p) la longueur mesurée avec une règle de longueur l/p. On pose :

 

     (1)

 

Si A et B sont les deux extrémités de l’objet, sa « taille macroscopique » est le segment reliant ces deux points. On pose :

 

     (2)

 

En substituant l/p à l dans (2) :

 

     (3)

 

D’après (1) et (3) :

 

 

La dimension fractale est donc:

 

     (4)

 

L’équation (2) exprime une loi de Richardson, où la dimension fractale correspondante est donnée par (4). Ainsi que l’écrit Bernard Sapoval :

 

Une loi de Richardson permet donc la mesure non pas de la longueur de ces courbes, qui n’existe pas comme bonne mesure, mais d’une longueur attachée à cet objet, longueur qui est fonction de la taille de l’étalon utilisé pour la mesure.[6]

 

Position du problème

Le sociologue Michel Forsé a posé le problème de l’acquisition de ressources sur un marché en des termes très généraux : les « ressources » qui sont acquises en fonction de la quantité d’information dont disposent les agents peuvent être elles-mêmes de nouvelles informations[7], se concevoir selon un « équivalent monétaire »[8], ou encore se traduire par « toute variable ordinale susceptible d’une stratification »[9]. Michel Forsé a démontré, partant des postulats selon lesquels le nombre d’individus et la ressource totale sont des grandeurs finies, qu’un processus d’optimisation sous contrainte appliqué à l’ensemble du système aboutissait à une « distribution entropique ». En référence à cette approche, Philippe Herlin a abordé la question de l’acquisition de ressources nouvelles par certains agents sous forme d’ « apport néguentropique », l’accroissement de la répartition de ces mêmes ressources ayant l’effet inverse d’augmentation de l’entropie.[10] Globalement, l’entropie s’accroît au cours du processus, la répartition des entreprises au bout de celui-ci restant toutefois fortement différenciée.

 

           

Distribution entropique, donnant la répartition des ressources x dont le total est une grandeur finie X, pour un système social comprenant un nombre N d’agents, au bout d’un processus d’optimisation sous contrainte :

 est la moyenne de x.

 

Partant d’une analogie avec une formule (une inégalité) démontrée par Michel Mendès-France, donnant la relation entre la dimension et l’entropie des courbes, Philippe Herlin a ensuite suggéré que l’on pouvait attribuer une dimension fractale au système constitué d’entreprises en concurrence sur un marché, cette dimension fractale n’étant pas fixe mais s’accroissant avec l’entropie.[11]

S’il s’agit bien ici d’aboutir aux mêmes conclusions, l’approche utilisée est inversée : 1) en utilisant une loi de Richardson (à partir des mêmes prémisses que celles de l’optimisation sous contrainte), on partira d’emblée de l’idée que la répartition des entreprises en concurrence est fractale, et que la dimension fractale augmente avec l’évolution du marché, ce qui permettra de retrouver la formule de la distribution entropique ; 2) en reportant la loi de Richardson dans la formule définissant l’entropie, et compte tenu des hypothèses initiales, on obtiendra très facilement une inégalité (spécifiquement adaptée au problème posé ici) permettant de vérifier que la dimension fractale s’accroît avec l’entropie ; 3) il faudra ensuite trouver une expression de l’entropie qui soit cohérente, par transposition, avec celle donnée en thermodynamique.

 

Positionnement relatif des entreprises

 

On considère un système composé d’entreprises sur un marché donné. On doit distinguer deux aspects relatifs au système dans son ensemble : statique (synchronique), et dynamique (diachronique). Concernant l’aspect statique, on admettra à tout moment du processus une inégalité dans la possession d’informations pertinentes entre les entreprises. On est donc ici à l’opposé de la thèse de la concurrence pure et parfaite, concernant notamment la transparence de l’information, l’atomicité des agents économiques, et l’homogénéité des produits.

Concernant l’aspect dynamique, dans le cas d’innovations technologiques par exemple, à un moment donné disons qu’une certaine entreprise fait entrer sur le marché des nouveautés correspondant à l’acquisition de nouvelles ressources, à partir des informations dont elle dispose. Si l’on reprend la définition de l’information donnée par Brillouin, d’après laquelle « toute information supplémentaire obtenue à propos d’un système correspond à une diminution de l’entropie »[12], ceci constitue un apport néguentropique. À l’étape suivante, cette même entreprise pourra profiter des acquis antérieurs pour accroître son niveau de ressource. Mais les autres entreprises présentes ou de nouveaux venus pourront aussi en partie en faire autant, sur les plans technologique et commercial, ce qui, en répartissant l’information existante, aura tendance à accroître l’entropie. Par exemple, chaque nouveau produit créé par une entreprise sera « décortiqué » par la concurrence, qui pourra créer des « variantes brevetables », voire des copies illégales[13] ; et pour l’aspect commercial, les nouveaux venus pourront éviter certaines erreurs commises par leurs prédécesseurs, et profiter des avantages à se positionner par rapport à ce qui existe déjà  (ce qui constitue un élément de base du marketing).[14] Trouver sous quelle forme se présente la répartition des entreprises n’est donc pas suffisant, il faut savoir comment cette forme évolue tenant compte de ces aspects.

Dans le cadre de l’interprétation du concept d’information en cybernétique, on considère généralement l’information sous les deux aspects symétriques d’acquisition de connaissances et de pouvoir d’organisation.[15] Dans le cas présent, puisqu’on a affaire à un système composé d’agents engagés dans un processus où il existe un partage relatif du savoir, on doit également tenir compte de la possibilité de diffusion de l’information, qui agit dans le sens de l’accroissement de l’entropie. Cela conduit à substituer au niveau d’organisation un niveau de différenciation résultant.

On peut ainsi reconnaître qu’il y a bien régulation du système, au sens où, selon la définition qu’en donne Gille Gaston Granger, ce système « comporte deux étages d’organisation », en l’occurrence un « transformateur d’énergie » (l’acquisition de connaissances, qui se traduit par un apport néguentropique), et un « réseau où une information circule »[16], cette circulation ayant pour conséquence inverse un accroissement de l’entropie.

 

Efficience de l’information

Dans le cas d’une loi de Richardson, l’instrument de mesure est d’autant plus précis que l’étalon de mesure est plus petit, si bien que celui-ci symbolise une grandeur inversement proportionnelle à la quantité dont on a besoin ici, et qui devra exprimer la valeur de l’information disponible : on se servira pour cela de la notion de quantité d’information au sens de Shannon. Cette quantité d’information n’est pas simplement une somme de connaissances techniques, elle doit en plus satisfaire une forme d’efficience relativement au développement de la demande. En ce sens, si elle peut se traduire en équivalent monétaire, elle intègre (sans lui être réductible) une notion d’utilité proche de celle décrite par Jean-Baptiste Say[17], et ne comprend pas d’éléments exogènes à ce contexte, par exemple tels que ceux introduits par David Ricardo[18], ayant d’ailleurs fait l’objet des critiques de Jean-Baptiste Say[19] (rareté, temps de travail, sacrifices réalisés), par Adam Smith[20] (temps de travail, degré de fatigue, habileté), ou par Karl Marx[21] (temps de travail). Si ces éléments peuvent plus ou moins caractériser la production de biens ou faire partie des moyens permettant d’atteindre une « utilité », ils n’en sont pas fondamentalement constitutifs.

Revenons toutefois sur la notion de « rareté », invoquée notamment par Ricardo, en l’occurrence à propos des marchandises. Il est évident que la rareté renchérit le prix d’une marchandise, s’il est avéré que celle-ci est, par ailleurs, utile. Mais le processus d’optimisation sous contrainte fait intervenir la notion de rareté d’une façon différente, en induisant une hiérarchie concurrentielle, qui elle-même déterminera la plus ou moins grande « rareté » de tel ou tel niveau de ressource, évalué sous forme de quantité d’information, parmi les agents participant au processus.

D’autre part, il ne suffit pas de posséder intellectuellement ces informations, il faut encore avoir conscience (et une conscience suffisante) de leur utilité (sur les plans technologique et commercial), ce qui peut d’ailleurs être considéré comme une part de quantité d’information : il ne sert à rien de disposer de connaissances tant qu’on ne les utilise pas. Si l’on rapproche cet aspect de la notion d’entropie du temps selon Paul Idatte, définie, pour une période donnée, comme « le rapport entre le temps qui n’est pas utilisé en vue d’un but et l’intervalle total »[22], on peut dire également que, s’il existe une période où l’on n’utilise pas des connaissances existantes qui seraient pertinentes par rapport au marché, donc qui pourraient constituer un apport néguentropique, il est équivalent de réintroduire ces connaissances existantes comme source néguentropique (pour tenir compte de tout ce qui existe) et de considérer cette « entropie du temps » comme une source d’entropie pour l’ensemble du système.

 

 

L’accroissement de la dimension fractale

 

On suppose que la répartition des entreprises sur un marché donné est descriptible par une loi de Richardson, la dimension fractale d devant être comprise dans l’intervalle.

Considérons l’aspect statique (synchronique) : soit I une quantité d’information donnée. On considère une entreprise disposant d’une quantité d’information qui lui est propre αI, avec α > 1. Cette entreprise aura par hypothèse la capacité d’atteindre un niveau de ressource β fois plus important que celle disposant seulement de I, avec (toujours par hypothèse) :. Ceci peut s’exprimer par une loi de Richardson :

 

   (5) ;        (6)

 

(Dans le cas des mesures de longueur, la valeur de L était d’autant plus grande que l était petit, et ici la valeur de x est d’autant plus grande que I est grand, donc dans le second membre de (2) on substitue 1/I à l et I à 1/l par rapport à la démonstration initiale).

La valeur x0 doit avoir une signification similaire à celle de la longueur AB, à savoir une grandeur plus petite que toutes celles pouvant être générées au cours du processus. Si on pose x0 = x(I0), d’après (6) :

 

 

ce qui n’est possible que si d = 1, donc en dehors (juste en deçà) du domaine de définition. Réciproquement, si la grandeur x0 est par hypothèse plus petite que toutes les grandeurs xi pouvant être générées, la dimension d doit être supérieure à 1 puisque, d’après (6) :

 

 ;  

 

Considérons maintenant l’aspect dynamique. Ainsi qu’on l’a vu plus haut, l’évolution du marché dans le temps est telle que les entreprises pourront toujours, au moins en partie, profiter de plus de connaissances faisant partie de l’ensemble du système au fur et à mesure du déroulement du processus, et donc auront la possibilité d’accroître plus facilement leur niveau de ressource x, pour une quantité d’information qui leur est propre αI, qu’à une étape antérieure. Autrement dit, pour une valeur donnée de β, α pourra diminuer.

 

     (7)

 

D’après (5) et (7) :

 

 

D’après l’hypothèse précédente, la dimension fractale augmente avec l’évolution du marché. Dans le cas limite α = β :

 

 ;  

 

Donc, au bout du processus, le quotient x(I)/I a la même valeur, " I. La quantité d’information est par définition I = -ln p(I), où p(I) est la probabilité de l’information I. Soit λ une constante. On pose :

 

     (8)

 

qui est une loi exponentielle de paramètre λ, de densitéet d’espérance 1/λ. Le nombre n(x) d’agents pouvant atteindre un niveau de ressource x(I) donné doit être celui qui dispose pour cela de la quantité d’information I correspondante. Donc, si N est le nombre total d’agents, en admettant l’interprétation fréquentiste des probabilités :

 

    (9)

 

et l’on retrouve la formule de la distribution entropique (démontrée initialement à l’aide de la méthode des multiplicateurs de Lagrange)[23]. D’après (6) :

 

 ;       (10)

 

Donc la moyenne pondérée des ressources pour d = 2 est égale au carré de la grandeur x0. Pour d < 2, x(I)/I ne serait pas une constante (serait fonction de I), et donc ne pourrait être une moyenne. Si la ressource est évaluée comme quantité d’information, celle-ci doit toujours être supérieure à la quantité d’information ayant permis d’atteindre son niveau, donc :

 

     (11)

 

Donc la « grandeur de base » x0 doit avoir une valeur supérieure à l’unité représentant les ressources (et la moyenne des ressources au bout du processus est évidemment toujours supérieure à cette grandeur de base).

 

Analogie avec la fonction de production

 

On voit qu’il existe une analogie formelle entre la relation (5) et la fonction de production, en l’occurrence respectivement à rendements d’échelle décroissants et constants :

 

Rendements décroissants :

Rendements constants :

 

avec λ > 1. Tant que le processus d’optimisation n’a pas abouti (donc pour d < 2), on a :

 

 ;  

 

comme dans le cas des rendements décroissants, et lorsque α = β on à l’analogue des rendements constants.

Dans le processus décrit ici, l’accroissement de quantité d’information permettant d’atteindre un niveau de ressources donné joue un rôle analogue à la production, et la quantité d’information préalablement disponible un rôle analogue au capital disponible. On peut dire que le processus d’optimisation revient à améliorer le « rendement » de la quantité d’information possédée en propre par chaque entreprise, afin de « produire » proportionnellement plus de ressources, jusqu’à aboutir à l’équivalent de « rendements constants ». Dans le cas présent l’équivalent des « rendements croissants » ne fait pas partie du domaine de définition, ce qui reflète le fait que le processus d’optimisation doit correspondre à une phase de développement où chaque entreprise cherche à améliorer son niveau de compétence pour se positionner au mieux sur un marché, qui atteint ce que l’on pourrait appeler sa maturité informative au bout de ce processus.

 


Relation entre dimension fractale et entropie

 

            On considère le cas où la grandeur xi est évaluée en tant que quantité d’information. Soit Pi la probabilité correspondant au niveau de ressource xi, donc pour laquelle on a  xi = ­ln Pi. D’après (6), l’entropie H du système est telle que :

 

 

puisque " i : Pi < 1. On a également :

 

 

Soit X le total des ressources à la fin du processus. À tout moment du processus, on a :

 

     (12)

 

On a donc :

 

Les grandeurs x0 et X sont par hypothèse des constantes caractéristiques du processus, donc on peut écrire :

 

kd + k’ > ln H     (13)

 

k et k’ sont des constantes. Donc l’utilisation d’une loi de Richardson pour décrire l’évolution de la répartition des entreprises en concurrence sur un marché, en admettant les hypothèses de départ, est en accord avec l’idée selon laquelle la dimension fractale doit s’accroître avec l’entropie.

 

Caractéristiques du processus et passage d’un processus à un autre

 

Corroboration de la fractalité de la répartition des entreprises en concurrence

 

D’un point de vue empirique, on peut dire que la thèse de la fractalité de la répartition des entreprises en concurrence sur un marché bénéficie d’une part d’une corroboration indirecte, du fait qu’elle implique la distribution entropique comme cas limite, elle-même corroborée dans différents domaines économiques et financiers[24], et des sciences sociales en général[25] ; et d’autre part d’une forme de corroboration plus spécifique, puisqu’elle permet de décrire l’évolution de la répartition des entreprises que l’on observe effectivement au cours du processus d’optimisation.


Le caractère émergent du processus

 

Le processus décrit ici permet de voir comment les agents économiques qui y participent agissent sur le système dans son ensemble, et de quelle façon celui-ci rétroagit à son tour sur ces mêmes agents à l’étape suivante. Ceci peut être représenté par un diagramme de causalité émergente, tel que celui imaginé initialement par Jaegwon Kim pour traiter le problème de la relation entre propriétés neurales et propriétés mentales, et poser la question de l’épiphénoménisme[26]. Dans le cas présent, la causalité descendante, rétroaction du système sur ses constituants, s’exprime, dans la relation (5), à travers la diminution du coefficient α.

 

A et B : position de chaque entreprise sur le marché à deux étapes consécutives du processus.

AA’ et BB’ : causalités ascendantes : diminution de l’entropie du système suite à l’acquisition de ressources par telle ou telle entreprise (apports néguentropiques).

A’ et B’ : situation informationnelle du marché consécutivement à chaque apport néguentropique.

A’B’ : causalité émergente : augmentation de l’entropie du système, due à une diffusion partielle d’informations.

A’B : causalité descendante : influence du niveau d’information disponible sur le marché sur chaque agent (diminution du coefficient α).

AB : évolution de chaque agent, tenant compte de la causalité descendante.

 

On voit que l’augmentation de l’entropie du système n’est pas linéaire : on passe par une succession de diminutions (apports néguentropiques, H-), puis d’augmentations de l’entropie (H+) liées à l’augmentation de la dimension fractale, etc. Les augmentations doivent finalement surclasser les diminutions, puisque globalement l’entropie augmente, cette augmentation étant de toute façon limitée du fait que la quantité de ressources pouvant être acquises est nécessairement finie.

D’autre part, si, à un stade donné du processus, on a globalement moins besoin de disposer d’informations en propre pour acquérir de nouvelles ressources, une entreprise qui ne profiterait pas de cette situation serait immédiatement distancée par celles qui le feraient. Par conséquent, la causalité descendante exprime ici non seulement une opportunité, mais une exigence telle que si certaines entreprises n’y satisfont pas (à supposer qu’elles en aient potentiellement la compétence), c’est qu’elles ne disposent pas des informations nécessaires pour comprendre qu’il est nécessaire qu’elles le fassent (v. plus haut). Si donc on interprète le processus comme relevant d’une optimisation sous contrainte, la causalité descendante représente la contrainte du marché sur les entreprises qui y participent. Ceci permet également de vérifier que l’on doit écarter ici ce qui serait l’équivalent de l’épiphénoménisme, puisqu’il existe effectivement dans ce contexte des propriétés émergentes du système qui rétroagissent sur les entités qui le constituent.

 

Le caractère téléonomique des paramètres du processus

 

D’après (5) et (6), le niveau de ressource atteint dépend de la quantité d’information préalablement disponible, compte-tenu : pour (5) de la valeur du coefficient α ; pour (6) de celle de la dimension fractale, et ces deux grandeurs évoluent conjointement (et inversement l’une de l’autre) au cours du processus. Or, bien que l’on considère ici l’aspect dynamique (diachronique), le temps n’est pas une variable des fonctions utilisées. Cela n’interdit pas de faire des prédictions (de spéculer) sur le déroulement temporel du processus, mais on ne peut pas garantir la validité de ces prédictions comme si le temps était une variable.

Cette imprédictibilité relative traduit le fait que, pendant par exemple qu’une entreprise développe des technologies nouvelles, le système dans son ensemble continue à évoluer : les autres entreprises développent, entérinent ou invalident leurs propres projets, sans qu’on puisse en général en avoir soi-même une connaissance complète et instantanée (en pourra éventuellement en avoir par la suite une connaissance rétrodictive).

D’autre part, si aucun agent faisant partie du système ne peut garantir l’exactitude d’une prédiction concernant le processus en cours, il n’existe évidemment pas non plus de « démon de Laplace » qui serait capable de le faire. Ceci instancie une forme restreinte (ici réduite à l’incertitude sur le temps et les modalités) du théorème de l’impossibilité de l’auto-prédiction démontré par Karl Popper[27], d’après lequel « le prédicteur échouera dans sa tentative de prédire son propre état futur, soit parce qu’il ne peut achever son calcul (…) ; soit parce qu’il est impossible de lui fournir le projet requis, à savoir, une description de son propre état au moment où il reçoit cette description »[28] (notons que l’ « état » d’un agent comprend son positionnement par rapport à l’ensemble du système). Ajoutons qu’une prédiction particulière effectivement vérifiée n’invalide pas ce théorème, qui ne dit pas qu’il est impossible d’effectuer des prédictions justes (ce qui serait une proposition absurde), mais qu’on ne peut pas garantir a priori leur validité.

Cette impossibilité de l’auto-prédiction est la contrepartie heuristique d’une sensibilité aux conditions initiales (à chaque étape du processus relativement à l’étape suivante), où, ainsi que l’écrivent Ilya Prigogine et Isabelle Stengers :

 

…toute imprécision, aussi minime soit-elle, toute distance entre une précision qui tend vers l’infini et une précision positivement infinie creuse la différence entre comportement prévisible et imprévisible.[29]

 

Il faut préciser qu’une telle indétermination relative aux prédictions n’est pas assimilable à une « indétermination intrinsèque » au niveau du comportement des agents participant au processus. L’analyse de Popper est ici assez proche de l’approche cybernétique concernant le comportement des composants d’un système complexe : Seymour Papert rappelle ainsi que, « exception faite de certains cas triviaux, (…) une machine M, supposée complètement déterministe (…) et en interaction avec un monde complètement déterministe, ne sera pas en général déterministe pour M elle-même. »[30]

Si l’on revient maintenant à la démonstration de Michel Forsé, basée sur la méthode des multiplicateurs de Lagrange, on voit que cette part d’indétermination est comprise dans la méthode elle-même, puisqu’une formalisation basée sur le calcul variationnel implique précisément ce type d’indétermination concernant le processus de variation.[31]

D’après (12), l’entropie à la fin du processus est telle que :

 

     (14)

 

On peut admettre que les aléas du processus d’optimisation ne permettent pas de déterminer de façon certaine comment et à quel niveau les connaissances fondamentales seront exploitées, ce qui revient à dire que l’espérance mathématique comme le total des ressources à la fin du processus peuvent être différents suivant les contingences de celui-ci. On doit donc considérer que (14) exprime une forme d’indétermination, qui rend compte sous un aspect quantitatif de l’impossibilité de l’auto-prédiction.

            De la même façon, la grandeur de base

 

    (15)

 

qui exprime, pour une valeur donnée de l’espérance mathématique, le niveau de ressources minimal devant être atteint par un agent au moment du déclenchement du processus, ne peut également être évaluée que rétrospectivement (contrairement à la loi de Richardson appliquée aux longueurs, où la grandeur de base est une distance macroscopique établie dès le départ). D’une façon générale, l’usage que l’on fait des paramètres du processus revêt toujours un caractère formellement  téléonomique.

 

Passage d’un processus à un autre

 

L’approche utilisée ici relève initialement des mêmes considérations générales que celles qui sont à la base de la méthode des multiplicateurs de Lagrange : il s’agit là aussi de voir comment des entreprises en concurrence optimisent leur position sur un marché donné, compte tenu des contraintes que celui-ci exerce. Cette approche est donc équivalente à celle d’une optimisation sous contrainte, permettant de rendre compte de certains aspects du marché au cours du déroulement du processus (ce que traduit l’augmentation de la dimension fractale).

L’aboutissement de ce processus, que traduit ici la limite de fractalité, ne signifie pas la « fin de l’histoire » pour un marché donné, mais constitue le point de départ possible pour un nouveau processus du même type, ce que précisément l’approche fractale est en mesure d’intégrer. Sur ce point, partant de considérations très générales sur la relation entre fractalité et optimisation sous contrainte, Laurent Nottale écrit :

 

Dans l’hypothèse où la fractalisation vient bien d’une loi d’optimisation, on peut l’interpréter de la manière suivante : après une première dilatation générique qui a permis l’optimisation, il y a à nouveau blocage du système, qui se trouve ramené à l’état précédent, au facteur d’échelle près. Le problème étant le même, la solution est également semblable, si bien qu’une nouvelle itération peut opérer.[32]

 

            Le passage d’un processus à un autre est donc lui-même fractal, mais évidemment d’une nature différente que le processus lui-même. Dans le cas présent (en ne tenant compte pour simplifier que de l’aspect technologique), on peut légitimement admettre que le processus d’optimisation et le passage d’un processus à un autre relèvent d’une problématique similaire, du fait, ainsi que l’a montré Mario Bunge, que la recherche technologique et la recherche fondamentale procèdent de méthodologies qui comprennent beaucoup de points communs, même si les objectifs sont différents[33]. Pour ce qui concerne le rapport entre les deux, tant que le processus d’optimisation sous contrainte n’est pas achevé, on reste essentiellement dans un contexte de recherche appliquée, si bien qu’à la fin d’un processus, on « remet les compteurs à zéro » avant, par exemple, une révolution technologique pouvant servir de point de départ à un nouveau processus (il est d’ailleurs possible qu’une telle révolution interrompe un processus en cours). C’est donc relativement au passage d’un processus d’optimisation à un autre que le théorème de l’impossibilité de l’auto-prédiction s’applique dans son intégralité.

 

 

Interprétation modale

 

 

Constantes d’instance et constantes de classe

 

Pour chaque contexte initial, puis pour chaque possibilité de déploiement à partir d’un contexte initial donné, il existe des valorisations distinctes déterminant les grandeurs des constantes. On doit donc distinguer deux types de constantes : celles qui sont communes aux processus pouvant se déployer à partir d’un contexte initial donné, et celles dont la valeur n’est valable que pour chaque processus particulier. Par analogie avec la programmation orientée objet, on peut appeler les premières constantes de classe, et les secondes constantes d’instance. Comme dans (15) on ne considère qu’un processus spécifique, ou si l’on préfère un des mondes possibles[34] pouvant se déployer pour un contexte initial donné, les valeurs de l’espérance mathématique, du total des ressources et de l’entropie finale peuvent êtres qualifiées de constantes d’instance relativement à ce contexte initial.

On notera que l’on peut trouver aussi dans l’étude de phénomènes physiques des constantes caractérisant seulement un processus donné, c’est-à-dire des constantes d’instance. Mais, contrairement à la physique, il n’existe pas en économie de constantes universelles (au sens où elles auraient toujours la même valeur), qui supposeraient l’existence de relations constantes entre des entités définies, relations constantes qui, ainsi que l’écrit von Mises, « n'existent pas dans le champ de l'agir humain »[35]. Le confinement de certaines valorisations à un contexte de base donné, caractérisé par les conditions de développement d’un ensemble de processus potentiels, implique que ce sont les constantes de classe qui devraient dans le formalisme occuper la place que les constantes universelles occupent en physique, tandis que, dans le cadre d’une interprétation modale où l’on prendrait en compte les différentes possibilités d’actualisation à partir du contexte initial considéré, les constantes d’instance joueraient, relativement à cet ensemble, le rôle de variables dont les valeurs devraient s’ajuster par rapport aux constantes de classe.

 

Expression de l’entropie à la fin du processus

 

            On peut dire qu’il y a une égalité entre les deux termes de (15) si on multiplie l’entropie par une grandeur τ (une constante d’instance) supérieure à 1 :

 

     (16)

 

D’après (12), à toute étape du processus, on a :

 

 

La différence entre le premier et le second terme de la première inégalité représente l’accroissement de quantité d’information entre deux étapes. La grandeur de τ dépend donc du différentiel de stratification des quantités d’information aux différentes étapes du processus. Le contexte d’optimisation est ainsi caractérisé non seulement par des valeurs atteintes, mais également par l’importance de la progression informative.

On pose :

 

     (17) 

 

La première proportion exprime que l’entropie finale est proportionnelle au total des ressources à la fin du processus, ce qui rend simplement compte du fait que la situation est d’autant moins hiérarchisée que les ressources disponibles sont importantes.[36] Selon la seconde proportion, le niveau de ressources atteint par un « agent moyen » est proportionnel à la grandeur qui est précisément censée représenter globalement la progression informative au cours du processus.

La définition de l’entropie en thermodynamique est :

 

    (18)

 

k est la constante de Boltzmann, et Ω le nombre de configurations (c’est-à-dire d’états microscopiques possibles pour le système physique considéré). Dans le cas présent, le nombre Y de configurations possibles des ressources à la fin du processus doit être :

 

    (19)

 

De cette façon, en reportant (17) et (19) dans (16), on obtient une expression de l’entropie similaire à (18) :

 

     (20)

 

Mais si l’on admet cette similitude formelle avec la thermodynamique, μ devrait être une constante de proportionnalité entre deux variables qui seraient ici Hf et X, qui précisément ne sont pas des variables mais des constantes. Il faut cependant tenir compte du fait qu’il s’agit de constantes d’instance, que l’on peut considérer comme des variables dans l’ensemble des processus pouvant se déployer à partir d’un contexte initial donné ; autrement dit, relativement à ces possibilités, les constantes d’instance peuvent être requalifiées en tant que variables modales. Et dans la relation (20), μ n’est pas comme en thermodynamique une constante universelle, mais est relative à un ensemble de processus potentiels ayant les mêmes conditions initiales, donc c’est une constante de classe.

 

 

v. 1.213 - Copyright © Frédéric Fabre, avril 2017 – juin 2018



[1] Jean Perrin, Les atomes, Paris, Gallimard, 1970, p. 11-22.

[2] Pour le cas des colloïdes, cf. par ex. Rémi Julien, Robert Boter et Max Kolb, Les agrégats, in La Recherche n° 171, novembre 1985, p. 1334-1343.

[3] Cf. Benoît Mandelbrot, Les objets fractals, Ch. II, Combien mesure donc la côte de Bretagne ?, Paris, Flammarion, 1989, p. 21 sqq.

[4] Cf. Benoît Mandelbrot et Richard L. Hudson, Une approche fractale des marchés, trad. Marcel Filoche,  Paris, Odile Jacob, 2009, p. 149.

[5] Cf. Bernard Sapoval, Universalités et fractales, Paris, Flammarion, 1997, p. 70-72.

[6] Ibid, p. 72.

[7] Cf. Michel Forsé, L’ordre improbable, Entropie et processus sociaux, Paris PUF, 1989, p. 190-195.

[8] Ibid., p. 191.

[9] Ibid., p. 192.

[10] Cf. Philipe Herlin, Repenser l’économie, Paris, Eyrolles, 2012, p. 152-155.

[11] Ibid., p. 245-246.

[12] Théo Kahan, Physique théorique, Tome Premier, Volume 2, Paris, PUF, 1960, p. 591.

[13] Cf. Daniel Zajdenweber, Economie des extrêmes, Paris, Flammarion, 2009, p. 119.

[14] Cf. A. R. François, Manuel de marketing, Paris, Editions d’organisation, 1973, p. 30 ; v. également Armand Dayan, Le marketing, Paris, PUF, 1976, p. 65-67.

[15] Cf. Olivier Costa de Beauregard, Déterminisme et indéterminisme, in Science et synthèse, ouvrage collectif, Paris, Gallimard, 1967, p. 257.

[16] Cf. Gilles Gaston Granger, Langages et épistémologie, Paris, Klincksieck, 1979, p. 119.

[17] Cf. Jean-Baptiste Say, Cours à l’Athénée, 1819, in Cours d’économie politique, Paris, Flammarion, 1996, p. 102.

[18] Cf. David Ricardo, Des principes de l’économie politique et de l’impôt, 1821, trad. Cécile Soudan, Paris, Flammarion, 1992, p. 52-53.

[19] Cf. Ibid, p. 455-456 (Notes de Jean-Baptiste Say).

[20] Cf. Adam Smith, Recherche sur la nature et les causes de la richesse des nations, 1776, trad. Germain Garnier et Adolphe Blanqui, Volume I, Paris, Flammarion, 1991, p. 100.

[21] Cf. Karl Marx, Le Capital, Livre I, 1867, édition établie par Maximilien Rubel, Paris, Gallimard, 2009, p. 178-179.

[22] Paul Idatte, Clefs pour la cybernétique, Paris, Seghers, 1969, p. 98-99.

[23] Cf. Michel Forsé, op. cit., p. 195.

[24] Cf. Philippe Herlin, op. cit., p. 156-158.

[25] Cf. Michel Forsé, op. cit., Ch. VIII, Applications du modèle, p. 233-246.

[26] Cf. Jaegwon Kim, Trois essais sur l’émergence, trad. Mathieu Mulcey, Paris, Ithaque, 2006.

[27] Cf. Karl Popper, L’univers irrésolu, 1984, trad. W. W. Bartley III, Paris, Hermann,  1986, p. 58-65.

[28] Ibid., p. 65.

[29] Ilya Prigogine et Isabelle Stengers, La nouvelle alliance, Paris, Gallimard, 1986, p. 20.

[30] Seymour Papert, Remarques sur la finalité, in Logique et connaissance scientifique, Encyclopédie de la Pléïade, ouvrage collectif sous la direction de Jean Piaget, Paris, Gallimard, 1967, p. 847.

[31] Cf. Florence Martin-Robine, Histoire du principe de moindre action, Paris, Vuibert, 2006, p. 113.

[32] Laurent Nottale, La relativité dans tous ses états, Paris, Hachette, 1998, p. 182.

[33] Cf. Mario Bunge, Technologie et philosophie, in Epistémologie,  trad. Hélène Donadieu, Paris, Maloine, 1983, p. 222.

[34] Puisqu’on ne fait ici que prendre en compte des situations contrefactuelles, selon l’approche développée par Kripke les mondes possibles évoqués sont seulement « stipulés » - cf. Saul Kripke, La logique des noms propres, 1972, trad. Pierre Jacob et François Recanati, Paris, Editions de Minuit, 1982, p. 32.

[35] Ludwig von Mises, L’action humaine, 1940, Paris, Institut Coppet, 2011, p. 64.

[36] Cf. Michel Forsé, op. cit., p. 191.