La répartition fractale des entreprises en concurrence

 

 

 

On peut faire remonter l’idée que la mesure de certaines valeurs donnera des résultats d’autant plus grands que l’étalon de mesure est plus petit (ou que la précision de l’instrument de mesure est plus grande) à la préface de 1912 du beau livre de Jean Perrin, Les atomes[1]. Les exemples pris par Jean Perrin, de la mesure de la longueur des côtes de Bretagne aux colloïdes, préfigurent les exemples « canoniques » de la théorie des fractales qui sera développée plus tard par Mandelbrot.[2] Et c’est la Loi de Richardson qui permettra d’exprimer la relation mathématique entre les grandeurs comprenant de nombreuses aspérités et l’étalon de mesure.[3]

L’idée que la mesure d’une grandeur puisse significativement dépendre de l’étalon de mesure peut être étendue à d’autres domaines que la physique, la géographie, ou à l’étude mathématique des courbes « continues qui n’ont pas de dérivée », et même faire l’objet d’analogies avec des phénomènes humains.[4] Par exemple, un chercheur doit se baser sur des connaissances antérieures (en les utilisant directement pour certaines, en les critiquant pour d’autres) pour espérer développer des connaissances nouvelles. On pourrait traduire cela en disant que la grandeur de l’information qu’il pourrait (peut-être) trouver devrait dépendre de la grandeur de l’information préexistante, qui jouerait le rôle de la précision de l’instrument de mesure. Ou encore, si une entreprise souhaite innover dans un domaine, et (de préférence) en tirer des bénéfices, elle devrait disposer préalablement des connaissances technologiques et commerciales adéquates. La question reste toujours de savoir si ces considérations qualitatives, voire subjectives, peuvent trouver une traduction rigoureuse, et dans le cas présent si l’on est en droit de transposer la loi de Richardson à certains processus d’optimisation économique.

            L’objet de cet article est de proposer une telle transposition, dans le cas de la répartition des entreprises sur un marché donné, et de l’évolution de cette répartition.

 

 

La loi de Richardson

 

On peut introduire la loi de Richardson à partir des différences dans les longueurs mesurées sur un même segment de droite, selon que les mesures sont effectuées avec des règles elles-mêmes de longueurs différentes.[5] Soit L(l) la longueur d’un segment mesuré avec une règle de longueur l, et L(l/p) la longueur mesurée avec une règle de longueur l/p. On pose :

 

     (1)

 

Si A et B sont les deux extrémités de l’objet, sa « taille macroscopique » est le segment reliant ces deux points. On pose :

 

     (2)

 

En substituant l/p à l dans (2) :

 

     (3)

 

D’après (1) et (3) :

 

 

La dimension fractale est donc:

 

     (4)

 

Les équations (2) ou (3) expriment la loi de Richardson, où la dimension fractale correspondante est donnée par (4).[6] Ainsi que l’écrit Bernard Sapoval :

 

Une loi de Richardson permet donc la mesure non pas de la longueur de ces courbes, qui n’existe pas comme bonne mesure, mais d’une longueur attachée à cet objet, longueur qui est fonction de la taille de l’étalon utilisé pour la mesure.[7]

 

Position du problème

Le sociologue Michel Forsé a posé le problème de l’acquisition de ressources sur un marché en des termes très généraux : les « ressources » qui sont acquises en fonction de la quantité d’information dont disposent les agents peuvent être elles-mêmes de nouvelles informations[8], se concevoir selon un « équivalent monétaire »[9] (réciproquement, on peut dire avec Gérard Radnitzky que « l’argent n’est qu’une manière de mesurer des coûts »[10]), ou encore se traduire par « toute variable ordinale susceptible d’une stratification »[11]. Michel Forsé a démontré, partant des postulats selon lesquels le nombre d’individus et la ressource totale sont des grandeurs finies, qu’un processus d’optimisation sous contrainte appliqué à l’ensemble du système aboutissait à une « distribution entropique ». En référence à cette approche, Philippe Herlin a abordé la question de l’acquisition de ressources nouvelles par certains agents sous forme d’ « apport néguentropique », l’accroissement de la répartition de ces mêmes ressources ayant l’effet inverse d’augmentation de l’entropie.[12] Globalement, l’entropie s’accroît au cours du processus, la répartition des entreprises au bout de celui-ci restant toutefois fortement différenciée.

 

Distribution entropique, donnant la répartition des ressources x dont le total est une grandeur finie X, pour un système social comprenant un nombre N d’agents, au bout d’un processus d’optimisation sous contrainte :

 est la moyenne de x.

 

Partant d’une analogie avec une formule démontrée par Michel Mendès-France, donnant la relation entre la dimension et l’entropie des courbes, Philippe Herlin a ensuite suggéré que l’on pouvait attribuer une dimension fractale au système constitué d’entreprises en concurrence sur un marché, cette dimension fractale n’étant pas fixe mais s’accroissant avec l’entropie.[13]

S’il s’agit bien ici d’aboutir aux mêmes conclusions, l’approche utilisée est inversée :

1) En utilisant une loi de Richardson (à partir des mêmes prémisses que celles de l’optimisation sous contrainte), on partira d’emblée de l’idée que la répartition des entreprises en concurrence est fractale, et que la dimension fractale augmente avec l’évolution du marché, ce qui permettra de retrouver la formule de la distribution entropique. 2) En reportant la loi de Richardson dans la formule définissant l’entropie, et compte tenu des hypothèses initiales, on pourra très facilement vérifier que cette formulation du problème est effectivement compatible avec l’idée que la dimension fractale doit s’accroître avec l’entropie. 3) On sera amené à intégrer dans la description du processus la part d’imprévisibilité qui le caractérise (comme c’est le cas pour certains phénomènes naturels qui pourtant relèvent intrinsèquement de comportements déterministes.[14]). 4) Il faudra ensuite trouver une expression de l’entropie qui soit cohérente, par transposition, avec celle donnée en thermodynamique.

 

Positionnement relatif des entreprises

 

On considère un système composé d’entreprises sur un marché donné. On doit distinguer deux aspects relatifs au système dans son ensemble : statique (synchronique), et dynamique (diachronique). Concernant l’aspect statique, on admettra à tout moment du processus une inégalité dans la possession d’informations pertinentes entre les entreprises. On est donc ici à l’opposé de la thèse de la concurrence pure et parfaite, concernant notamment la transparence de l’information, l’atomicité des agents économiques, et l’homogénéité des produits.

Concernant notamment l’homogénéité des produits, ainsi que l’écrit René Passet :

 

Cette façon de procéder constitue en fait une façon d’éliminer l’influence de la qualité sur la formation du prix et d’évacuer toute forme de concurrence par la qualité : la théorie ne connaît que la concurrence par les prix.[15]

 

La fixation du prix relève en fait d’un arbitrage entre les fonctionnalités et la qualité du produit d’une part, et la « zone optimale d’acceptabilité du prix de vente »[16] d’autre part. La compétence dont relève cet arbitrage doit, en tant qu’information, être intégrée dans le niveau de ressource de chaque agent.

Concernant l’aspect dynamique, dans le cas d’innovations technologiques par exemple, à un moment donné disons qu’une certaine entreprise fait entrer sur le marché des nouveautés correspondant à l’acquisition de nouvelles ressources, à partir des informations dont elle dispose. Si l’on reprend la définition de l’information donnée par Brillouin, d’après laquelle « toute information supplémentaire obtenue à propos d’un système correspond à une diminution de l’entropie »[17], ceci constitue un apport néguentropique. À l’étape suivante, cette même entreprise pourra profiter des acquis antérieurs pour accroître son niveau de ressource. Mais les autres entreprises présentes ou de nouveaux venus pourront aussi en partie en faire autant, sur les plans technologique et commercial, ce qui, en répartissant l’information existante, aura tendance à accroître l’entropie. (On notera l’analogie avec certaines prémisses du modèle de Romer[18], traduites en termes de théorie de l’information). Par exemple, chaque nouveau produit créé par une entreprise sera « décortiqué » par la concurrence, qui pourra créer des « variantes brevetables », voire des copies illégales[19] ; et pour l’aspect commercial, les nouveaux venus pourront éviter certaines erreurs commises par leurs prédécesseurs, et profiter des avantages à se positionner par rapport à ce qui existe déjà (ce qui constitue un élément de base du marketing).[20]

Dans le cadre de l’interprétation du concept d’information en cybernétique, on considère généralement l’information sous les deux aspects symétriques d’acquisition de connaissances et de pouvoir d’organisation.[21] Dans le cas présent, puisqu’on a affaire à un système composé d’agents engagés dans un processus où il existe un partage relatif du savoir, on doit également tenir compte de la possibilité de diffusion de l’information, qui agit dans le sens de l’accroissement de l’entropie. Cela conduit à substituer au niveau d’organisation un niveau de différenciation résultant.

On peut ainsi reconnaître qu’il y a bien régulation du système, au sens où, selon la définition qu’en donne Gille Gaston Granger, ce système « comporte deux étages d’organisation », en l’occurrence un « transformateur d’énergie » (l’acquisition de connaissances, qui se traduit par un apport néguentropique), et un « réseau où une information circule »[22], cette circulation ayant pour conséquence inverse un accroissement de l’entropie.

 

Efficience de l’information

Dans le cas d’une loi de Richardson, l’instrument de mesure est d’autant plus précis que l’étalon de mesure est plus petit, si bien que celui-ci symbolise une grandeur inversement proportionnelle à la quantité dont on a besoin ici, et qui devra exprimer la valeur de l’information disponible : on se servira pour cela de la notion de quantité d’information au sens de Shannon. Cette quantité d’information n’est pas simplement une somme de connaissances techniques, elle doit en plus satisfaire une forme d’efficience relativement au développement de la demande. En ce sens, si elle peut se traduire en équivalent monétaire, elle intègre (sans lui être réductible) une notion d’utilité proche de celle décrite par Jean-Baptiste Say[23], et ne comprend pas d’éléments exogènes à ce contexte, par exemple tels que ceux introduits par David Ricardo[24], ayant d’ailleurs fait l’objet des critiques de Jean-Baptiste Say[25] (rareté, temps de travail, sacrifices réalisés), par Adam Smith[26] (temps de travail, degré de fatigue, habileté), ou par Karl Marx[27] (temps de travail). Si ces éléments peuvent plus ou moins caractériser la production de biens ou faire partie des moyens permettant d’atteindre une « utilité », ils n’en sont pas fondamentalement constitutifs.

Revenons toutefois sur la notion de « rareté », invoquée notamment par Ricardo, en l’occurrence à propos des marchandises. Il est évident que la rareté renchérit le prix d’une marchandise, s’il est avéré que celle-ci est, par ailleurs, utile. Mais le processus d’optimisation sous contrainte fait intervenir la notion de rareté d’une façon différente, en induisant une hiérarchie concurrentielle, qui elle-même déterminera la plus ou moins grande « rareté » de tel ou tel niveau de ressource, évalué sous forme de quantité d’information, parmi les agents participant au processus.

D’autre part, il ne suffit pas de posséder intellectuellement ces informations, il faut encore avoir conscience (et une conscience suffisante) de leur utilité (sur les plans technologique et commercial), ce qui peut d’ailleurs être considéré comme une part de quantité d’information : il ne sert à rien de disposer de connaissances tant qu’on ne les utilise pas (on retrouve ici la problématique morinienne de la « connaissance de la connaissance »[28]). Si l’on rapproche cet aspect de la notion d’entropie du temps selon Paul Idatte, définie, pour une période donnée, comme « le rapport entre le temps qui n’est pas utilisé en vue d’un but et l’intervalle total »[29], on peut dire également que, s’il existe une période où l’on n’utilise pas des connaissances existantes qui seraient pertinentes par rapport au marché, donc qui pourraient constituer un apport néguentropique, il est équivalent de réintroduire ces connaissances existantes comme source néguentropique (pour tenir compte de tout ce qui existe) et de considérer cette « entropie du temps » comme une source d’entropie pour l’ensemble du système.


L’accroissement de la dimension fractale

 

On suppose que la répartition des entreprises sur un marché donné est descriptible par une loi de Richardson, la dimension fractale d devant être comprise dans l’intervalle.

Considérons l’aspect statique (synchronique) : soit I une quantité d’information quelconque pouvant être possédée par une entreprise participant au processus, et x(I) la fonction de cette quantité d’information donnant le niveau de ressource (qui est donc aussi une quantité d’information) que I permet d’atteindre. On considère une entreprise disposant d’une quantité d’information qui lui est propre αI, avec α > 1. Cette entreprise aura par hypothèse la capacité d’atteindre un niveau de ressource β fois plus important que celle disposant seulement de I, avec (toujours par hypothèse) :. Ceci peut s’exprimer par une loi de Richardson :

 

   (5) ;        (6)

 

(Dans le cas des mesures de longueur, la valeur de L était d’autant plus grande que l était petit, et ici la valeur de x est d’autant plus grande que I est grand, donc dans le second membre de (2) on substitue 1/I à l et I à 1/l par rapport à la démonstration initiale).

La valeur x0 doit avoir une signification similaire à celle de la longueur AB, à savoir une grandeur plus petite que toutes celles pouvant être générées au cours du processus. Si on pose x0 = x(I0), d’après (6) :

 

 

ce qui n’est possible que si d = 1, donc en dehors (juste en deçà) du domaine de définition. Réciproquement, si la grandeur x0 est par hypothèse plus petite que toutes les grandeurs xi pouvant être générées, la dimension d doit être supérieure à 1 puisque, d’après (6) :

 

 ;  

 

Considérons maintenant l’aspect dynamique. Ainsi qu’on l’a vu plus haut, l’évolution du marché dans le temps est telle que les entreprises pourront toujours, au moins en partie, profiter de plus de connaissances faisant partie de l’ensemble du système au fur et à mesure du déroulement du processus, et donc auront la possibilité d’accroître plus facilement leur niveau de ressource x, pour une quantité d’information qui leur est propre αI, qu’à une étape antérieure. Autrement dit, pour une valeur donnée de β, α pourra diminuer.

 

     (7)

 

D’après (5) et (7) :

 

 

D’après l’hypothèse précédente, la dimension fractale augmente avec l’évolution du marché. Dans le cas limite α = β :

 

 ;  

 

Donc, au bout du processus, le rapport entre le niveau de ressource atteint et la quantité d’information ayant permis de l’atteindre est le même pour tous les agents. La quantité d’information est par définition I = - ln p(I), où p(I) est la probabilité de l’information I. Soit λ une constante. Pour tout niveau x(I) atteint par un agent toujours présent au bout du processus, on peut écrire :

 

     (8)

 

qui est une loi exponentielle de paramètre λ, de densitéet d’espérance 1/λ. Le nombre n(x) d’agents pouvant atteindre un niveau de ressource x(I) donné doit être le nombre de ceux qui disposent pour cela de la quantité d’information I correspondante. Donc, si N est le nombre total d’agents, en admettant l’interprétation fréquentiste des probabilités :

 

    (9)

 

et l’on retrouve la formule de la distribution entropique (démontrée initialement à l’aide de la méthode des multiplicateurs de Lagrange)[30]. D’après (6) :

 

 ;       (10)

 

Donc la moyenne pondérée des ressources pour d = 2 est égale au carré de la grandeur x0. Pour d < 2, x(I)/I ne serait pas une constante (serait fonction de I), et donc ne pourrait être une moyenne. Si la ressource est évaluée comme quantité d’information, celle-ci doit toujours être supérieure à la quantité d’information ayant permis d’atteindre son niveau, donc :

 

     (11)

 

Donc la « grandeur de base » x0 doit avoir une valeur supérieure à l’unité représentant les ressources (et la moyenne des ressources au bout du processus est évidemment toujours supérieure à cette grandeur de base).

 

Analogie avec la fonction de production

 

On voit qu’il existe une analogie formelle entre la relation (5) et une fonction de production du type :

 

Rendements décroissants :

Rendements constants :

 

avec λ > 1. Tant que le processus d’optimisation n’a pas abouti (donc pour d < 2), on a :

 

 ;  

 

comme dans le cas des rendements décroissants, et lorsque α = β on à l’analogue des rendements constants.

Dans le processus décrit ici, l’accroissement de quantité d’information permettant d’atteindre un niveau de ressource donné joue un rôle analogue à la production, et la quantité d’information préalablement disponible un rôle analogue au capital disponible. On peut dire que le processus d’optimisation revient à améliorer le « rendement » de la quantité d’information possédée en propre par chaque entreprise, afin de « produire » proportionnellement plus de ressources, jusqu’à aboutir à l’équivalent de « rendements constants ».

 

Relation entre dimension fractale et entropie

            Soit Pi la probabilité correspondant au niveau de ressource xi, donc pour laquelle on a  xi = ­ln Pi. D’après (6), l’entropie H du système est telle que :

 

 

Soit X le total des ressources à la fin du processus. À tout moment du processus, on a :

 

     (12)

 

On a donc :

 

Les grandeurs x0 et X sont par hypothèse des constantes caractéristiques du processus, donc on peut écrire :

 

kd + k’ > ln H     (13)

 

k et k’ sont des constantes. Donc l’utilisation d’une loi de Richardson pour décrire l’évolution de la répartition des entreprises en concurrence sur un marché, en admettant les hypothèses de départ, est en accord avec l’idée selon laquelle la dimension fractale doit s’accroître avec l’entropie.

 

L’aboutissement du processus comme point fixe

 

L’approche utilisée ici ne décrit pas une évolution en fonction du temps, mais les conditions qui sont censées idéalement mener l’ensemble des agents constituant un réseau d’entreprises en concurrence à une situation d’équilibre, qui devrait donc pouvoir être représentée par un point fixe[31], ce qui suppose l’existence d’une fonction contractante caractérisant le système aux différentes étapes de son évolution. Chaque processus est a priori unique quant aux valorisations qu’il embarque (ce point sera précisé plus loin), et au rythme de progression des niveaux de ressource d’une étape à une autre, donc, en dehors de ces caractéristiques, il n’y aura pas qu’une seule forme possible pour ce type de fonction.

D’après (5) : x(αI) = βx(I), où l’expression x(αI) signifie, puisque αI est la valeur de x à l’étape précédente, que x a la propriété de récurrence : . On a vu également plus haut que l’on a :

 

      (14)

 

La valeur de d est donnée pour une certaine étape n, quand un agent passe de αI à l’étape n–1 à βx(I) à l’étape n. Pour préciser l’équation précédente en indiçant d, α et β, on peut dire que, à une étape n quelconque, l’état du système dans son processus évolutif, exprimé par la dimension fractale dn, se traduit par une relation entre toute valeur donnée de βp et la valeur correspondante de αn-1,p, telle que :

 

     (15)

 

Dans (5), la grandeur de α pour une valeur de β fixée ne dépend pas de I, et donc est commune à tous les agents. Par conséquent, elle doit être fonction de l’état du système dans son ensemble à l’étape indiquée par l’indice de α. Or la valeur de la dimension fractale caractérise l’état du système à chaque étape. Le second membre de (15), comprenant αn-1,p, doit donc être une fonction de la dimension fractale à l’étape n–1 :

 

     (16)

 

D’après (15) et (16), compte tenu du fait que α diminue à chaque étape, la dimension fractale doit pouvoir s’exprimer par une fonction φ caractéristique du processus et ayant la propriété de récurrence :

 

     (17)

 

Puisqu’on est dans un processus d’optimisation partagée, la progression de la capacité d’un agent à acquérir plus de ressources que d’autres agents ayant au même moment atteint un niveau de ressources moindre doit elle-même diminuer ; donc la décroissance du coefficient α doit diminuer à chaque étape, et la croissance de la dimension fractale devient de moins en moins forte au cours du déroulement du processus. Donc, pour 0 < ρ < 1, on a :

 

     (18)

 

La fonction φ est donc une fonction contractante. Comme l’optimisation est atteinte lorsque la dimension fractale devient la dimension topologique 2 (correspondant au maximum de l’entropie), la valeur 2 est le point fixe de toute fonction φ :

 

     (19)

 

 

Caractéristiques du processus et passage d’un processus à un autre

Le caractère émergent du processus

 

Le processus décrit ici permet de voir comment les agents économiques qui y participent agissent sur le système dans son ensemble, et de quelle façon celui-ci rétroagit à son tour sur ces mêmes agents à l’étape suivante. En ce sens, l’approche adéquate pour décrire un tel système relève d’une pensée systémique, telle que définie par Mioara Mugur-Schächter :

 

La pensée « systémique » met en évidence l’importance décisive, pour tout être ainsi que pour ces méta-êtres que sont les organisations sociales, des modélisations pragmatiques, des « conceptions » induites par des buts subjectifs, qu’on place dans le futur mais qui façonnent les actions présentes. Ces buts, liés à des croyances et à des anticipations, rétroagissent sur l’action au fur et à mesure que celle-ci en rapproche ou en éloigne, cependant que l’action, en se développant, modifie les buts. Il en résulte une dynamique complexe dépendante de sa propre histoire et du contexte et qui requiert une approche cognitiviste et évolutionniste.[32]

 

Ceci peut être représenté par un diagramme de causalité émergente, tel que celui imaginé initialement par Jaegwon Kim pour traiter le problème de la relation entre propriétés neurales et propriétés mentales, et poser la question de l’épiphénoménisme[33], selon lequel, pour reprendre une définition qu’en donne Popper, « [les] expériences mentales ou subjectives sont des sous-produits, causalement inefficaces, de processus physiologiques – lesquels sont les seuls à détenir une efficacité causale ».[34] (Notons que Popper rejette l’épiphénoménisme au profit de l’interactionnisme[35]).

Dans le cas présent, la causalité descendante, rétroaction du système sur ses constituants, s’exprime, dans la relation (5), à travers la diminution du coefficient α pour chaque agent.

 

A et B : position de chaque entreprise sur le marché à deux étapes consécutives du processus.

AA’ et BB’ : causalités ascendantes : diminution de l’entropie du système suite à l’acquisition de ressources par telle ou telle entreprise (apports néguentropiques).

A’ et B’ : situation informationnelle du marché consécutivement à chaque apport néguentropique.

A’B’ : causalité émergente : augmentation de l’entropie du système, due à une diffusion partielle d’informations.

A’B : causalité descendante : influence du niveau d’information disponible sur le marché sur chaque agent (diminution du coefficient α).

AB : évolution de chaque agent, tenant compte de la causalité descendante.

 

On voit que l’augmentation de l’entropie du système n’est pas linéaire : on passe par une succession de diminutions (apports néguentropiques, H-) puis d’augmentations (diffusion partielle d’informations, H+). Si globalement l’entropie augmente, une limite est imposée du fait que la quantité de ressources pouvant être acquises est nécessairement finie.

D’autre part, si, à un stade donné du processus, on a globalement moins besoin de disposer d’informations en propre pour acquérir de nouvelles ressources, une entreprise qui ne profiterait pas de cette situation serait immédiatement distancée par celles qui le feraient. Par conséquent, la causalité descendante exprime ici non seulement une opportunité, mais une exigence telle que si certaines entreprises n’y satisfont pas (à supposer qu’elles en aient potentiellement la compétence), c’est qu’elles ne disposent pas des informations nécessaires pour comprendre qu’il est nécessaire qu’elles le fassent (v. plus haut). Si donc on interprète le processus comme relevant d’une optimisation sous contrainte, la causalité descendante représente la contrainte du marché sur les entreprises qui y participent.

La causalité émergente apparaît donc ici comme un ensemble de relations et d’interactions qui acquièrent une part essentielle d’autonomie par rapport aux agents qui en sont à l’origine, et qui créent de nouvelles conditions pour ces mêmes agents. Cette causalité émergente relève ainsi de ce qu’Edgar Morin désigne comme des « déterminations organisationnelles propres aux structures de tels ou tels systèmes (…), c’est-à-dire qui n’existent pas hors de ces organisations »[36] (souligné par l’auteur) ; donc on doit écarter ici ce qui serait l’équivalent de l’épiphénoménisme, puisqu’il existe effectivement dans ce contexte des propriétés émergentes du système qui rétroagissent sur les entités qui le constituent.

 

Indétermination relative du processus et caractère téléonomique des paramètres

 

D’après (5) et (6), le niveau de ressource atteint dépend de la quantité d’information préalablement disponible, compte-tenu : pour (5) de la valeur du coefficient α ; pour (6) de celle de la dimension fractale, et ces deux grandeurs évoluent conjointement (et inversement l’une de l’autre) au cours du processus. Comme un niveau de ressource est lui-même évalué en tant que quantité d’information, on a affaire à une fonction dont l’argument, ainsi qu’on l’a vu plus haut, n’est pas une variable indépendante, mais la fonction elle-même à une étape antérieure, ce qui est une propriété fondamentale des fonctions fractales.

Le niveau de ressource que l’on atteindra plus tard ne peut être déterminé précisément à l’avance, puisque l’information dont on dispose à un moment donné ne nous permet généralement pas de connaître exactement le niveau de « l’information qui n’existe pas encore »[37]. Cela se traduit notamment par le fait que, concernant la réalisation de projets dans un contexte de recherche et développement, leur coût final comme leur durée de réalisation sont rarement connus à l’avance avec précision : ils sont le plus souvent sous-évalués, de façon très variable.[38]

De façon plus générale, la probabilité associée à une quantité d'information est d’autant plus faible que cette quantité d'information est élevée. Or plus la quantité d’information est élevée, plus il y a d’étapes de plus en plus complexes à franchir pour l’atteindre, et donc moins on peut savoir à l’avance ce que seront exactement ces étapes et leur difficulté, et donc moins on peut connaître avec précision la probabilité associée à cette quantité d’information future, et donc cette quantité d’information elle-même. Cela rejoint ce que disait Taleb dans Le cygne noir : « Plus un événement est rare, moins nous connaissons les chances qu’il a de se produire »[39].

Un autre aspect, qui concerne plus spécifiquement le rapport entre chaque agent et le réseau d’entreprises en concurrence, doit être pris en compte : pendant par exemple qu’un agent participant au processus crée des technologies nouvelles, le système dans son ensemble continue à évoluer : les autres entreprises développent, entérinent ou invalident leurs propres projets, sans qu’on puisse en général en avoir soi-même une connaissance complète et instantanée (en pourra éventuellement en avoir par la suite une connaissance rétrodictive).

D’autre part, si aucun agent faisant partie du système ne peut garantir l’exactitude d’une prédiction concernant le processus en cours, il n’existe évidemment pas non plus de « démon de Laplace » qui serait capable de le faire. Donc, si l’on peut prévoir l’aspect global de la répartition au bout du processus, on ne peut jamais être sûr des modalités qui y mènent, ni des grandeurs des paramètres caractéristiques. Ceci instancie une forme restreinte du théorème de l’impossibilité de l’auto-prédiction démontré par Karl Popper[40], d’après lequel « le prédicteur échouera dans sa tentative de prédire son propre état futur, soit parce qu’il ne peut achever son calcul (…) ; soit parce qu’il est impossible de lui fournir le projet requis, à savoir, une description de son propre état au moment où il reçoit cette description »[41] (rappelons que l’ « état » d’un agent comprend son positionnement par rapport à l’ensemble du système). Ajoutons qu’une prédiction particulière effectivement vérifiée n’invalide pas ce théorème, qui ne dit pas qu’il est impossible d’effectuer des prédictions justes (ce qui serait une proposition absurde), mais qu’on ne peut pas garantir a priori leur validité.

Cette impossibilité de l’auto-prédiction est la contrepartie heuristique d’une sensibilité aux conditions initiales (à chaque étape du processus relativement à l’étape suivante), où, ainsi que l’écrivent Ilya Prigogine et Isabelle Stengers :

 

…toute imprécision, aussi minime soit-elle, toute distance entre une précision qui tend vers l’infini et une précision positivement infinie creuse la différence entre comportement prévisible et imprévisible.[42]

 

Il faut préciser qu’une telle indétermination relative aux prédictions n’est pas assimilable à une « indétermination intrinsèque » au niveau du comportement des agents participant au processus. L’analyse de Popper est ici assez proche de l’approche cybernétique concernant le comportement des composants d’un système complexe : Seymour Papert rappelle ainsi que, « exception faite de certains cas triviaux, (…) une machine M, supposée complètement déterministe (…) et en interaction avec un monde complètement déterministe, ne sera pas en général déterministe pour M elle-même. »[43] La « pensée systémique » qui permet de modéliser un tel système peut ainsi rester déterministe dans la description du comportement des éléments qui le composent, sans pour autant permettre de garantir la prédiction de tel ou tel état futur pour le système dans son ensemble.[44] D’une manière générale, ainsi que l’écrit Paulette Marquer (en référence à Robert MacIver) :

 

il n’y a pas de véritable déterminisme dans les phénomènes sociaux : ceux-ci, bien que dépendants d’un certain nombre d’éléments objectifs, n’expriment jamais qu’un des possibles contenus parmi beaucoup d’autres dans une situation donnée.[45]

 

Si l’on revient maintenant à la démonstration de Michel Forsé, basée sur la méthode des multiplicateurs de Lagrange, on voit que cette part d’indétermination est comprise dans la méthode elle-même, puisqu’une formalisation basée sur le calcul variationnel se caractérise par l’impossibilité de décrire précisément le processus de variation.[46]

D’après (12), l’entropie à la fin du processus est telle que :

 

     (20)

 

Ce qui précède montre que les aléas du processus d’optimisation ne permettent pas de déterminer de façon certaine comment et à quel niveau les connaissances fondamentales seront exploitées, ce qui revient à dire que l’espérance mathématique comme le total des ressources à la fin du processus peuvent être différents suivant les contingences de celui-ci. On doit donc considérer que (20) exprime une forme d’indétermination, qui rend compte sous un aspect quantitatif de l’impossibilité de l’auto-prédiction. L’impossibilité, soulignée par Bernard Guerrien, de « cerner avec une certaine précision » les variables mises en jeu dans les théories économiques[47], est donc dans le cas présent une propriété des mécanismes impliqués. Cela se traduit par le fait que l’usage que l’on fait des paramètres du processus revêt toujours un caractère formellement  téléonomique.

 

Passage d’un processus à un autre

 

On a recouru aux mêmes postulats que ceux qui sont à la base de la méthode des multiplicateurs de Lagrange : il s’agit là aussi de voir comment des entreprises en concurrence optimisent leur position sur un marché donné, compte tenu des contraintes que celui-ci exerce. Cette approche est donc équivalente à celle d’une optimisation sous contrainte, permettant de rendre compte de certains aspects du marché au cours du déroulement du processus (ce que traduit l’augmentation de la dimension fractale).

L’aboutissement de ce processus, que traduit ici la limite de fractalité, ne signifie pas la « fin de l’histoire » pour un marché donné, mais constitue le point de départ possible pour un nouveau processus du même type, ce que précisément l’approche fractale est en mesure d’intégrer. Sur ce point, partant de considérations très générales sur la relation entre fractalité et optimisation sous contrainte, Laurent Nottale écrit :

 

Dans l’hypothèse où la fractalisation vient bien d’une loi d’optimisation, on peut l’interpréter de la manière suivante : après une première dilatation générique qui a permis l’optimisation, il y a à nouveau blocage du système, qui se trouve ramené à l’état précédent, au facteur d’échelle près. Le problème étant le même, la solution est également semblable, si bien qu’une nouvelle itération peut opérer.[48]

 

            Le passage d’un processus à un autre est donc lui-même fractal, mais évidemment d’une nature différente que le processus lui-même. Dans le cas présent (en ne tenant compte pour simplifier que de l’aspect technologique), on peut légitimement admettre que le processus d’optimisation et le passage d’un processus à un autre relèvent d’une problématique similaire, du fait, ainsi que l’a montré Mario Bunge, que la recherche technologique et la recherche fondamentale procèdent de méthodologies qui comprennent beaucoup de points communs, même si les objectifs sont différents[49]. Pour ce qui concerne le rapport entre les deux, tant que le processus d’optimisation sous contrainte n’est pas achevé, on reste essentiellement dans un contexte de recherche appliquée, si bien qu’à la fin d’un processus, on « remet les compteurs à zéro » avant, par exemple, une révolution technologique pouvant servir de point de départ à un nouveau processus (il est d’ailleurs possible qu’une telle révolution interrompe un processus en cours). C’est donc relativement au passage d’un processus d’optimisation à un autre que le théorème de l’impossibilité de l’auto-prédiction s’applique dans son intégralité.

 

Corroboration de la fractalité de la répartition des entreprises en concurrence

 

D’un point de vue empirique, on peut dire que la thèse de la fractalité de la répartition des entreprises en concurrence sur un marché bénéficie d’une part d’une corroboration indirecte, du fait qu’elle implique la distribution entropique comme cas limite, elle-même corroborée dans différents domaines économiques et financiers[50], et des sciences sociales en général[51] ; et d’autre part d’une forme de corroboration plus spécifique, puisqu’elle permet de décrire l’évolution de la répartition des entreprises que l’on observe effectivement au cours du processus d’optimisation.

 

 

Conditions de participation efficace au processus

 

Participation dès le début du processus

 

            D’après (10), la grandeur de base est :

 

    (21)

 

L’espérance mathématique dépend du positionnement relatif de chaque agent et du nombre d’agents à la fin du processus, et ces données ne peuvent être connues qu’à ce moment. Donc la grandeur de base, qui exprime le niveau de ressource minimal devant être atteint par un agent au moment du déclenchement du processus pour pouvoir y participer efficacement, ne peut être évaluée que rétrospectivement (contrairement à la loi de Richardson appliquée aux longueurs, où la grandeur de base est une distance macroscopique établie dès le départ). C’est ce qui peut faire dire aux agents ayant dû abandonner en cours de route que s’ils avaient su, ils ne s’y seraient pas engagés.


Accès au processus en cours

 

            Dans le cas où un nouveau participant s’engage dans un processus en cours, le niveau minimal xm de ressource nécessaire pour être en mesure d’espérer être encore présent à la fin doit être plus élevé que x0, puisque entre-temps le niveau global aura augmenté. On a :

 

au cours du processus :  ;  à la fin du processus :

 

X est le total des ressources à la fin du processus. Les conditions aux limites sont :

 

 ;  , donc :     (22)

On peut donc exprimer la dimension fractale à un moment quelconque du processus d’une façon plus concrète par :

 

     (23)

 

On peut vérifier que le niveau de ressource xm à tout moment du processus peut aussi s’exprimer en fonction du coefficient α. D’après (14) et (23), on voit que xm est fonction exponentielle de base x0 pour la variable  (ou directement d’après (14) et (22)) :

 

      (24)

 

*est une constante du processus, donc x0 l’est aussi, et β est une grandeur fixée, donc xm est ici fonction de α. Plus α a diminué au cours du processus, plus les agents y participant ont été en mesure de profiter à chaque étape de l’ensemble des ressources du système, si bien que le nouvel entrant doit rattraper son retard. C’est donc là aussi la décroissance de α qui, exprimant la causalité descendante comme contrainte concurrentielle, « met la barre plus haut » pour tout agent arrivant dans un processus en cours.

 

L’avantage technologique

 

Considérons un marché dont le développement implique de réels progrès technologiques, et un ensemble de processus possibles pour ce marché, à un même stade relatif de développement. Donc ici d est un paramètre fixé, et x0 est la variable[52] (rappelons qu’on a toujours x0 > 1). La grandeur de base x0 reflète un niveau d’exigence technologique pour les entrants au démarrage du processus, évaluée rétrospectivement au bout de celui-ci (rel. 21), et peut donc être considérée comme représentative du niveau technologique du processus lui-même.

Dans l’ensemble considéré des processus possibles, les niveaux de ressource des entreprises dont il s’avère qu’elles avaient réellement au départ la capacité minimale à entrer sur le marché, mais qui n’y sont pas entrées, et qui n’ont pas encore fait l’effort de combler leur retard de compétences depuis que le processus a commencé, sont donnés simplement par la droite d’équation f(x0) = x0.

À toute étape de chacun des processus possibles, l’écart entre xm et x0 est d’autant plus important que x0 est grand, c’est-à-dire que le niveau technologique est élevé, et bien sûr cet écart s’accroît au moindre avancement du processus (les courbes représentatives des fonctionsaccentuent leur convexité). Donc plus le marché est d’un niveau technologique élevé, plus ce qui peut sembler n’être qu’un petit retard dans l’entrée sur le marché peut se traduire par de sérieuses difficultés pour les nouveaux entrants. Comparativement, cela offre aux entreprises déjà présentes et au niveau un avantage d’autant plus important, parfois décisif. Cet aspect correspond à ce que l’on appelle l’ε-préemption.[53]

 

 


Interprétation modale

 

Constantes d’instance et constantes de classe

 

Pour chaque contexte initial, puis pour chaque possibilité de déploiement à partir d’un contexte initial donné, il existe des valorisations distinctes déterminant les grandeurs des constantes. On doit donc distinguer deux types de constantes : celles qui sont communes aux processus pouvant se déployer à partir d’un contexte initial donné, et celles dont la valeur n’est valable que pour chaque processus particulier. Par analogie avec la programmation orientée objet, on peut appeler les premières constantes de classe, et les secondes constantes d’instance.[54] Comme dans (20) on ne considère qu’un processus spécifique, ou si l’on préfère un des mondes possibles[55] pouvant se déployer pour un contexte initial donné, les valeurs de l’espérance mathématique, du total des ressources et de l’entropie finale peuvent êtres qualifiées de constantes d’instance relativement à ce contexte initial.

On notera que l’on peut trouver aussi dans l’étude de phénomènes physiques des constantes caractérisant seulement un processus donné, c’est-à-dire des constantes d’instance. Mais, contrairement à la physique, il n’existe pas en économie de constantes universelles (au sens où elles auraient nécessairement la même valeur dans tous les contextes), qui supposeraient l’existence de relations constantes entre des entités définies, relations constantes qui, ainsi que l’écrit von Mises, « n'existent pas dans le champ de l'agir humain »[56]. Le confinement de certaines valorisations à un contexte de base donné, caractérisé par les conditions de développement d’un ensemble de processus potentiels, implique que ce sont les constantes de classe qui devraient dans le formalisme occuper la place que les constantes universelles occupent en physique, tandis que, dans le cadre d’une interprétation modale où l’on prendrait en compte les différentes possibilités d’actualisation à partir du contexte initial considéré, les constantes d’instance joueraient, relativement à cet ensemble, le rôle de variables dont les valeurs devraient s’ajuster par rapport aux constantes de classe.

 

Expression de l’entropie à la fin du processus

 

            On peut dire qu’il y a une égalité entre les deux termes de (20) si on multiplie l’entropie par une grandeur τ (une constante d’instance) supérieure à 1 :

 

     (25)

 

D’après (12), à toute étape du processus, on a :

 

 

La différence entre le premier et le second terme de la première inégalité représente l’accroissement de quantité d’information entre deux étapes. La grandeur de τ dépend donc du différentiel de stratification des quantités d’information aux différentes étapes du processus. Le contexte d’optimisation est ainsi caractérisé non seulement par des valeurs atteintes, mais également par l’importance de la progression informative.

On pose :

 

     (26) 

 

La première proportion exprime que l’entropie finale est proportionnelle au total des ressources à la fin du processus, ce qui rend simplement compte du fait que la situation est d’autant moins hiérarchisée que les ressources disponibles sont importantes.[57] Selon la seconde proportion, le niveau de ressource atteint par un « agent moyen » est proportionnel à la grandeur qui est précisément censée représenter globalement la progression informative au cours du processus.

La définition de l’entropie en thermodynamique est :

 

    (27)

 

k est la constante de Boltzmann, et Ω le nombre de configurations (c’est-à-dire d’états microscopiques possibles pour le système physique considéré). Dans le cas présent, le nombre Y de configurations possibles des ressources à la fin du processus doit être :

 

    (28)

 

De cette façon, en reportant (26) et (28) dans (25), on obtient une expression de l’entropie similaire à (27) :

 

     (29)

 

Mais si l’on admet cette similitude formelle avec la thermodynamique, μ devrait être une constante de proportionnalité entre deux variables qui seraient ici Hf et X, qui précisément ne sont pas des variables mais des constantes. Il faut cependant tenir compte du fait qu’il s’agit de constantes d’instance, que l’on peut considérer comme des variables dans l’ensemble des processus pouvant se déployer à partir d’un contexte initial donné. Autrement dit, relativement à ces possibilités, les constantes d’instance peuvent être requalifiées en tant que variables modales. Et dans la relation (29), μ n’est pas comme en thermodynamique une constante universelle, mais est relative à un ensemble de processus potentiels ayant les mêmes conditions initiales, donc c’est une constante de classe.

 

 

v. 1.6.6 - Copyright © Frédéric Fabre, avril 2017 – m. a. j. janvier 2021

 

Pour citer cet article :

 

Fabre, F. (2017), La répartition fractale des entreprises en concurrence, http://www.dblogos.net/er/repartition_des_entreprises_en_concurrence.pdf

 



[1] Jean Perrin, Les atomes, Paris, Gallimard, 1970, p. 11-22.

[2] Pour le cas des colloïdes, cf. par ex. Rémi Julien, Robert Boter et Max Kolb, Les agrégats, in La Recherche n° 171, novembre 1985, p. 1334-1343.

[3] Cf. Benoît Mandelbrot, Les objets fractals, Ch. II, Combien mesure donc la côte de Bretagne ?, Paris, Flammarion, 1989, p. 21 sqq.

[4] Cf. Benoît Mandelbrot et Richard L. Hudson, Une approche fractale des marchés, trad. Marcel Filoche,  Paris, Odile Jacob, 2009, p. 149.

[5] Cf. Bernard Sapoval, Universalités et fractales, Paris, Flammarion, 1997, p. 70-72.

[6] Il existe d’autres formulations, toutes équivalentes, de la loi de Richardson.

[7] Ibid, p. 72.

[8] Cf. Michel Forsé, L’ordre improbable, Entropie et processus sociaux, Paris PUF, 1989, p. 190-195.

[9] Ibid., p. 191.

[10] Gérard Radnitzsky, La perspective économique sur le progrès scientifique, in Entre Wittgenstein et Popper, Paris, Vrin, 1987, p. 179.

[11] Michel Forsé, op. cit., p. 192.

[12] Cf. Philipe Herlin, Repenser l’économie, Paris, Eyrolles, 2012, p. 152-155.

[13] Ibid., p. 245-246.

[14] Cf. par ex. Robert, A & Roy, A. G. (1993). La modélisation fractale et la variabilité spatiale des phénomènes naturels. Géographie physique et quaternaire, 47 (1), 3-19, https://doi.org/10.7202/032928ar, p. 13.

[15] René Passet, Les grandes représentations du monde et de l’économie à travers l’histoire, Arles, Actes Sud, 2012, p. 415.

[16] Cette zone optimale comprend certes une limite supérieure, mais aussi une limite inférieure en deçà de laquelle le produit ne sera pas crédible. Sur ce point, cf. Armand Dayan, Le marketing, Paris, PUF, 1976, p. 107-108.

[17] Théo Kahan, Physique théorique, Tome Premier, Volume 2, Paris, PUF, 1960, p. 591.

[18] Sur le modèle de Romer, cf. par ex. Dominique Guellec, Croissance endogène : les principaux mécanismes, in Économie & prévision n° 106, 1992-5, Développements récents de la macro-économie, p. 42 ; v. également Arnaud Mayeur, Macroéconomie, Paris, Nathan, 2011, p. 316-317.

[19] Cf. Daniel Zajdenweber, Economie des extrêmes, Paris, Flammarion, 2009, p. 119.

[20] Cf. A. R. François, Manuel de marketing, Paris, Editions d’organisation, 1973, p. 30 ; v. également Armand Dayan, op. cit., p. 65-67.

[21] Cf. Olivier Costa de Beauregard, Déterminisme et indéterminisme, in Science et synthèse, ouvrage collectif, Paris, Gallimard, 1967, p. 257.

[22] Cf. Gilles Gaston Granger, Langages et épistémologie, Paris, Klincksieck, 1979, p. 119.

[23] Cf. Jean-Baptiste Say, Cours à l’Athénée, 1819, in Cours d’économie politique, Paris, Flammarion, 1996, p. 102.

[24] Cf. David Ricardo, Des principes de l’économie politique et de l’impôt, 1821, trad. Cécile Soudan, Paris, Flammarion, 1992, p. 52-53.

[25] Cf. ibid, p. 455-456 (Notes de Jean-Baptiste Say).

[26] Cf. Adam Smith, Recherche sur la nature et les causes de la richesse des nations, 1776, trad. Germain Garnier et Adolphe Blanqui, Volume I, Paris, Flammarion, 1991, p. 100.

[27] Cf. Karl Marx, Le Capital, Livre I, 1867, édition établie par Maximilien Rubel, Paris, Gallimard, 2009, p. 178-179.

[28] Cf. par ex. Edgar Morin, Messie, mais non, in Épistémologie entre complexité et simplexité, vol. 1, collectif sous la direction de Charles Zacharie Bowao et Marcel Nguimbi, Paris, L’Harmattan, 2015, p. 17.

[29] Paul Idatte, Clefs pour la cybernétique, Paris, Seghers, 1969, p. 98-99.

[30] Cf. Michel Forsé, op. cit., p. 195.

[31] Sur ce point, cf. Giorgio Israel, La mathématisation du réel, Essai sur la modélisation mathématique, Paris, Éditions du Seuil, 1996, p. 228-230.

[32] Mioara Mugur-Schächter, Les leçons de la mécanique quantique : vers une épistémologie formelle, Manifeste de ceSef, p. 2 (Le Débat n° 94, mars-avril 1997).

[33] Cf. Jaegwon Kim, Trois essais sur l’émergence, trad. Mathieu Mulcey, Paris, Ithaque, 2006.

[34] Karl Popper, Le soi et son cerveau, 1977, trad. Daniel Pimbé et Stéphane Leclercq, Paris, Éditions Rue d’Ulm/Presses de l’École Normale Supérieure, 2018, p. 125.

[35] Cf. ibid., p. 159-160.

[36] Edgar Morin, Au-delà du déterminisme : le dialogue de l’ordre et du désordre, in La querelle du déterminisme, dossier réuni par Krzysztof Pomian, Paris, Gallimard, 1990, p. 84.

[37] Cf. Pascal Frion, Infodictat, Nantes, Acrie Éditions, 2017, p. 59.

[38] Sur ce point, cf. Daniel Kahneman, Système 1 / Système 2 : les deux vitesses de la pensée, 2011, trad. Raymond Clarinard, Paris, Flammarion, 2016, Ch. 23, La vision externe, p. 378-393.

[39] Nassim Nicholas Taleb, Le cygne noir, trad. Christine Rimoldy, Paris, Les Belles Lettres, 2008, p. 294.

[40] Cf. Karl Popper, L’univers irrésolu, 1984, trad. W. W. Bartley III, Paris, Hermann,  1986, p. 58-65.

[41] Ibid., p. 65.

[42] Ilya Prigogine et Isabelle Stengers, La nouvelle alliance, Paris, Gallimard, 1986, p. 20.

[43] Seymour Papert, Remarques sur la finalité, in Logique et connaissance scientifique, Encyclopédie de la Pléiade, ouvrage collectif sous la direction de Jean Piaget, Paris, Gallimard, 1967, p. 847.

[44] Cf. Mioara Mugur-Schächter, op. cit., p. 2.

[45] Paulette Marquer, La sociologie, in Histoire de la science, ouvrage collectif sous la direction de Maurice Daumas, Paris, Gallimard, Encyclopédie de la Pléiade, 1957, p.1587.

[46] Cf. Florence Martin-Robine, Histoire du principe de moindre action, Paris, Vuibert, 2006, p. 113.

[47] Cf. Bernard Guerrien, Y a-t-il une science économique ?, Alternatives économiques, L’économie politique, 2004/2 n° 22, p. 98.

[48] Laurent Nottale, La relativité dans tous ses états, Paris, Hachette, 1998, p. 182.

[49] Cf. Mario Bunge, Technologie et philosophie, in Epistémologie,  trad. Hélène Donadieu, Paris, Maloine, 1983, p. 222.

[50] Cf. Philippe Herlin, op. cit., p. 156-158.

[51] Cf. Michel Forsé, op. cit., Ch. VIII, Applications du modèle, p. 233-246.

[52] Ces aspects seront précisés à la section suivante.

[53] Cf. Christine Halmenschlager, Une entreprise peut-elle rattraper son retard technologique ? Quelques éléments de réponse en économie de l’innovation, Revue d’économie politique, Dalloz, 2012/1 Vol. 122, p. 11.

[54] Rappelons que la programmation orientée objet a été initialement conçue dans le but de développer des logiciels de simulation ; il est donc naturel de transposer certains de ses concepts dans un champ de l’économie où l’on envisage différentes possibilités.

[55] Puisqu’on ne fait ici que prendre en compte des situations contrefactuelles, selon l’approche développée par Kripke les mondes possibles évoqués sont seulement « stipulés » - cf. Saul Kripke, La logique des noms propres, 1972, trad. Pierre Jacob et François Recanati, Paris, Editions de Minuit, 1982, p. 32.

[56] Ludwig von Mises, L’action humaine, 1940, Paris, Institut Coppet, 2011, p. 64.

[57] Cf. Michel Forsé, op. cit., p. 191.