<h2>Introduction</h2>
<p align="justify" class="western">Le terme modèle est polysémique. La littérature scientifique et les débats épistémologiques présentent une multiplicité de concepts et d'emploi en fonction de l'époque et du contexte disciplinaire. Mais une loi interroge avec singularité la notion de modèle: la loi de Zipf. Elle est présente dans de nombreuses disciplines sans forcément avoir de lien avec les objets d'étude historique qui sont le texte contenu dans un document ou l'observation démographique. Elle couvre de nombreux domaines et invite à s'interroger sur sa genèse et sa persistance. D'un point de vue historique, l'oeuvre de Zipf est avant tout une quête d'universalité dans une tentative de définir un cadre théorique autour du principe du moindre effort. Si ce dernier ne propose aucune formalisation à travers une mathématisation, la loi de Zipf n'entre pas explicitement dans ce cadre théorique. Elle repose avant tout sur l'expérimentation qui conduit à un triptyque autour de la modélisation: l'expérimentation, la prise en compte du contexte et la formalisation, c'est-à-dire sa mathématisation. Sur ce dernier point, nous verrons que la discussion autour des paramètres est une caractéristique invitant aux débats autour des modèles Zipfiens.</p>
<p align="justify" class="western">S'il est commun de définir le modèle comme une représentation partielle du monde, nous avons choisi une approche plus réflexive en prônant le modèle comme une représentation cognitive de ce monde. Le modèle serait alors une invitation au dialogue pour mieux les comprendre à travers le langage commun des mathématiques. Pour cela, nous proposons une représentation des modèles Zipfiens à travers une formalisation mathématique commune afin de mieux appréhender l'intelligibilité des modèles. Rendre ces modèles intelligibles permet de mieux en saisir les notions et les concepts sous-jacents et de produire des représentations partagées des modèles Zipfiens. D'un point de vue épistémologique, si la fonction d'intelligibilité des modèles ne pose pas ici débat, le principe de rationalité mérite une plus grande attention. En effet, ce principe suppose une formalisation de l'observable. Pourtant à un même phénomène Zipfien, plusieurs modèles se sont construits, co-construit voir confrontés. La controverse entre Mandelbrot et Simon à travers une série d'articles a produit une discussion argumentée avec des éléments divergents montrant l'importance du contexte.</p>
<p align="justify" class="western"><font style="font-size:12pt"><font size="3">Les premiers travaux historiques sont une approche numérique reposant sur une analyse quantitative de la textualité. L’étude numérique des données produites conduit à s’intéresser aux phénomènes de régularité, non seulement à travers les textes, mais dans les différents domaines de la connaissance. La première partie de cet article portera d’une part sur la multidisciplinarité de cette loi à travers une étude bibliométrique, et d’autre part, sur l’étude des variations lexicales des énoncés de la loi de Zipf à travers les titres des articles scientifiques provenant des métadonnées du WoS et de Scopus. Une deuxième partie permet de mieux cerner la frontière entre loi et modèles. La loi de Zipf et les trois modèles historiques explicatifs Zipfiens sont présentés avec un formalisme mathématique commun. Cela amène une discussion autour du coefficient « beta » de la loi qui s’apparente à une constante (voisine de 1) lors des expérimentations. Cette constante se calcule différemment suivant les modèles. Cette diversité d’approches amène une troisième partie à faire dialoguer les modèles. Tout d’abord, la présentation d’une polémique entre Simon et Mandelbrot permet de mieux comprendre par la suite les débats toujours actuels autour de la loi. En effet très souvent, du fait de la multidisciplinarité, la nature de l’objet étudié est imprécise. Enfin les nouvelles perspectives induites par cette loi sont ensuite présentées. </font></font>La loi de Zipf interpelle aussi bien dans le domaine des lois de la nature que dans les sciences humaines et sociales. Aussi nous conclurons sur une réflexion autour des notions de loi et de modèles en science humaine et sociale.</p>
<h2 class="western"><span style="line-height:100%"><font style="font-size:18pt"><font size="5"><b>Etudes autour de la loi de Zipf : une loi multidisciplinaire et polysémique</b></font></font></span></h2>
<h3 class="western"><font style="font-size:14pt"><font size="4">La multidisciplinarité de la</font></font> loi de Zipf : étude bibliométrique des publications</h3>
<p align="justify" class="western">Bertin, M., & Lafouge, T. (2020) montrent dans le tableau 1, un taux de production croissant dans les différents domaines scientifiques. Cela est dû principalement au développement technologique qu'est l'informatique et qui facilite les expérimentations.</p>
<p align="justify" class="western"> </p>
<p align="justify" class="western"><img src="https://www.numerev.com/img/ck_973_17_image-20220116183338-1.png" style="width: 900px; height: 436px;" /></p>
<p style="text-align: center;">Tableau 1 : Évolution et Pluridisciplinarité</p>
<p align="justify" class="western">La synthèse bibliométrique produite par l’interrogation de la banque de données internationale Scopus rapatrie 350 documents publiés dans 159 titres de revue durant la période 1968-2018. <font style="font-size:12pt"><font size="3">E</font></font>lle témoigne de la vitalité de cette loi surprenante qui perdure aujourd’hui encore dans de nombreux travaux académiques de diverses disciplines. Elle présente l’évolution dans le temps, découpée en plage de cinq ans, et l’intérêt des différentes disciplines durant cette période. Les espaces sombres présentent un continuum pour une discipline donnée. Si la loi de Zipf présente ici une part d’études plus importante dans le domaine des sciences et techniques, les sciences sociales lui portent également un intérêt avec de nombreuses publications. Dans le domaine des SHS, ce sont les sciences sociales, à l’image des mathématiques, qui ont une tradition dans l’étude de cette loi.</p>
<div id="sdfootnote1">
<h3 align="justify" class="sdfootnote-western" style="margin-bottom: 13px;"> <font style="font-size:14pt"><font size="4"><b>Polysémie Zipfienne : étude</b></font></font> autour de la variation lexicale des titres d’articles scientifiques</h3>
</div>
<p align="justify" class="western">Nous présentons ici le résultat d'une étude portant sur les contextes Zipfiens <font face="Liberation Serif, serif"><font style="font-size:12pt"><font size="3">à partir du </font></font></font>WoS et de Scopus pour la période 1970-2020. Nous avons vu la notion de modèle émerger dans les titres, avec une première occurrence en 1982 et une présence plus régulière dans la littérature à partir de ce moment-là, comme le montre le tableau <font style="font-size:12pt"><font size="3">2</font></font>.</p>
<p align="justify" class="western"><img src="https://www.numerev.com/img/ck_973_17_image-20220116183548-2.png" style="width: 800px; height: 415px;" /></p>
<p style="text-align: center;">Tableau 2 : Émergence des modèles zipfiens dans les titre</p>
<p align="justify" class="western">Cette étude souligne la complexité de citer la loi de Zipf dans le cadre d'une étude bibliométrique, puisque de nombreux travaux la comparent à d'autres lois, telle que celles de Gibrat, Heap, Taylor, Pareto, Boltzmann, Menzerath, Benford, … Ces résultats sont montrés dans le tableau <font style="font-size:12pt"><font size="3">3</font></font>. Parfois, le terme "law" est remplacé par d'autres mots tels que "entropy", "power law", "rule", "rank approach", "distribution, analysis", "exponent", "world", "ensemble", "strategy" , "scaling behavior, approach". Nous avons également trouvé des formes d'analogie, comme dans “A Zipf’s Curve Approach”.</p>
<h2><img src="https://www.numerev.com/img/ck_973_17_image-20220116183627-3.png" style="width: 800px; height: 611px;" /></h2>
<p class="western" style="text-align: center;"><font style="font-size:12pt"><font size="3">Tableau 3 : </font></font> Concepts zipfiens dans la littérature scientifique basés sur la variation terminologique des titres</p>
<p align="justify" class="western">Enfin, le tableau <font style="font-size:12pt"><font size="3">4</font></font> montre que la nature même de la loi est relativisée par l'utilisation du suffixe "like", qui apparaît également dans les titres.</p>
<h2><img src="https://www.numerev.com/img/ck_973_17_image-20220116183721-4.png" style="width: 800px; height: 270px;" /></h2>
<p class="western" style="text-align: center;"><font style="font-size:12pt"><font size="3">Tableau 4 :</font></font> <font style="font-size:12pt"><font size="3">Articles</font></font> présent<font style="font-size:12pt"><font size="3">ant</font></font> "Zipf-like" dans les titres</p>
<p align="justify" class="western"><font style="font-size:12pt"><font size="3">La loi de Zipf est une loi pluridisciplinaire qui a su perdurer dans le temps et présente une forme de résilience. Dans de nombreuses disciplines, des comportements Zipfiens interpellent les chercheurs. Ces dernières années, la loi de Zipf présente des variations dans l’expression de ses énoncés. Une incertitude s’exprime à travers Zipf-like où les expérimentations identifient des phénomènes se comportant comme des distributions Zipfiennes. Un autre aspect qui interpelle sont les concepts mobilisés. Il peut s’agir d’entropie, de loi puissance ou d’échelles scalables. Certains articles cités ont des approches plus larges où stratégie et mondialisation sont de mises. </font></font></p>
<h2>3 Loi de Zipf et les principaux modèles Zipfiens</h2>
<h3>L'origine de la loi de Zipf</h3>
<p align="justify" class="western">La loi de Zipf énoncée en 1949 (Zipf, G. K. (1949)) sur les régularités statistiques de la langue, est une loi surprenante à plus d’un titre. Elle véhicule de nombreuses origines tout en alimentant plusieurs controverses. Résiliente dans le temps, elle s’applique à divers champs disciplinaires en présentant par essence un aspect pluridisciplinaire (Bertin, M. & Lafouge, T. (2020)). Modélisation mathématique partant d’une énonciation du principe du moindre effort pour certains, observations d’ingénieur pour d’autres (Condon, E. U. (1928)), elle est interrogée sur son sens, sa nature en tant que loi, ainsi que sur la portée de son universalité.</p>
<p>À l'origine l'énoncé mathématique de cette loi met en exergue les régularités statistiques des mots dans un texte. Si les mots du texte sont classés par rang (noté <img alt="r" src="https://latex.codecogs.com/gif.latex?r" />) de fréquence décroissante, la relation suivante est vérifiée :</p>
<p><img alt="egin{equation} p_{r}= frac {K} {r^{eta}} quad r =1 dots V quad eta > 0 ~~~~~~~~~~~~ (1)end{equation}" src="https://latex.codecogs.com/gif.latex?%5Cbegin%7Bequation%7D%20p_%7Br%7D%3D%20%5Cfrac%20%7BK%7D%20%7Br%5E%7B%5Cbeta%7D%7D%20%5Cquad%20r%20%3D1%20%5Cdots%20V%20%5Cquad%20%5Cbeta%20%3E%200%20%7E%7E%7E%7E%7E%7E%7E%7E%7E%7E%7E%7E%20%281%29%5Cend%7Bequation%7D" /></p>
<p><img alt="p_{r}" src="https://latex.codecogs.com/gif.latex?p_%7Br%7D" /> est la probabilité d'occurence du mot de rang <img alt="r" src="https://latex.codecogs.com/gif.latex?r" />, l'exposant <img alt="eta" src="https://latex.codecogs.com/gif.latex?%5Cbeta" /> est voisin de 1, <img alt="V" src="https://latex.codecogs.com/gif.latex?V" /> est égal à la taille du lexique, et <img alt="K" src="https://latex.codecogs.com/gif.latex?K" /> est une constante de normalisation.</p>
<p>La validation de la loi s’inscrit alors dans une démarche classique des statistiques en Sciences Humaines et Sociales (Bressoux, P. (2010)) qui consiste chaque fois que les données s’y prêtent à construire, puis ajuster une distribution empirique par une distribution théorique encore appelée loi de probabilité qui permet d’ajuster un phénomène observable et intemporel. De très nombreuses expérimentations ont été menées sur des textes de types variés, de différents genres (roman, essai, théâtre…) de différents auteurs (textes écrits), ou locuteurs (textes énoncés), dans de nombreuses langues.</p>
<h3>Les modèles explicatifs historiques</h3>
<p>Les trois modèles explicatifs historiques de la loi de Zipf sont présentés chronologiquement:</p>
<ol>
<li>
<p>le modèle communicationnel (1952);</p>
</li>
<li>
<p>le modèle stochastique (1955);</p>
</li>
<li>
<p>le modèle graphométrique (1957).</p>
</li>
</ol>
<p>Les modèles graphométriques et communicationnels ont pour seul objectif d'expliquer cette loi. Le modèle stochastique est plus général. Les trois sont des modèles mathématiques. Nous mettons dans ce paragraphe l'accent sur les concepts sous-jacents en formulant à minima le développant mathématique nécessaire pour mieux les appréhender.</p>
<h4>Modèle communicationnel</h4>
<p>En 1952 dans sa thèse de doctorat (Mandelbrot, B. (1952)), Mandelbrot<sup><font style="font-size:9pt"><font size="2">1</font></font></sup> précise sa position épistémologique sur la langue en s’inscrivant dans la continuité des travaux du linguiste suisse Ferdinand De Saussure. Il souhaite alors élargir sa théorie. Il considère la langue comme une séquence aléatoire d’entités concrètes, et propose une estimation des probabilités de celles-ci.</p>
<p>Il préconise une simplification extrême de la langue, nécessaire selon lui, pour utiliser en linguistique des notions mathématiques. Il postule que les nombreuses études faites par Zipf sur les distributions confirment quantitativement l’hypothèse de De Saussure sur la langue : elle peut être perçue comme une construction d’une suite de mots. Néanmoins il pense que De Saussure va trop loin dans sa construction et néglige l’adaptation du message à son support lors de sa transmission. Les travaux de Zipf sur l'origine de la loi stipulent qu’il existe un compromis entre les efforts du locuteur et celui de l'auditeur lors d'un processus de communication. Cette hypothèse est souvent formulée avec le principe du moindre effort qui historiquement est lié à cette loi (Chang, Y.-W. (2016)). </p>
<p>Mandelbrot<em> </em>le premier en 1953 (voir Mandelbrot B. (1953)) traduit mathématiquement cette hypothèse en s'appuyant sur la théorie de l'information de Shannon. L’idée qui préside à ce modèle est que les mots de faible longueur sont plus fréquents, idée émise déjà par Zipf, car ils nécessitent moins d’effort pour le locuteur. Il traduit cette hypothèse en minimisant <img alt="C" src="https://latex.codecogs.com/gif.latex?C" /> le coût moyen, soit la quantité moyenne d'effort par unité d’information :</p>
<p><br />
<img alt="egin{equation} C =frac{Ef}{Ht} ~~~~~~~~~~~~ (2)end{equation}" src="https://latex.codecogs.com/gif.latex?%5Cbegin%7Bequation%7D%20C%20%3D%5Cfrac%7BEf%7D%7BHt%7D%20%7E%7E%7E%7E%7E%7E%7E%7E%7E%7E%7E%7E%20%282%29%5Cend%7Bequation%7D" /></p>
<p>où <img alt="Ef" src="https://latex.codecogs.com/gif.latex?Ef" /> est la quantité d’effort nécessaire pour coder/décoder, c’est à dire communiquer, et <img alt="Ht" src="https://latex.codecogs.com/gif.latex?Ht" /> l’entropie de la distribution des fréquences des mots du texte c’est-à-dire la quantité d’information du message. Si <img alt="p_{r}" src="https://latex.codecogs.com/gif.latex?p_%7Br%7D" /> désigne la probabilité d’un mot de rang <img alt="r" src="https://latex.codecogs.com/gif.latex?r" />, il définit ces deux quantités par les équations :</p>
<p><img alt="egin{equation} Ht= sum _{r=1}^{r=V} p_{r}. log ( p_{r}) ~~~~~~~~~~~~ (3)end{equation}" src="https://latex.codecogs.com/gif.latex?%5Cbegin%7Bequation%7D%20Ht%3D%20%5Csum%20_%7Br%3D1%7D%5E%7Br%3DV%7D%20p_%7Br%7D.%20%5Clog%20%28%20p_%7Br%7D%29%20%7E%7E%7E%7E%7E%7E%7E%7E%7E%7E%7E%7E%20%283%29%5Cend%7Bequation%7D" /></p>
<p><img alt="egin{equation} Ef= sum _{r=1}^{r=V} p_{r}. log_{M} (r) ~~~~~~~~~~ (4)end{equation}" src="https://latex.codecogs.com/gif.latex?%5Cbegin%7Bequation%7D%20Ef%3D%20%5Csum%20_%7Br%3D1%7D%5E%7Br%3DV%7D%20p_%7Br%7D.%20%5Clog_%7BM%7D%20%28r%29%20%7E%7E%7E%7E%7E%7E%7E%7E%7E%7E%20%284%29%5Cend%7Bequation%7D" /></p>
<p>où <img alt="log_{M}" src="https://latex.codecogs.com/gif.latex?%5Clog_%7BM%7D" /> est le logarithme de base <img alt="M" src="https://latex.codecogs.com/gif.latex?M" />. <img alt="M" src="https://latex.codecogs.com/gif.latex?M" /> est le nombre de caractères hormis les séparateurs. Son hypothèse le conduit à calculer<sup><font style="font-size:9pt"><font size="2">2</font></font></sup> l'exposant <img alt="eta" src="https://latex.codecogs.com/gif.latex?%5Cbeta" /> de la loi :</p>
<p><img alt="egin{equation} eta =frac{Ht} {Ef}~~~~~~~~~~~~ (5)end{equation}" src="https://latex.codecogs.com/gif.latex?%5Cbegin%7Bequation%7D%20%5Cbeta%20%3D%5Cfrac%7BHt%7D%20%7BEf%7D%7E%7E%7E%7E%7E%7E%7E%7E%7E%7E%7E%7E%20%285%29%5Cend%7Bequation%7D" /></p>
<p>label{beta}</p>
<h4>Modèle Stochastique</h4>
<p>En 1955 Simon<sup><font style="font-size:9pt"><font size="2">3</font></font></sup><sup> </sup>(Simon, H. A. (1955)) publie un article sur une classe singulière de distributions statistiques dans des domaines variés : linguistique, scientométrie, géographie, économie, biologie. Ces distributions ont une forme caractéristique de J renversé avec une longue traîne. Il cite cinq exemples célèbres :</p>
<ul>
<li>
<p>distributions des mots dans les textes;</p>
</li>
<li>
<p>distributions des articles des chercheurs, appelée loi de Lotka en scientométrie (Lotka, A. J. (1926));</p>
</li>
<li>
<p>distributions des habitants dans les villes en géographie, observées par (Auerbach, F. (1913)) dès 1913;</p>
</li>
<li>
<p>distributions du montant des salaires en économie, appelée loi Pareto en économie (De Pareto, V. (1895));</p>
</li>
<li>
<p>distributions des gènes dans les espèces en biologie (Good, I. J. (1953)<sup>4</sup>).</p>
</li>
</ul>
<p><br />
Elles sont dans des domaines différents, et n’ont pas de point commun, hormis leurs caractéristiques statistiques. Il fait l’hypothèse que ces distributions empiriques ont pour densité une fonction puissance inverse :<br />
<br />
<img alt="egin{equation} p_{f} = frac{H} {f^{alpha}} quad f=1,2 dots quad alpha >1 ~~~~~~~~~~~~ (6)end{equation}" src="https://latex.codecogs.com/gif.latex?%5Cbegin%7Bequation%7D%20p_%7Bf%7D%20%3D%20%5Cfrac%7BH%7D%20%7Bf%5E%7B%5Calpha%7D%7D%20%5Cquad%20f%3D1%2C2%20%5Cdots%20%5Cquad%20%5Calpha%20%3E1%20%7E%7E%7E%7E%7E%7E%7E%7E%7E%7E%7E%7E%20%286%29%5Cend%7Bequation%7D" /></p>
<p>où pour la distribution des mots, <img alt="p_{f}" src="https://latex.codecogs.com/gif.latex?p_%7Bf%7D" /> est la probabilité d'occurrence d'un mot de fréquence <img alt="f" src="https://latex.codecogs.com/gif.latex?f" />.</p>
<p>La formule mathématique de la loi de Zipf inscrit celle-ci dans cette classe de distributions. Néanmoins si les formules autour de la loi de Zipf et la formulation de Simon sont toutes les deux des puissances inverses leurs écritures sont différentes, elles sont équivalentes uniquement pour les fréquences élevées. Dans ce cas on a la relation :</p>
<p><img alt="egin{equation} eta approx frac{1}{alpha -1} ~~~~~~~~~~~~ (7)end{equation}" src="https://latex.codecogs.com/gif.latex?%5Cbegin%7Bequation%7D%20%5Cbeta%20%5Capprox%20%5Cfrac%7B1%7D%7B%5Calpha%20-1%7D%20%7E%7E%7E%7E%7E%7E%7E%7E%7E%7E%7E%7E%20%287%29%5Cend%7Bequation%7D" /></p>
<p>Simon construit un modèle générique pour expliquer ce type de distribution : il choisit la distribution des mots, un exemple comme un autre selon lui. La langue n'a pas de caractère spécifique. C'est une construction sociale comme une autre. Il s'inspire des travaux du statisticien Yule (Yule , G. U. (1925).) précurseur de la théorie des processus stochastiques. Il utilise une variante de la théorie de l'évolution "so called birth or birth and death". Il considère le texte comme une succession de mots produits au cours du temps, les uns après les autres. Il fait deux hypothèses :</p>
<ul>
<li>
<p>la première concerne la réutilisation d’un mot. Après avoir produit <img alt="k" src="https://latex.codecogs.com/gif.latex?k" /> mots, il suppose que la probabilité que le (k+1)<sup>ème</sup> mot produit ait une fréquence <img alt="f" src="https://latex.codecogs.com/gif.latex?f" />, soit proportionnelle au nombre total d’occurrences des <img alt="k" src="https://latex.codecogs.com/gif.latex?k" /> mots précédents de fréquence <img alt="f" src="https://latex.codecogs.com/gif.latex?f" />. </p>
</li>
<li>
<p>la deuxième hypothèse stipule qu’il existe une probabilité constante que le (k+1)<sup>ème</sup> mot soit nouveau, c’est à dire non apparu dans les <img alt="k" src="https://latex.codecogs.com/gif.latex?k" /> premiers.</p>
</li>
</ul>
<p>Ces deux hypothèses décrivent un processus où la probabilité qu’un mot apparaisse dans le texte dépend des mots qui sont antérieurement présents. Simon va alors calculer<sup><font style="font-size:9pt"><font size="2">5</font></font></sup> le paramètre <img alt="alpha" src="https://latex.codecogs.com/gif.latex?%5Calpha" /> et donc <img alt="eta" src="https://latex.codecogs.com/gif.latex?%5Cbeta" />:</p>
<p><img alt="egin{equation} eta =1-frac{V}{T} ~~~~~~~~~~~~ (8)end{equation}" src="https://latex.codecogs.com/gif.latex?%5Cbegin%7Bequation%7D%20%5Cbeta%20%3D1-%5Cfrac%7BV%7D%7BT%7D%20%7E%7E%7E%7E%7E%7E%7E%7E%7E%7E%7E%7E%20%288%29%5Cend%7Bequation%7D" /></p>
<p>où <img alt="V" src="https://latex.codecogs.com/gif.latex?V" /> est la taille du lexique et <img alt="T" src="https://latex.codecogs.com/gif.latex?T" /> le nombre total de mots du texte.</p>
<h4>Modèle graphométrique</h4>
<p align="justify">L’argument d’optimisation de Mandelbrot pour expliquer la loi de Zipf a été très vite contesté. Le simple fait de trouver un mécanisme convaincant pour expliquer une loi ne signifie pas qu’il n’y ait pas d’autres modèles explicatifs. En d’autres termes s’agit-il d’une loi statistique très générale, en rien spécifique au langage naturel ?</p>
<p>Dès 1957 <em>Miller</em> soulève la question. Il imagine (Miller, G. A. (1957)) un singe tapant au hasard sur une machine à écrire comportant <img alt="M" src="https://latex.codecogs.com/gif.latex?M" /> touches. Il suppose que toutes les touches du clavier, hormis la touche chariot, ont la même chance d’être tapées au hasard.<br />
Il note <img alt="
u" src="https://latex.codecogs.com/gif.latex?%5Cnu" /> cette probabilité on a :</p>
<p><img alt="
u < displaystyle frac{1}{M}" src="https://latex.codecogs.com/gif.latex?%5Cnu%20%3C%20%5Cdisplaystyle%20%5Cfrac%7B1%7D%7BM%7D" /></p>
<p>La probabilité d’écrire un mot de longueur <img alt="L" src="https://latex.codecogs.com/gif.latex?L" /> est alors une loi géométrique :</p>
<p><img alt="egin{equation} P(L) = (1-M.
u) (M.
u)^{L} quad L=0,1,2 dots ~~~~~~~~~~~~ (9)end{equation}" src="https://latex.codecogs.com/gif.latex?%5Cbegin%7Bequation%7D%20P%28L%29%20%3D%20%281-M.%5Cnu%29%20%28M.%5Cnu%29%5E%7BL%7D%20%5Cquad%20L%3D0%2C1%2C2%20%5Cdots%20%7E%7E%7E%7E%7E%7E%7E%7E%7E%7E%7E%7E%20%289%29%5Cend%7Bequation%7D" /></p>
<p>Un texte est la juxtaposition de caractères occupant chacun le même espace. C’est une suite de mots de longueur <img alt="L" src="https://latex.codecogs.com/gif.latex?L" /> variable, séparés par un caractère spécifique. Supposons que les mots soient classés par rang de fréquences décroissantes comme le fait Zipf.</p>
<p>Si <img alt="L=2" src="https://latex.codecogs.com/gif.latex?L%3D2" /> le rang <img alt="r" src="https://latex.codecogs.com/gif.latex?r" /> d’un tel mot vérifie alors l’inégalité:<br />
<img alt="M<r<M+M^2." src="https://latex.codecogs.com/gif.latex?M%3Cr%3CM+M%5E2." /><br />
Plus généralement si <img alt="r(L)" src="https://latex.codecogs.com/gif.latex?r%28L%29" /> désigne le rang d’un mot de longueur <img alt="L" src="https://latex.codecogs.com/gif.latex?L" /> on a l’inégalité :</p>
<p><img alt="egin{equation} M+M^{2} dots M^{L-1}<r(L)<M+M^2 + dots M{^L} ~~~~~~~~~~~~ (10)end{equation}" src="https://latex.codecogs.com/gif.latex?%5Cbegin%7Bequation%7D%20M&plus;M%5E%7B2%7D%20%5Cdots%20M%5E%7BL-1%7D%3Cr%28L%29%3CM&plus;M%5E2%20&plus;%20%5Cdots%20M%7B%5EL%7D%20%7E%7E%7E%7E%7E%7E%7E%7E%7E%7E%7E%7E%20%2810%29%5Cend%7Bequation%7D" /></p>
<p>Soit un mot quelconque <img alt="w" src="https://latex.codecogs.com/gif.latex?w" /> de rang <img alt="r(w)" src="https://latex.codecogs.com/gif.latex?r%28w%29" />, Miller déduit<sup><font style="font-size:9pt"><font size="2">6</font></font></sup> des équations <strong><span style="font-weight:normal">(9) et (10)</span></strong> le résultat (voir <font face="Liberation Serif, serif">Miller, G. A. (1957))</font> :</p>
<p><img alt="egin{equation} p(w)= frac{k}{(b +r(w))^{eta} } ~~~~~~~~~~~~ (11)end{equation}" src="https://latex.codecogs.com/gif.latex?%5Cbegin%7Bequation%7D%20p%28w%29%3D%20%5Cfrac%7Bk%7D%7B%28b%20&plus;r%28w%29%29%5E%7B%5Cbeta%7D%20%7D%20%7E%7E%7E%7E%7E%7E%7E%7E%7E%7E%7E%7E%20%2811%29%5Cend%7Bequation%7D" /></p>
<p>où <img alt="k" src="https://latex.codecogs.com/gif.latex?k" /> et <img alt="b" src="https://latex.codecogs.com/gif.latex?b" /> sont des constantes, et l’exposant est :</p>
<p><img alt="egin{equation} eta =-frac{log(
u)}{log(M)} ~~~~~~~~~~~~ (12)end{equation}" src="https://latex.codecogs.com/gif.latex?%5Cbegin%7Bequation%7D%20%5Cbeta%20%3D-%5Cfrac%7B%5Clog%28%5Cnu%29%7D%7B%5Clog%28M%29%7D%20%7E%7E%7E%7E%7E%7E%7E%7E%7E%7E%7E%7E%20%2812%29%5Cend%7Bequation%7D" /></p>
<p>On remarquera que l’équation <strong><span style="font-weight:normal">(11) est différente de l'équation</span></strong><strong> (</strong><strong><span style="font-weight:normal">1)</span></strong><strong> </strong>puisque l'on a fait une translation de <img alt="b" src="https://latex.codecogs.com/gif.latex?b" /> sur le rang. En fait la loi de Zipf est énoncée sous cette forme par Mandelbrot dès 1952. On aura compris que dans ce modèle c’est la combinaison de la graphie qui est en jeu et non directement la langue.</p>
<h3>Le paramètre <strong><img alt="eta" src="https://latex.codecogs.com/gif.latex?%5Cbeta" /></strong></h3>
<p>Cette loi singulière est caractérisée par un seul paramètre, l’exposant <img alt="eta" src="https://latex.codecogs.com/gif.latex?%5Cbeta" /> de la distribution (rang fréquence). Il a attiré l'attention des chercheurs. Il ne faut pas oublier que Zipf a proposé initialement dans son ouvrage la simple relation où <img alt="eta" src="https://latex.codecogs.com/gif.latex?%5Cbeta" /> est absent (c'est-à-dire égal à un).</p>
<p><img alt="r.f = K quad r=1,2 dots quad" src="https://latex.codecogs.com/gif.latex?r.f%20%3D%20K%20%5Cquad%20r%3D1%2C2%20%5Cdots%20%5Cquad" /></p>
<p>où <img alt="K" src="https://latex.codecogs.com/gif.latex?K" /> est une constante</p>
<p><br />
On sait que sa valeur varie peu dans les expérimentations, elle est rarement inférieure à 0,9 ou supérieure à 1,3. Statistiquement, elle caractérise la variété du vocabulaire dans l’utilisation des mots. <img alt="eta" src="https://latex.codecogs.com/gif.latex?%5Cbeta" /> grand signifie une utilisation de mots fortement concentrées sur les mots fréquents, <img alt="eta" src="https://latex.codecogs.com/gif.latex?%5Cbeta" /> petit signifie une répartition plus large. Il est souvent considéré comme une constante. Nous ne rencontrons pas en sciences humaines et sociales des constantes universelles qui sont par essence des caractéristiques d’autres sciences comme la physique.<br />
<br />
Les formules proposées pour calculer <img alt="eta" src="https://latex.codecogs.com/gif.latex?%5Cbeta" /> sont démontrées et concluent en quelque-sorte ces modèles mathématiques, rappelons les 3 formules:</p>
<ul>
<li>
<p>modèle Communicationnel<br />
<img alt="eta =displaystyle {frac{Ht}{Ef}}" src="https://latex.codecogs.com/gif.latex?%5Cbeta%20%3D%5Cdisplaystyle%20%7B%5Cfrac%7BHt%7D%7BEf%7D%7D" /><br />
<img alt="Ht" src="https://latex.codecogs.com/gif.latex?Ht" /> est l'entropie, <img alt="Ef" src="https://latex.codecogs.com/gif.latex?Ef" /> la quantité d'effort. <img alt="eta" src="https://latex.codecogs.com/gif.latex?%5Cbeta" /> est alors perçu comme un paramètre communicationnel quantifiant le coût de production d'un texte.</p>
</li>
<li>
<p>modèle Stochastique<br />
<img alt="eta =1 -displaystyle {frac{V}{T}}" src="https://latex.codecogs.com/gif.latex?%5Cbeta%20%3D1%20-%5Cdisplaystyle%20%7B%5Cfrac%7BV%7D%7BT%7D%7D" /> <br />
<img alt="V" src="https://latex.codecogs.com/gif.latex?V" /> est la taille du lexique, <img alt="T" src="https://latex.codecogs.com/gif.latex?T" /> le nombre total de mots. <img alt="eta" src="https://latex.codecogs.com/gif.latex?%5Cbeta" /> est alors perçu comme un nouveau paramètre lexicométrique caractérisant un texte. Il est nécessairement inférieur à 1 . </p>
</li>
<li>
<p>modèle Graphométrique<br />
<img alt="eta =- displaystyle{frac{log(
u)}{M}}" src="https://latex.codecogs.com/gif.latex?%5Cbeta%20%3D-%20%5Cdisplaystyle%7B%5Cfrac%7Blog%28%5Cnu%29%7D%7BM%7D%7D" /> <br />
<img alt="M" src="https://latex.codecogs.com/gif.latex?M" />est le nombre de lettres, <img alt="
u" src="https://latex.codecogs.com/gif.latex?%5Cnu" /> la probabilité d'occurrence d'une lettre. <img alt="eta" src="https://latex.codecogs.com/gif.latex?%5Cbeta" /> est alors perçu comme un paramètre graphométrique de l'écriture d'un texte. Il est nécessairement supérieur à 1 </p>
</li>
</ul>
<p> <br />
Les modes de calcul sont étrangers l'un à l'autre et sont totalement indépendants de l'expérimentation. Il est tentant de dire que les variations de <img alt="eta" src="https://latex.codecogs.com/gif.latex?%5Cbeta" /> autour de 1 sont des phénomènes qui ne relèvent pas de la loi mais des conditions de l'expérimentation. Ce paramètre va induire chez les chercheurs différentes questions. Peut-on caractériser le genre d'un texte par ce paramètre ? La valeur de <img alt="eta" src="https://latex.codecogs.com/gif.latex?%5Cbeta" /> est-elle une caractéristique de la langue, du style du texte ? Toutes ces questions vont susciter de nombreuses études et polémiques. En effet dans le cas du modèle stochastique (ou du moins dans sa forme originelle) <img alt="eta" src="https://latex.codecogs.com/gif.latex?%5Cbeta" /> est nécessairement inférieur à 1, ce qui n'est pas le cas du modèle communicationnel. Cela va être le déclencheur comme on va le voir d'une controverse passionnée.</p>
<h2>4 Les modèles comme fonction de dialogue</h2>
<p>Nous commençons ce paragraphe en rapportant la célèbre controverse entre Mandelbrot et Simon. Ce débat se déroule entre 1959 et 1961. Il a pour point de départ une critique de Herbert A. Simon, fondateur du modèle stochastique, dans son article publié en 1955. Il critique entre autres l’utilisation de la théorie de l’information de Shannon par Mandelbrot. Il juge le modèle de Mandelbrot inapproprié. Puis les deux chercheurs publient 6 articles dans la revue Information and Control dans lesquels ils justifient la pertinence de leur modèle et critiquent les faiblesses de l’autre. Cette controverse repose avant tout sur un dialogue avec des hypothèses et des représentations différentes d’un même objet mathématique, mais qui repose sur des motivations, des hypothèses et des approximations différentes. À la rigueur mathématique dont font preuve les protagonistes dans leurs argumentations, s’oppose une incompréhension croissante au cours de leurs échanges respectifs. Cette controverse permet de mieux comprendre pourquoi cette loi va susciter de nombreux débats et être à l'origine de recherches singulières dans des domaines inattendus.</p>
<h3>Entre objet mathématique et construction sociale</h3>
<p>Dans sa première note critique, publiée en 1959, Mandelbrot soulève deux points :</p>
<ul>
<li>
<p>tout d’abord, il réfute les arguments de Simon qui lui reproche d’utiliser la théorie de l’information dans un sens dévoyé : selon lui, il distingue clairement entropie et information sémantique.</p>
</li>
<li>
<p>Puis il critique la démarche de Simon, qui pense obtenir à l’aide d’une simple variante de la théorie de l’évolution de Yule « so called birth or birth and death » un modèle générique des distributions de type Zipfienne ( dénomées aussi Z). Il précise que cette recherche est un défi important. Néanmoins, si un tel modèle existe, il devrait s’appuyer sur une hypothèse faible mais aussi générale que celle qui explique le rôle des distributions gaussiennes. Or les lois de type Z s’avèrent résistantes à une telle analyse.</p>
</li>
</ul>
<p>Simon répond en précisant son positionnement épistémologique. Il lui semble plus crédible d’expliquer les régularités empiriques de la langue comme le résultat d’un processus stochastique, résultant d’association et d’imitation, mis en œuvre dans le modèle de Yule, plutôt que de proposer un mécanisme maximisant la quantité d’information transmis par symbole. Cela lui paraît plus juste qu’une explication basée sur les propriétés statistiques du codage. Il critique l’argument de Mandelbrot liant la longueur des mots et leur fréquence. Il rappelle que les distributions (fréquence, longueur des mots) sont très irrégulières. Pour Simon, s’il existe une liaison, ce n’est pas dans le sens que propose Mandelbrot. C’est l’usage intensif des mots qui fait que ceux-ci deviennent abrégés et non l’inverse. Cela va selon lui à l’encontre de la minimisation des coûts pour expliquer la loi. Enfin il justifie l’utilisation de son modèle car les phénomènes d’association et d’imitation sont cohérents avec ce que nous savons sur les processus sociaux et psychologiques : « Cette dérivation -il parle de son modèle- a l’avantage de ne pas supposer d’optimisation en termes de coût ; elle part de l’hypothèse plus acceptable que la source humaine est un processus stochastique ».</p>
<p>À partir du quatrième article, la discussion porte essentiellement sur les aspects mathématiques du modèle et les échanges entre les deux chercheurs vont être vifs. Néanmoins, il faut savoir que lorsque l’on modélise à l’aide des mathématiques, une démonstration peut s’exprimer de plusieurs façons, mathématiquement juste, faisant appel à des intuitions et approximations différentes. Il est même possible de retrouver un résultat en critiquant la méthode qui l’a produit. Cette querelle, à la lecture des textes, est souvent une conséquence d’une approximation, d’une hypothèse mathématique forte, contestée car trop peu réaliste. Les positions de Simon et de Mandelbrot sont opposées. Mandelbrot considère la langue comme un objet mathématique. Un texte est un message composé d’une suite de caractères discrets modélisés par la loi de Zipf, qui trouve son explication dans la théorie statistique de la communication de l’information de Shannon. Simon considère la langue avant tout comme une construction sociale en empruntant à la biologie le concept d’avantage cumulatif des processus de la théorie de l’évolution. La loi de Zipf est un cas particulier parmi de nombreux autres processus sociaux et psychosociaux.</p>
<h3>Des nouvelles perspectives de recherches</h3>
<p align="justify" class="western">L'objectif premier des modèles était d'expliquer le pourquoi de ces régularités dans les textes. Ils sont convoqués dans des problématiques tout autres et feront fonction de dialogue.</p>
<p align="justify" class="western">Le premier modèle contribue à poser le problème de l'universalité de cette loi. Puisqu'un texte quelconque vérifie ces régularités et qu'il n'existe pas de langue qui soit un outil de communication, c'est qu'il existe une raison structurelle supérieure qui explique ce phénomène de régularité (Ferrer-i Cancho, R. (2007)).</p>
<p align="justify" class="western">Le deuxième modèle replace la loi de<em> </em>Zipf dans un contexte sociologique bien plus large et va être à l'origine d'autres travaux.</p>
<p align="justify" class="western">Ils vont utiliser le même principe connu sous le nom d'accumulation ou de réutilisation dans des domaines différents :</p>
<p class="western">Le principe des avantages cumulatifs de Solla Price en scientométrie (De Solla Price, D. J. (1976)), s'appuyant sur les travaux du sociologue <em><span style="font-style:normal">Merton</span></em><i> (</i>Merton R.K. (1968)) sur le concept de "Mathew Effect in Science"</p>
<p class="western">L'attachement préférentiel pour expliquer les spécificités du graphe du Web en informatique (Voir p 231 (Mitzenmacher, M. D. (2012))).</p>
<p class="western">Enfin le troisième modèle va questionner la notion de texte aléatoire (Ferrer-i Cancho, R., & Elvevåg, B. (2010)). Cela amène à reposer la question de l'écriture comme une technique s'apparentant aux (Voir p180-182 Lafouge Thierry & Pouchot Stéphanie (2012))) technologies de l'intellect définies par l'anthropologue Jack Goody<sup>7</sup>. L’existence de l'écriture est questionnée en archéologie à l'aide de la loi de Zipf (voir Reginald, S., & Bouchet, F. (2007)).</p>
<h2>Discussion conclusive</h2>
<p align="justify" class="western">La loi de Zipf est multidisciplinaire et polysémique. À partir de l’observable, <font style="font-size:12pt"><font size="3">elle</font></font> convoque aussi bien les sciences humaines et sociales que les sciences de la nature et s’exprime sous forme d’expérimentation et de modélisation. <font style="font-size:12pt"><font size="3">Les modèles Zipfiens semblent posséder cette caractéristique de s’appliquer en dehors de tout cadre théorique. Nous rappelons que la loi de Zipf n’est pas issue d’un cadre théorique établi autour du principe de moindre effort alors que l’article est régulièrement cité dans la littérature (cf Zipf, G. K. (1949)). Les modèles exprimés recherchent des régularités à partir de données numériques, et cela indépendamment du domaine et de l’objet d’étude. À l’aide de modèles, cette loi est le lieu de représentations locales du réel à partir des régularités captées, invitant à une forme de réflexivité. </font></font></p>
<p align="justify" class="western"><font style="font-size:12pt"><font size="3">Néanmoins, la nature des lois en science humaine et sociale mérite discussion. Contrairement aux sciences de la nature, la notion de loi en sciences humaines et sociales n'est pas triviale. L'existence de lois en sociologie par exemple a été posée au début des années 1930 par Maurice Halbwach</font></font><sup><font style="font-size:12pt"><font size="3">8</font></font></sup><font style="font-size:12pt"><font size="3"> dans son essai (voir Maurice, H. (1934)). Pour lui, les relations régulièrement observées entre les faits sociaux constituent des lois sociales générales et portent sur l'évolution d'ensembles complexes. Celles-ci fixent des corrélations des rapports entre phénomènes sociaux.</font></font></p>
<p align="justify" class="western">Jean-Claude Passeron a quant à lui posé au début des années 1990 les limites de la généralisation sociologique dans son ouvrage (voir Passeron, J.C. (1991)). Pour l'auteur, il n'est pas envisageable d'assimiler le statut des sciences humaines et sociales à celui des sciences de la nature. Par la même, les propositions des SHS s'inscrivent dans un espace différent, où elles ne peuvent être universellement et intemporellement exactes. Or, du fait de leur objet même, évolutif à travers les âges, et des méthodes d'observation, sont exclus les généralisations et l'établissement de lois générales puisque le contexte de chaque objet sociologique varie, notamment dans le temps. De plus, la description du monde vue par la lunette sociologique est faite à l'aide de mots issus de la langue naturelle alors que l'établissement de lois nécessiterait un langage de référence indépendant du contexte.</p>
<p align="justify" class="western">Afin de mieux appréhender la place du travail de Zipf, il est nécessaire de considérer <font style="font-size:12pt"><font size="3">la proposition </font></font>de Kendall<sup><font style="font-size:12pt"><font size="3">9</font></font></sup> (voir Kendall M. G. (1960)) qui redéfinit cette notion dans son contexte des humanités : « <i>Par loi, j’entends un modèle d’agrégat humain observable, reproductible et, en règle générale, quantifiable ; peut-être seulement de nature descriptive, peut-être explicable en termes de modèle, mais en tout cas lié à l’observation</i> ». <font style="font-size:12pt"><font size="3">L</font></font>a loi de Zipf peut donc être qualifiée de loi en Sciences Humaines et Sociales au sens de Kendall puisqu’elle vérifie tous les critères requis énoncés de la définition proposée, à savoir: observable, reproductible, quantifiable.</p>
<p align="justify" class="western"><font style="font-size:12pt"><font size="3">Si les modèles Zipfiens corroborent la loi de Zipf, ils ne sont pas des prolongations d’un modèle théorique, mais tendent plutôt vers une caractéristique commune d’un phénomène de régularité qui s’exprime aussi bien à travers les sciences humaines et sociales que dans les sciences de la nature à partir du moment que l’on cherche à exprimer sous forme quantifiable le réel. </font></font></p>
<h2>Bibliographie</h2>
<p class="western">Auerbach, F. (1913). «Das Gesetz der Bevölkerungskonzentration. Petermanns Mitteilungen» 59 (1), 74–76.</p>
<p class="western">Bertin, M., & Lafouge, T. (2020). « La loi de Zipf 70 après : pluridisciplinarité, modèles et controverses »,<i> Communication et Langages,</i> (206), 111-134.</p>
<p class="western">Bressoux, P. (2010). « Modélisation Statistique Appliquée aux Sciences Sociales », <i>De Boec</i>k. Doi : 10.3917/dbu.bress.2010.01</p>
<p class="western"><font face="Liberation Serif, serif">Chang, Y.-W. (2016). « Influence of the Principle of Least Effort across Disciplines<i>», Scientometrics</i> (106), 1117–1133. doi: 10.1007/s11192-016-1838-0</font></p>
<p class="western">Condon, E. U. (1928). « Statistics of Vocabulary <i>»</i>, <i>Science</i> (67), 300. doi: 10.1007/978-1- 4612-3066-3₉</p>
<p class="western">De Pareto, V. (1895). «La leggae della demanda. Giornale degli Economisti <i>»</i> , 12 , 59–68. <u><a href="https://www.jstor.org/stable/23219874">https://www.jstor.org/stable/23219874</a></u></p>
<p class="western">De Solla Price, D. J. (1976). « A general theory of bibliometric and other cumulative and other advantage processes <i>»</i>, <i>Journal of the American Society for Information Science</i> , 27 (5-6), 292–306. doi: 10.1002/asi.4630270505</p>
<p class="western">Ferrer-I Cancho, R. (2007). «On the universality of zipf’s law for word frequencies <i>», </i> <i>In W. de Gruyter (Ed.), Exact methods in the study of language and text</i> (p. 131-140). doi: 10.1515/9783110894219.131</p>
<p class="western">Ferrer-I Cancho, R., & Elvevåg, B. (2010). «Random texts do not exhibit the real zipf’s law-like rank distribution<i>»</i> PLOS ONE, 5 .</p>
<p class="western">Good, I. J. (1953). « The population frequencies of species growing according to simple birth and death process <i>», Biometrika</i>, Vol. 40, No. ¾. (Dec., 1953), pp. 237-264.</p>
<p class="western">Kendall M. G. (1960). « Natural law in the social sciences: Presidential address, delivered to the royal statistical society on wednesday, november 16<sup>th</sup>, 1960 », <i>Journal of the Royal Statistical Society</i>, A 124(1), 1961, p. 16–19.</p>
<p class="western"><font face="Liberation Serif, serif">Lafouge T. & Pouchot S. (2012). « Statistiques de l’intellect : Lois puissances inverses en sciences humaines et sociales », </font><font face="Liberation Serif, serif"><i>Publibook</i></font><font face="Liberation Serif, serif">, 2012.</font></p>
<p class="western"><font face="Liberation Serif, serif">Lotka, A. J. (1926). « The frequency distribution of scientific productivity »,</font><font face="Liberation Serif, serif"><i> Washington</i></font><font face="Liberation Serif, serif"><i> Academy of Scienc</i></font><font face="Liberation Serif, serif">e, 16, 1926, p. 317–323.</font></p>
<p class="western"><font face="Liberation Serif, serif">Mandelbrot, B. (1952). « Contribution à la théorie mathématique des jeux de communication », </font><font face="Liberation Serif, serif"><i>Institut de statistique de l’université de Paris</i></font><font face="Liberation Serif, serif">, PhD thèse, 1952.</font></p>
<p class="western"><font face="Liberation Serif, serif">Mandelbrot, B. (1953). « An informational theory of the statistical structure of languages</font><font face="Liberation Serif, serif"><i> », </i></font><font face="Liberation Serif, serif"><i>W. Jackson Butterworth</i></font><font face="Liberation Serif, serif">, 1953, p. 486–502.</font></p>
<p align="justify" class="western" lang="en-US" style="margin-top:8px; margin-bottom:8px">Maurice, H. (1934). La loi en sociologie.</p>
<p class="western">Merton R.K. (1968). « The Matthew effect in science ». In <i>Science</i>, 159 (3810), p. 56-63. Disponible sur : <u><a href="http://www.garfield.library.upenn.edu/merton/matthew1.pdf">http://www.garfield.library.upenn.edu/merton/matthew1.pdf</a> (<i>page consultée le 15 mai 2020</i>)</u></p>
<p class="western"><font face="Liberation Serif, serif">Miller, G. A. (1957). « Some effects of intermittent silence », </font><font face="Liberation Serif, serif"><i>The</i></font><font face="Liberation Serif, serif"><i> American Journal of Psychology</i></font><font face="Liberation Serif, serif">, 70(2), 1957, p. 311–314.</font></p>
<p class="western"><font face="Liberation Serif, serif">Mitzenmacher, M. D. (2012). « A brief history of generative models for power law and lognormal distributions », </font><font face="Liberation Serif, serif"><i>Internet</i></font><font face="Liberation Serif, serif"><i> Mathematics</i></font><font face="Liberation Serif, serif">, 1(2), 2012, p. 226–251.</font></p>
<p class="western"><font face="Liberation Serif, serif">Newman, M. E. J. (2005). « Power laws, pareto distributions and zipf’s law », </font><font face="Liberation Serif, serif"><i>Contemporary physics</i></font><font face="Liberation Serif, serif">, 46(5), 2005, p. 323–351. doi: 10.1080/00107510500052444</font></p>
<p class="western"><font face="Liberation Serif, serif">Passeron, J.C. (1991). « Le raisonnement sociologique : L’espace non-poppérien du raisonnement naturel », Paris : Nathan.</font></p>
<p class="western"><font face="Liberation Serif, serif">Reginald, S., & Bouchet, F. (2007). «Investigation of the zipf-plot of the extinct meriotic language» , <i>Glottometrics</i> , 15 , 53-61.</font></p>
<p class="western"><font face="Liberation Serif, serif">Simon, H. A. (1955). « On a class of skew distribution functions », </font><font face="Liberation Serif, serif"><i>Biometrika</i></font><font face="Liberation Serif, serif"> 42(¾), 1955, p. 425–440.</font></p>
<p class="western"><font face="Liberation Serif, serif">Simon, H. A. (1960). « Some further notes on a class of skew distribution functions », </font><font face="Liberation Serif, serif"><i>Information and control</i></font><font face="Liberation Serif, serif"> 3, 1960, p. 80–88. doi: 10.1016/s0019-9958(60)90302-8</font></p>
<p class="western"><font face="Liberation Serif, serif">Yule, G. U. (1925). « A Mathematical Theory of Evolution, Based on the Conclusions of Dr. J. C. Willis », F.R.S. In : </font><font face="Liberation Serif, serif"><i>Philosophical Transactions of the Royal Society of London</i></font><font face="Liberation Serif, serif">, Series B, Containing Papers of a Biological Character 213, 1925, p. 21–87.</font></p>
<p class="western"><font face="Liberation Serif, serif">Zipf, G. K. (1949). « Human behavior and the principle of least effort », </font><font face="Liberation Serif, serif"><i>Cambridge, MA, USA Addison-Wesley</i></font><font face="Liberation Serif, serif">, 1949, Reprinted : Hafner, New York, USA, 1965.</font></p>
<h2 class="western">Notes</h2>
<p align="justify" class="sdfootnote-western"><small><font style="font-size:10pt"><font size="2">1 Benoît Mandelbrot(1924-2010) est un mathématicien connu pour avoir défini une nouvelle classe d'objets que sont les fractales.</font></font></small></p>
<p align="justify" class="sdfootnote-western"><small><font style="font-size:10pt"><font size="2">2 On trouvera dans </font></font><font style="font-size:10pt"><font size="2">(Mitzenmacher, M. D. (2012))</font></font> <font style="font-size:10pt"><font size="2"> une démonstration mathématique très claire de ce résultat.</font></font></small></p>
<p align="justify" class="sdfootnote-western"><small><font style="font-size:10pt"><font size="2">3 Herbert Alexander Simon (1916-2001) est économiste et a reçu le prix Nobel d'économie en 1978.</font></font></small></p>
<p align="justify" class="sdfootnote-western"><small><font style="font-size:10pt"><font size="2">4 Irving John Good statisticien britannique (1916-2009) dans son étude sur les gènes des espèces (Good, I.J (1953) , cite page 238 un article de Zipf de 1932 sur les régularités statistiques du vocabulaire : Zipf,<b> </b>G. K. (1932). <i>Selected Studie of the Principle of Relative Frequency in Language. </i>Harvard</font></font></small></p>
<p align="justify" class="sdfootnote-western"><small><font style="font-size:9pt"><font size="2">5</font></font><font style="font-size:10pt"><font size="2"> Nous avons simplifié sa démarche et renvoyons le lecteur à (Simon H. A. (1955)) p 427-431 ou ( Simon H. A. (1960)).</font></font></small></p>
<p align="justify" class="sdfootnote-western"><small><font style="font-size:10pt"><font size="2">6 Une démonstration du même résultat, dite des deux exponentielles, est faite en utilisant le mode continu dans (Newman Mark E. J. (2005)), p13.</font></font></small></p>
<p align="justify" class="sdfootnote-western"><small><font style="font-size:10pt"><font size="2">7 Jack Goody (1919-2015) est un anthropologue britannique qui s’est intéressé aux technologies de l’intellect « réflexives » et a constaté qu’il y en a que deux : le langage et l’écriture</font></font></small></p>
<p align="justify" class="sdfootnote-western"><small><font style="font-size:10pt"><font size="2">8 Sociologue français de l'école durkheimienne (1867-1945).</font></font></small></p>
<p align="justify" class="sdfootnote-western"><small><font style="font-size:10pt"><font size="2">9 Maurice George Kendall (1907-1983) est un statisticien britanique</font></font></small></p>
<p> </p>
<p> </p>