<h2>1 Introduction</h2>
<p><br />
Le terme modèle est polysémique. La littérature scientifique et les débats épistémologiques présentent une multiplicité de concepts et d'emploi en fonction de l'époque et du contexte disciplinaire. Mais une loi interroge avec singularité la notion de modèle: la loi de Zipf. Elle est présente dans de nombreuses disciplines sans forcement de lien avec les objets d'étude historique qui sont le texte contenu dans un document ou l'observation démographique. Elle couvre de nombreux domaines et invite à s'interroger sur sa genèse et sa persistance.</p>
<p>D'un point de vue historique, l'oeuvre de Zipf est avant tout une quête d'universalité dans une tentative de définir un cadre théorique autour du principe du moindre effort. Si ce dernier ne propose aucune formalisation à travers une mathématisation, la loi de Zipf n'entre pas explicitement dans ce cadre théorique.<br />
La loi de Zipf repose avant tout sur l'expérimentation qui conduit à un triptyque autour de la modélisation: l'expérimentation, la prise en compte du contexte et la formalisation, c'est à dire sa mathématisation. Sur ce dernier point, nous verrons que la discussion autour des paramètres<br />
%(et plus particulièrement le $eta $ qui sera discuté dans le paragraphe
ef{beta} )<br />
est une caractéristique invitant aux débats autour des modèles Zipfiens.</p>
<p>Il est commun de définir le modèle comme une représentation partielle du monde. Nous avons choisi une approche plus réflexive en prônant le modèle comme une représentation cognitive du monde. Le modèle serait alors une invitation au dialogue. %La controverses entre Simon et Mandelbrot en ai un exemple.<br />
%Ce qui nous intéresse et qui émerge dans notre est le fait de<br />
Un langage commun est nécessaire, aussi nous proposons une représentation des modèles Zipfiens à travers une formalisation mathématique commune.<br />
%produire une représentation commune des modèles.<br />
Cela permet de mieux appréhender l'intelligibilité des modèles pour mieux les comprendre à travers le langage commun des mathématiques.<br />
Rendre ces modèles intelligibles permet de mieux en saisir les notions et les concepts sous-jacents et de produire des représentations partagées des modèles Zipfiens.</p>
<p><br />
Si la fonction d'intelligibilité des modèles ne pose pas ici débat, le principe de rationalité mérite une plus grande attention. En effet, ce principe suppose une formalisation de l'observable. Pourtant à un même phénomène Zipfien, plusieurs modèles se sont construits, co-construit voir confrontés.<br />
La controverse entre Mandelbrot et Simon à travers une série d'article à produit une discussion argumentée avec des éléments divergents montrant l'importance du contexte. Ce dernier point sera abordé dans le paragraphe
ef{controverse}.</p>
<p><br />
Dans cette étude, une première partie s'intéresse à l'étude des variation autour de l'énoncé loi de Zipf à travers les titres d'articles scientifiques. C'est un travail produit par l'analyse des métadonnées provenant du WoS et de Scopus.<br />
Une deuxième partie permettra d mieux comprendre la frontière entre loi et modèle. Pour cela, nous présenterons d'une part la loi de Zipf sous une forme mathématique, puis nous proposerons une présentation des modèles Zipfiens à partir du même formalisme mathématique. Cela nous permettra de présenter un modèle Zipfien construit à partir d'autres modèles et de proposer une expérimentation pour valider partiellement ce modèle. La présentation des modèles appelle à une discussion autour des paramètres mis en oeuvre et plus particulièrement de la valeur du $eta$ qui sera sujet à discussion dans le paragraphe
ef{beta}.<br />
Enfin, dans une dernière partie, la formalisation permettra de présenter la controverse en Simon et Mandelbrot.<br />
Les arguments avancés lors de la confrontation produit une argumentation où la nature SHS des données ne porte pas tant sur la dimension mathématique que sur la nature de l'object étudié. Cela nous permettra de conclure autour de la frontière entre STM et SHS quant à la problématisation des lois et des modèles. Comment comprendre qu'une loi puisse mobiliser des constantes ... qui sont variables ?</p>
<p> </p>
<h2>3 Loi de Zipf et les principaux modèles Zipfiens</h2>
<h3>L'origine de la loi de Zipf</h3>
<p>La loi de Zipf énoncée en 1949 [cite{zipf1949}] sur les régularités statistiques de la langue, est une loi surprenante à plus d’un titre. Elle véhicule de nombreuses origines tout en alimentant plusieurs controverses. Résiliente dans le temps, elle s’applique à divers champs disciplinaires en présentant par essence un aspect pluridisciplinaire [cite{bertin2020}]. Modélisation mathématique partant d’une énonciation du principe du moindre effort pour certains, observations d’ingénieur [cite{condon1928}] pour d’autres, elle est interrogée sur son sens, sa nature en tant que loi, ainsi que sur la portée de son universalité.</p>
<p>A l'origine l'énoncé mathématique de cette loi met en exergue les régularités statistiques des mots dans un texte. Si les mots du texte sont classés par rang (noté <img alt="r" src="https://latex.codecogs.com/gif.latex?r" />) de fréquence décroissante, la relation suivante est vérifiée :</p>
<p><img alt="egin{equation} p_{r}= frac {K} {r^{eta}} quad r =1 dots V quad eta > 0 end{equation}" src="https://latex.codecogs.com/gif.latex?%5Cbegin%7Bequation%7D%20p_%7Br%7D%3D%20%5Cfrac%20%7BK%7D%20%7Br%5E%7B%5Cbeta%7D%7D%20%5Cquad%20r%20%3D1%20%5Cdots%20V%20%5Cquad%20%5Cbeta%20%3E%200%20%5Cend%7Bequation%7D" /></p>
<p>label{loizipf}</p>
<p><br />
<img alt="p_{r}" src="https://latex.codecogs.com/gif.latex?p_%7Br%7D" /> est la probabilité d'occurence du mot de rang <img alt="r" src="https://latex.codecogs.com/gif.latex?r" />, l'exposant <img alt="eta" src="https://latex.codecogs.com/gif.latex?%5Cbeta" /> est voisin de 1, <img alt="V" src="https://latex.codecogs.com/gif.latex?V" /> est égal à la taille du lexique, et <img alt="K" src="https://latex.codecogs.com/gif.latex?K" /> est une constante de normalisation.<br />
</p>
<p>La validation de la loi s’inscrit alors dans une démarche classique des statistiques en Sciences Humaines et Sociales [cite{bressoux2010}] qui consiste chaque fois que les données s’y prêtent à construire, puis ajuster une distribution empirique par une distribution théorique encore appelée loi de probabilité qui permet d’ajuster un phénomène observable et intemporel.<br />
De très nombreuses expérimentations ont été menées sur des textes de types variés, de différents genres (roman, essai, théâtre…) de différents auteurs (textes écrits), ou locuteurs (textes énoncés), dans de nombreuses langues.</p>
<p> </p>
<h3>Les modèles explicatifs historiques</h3>
<p>Les trois modèles explicatifs historiques de la loi de extit{Zipf} sont présentés chronologiquement:</p>
<ol>
<li>le modèle communicationnel (1952),</li>
<li>le modèle stochastique (1955),</li>
<li>le modèle graphométrique (1957).</li>
</ol>
<p>Les modèles graphométriques et communicationnels ont pour seul objectif d'expliquer cette loi.<br />
Le modèle stochastique est plus général. Les trois sont des modéles mathématiques. Nous mettons dans ce paragraphe l'accent sur les concepts sous jacents en formulant à minima le développant mathématique nécessaire pour mieux les appréhender.</p>
<h4>Modèle communicationnel</h4>
<p>En 1952 dans sa thèse de doctorat [cite{mandelbrot1952}], extit{Mandelbrot}footnote{Benoît Mandelbrot(1924-2010) est un mathématicien connu pour avoir défini une nouvelle classe d'objet que sont les fractales.} précise sa position épistémologique sur la langue en s’inscrivant dans la continuité des travaux du linguiste suisse extit{Ferdinand De Saussure}. Il souhaite alors élargir sa théorie. Il considère la langue comme une séquence aléatoire d’entités concrètes, et propose une estimation des probabilités de celles-ci.</p>
<p><br />
Il préconise une simplification extrême de la langue, nécessaire selon lui, pour utiliser en linguistique des notions mathématiques. Il postule que les nombreuses études faites par extit{Zipf} sur les distributions confirment quantitativement l’hypothèse de extit{De Saussure} sur la langue: elle peut être perçue comme une construction d’une suite de mots. Néanmoins il pense que extit{De Saussure} va trop loin dans sa construction et néglige l’adaptation du message à son support lors de sa transmission.\<br />
Les travaux de extit{Zipf} sur l'origine de la loi stipule qu'il existe un compromis entre les efforts du locuteur et celui de l'auditeur lors d'un processus de communication. Cette hypothèse est souvent formulée avec le principe du moindre effort qui historiquement [cite{chang2016}] est liée à cette loi. </p>
<p><br />
extit{Mandelbrot} le premier en 1953 [cite{mandelbrot1953}] traduit mathématiquement cette hypothèse en s'appuyant sur la théorie de l'information de extit{Shannon}.<br />
L’idée qui préside à ce modèle est que les mots de faible longueur sont plus fréquents, idée émise déjà par extit{Zipf}, car ils nécessitent moins d’effort pour le locuteur. Il traduit cette hypothèse en minimisant $C$ le coût moyen, soit la quantité moyenne d'effort par unité d’information :</p>
<p><br />
<img alt="egin{equation} C =frac{Ef}{Ht} end{equation}" src="https://latex.codecogs.com/gif.latex?%5Cbegin%7Bequation%7D%20C%20%3D%5Cfrac%7BEf%7D%7BHt%7D%20%5Cend%7Bequation%7D" /></p>
<p>label{cout}</p>
<p><br />
où <img alt="Ef" src="https://latex.codecogs.com/gif.latex?Ef" /> est la quantité d’effort nécessaire pour coder/décoder, c’est à dire communiquer, et <img alt="Ht" src="https://latex.codecogs.com/gif.latex?Ht" /> l’entropie de la distribution des fréquences des mots du texte c’est à dire la quantité d’information du message. Si <img alt="p_{r}" src="https://latex.codecogs.com/gif.latex?p_%7Br%7D" /> désigne la probabilité d’un mot de rang <img alt="r" src="https://latex.codecogs.com/gif.latex?r" />, il définit ces deux quantités par les équations:<br />
<img alt="egin{equation} Ht= sum _{r=1}^{r=V} p_{r}. log ( p_{r}) end{equation}" src="https://latex.codecogs.com/gif.latex?%5Cbegin%7Bequation%7D%20Ht%3D%20%5Csum%20_%7Br%3D1%7D%5E%7Br%3DV%7D%20p_%7Br%7D.%20%5Clog%20%28%20p_%7Br%7D%29%20%5Cend%7Bequation%7D" /></p>
<p>label{entropie}</p>
<p><img alt="egin{equation} Ef= sum _{r=1}^{r=V} p_{r}. log_{M} (r) end{equation}" src="https://latex.codecogs.com/gif.latex?%5Cbegin%7Bequation%7D%20Ef%3D%20%5Csum%20_%7Br%3D1%7D%5E%7Br%3DV%7D%20p_%7Br%7D.%20%5Clog_%7BM%7D%20%28r%29%20%5Cend%7Bequation%7D" /></p>
<p>label{effort}</p>
<p><br />
où <img alt="log_{M}" src="https://latex.codecogs.com/gif.latex?%5Clog_%7BM%7D" /> est le logarithme de base <img alt="M" src="https://latex.codecogs.com/gif.latex?M" />. <img alt="M" src="https://latex.codecogs.com/gif.latex?M" /> est le nombre de caractères hormis les séparateurs. Son hypothèse le conduit à calculer footnote{On trouvera dans (cite[p 234]{mitzemacher2012}) une démonstration mathématique très claire de ce résultat.} l'exposant <img alt="eta" src="https://latex.codecogs.com/gif.latex?%5Cbeta" /> de la loi (Voir (
ef{loizipf})) :</p>
<p><img alt="egin{equation} eta =frac{Ht} {Ef} end{equation}" src="https://latex.codecogs.com/gif.latex?%5Cbegin%7Bequation%7D%20%5Cbeta%20%3D%5Cfrac%7BHt%7D%20%7BEf%7D%20%5Cend%7Bequation%7D" /></p>
<p>label{beta}</p>
<h4>Modèle Stochastique</h4>
<p><br />
En 1955 extit{Simon}footnote{Herbert Alexander Simon (1916-2001) est économiste et a reçu le prix nobel d'économie en 1978.} [cite{simon1955}] publie un article sur une classe singulière de distributions statistiques dans des domaines variés : linguistique, scientométrie, géographie, économie, biologie. Ces distributions ont une forme caractéristique de J renversé avec une longue traîne. Il cite cinq exemples célèbres :</p>
<ul>
<li>distributions des mots dans les textes,</li>
<li>distributions des articles des chercheurs, appelée [cite{lotka1926}] loi de extit{Lotka} en scientométrie,</li>
<li>distributions des habitants dans les villes en géographie, observées [cite{auerbach1913}] dès 1913 par extit{Auerbach},</li>
<li>distributions du montant des salaires en économie, appelée loi [cite{pareto1895}] de extit{Pareto} en économie,</li>
<li>distributions des gènes [cite{good1953}] dans les espèces en biologie.</li>
</ul>
<p><br />
Elles sont dans des domaines différents, et n’ont pas de point commun, hormis leurs caractéristiques statistiques. Il fait l’hypothèse que ces distributions empiriques ont pour densité une fonction puissance inverse :<br />
<br />
<img alt="egin{equation} p_{f} = frac{H} {f^{alpha}} quad f=1,2 dots quad alpha >1 end{equation}" src="https://latex.codecogs.com/gif.latex?%5Cbegin%7Bequation%7D%20p_%7Bf%7D%20%3D%20%5Cfrac%7BH%7D%20%7Bf%5E%7B%5Calpha%7D%7D%20%5Cquad%20f%3D1%2C2%20%5Cdots%20%5Cquad%20%5Calpha%20%3E1%20%5Cend%7Bequation%7D" /></p>
<p>label{simon}</p>
<p><br />
où pour la distribution des mots, <img alt="p_{f}" src="https://latex.codecogs.com/gif.latex?p_%7Bf%7D" /> est la probabilité d'occurrence d'un mot de fréquence <img alt="f" src="https://latex.codecogs.com/gif.latex?f" />.<br />
La formule mathématique de la loi de extit{Zipf} (Voir
ef{loizipf}) inscrit celle-ci dans cette classe de distributions. Néanmoins si les formules (
ef{loizipf}) et (
ef{simon}) sont toutes les deux des puissances inverses leur écriture sont différentes, elles sont équivalentes uniquement pour les fréquences élevées. Dans ce cas on a la relation:</p>
<p><img alt="egin{equation} eta approx frac{1}{alpha -1} end{equation}" src="https://latex.codecogs.com/gif.latex?%5Cbegin%7Bequation%7D%20%5Cbeta%20%5Capprox%20%5Cfrac%7B1%7D%7B%5Calpha%20-1%7D%20%5Cend%7Bequation%7D" /></p>
<p>label{zipflotka}</p>
<p><br />
extit{Simon} construit un modèle générique pour expliquer ce type de distribution :<br />
il choisit la distribution des mots, un exemple comme un autre selon lui. La langue n'a pas de caractère spécifique. C'est une construction sociale comme une autre.<br />
Il s'inspire des travaux du statisticien extit{Yule} [cite{yule1924}] précurseur de la théorie des processus stochastiques. Il utilise une variante de la théorie de l'évolution enquote{so called birth or birth and death}. Il considère le texte comme une succession de mots produits au cours du temps, les uns après les autres. Il fait deux hypothèses:</p>
<p> </p>
<ul>
<li>la première concerne la réutilisation d’un mot. Après avoir produit <img alt="k" src="https://latex.codecogs.com/gif.latex?k" /> mots, il suppose que la probabilité que le (k+1)<sup>ème</sup> mot produit ait une fréquence <img alt="f" src="https://latex.codecogs.com/gif.latex?f" />, soit proportionnelle au nombre total d’occurrences des <img alt="k" src="https://latex.codecogs.com/gif.latex?k" /> mots précédents de fréquence <img alt="f" src="https://latex.codecogs.com/gif.latex?f" />. </li>
<li>la deuxième hypothèse stipule qu’il existe une probabilité constante que le (k+1)<sup>ème</sup> mot soit nouveau, c’est à dire non apparu dans les <img alt="k" src="https://latex.codecogs.com/gif.latex?k" /> premiers.</li>
</ul>
<p> </p>
<p>Ces deux hypothèses décrivent un processus où la probabilité qu’un mot apparaisse dans le texte dépend des mots qui sont antérieurement présents. extit{Simon} va alors calculer footnote{Nous avons simplifié sa démarche nous renvoyons le lecteur à cite [ p 427-431]{simon1960}} le paramètre $alpha$ et donc $eta$:</p>
<p><img alt="egin{equation} eta =1-frac{V}{T} end{equation}" src="https://latex.codecogs.com/gif.latex?%5Cbegin%7Bequation%7D%20%5Cbeta%20%3D1-%5Cfrac%7BV%7D%7BT%7D%20%5Cend%7Bequation%7D" /></p>
<p>label{betasimon}</p>
<p><br />
où <img alt="V" src="https://latex.codecogs.com/gif.latex?V" /> est la taille du lexique et <img alt="T" src="https://latex.codecogs.com/gif.latex?T" /> le nombre total de mots du texte.</p>
<p> </p>
<h4>Modèle graphométrique</h4>
<p><br />
L’argument d’optimisation de extit{Mandelbrot} pour expliquer la loi de <em>Zipf</em> a été très vite contesté. Le simple fait de trouver un mécanisme convaincant pour expliquer une loi ne signifie pas qu’il n’y ait pas d’autres modèles explicatifs. En d’autres termes s’agit-il d’une loi statistique très générale, en rien spécifique au langage naturel ?</p>
<p><br />
Dès 1957 <em>Miller</em> soulève la question. Il imagine [cite{miller1957}] un singe tapant au hasard sur une machine à écrire comportant <img alt="M" src="https://latex.codecogs.com/gif.latex?M" /> touches.<br />
Il suppose que toutes les touches du clavier, hormis la touche chariot, ont la même chance d’être tapées au hasard.<br />
Il note <img alt="
u" src="https://latex.codecogs.com/gif.latex?%5Cnu" /> cette probabilité on a : <img alt="
u < displaystyle frac{1}{M}" src="https://latex.codecogs.com/gif.latex?%5Cnu%20%3C%20%5Cdisplaystyle%20%5Cfrac%7B1%7D%7BM%7D" />.<br />
La probabilité d’écrire un mot de longueur <img alt="L" src="https://latex.codecogs.com/gif.latex?L" /> est alors une loi géométrique :<br />
<img alt="egin{equation} P(L) = (1-M.
u) (M.
u)^{L} quad L=0,1,2 dots end{equation}" src="https://latex.codecogs.com/gif.latex?%5Cbegin%7Bequation%7D%20P%28L%29%20%3D%20%281-M.%5Cnu%29%20%28M.%5Cnu%29%5E%7BL%7D%20%5Cquad%20L%3D0%2C1%2C2%20%5Cdots%20%5Cend%7Bequation%7D" /></p>
<p>label{longueur}</p>
<p><br />
Un texte est la juxtaposition de caractères occupants chacun le même espace.<br />
C’est une suite de mots de longueur <img alt="L" src="https://latex.codecogs.com/gif.latex?L" /> variable, séparés par un caractère spécifique.<br />
Supposons que les mots soient classés par rang de fréquences décroissantes comme le fait extit{Zipf}.<br />
Si $L=2$ le rang $r$ d’un tel mot vérifie alors l’inégalité:<br />
<img alt="M<r<M+M^2." src="https://latex.codecogs.com/gif.latex?M%3Cr%3CM&plus;M%5E2." /><br />
Plus généralement si <img alt="r(L)" src="https://latex.codecogs.com/gif.latex?r%28L%29" /> désigne le rang d’un mot de longueur <img alt="L" src="https://latex.codecogs.com/gif.latex?L" /> on a l’inégalité :<br />
<img alt="egin{equation} M+M^{2} dots M^{L-1}<r(L)<M+M^2 + dots M{^L} . end{equation}" src="https://latex.codecogs.com/gif.latex?%5Cbegin%7Bequation%7D%20M&plus;M%5E%7B2%7D%20%5Cdots%20M%5E%7BL-1%7D%3Cr%28L%29%3CM&plus;M%5E2%20&plus;%20%5Cdots%20M%7B%5EL%7D%20.%20%5Cend%7Bequation%7D" /></p>
<p>label{exponentiel}</p>
<p>Soit un mot quelconque <img alt="w" src="https://latex.codecogs.com/gif.latex?w" /> de rang <img alt="r(w)" src="https://latex.codecogs.com/gif.latex?r%28w%29" />, extit{Miller}] [cite{miller1957}] déduit (Une démonstration du même résultat, dite des deux exponentielles, est faite en utilisant le mode continu dans [cite[p 13]{newman2005}]) des relations (
ef{longueur}) et (
ef{exponentiel}) le résultat:</p>
<p><img alt="egin{equation} p(w)= frac{k}{(b +r(w))^{eta} } end{equation}" src="https://latex.codecogs.com/gif.latex?%5Cbegin%7Bequation%7D%20p%28w%29%3D%20%5Cfrac%7Bk%7D%7B%28b%20&plus;r%28w%29%29%5E%7B%5Cbeta%7D%20%7D%20%5Cend%7Bequation%7D" /></p>
<p>label{mandelbrotzipf}</p>
<p>où <img alt="k" src="https://latex.codecogs.com/gif.latex?k" /> et <img alt="b" src="https://latex.codecogs.com/gif.latex?b" /> sont des constantes, et l’exposant est :<br />
<img alt="egin{equation} eta =-frac{log(
u)}{log(M)} end{equation}" src="https://latex.codecogs.com/gif.latex?%5Cbegin%7Bequation%7D%20%5Cbeta%20%3D-%5Cfrac%7B%5Clog%28%5Cnu%29%7D%7B%5Clog%28M%29%7D%20%5Cend%7Bequation%7D" /></p>
<p>label{miller}<br />
On remarquera que la formule (
ef{mandelbrotzipf}) est différente de l'énoncé (
ef{loizipf}) puisque l'on a fait une translation de <img alt="b" src="https://latex.codecogs.com/gif.latex?b" /> sur le rang. En fait la loi de <em>Zipf</em> est énoncée sous cette forme par extit{Mandelbrot} dès 1952.<br />
On aura compris que dans ce modèle c’est la combinaison de la graphie qui est en jeu et non directement la langue.</p>
<p> </p>
<p> </p>
<h3><br />
Le paramètre <strong><img alt="eta" src="https://latex.codecogs.com/gif.latex?%5Cbeta" /></strong></h3>
<p> Cette loi singulière est caractérisée par un seul paramètre, l’exposant <img alt="eta" src="https://latex.codecogs.com/gif.latex?%5Cbeta" /> de la distribution (rang fréquence). Il a attiré l'attention des chercheurs. Il ne faut pas oublier que <em>Zipf</em> a proposé initialement dans son ouvrage la simple relation où <img alt="eta" src="https://latex.codecogs.com/gif.latex?%5Cbeta" /> est absent (c'est à dire égal à un).</p>
<p><img alt="r.f = K quad r=1,2 dots quad" src="https://latex.codecogs.com/gif.latex?r.f%20%3D%20K%20%5Cquad%20r%3D1%2C2%20%5Cdots%20%5Cquad" /></p>
<p>où <img alt="K" src="https://latex.codecogs.com/gif.latex?K" /> est une constante</p>
<p><br />
On sait que sa valeur varie peu dans les expérimentations, elle est rarement inférieure à <img alt="0,9" src="https://latex.codecogs.com/gif.latex?0%2C9" /> ou supérieur à <img alt="1,3" src="https://latex.codecogs.com/gif.latex?1%2C3" />. Statistiquement, elle caractérise la variété du vocabulaire dans l’utilisation des mots. $eta$ grand signifie une utilisation de mots fortement concentrées sur les mots fréquents, <img alt="eta" src="https://latex.codecogs.com/gif.latex?%5Cbeta" /> petit signifie une répartition plus large.</p>
<p>Il est souvent considéré comme une constante. Nous ne rencontrons pas en sciences humaines et sociales des constantes universelles qui sont par essence des caractéristiques d’autres sciences comme la physique.<br />
<br />
Les formules proposées pour calculer <img alt="eta" src="https://latex.codecogs.com/gif.latex?%5Cbeta" /> sont démontrées et concluent en quelque-sorte ces modèles mathématiques, rappelons les 3 formules:</p>
<ul>
<li>modèle Communicationnel <img alt="eta =displaystyle {frac{Ht}{Ef}}" src="https://latex.codecogs.com/gif.latex?%5Cbeta%20%3D%5Cdisplaystyle%20%7B%5Cfrac%7BHt%7D%7BEf%7D%7D" /> <img alt="Ht" src="https://latex.codecogs.com/gif.latex?Ht" /> est l'entropie, <img alt="Ef" src="https://latex.codecogs.com/gif.latex?Ef" /> la quantité d'effort. <img alt="eta" src="https://latex.codecogs.com/gif.latex?%5Cbeta" /> est alors perçu comme un paramètre communicationnel quantifiant le coût de production d'un texte.</li>
<li>modèle Stochastique <img alt="eta =1 -displaystyle {frac{V}{T}}" src="https://latex.codecogs.com/gif.latex?%5Cbeta%20%3D1%20-%5Cdisplaystyle%20%7B%5Cfrac%7BV%7D%7BT%7D%7D" /> <img alt="V" src="https://latex.codecogs.com/gif.latex?V" /> est la taille du lexique, <img alt="T" src="https://latex.codecogs.com/gif.latex?T" /> le nombre total de mots. <img alt="eta" src="https://latex.codecogs.com/gif.latex?%5Cbeta" /> est alors perçu comme un nouveau paramètre lexicométrique caractérisant un texte. Il est nécessairement inférieur à 1 . </li>
<li>modèle Graphométrique <img alt="eta =- displaystyle{frac{log(
u)}{M}}" src="https://latex.codecogs.com/gif.latex?%5Cbeta%20%3D-%20%5Cdisplaystyle%7B%5Cfrac%7Blog%28%5Cnu%29%7D%7BM%7D%7D" /> <img alt="M" src="https://latex.codecogs.com/gif.latex?M" />est le nombre de lettres, <img alt="
u" src="https://latex.codecogs.com/gif.latex?%5Cnu" /> la probabilité d'occurrence d'une lettre. <img alt="eta" src="https://latex.codecogs.com/gif.latex?%5Cbeta" /> est alors perçu comme un paramètre graphométrique de l'écriture d'un texte. Il est nécessairement supérieur à 1 </li>
</ul>
<p><br />
<br />
Les modes de calcul sont étrangers l'un à l'autre et sont totalement indépendants de l'expérimentation.<br />
Il est tentant de dire que les variations de <img alt="eta" src="https://latex.codecogs.com/gif.latex?%5Cbeta" /> autour de 1 sont des phénomènes qui ne relèvent pas de la loi mais des conditions de l'expérimentation. Ce paramètre va induire chez les chercheurs différentes questions. Peut-on caractériser le genre d'un texte par ce paramètre ? La valeur de <img alt="eta" src="https://latex.codecogs.com/gif.latex?%5Cbeta" /> est-elle une caractéristique de la langue, du style du texte? Toutes ces questions vont susciter de nombreuses études et polémiques. En effet dans le cas du modèle stochastique (ou du moins dans sa forme originel ) <img alt="eta" src="https://latex.codecogs.com/gif.latex?%5Cbeta" /> est nécessairement inférieur à 1, ce qui n'est pas le cas du modèle communicationnel. Cela va être le déclencheur comme on va le voir d'une controverse passionnée.</p>
<p> </p>
<h2>4 Les modèles comme fonction de dialogue</h2>
<p>label{controverse}</p>
<p>Nous commençons ce paragraphe en rapportant la célèbre controverse entre Mandelbrot et Simon. Ce débat se déroule entre 1959 et 1961. Il a pour point de départ une critique de Herbert A. Simon, fondateur du modèle stochastique, dans son article publié en 1955. Il critique entre autres l’utilisation de la théorie de l’information de Shannon par Mandelbrot. Il juge le modèle de Mandelbrot inapproprié. Puis les deux chercheurs publient 6 articles dans la revue Information and Control dans lesquels ils justifient la pertinence de leur modèle et critiquent les faiblesses de l’autre. Cette controverse repose avant tout sur un dialogue avec des hypothèses et des représentations différentes d’un même objet mathématique, mais qui repose sur des motivations, des hypothèses et des approximations différentes. À la rigueur mathématique dont font preuve les protagonistes dans leurs argumentations, s’oppose une incompréhension croissante au cours de leurs échanges respectifs. Cette controverse permet de mieux comprendre pourquoi cette loi va susciter de nombreux débats et être à l'origine de recherches singulières dans des domaines inattendus.</p>
<h3><br />
Entre objet mathématique et construction sociale</h3>
<p><br />
Dans sa première note critique, publiée en 1959, Mandelbrot soulève deux points :</p>
<ul>
<li>tout d’abord, il réfute les arguments de Simon qui lui reproche d’utiliser la théorie de l’information dans un sens dévoyé : selon lui, il distingue clairement entropie et information sémantique.</li>
<li>Puis il critique la démarche de Simon, qui pense obtenir à l’aide d’une simple variante de la théorie de l’évolution de Yule « so called birth or birth and death » un modèle générique des distributions de type Zipfienne ( dénomées aussi Z). Il précise que cette recherche est un défi important. Néanmoins, si un tel modèle existe, il devrait s’appuyer sur une hypothèse faible mais aussi générale que celle qui explique le rôle des distributions gaussiennes. Or les lois de type Z s’avèrent résistantes à une telle analyse.</li>
</ul>
<p>Simon répond en précisant son positionnement épistémologique. Il lui semble plus crédible d’expliquer les régularités empiriques de la langue comme le résultat d’un processus stochastique, résultant d’association et d’imitation, mis en œuvre dans le modèle de Yule, plutôt que de proposer un mécanisme maximisant la quantité d’information transmis par symbole. Cela lui paraît plus juste qu’une explication basée sur les propriétés statistiques du codage. Il critique l’argument de Mandelbrot liant la longueur des mots et leur fréquence. Il rappelle que les distributions (fréquence, longueur des mots) sont très irrégulières. Pour Simon, s’il existe une liaison, ce n’est pas dans le sens que propose Mandelbrot. C’est l’usage intensif des mots qui fait que ceux-ci deviennent abrégés et non l’inverse. Cela va selon lui à l’encontre de la minimisation des coûts pour expliquer la loi. Enfin il justifie l’utilisation de son modèle car les phénomènes d’association et d’imitation sont cohérents avec ce que nous savons sur les processus sociaux et psychologiques : « Cette dérivation il parle de son modèle a l’avantage de ne pas supposer d’optimisation en termes de coût ; elle part de l’hypothèse plus acceptable que la source humaine est un processus stochastique ».</p>
<p>À partir du quatrième article, la discussion porte essentiellement sur les aspects mathématiques du modèle et les échanges entre les deux chercheurs vont être vifs. Néanmoins, il faut savoir que lorsque l’on modélise à l’aide des mathématiques, une démonstration peut s’exprimer de plusieurs façons, mathématiquement juste, faisant appel à des intuitions et approximations différentes. Il est même possible de retrouver un résultat en critiquant la méthode qui l’a produit. Cette querelle, à la lecture des textes, est souvent une conséquence d’une approximation, d’une hypothèse mathématique forte, contestée car trop peu réaliste. Les positions de Simon et de Mandelbrot sont opposées. Mandelbrot considère la langue comme un objet mathématique. Un texte est un message composé d’une suite de caractères discrets modélisés par la loi de Zipf, qui trouve son explication dans la théorie statistique de la communication de l’information de Shannon. Simon considère la langue avant tout comme une construction sociale en empruntant à la biologie le concept d’avantage cumulatif des processus de la théorie de l’évolution. La loi de Zipf est un cas particulier parmi de nombreux autres processus sociaux et psychosociaux.</p>
<h3><br />
Des nouvelles perspectives de recherches</h3>
<p>L'objectif premier des modèles était d'expliquer le pourquoi de ces régularités dans les textes. Ils sont convoqués dans des problématiques tout autres et feront fonction de dialogue.<br />
</p>
<p> Le premier modèle contribue à poser le problème de l'universalité de cette loi. Puisque qu'un texte quelconque vérifie ces régularités et qu'il n'existe pas de langue qui soit un outil de communication, c'est qu'il existe une raison structurelle supérieure qui explique ce phénomène de régularité [cite{ferrer2007a}].<br />
Le deuxième modèle replace la loi de<em> Zipf</em> dans un contexte sociologique bien plus large et va être à l'origine d'autres travaux.<br />
Ils vont utiliser le même principe connu sous le nom d'accumulation ou de réutilisation dans des domaines différents:</p>
<p> </p>
<ul>
<li>Le principe des avantages cumulatifs [ cite{price1976} ] de Solla Price en scientométrie, s'appuyant sur les travaux du sociologue <em>Merton</em>. Merton R.K (1910-2003) est un sociologue des sciences connu pour le concept de "Mathew Effect in Science" (Sciences, 159(3810) 56-53).</li>
<li>L'attachement préférentiel pour expliquer les spécificités du graphe du Web en informatique [ cite[p 231]{mitzemacher2012} ].</li>
</ul>
<p><br />
Enfin le troisième modèle va questionner la notion de texte aléatoire [cite{ferrer2010}]. Cela amène à reposer la questions de l'écriture comme une technique s'apparentant aux cite[p180-182]{lafouge2012} technologies de l'intellect définies par l'anthropologue extit{Jack Goody}. L' existence de l'écriture est questionnée en archéologie à l'aide de la loi de Zipf [cite{reginald2007}].</p>
<p> </p>
<p> </p>
<p> </p>
<p> </p>
<p> </p>
<p> </p>
<p> </p>