<h1 align="JUSTIFY"><font color="#000000">Table des matières </font></h1>
<p align="JUSTIFY"><a href="#_Toc118981402" target="_top"><font color="#0563c1"><u><b>1 - Introduction</b></u></font><font color="#0563c1"><u> :</u></font> 6</a></p>
<p><a href="#_Toc118981403" target="_top"><font color="#0563c1"><u><b>2 - Une IA plus mathématique qu'informatique</b></u></font> 7</a></p>
<p><a href="#_Toc118981404" target="_top"><font color="#0563c1"><u><b>3 - Transformer son activité pour être plus efficace</b></u></font> 9</a></p>
<p><a href="#_Toc118981405" target="_top"><font color="#0563c1"><u><b>4 - Une IA au service des ressources humaines ?</b></u></font> 11</a></p>
<p><a href="#_Toc118981406" target="_top"><font color="#0563c1"><u><b>5 - Anticiper l'évolution des métiers par l'IA</b></u></font> 12</a></p>
<p><a href="#_Toc118981407" target="_top"><font color="#0563c1"><u><b>6 - Éthique et cadre juridique, plus qu'une nécessité, une obligation</b></u></font> 13</a></p>
<p><a href="#_Toc118981408" target="_top"><font color="#0563c1"><u><b>7 - Conclusion :</b></u></font> 15</a></p>
<p><a href="#_Toc118981409" target="_top"><font color="#0563c1"><u><b>8 - Bibliographie</b></u></font><font color="#0563c1"><u><b> :</b></u></font></a>18</p>
<p align="JUSTIFY"><font color="#000000"><b>Préambule, comment avons-nous conduit notre étude/recherche ?</b></font><font color="#000000"> :</font></p>
<p align="JUSTIFY"><a name="_Hlk92308424"></a> <font color="#000000">Le cadre épistémologique de notre recherche est celui de la recherche ingénièrique fondamentalement constructiviste. Parce qu’une épistémologie constructiviste (cf., Herbert Simon (1969), Jean-Louis Le Moigne (1995) , Alain-Charles Martinet (1997) ) permet de mieux associer la théorie et le terrain, elle peut fournir un modèle compréhensif pour la construction des connaissances des scientifiques et des ingénieurs. Nous reprenons de ce point de vue l’approche ingénièrique en management stratégique de Nathalie Claveau et Franck Tannery (2002) pour qui « comme pour la recherche interprétative, l’objet d’une recherche constructiviste ne trouve sa forme définitive qu’à la fin de la recherche. Toutefois, le processus d’élaboration de l’objet constructiviste est guidé par le projet que le chercheur s’est initialement donné ou qu’il a initialement construit avec les acteurs de terrain ». La recherche ingénièrique confronte des schémas théoriques à des observations réalisées en situations réelles. Pour cette raison, le chercheur ne peut avoir une place d'observateur neutre, dans la mesure où les acteurs vont lui affecter un rôle dans le processus. Ainsi le caractère « phénoménologique » de la connaissance, décrit par Emmanuel Kant (1975) et repris par Antoine Bailly (1992) dans sa recherche sur la représentation et l’analyse, est nécessairement soumise à un biais. Antoine Bailly (1992) écrit que la réalité de nos observations n’est pas indépendante du regard que nous portons sur elle, ainsi celle-ci nous apparaît sous forme de phénomène. Notre recherche se distingue cependant de la recherche-action classique dans la mesure où le chercheur va aussi être un ingénieur qui, au cours d'un processus de recherche, conçoit un projet et déroule un programme lui correspondant, le construit, le met en œuvre sur le terrain (« faire »), et l'évalue afin de créer à la fois des représentations de la situation utiles à l'action et des connaissances théoriques généralisables (« savoir ») à d'autres situations. Il s’agit, d’une démarche récursive entre le système actif et le système connaissant, que nous avons empruntée à Jean-Louis Le Moigne (1997). Dans le cadre de notre étude, nous intervenons sur le terrain de la gendarmerie, ainsi, notre recherche se trouve dans le champ de la recherche-intervention (cf., Jean-Claude Moisdon, (1997) ; Albert David (2000) ) et de la recherche-action (cf., Pierre-Marie Mesnier, Philippe Missotte (2003)). La conception d'un outil pratique est indissociable du processus de communication et de la représentation élaborée avec les acteurs du terrain. Ceci nous permet également un bouclage théorique sur le modèle lui-même, au vu des observations réalisées.</font><font color="#000000"> </font><font color="#000000">La prise en compte d’une méthodologie de projet pour mettre en place un système de transformation de la gendarmerie relève d’une approche systémique sur un registre constructiviste, comme le montrent Florence Allard-Poesi et Christine-Garance Maréchal (2003) pour qui, « le projet est sans cesse redéfini par le chercheur (ou l’ensemble des acteurs impliqués) suivant une dynamique interactive et conjecturale de mise à l’épreuve, tout au long de son processus d’élaboration. L’objet de la recherche n’apparaît qu’après stabilisation d’une représentation et/ou d’un outil adéquat » Bouchet Y. (2006).</font></p>
<p align="JUSTIFY"> </p>
<p align="JUSTIFY"><a name="_Toc118981402"></a><a name="_Toc118557705"></a><a name="_Toc116632243"></a><a name="_Toc116479441"></a><a name="_Toc105769919"></a><a name="_Toc104389641"></a><a name="_Toc104208658"></a><a name="_Toc89157659"></a><a name="_Toc89262588"></a><a name="_Toc91842209"></a><a name="_Toc91855941"></a><a name="_Toc92286614"></a><a name="_Toc92310159"></a><a name="_Toc92350377"></a><a name="_Toc92362836"></a><a name="_Toc96939725"></a><a name="_Toc96956847"></a> <font color="#000000"><u><b>1 - Introduction</b></u></font><font color="#000000"> :</font></p>
<p align="JUSTIFY"><a name="_Hlk118895259"></a> <font color="#000000">Big-Data</font><sup><font color="#000000"><a href="#sdendnote1sym" name="sdendnote1anc"><sup>i</sup></a></font></sup><font color="#000000">, Business Intelligence</font><sup><font color="#000000"><a href="#sdfootnote1sym" name="sdfootnote1anc"><sup>1</sup></a></font></sup><font color="#000000">, Open data</font><sup><font color="#000000"><a href="#sdfootnote2sym" name="sdfootnote2anc"><sup>2</sup></a></font></sup><font color="#000000">, Dataviz</font><sup><font color="#000000"><a href="#sdfootnote3sym" name="sdfootnote3anc"><sup>3</sup></a></font></sup><font color="#000000">, IA</font><sup><font color="#000000"><a href="#sdendnote2sym" name="sdendnote2anc"><sup>ii</sup></a></font></sup><font color="#000000"> ces termes répétés à de nombreuses reprises par les médias et plus généralement les communicants perturbent les décideurs qui ne disposent pas toujours d'une connaissance de la réelle signification des termes et donc des possibles implications dans les processus de l’organisation. Dès lors, ils se construisent une image mentale, théorique, d’un potentiel usage sans toujours en comprendre ou en mesurer les implications et les interactions. Ce qui est préjudiciable, c’est en fait l’utilisation massive et désordonnée de ces termes dans une communication à usage principalement marketing afin de convaincre les entreprises, comme les services publics, d’acheter un/des produit(s) et/ou un (des) service(s). Ainsi, elle perturbe les managers devant transformer leur organisation car elle donne une image erronée de la sémantique. Pourtant, malgré cette confusion nous postulons, en reprenant Daniel Cohen Cohen D. (2018), qu’« il est toutefois possible de penser, avec l’IA et les Big-Data, qu’une bifurcation soit en train de se produire. Lorsque les taxis n’auront plus de chauffeurs, que l’on sera soigné, éduqué, diverti en ligne sans quitter sa chambre, le monde aura radicalement changé. L’homme numérique aura créé une société entièrement nouvelle dont il sera à la fois le producteur et le consommateur. » Cohen D. (2018). Et, à la suite des projections de Cohen (bien que nous ne connaissions pas aujourd’hui les développements futurs des techniques et des comportements ainsi que les limites humaines dans les usages), nous pensons « qu’il serait tout aussi vain de refuser Internet aujourd’hui qu’il l’eût été de refuser l’électricité au 20è siècle ou le chemin de fer au 19è. » (op cit.). C’est pour ces raisons que nous devons transformer nos organisations (avec</font> <font color="#000000">l’aide de l’IA et du Big-Data) mais en s’appuyant sur l’observation de Sandra LAUGIER (2017) qui postule que « la révolution du Big Data est d'abord sociale. La production massive d'informations par des expériences scientifiques, des capteurs ou des populations munies d'équipements de communication n'est pas seulement une nouvelle méthode de découverte : c'est sans doute parmi les transformations les plus importantes qui aient eu lieu dans les formes de vie humaines […] C'est pourtant par l'examen de ces mutations sociales que l'on peut acquérir une vision claire des enjeux essentiels du Big Data, et comprendre comment et à quel point, l'analyse et le traitement des données massives ont des effets concrets sur nos actions, nos décisions , notre vie quotidienne ... » Sandra LAUGIER (2017). Notre article s’appuiera principalement sur les travaux de Cohen (2018), qui postule que la transformation est nécessaire, et de Laugier (2017) qui postule qu’elle est d’abord sociale. Il s’agit donc d’une transformation nécessaire des organisations, de leurs services et/ou produits/outils, mais qui va impacter l’humain et son environnement sociale. Cette transformation socialo-organo-technique demandera possiblement des approches nouvelles. Car, selon MORIN E. et BIBARD L. (2018), « les organisations se contentent d’apporter des solutions préétablies sur des problèmes qu’elles croient connaître, sans identifier les véritables enjeux auxquels elles sont confrontées ». Dans ces circonstances, les actions de transformations produiront des rétroactions devenant dès lors des actions autonomes qui évolueront de façon indépendante de la logique qui les a motivées. Mais cet environnement complexe, cybernétique où les actions conduisent à des rétroactions, ne doit pas nous faire occulter le processus. En effet, il convient de prendre des décisions et d’engager des actions parce que l’immobilisme signifierait ne plus être synchrone avec son environnement. Évidement ces décisions emportent elles-mêmes un risque d’erreur. Généralement celui-ci intervient lorsque les informations et les signaux s’entrelacent et se combattent dans un système dynamique, ce qui rend particulièrement difficile l’analyse, et conduit ainsi à des décisions singulièrement hasardeuses. De plus la difficulté vient souvent de notre propre perception des phénomènes, liée généralement à notre culture, à ce sujet Paul Watzlawick (1976) écrivait : « nous croyons naïvement que la réalité est la façon dont nous voyons les choses, quiconque les voient autrement devant par nécessité être méchant ou fou ». Pour cette raison Paul Watzlawick (1976) nous parle de réalité de premier ordre et de deuxième ordre. « Nous utiliserons donc ce terme de réalité de premier ordre, chaque fois que nous entendons ces aspects accessibles à un consensus de perception et en particulier à une preuve (ou une réfutation) expérimentale, répétable et vérifiable […] ces propriétés ont peu ou rien à voir avec le rôle – réalité de second ordre – joué […] depuis le commencement de l’histoire humaine ». [Ainsi] « Dans le domaine de la réalité de deuxième ordre, il est donc absurde de discuter de ce qui est « réellement réel » (op cit.). D’où une difficulté avérée d’analyser les processus à l’œuvre et à produire des décisions raisonnables. C’est pour cette raison que nous postulons qu’avec des mécanismes automatiques tels que l’intelligence Artificielle (IA) et le Big-Data nous pouvons augmenter la vitesse, la couverture et la fiabilité des décisions. Ainsi, ces dispositifs vont possiblement nous aider dans les différentes tâches de veille (interne et externe) en exploitant avec célérité les informations dynamiques et les signaux collectés. Pour ce faire, Bessai F.Z., Krelifaoui M., Guergab M., préconisent par exemple l’« utilisation des cartes auto-organisatrices de Kohonen dans la recherche documentaire »</font><sup><font color="#000000"><a href="#sdendnote3sym" name="sdendnote3anc"><sup>iii</sup></a></font></sup><font color="#000000">.</font></p>
<p align="JUSTIFY"><a name="_Toc118981403"></a><a name="_Toc118557706"></a><a name="_Toc116632244"></a><a name="_Toc116479442"></a><a name="_Toc105769920"></a><a name="_Toc104389642"></a><a name="_Toc104208659"></a><a name="_Toc89157663"></a><a name="_Toc89262592"></a><a name="_Toc91842213"></a><a name="_Toc91855945"></a><a name="_Toc92286618"></a><a name="_Toc92310163"></a><a name="_Toc92350381"></a><a name="_Toc92362840"></a><a name="_Toc96939726"></a><a name="_Toc96956848"></a> <font color="#000000"><b>2 - Une IA plus mathématique</b></font><sup><font color="#000000"><b><a href="#sdfootnote4sym" name="sdfootnote4anc"><sup>4</sup></a></b></font></sup><font color="#000000"><b> qu'informatique </b></font></p>
<p align="JUSTIFY"><font color="#000000">Limiter l’IA à la sphère informatique obscurcit souvent non seulement la vision objective des applications mais surtout la capacité à les comprendre et à les expliquer. Cela génère une confusion dans la capacité à traiter les biais (les options retenues par l’IA) par exemple en ne les envisageant que sous l'aspect algorithmique alors qu'ils n'ont de sens comme de réalité qu'à travers les fondements mathématiques sous-jacents. En effet, que ce soient des méthodes très explicables et mathématiques comme les séparateurs à vastes marges (SVM)</font><sup><font color="#000000"><a href="#sdfootnote5sym" name="sdfootnote5anc"><sup>5</sup></a></font></sup><font color="#000000"> J.Shawe-Taylor and al. (2000); V. Vapnik (1998) ou encore un peu moins explicables et connexionnistes comme les réseaux de neurones convolutifs (ces réseaux de neurones profonds miment le cortex visuel), (cf. LeCun Y., Bottou L., Bengio Y. et Haffner P. (1998)), la finalité est la discrimination afin d'optimiser les capacités de classification, de détection comme de prédiction. Découvrir des biais au sein des applications d'IA est donc une découverte de peu de sens car sans biais l'IA (sans les options retenues, l’IA ne peut pas faire d’apprentissage, exécuter des processus essai/erreur) ne peut effectuer de classification. La performance des systèmes d’intelligence artificielle relève d’un compromis permanent entre le biais et la variance dans la distribution des données. Comme l’évoque Dietterich, T. G., & Kong, E. B. (1995), de profilage ou d’analyse. L'essentiel est de mesurer les biais et d'en évaluer l'impact comme la pertinence. L'IA est plutôt à considérer comme révélatrice des biais et donc comme une possibilité de renforcer si nécessaire l'équité dans la distribution des bases de données.</font></p>
<p align="JUSTIFY"><a name="_Hlk89243439"></a> <font color="#000000">Pour analyser et interpréter mathématiquement des images (id. Vidéos, Textes manuscrits, courbes, graphiques) différents paramétrages de réseaux de neurones convolutifs</font><sup><font color="#000000"><a href="#sdfootnote6sym" name="sdfootnote6anc"><sup>6</sup></a></font></sup><font color="#000000"> (Deep Learning mimant le cortex visuel) peuvent être utilisés. Comme pour le cortex visuel les neurones artificiels (IA) vont traiter un petit champ de récepteur local et réagissent uniquement à un stimulus visuel qui se trouve dans une région limitée du champ visuel. La couche de neurones traitant cet aspect visuel est appelée couche de convolution. Ainsi, La 1er couche de convolution n’est pas connectée à chaque pixel de l’image d’entrée mais uniquement aux pixels dans leurs champs récepteurs. A leur tour, les neurones de la 2ème couche de convolution sont chacun connecté uniquement aux neurones situés à l’intérieur d’un petit rectangle de la 1ère couche. C’est cette structure hiérarchique récurrente qui permet aux systèmes (robots, voiture, reconnaissance visuelle, etc…) basés sur la vision artificielle d’obtenir de bons résultats. Selon les travaux d’Aurélien Géron (2017) et Jean-Claude Heudin (2016), pour qu’un réseau de neurones (RN) supervisé apprenne à reconnaître des images (textes manuscrits, courbes, photos, films), l’ingénieur doit lui fournir de grandes quantités d’images étiquetées (manuellement ou automatiquement). Dès lors, dans l’entraînement de RN profonds (deep learning) nous sommes confrontés au problème difficile de la disparition/explosion des gradients. En effet, le RN apprend en deux passes, une avant de la couche d'Entrée (E) vers la Sortie (S) et une passe arrière, la rétropropagation, qui propage le gradient d’erreur de la couche de S vers la couche E. Notre problème consiste en la variation de l'erreur lorsqu'on fait varier les poids synaptiques, on parle de dérivée partielle de l'erreur par rapport aux liens (plus simplement de gradient de l'erreur). Souvent, quand l'algorithme progresse de couche en couche vers la couche de sortie, le gradient</font><sup><font color="#000000"><a href="#sdfootnote7sym" name="sdfootnote7anc"><sup>7</sup></a></font></sup><font color="#000000"> devient de plus en plus petit/gros et ainsi l’entraînement ne converge pas vers la bonne solution. La résolution passe généralement par une fonction d'activation sur la base du calcul de la variance pour que tout se passe correctement. La variance de chaque S de chaque couche doit être égale à la variance de chaque E et les gradients doivent également avoir une même variance avant et après le passage au travers d'une couche en sens inverse. La fonction d'activation ReLU compte parmi les possibilités d’appréhender la non linéarité dans l’espace des données. Il en existe en effet différentes, telles la fonction sigmoïde, la fonction tanh, la fonction Maxout, chacune devant être adapté au problème à résoudre. En effet, réside là une fonction essentielle dans les réseaux de neurones, il s’agit de l’activation qui va ou non déclencher la suite du processus (comme chez l’humain) et introduire une non-linéarité.</font></p>
<p align="JUSTIFY"><font color="#000000">Les mathématiques permettent de prévenir et non de subir le déséquilibre quantitative comme qualitative qui existe dans des corpus d'apprentissage ou de validation, déséquilibre à l'origine de biais potentiel. Les techniques d’adaptation au maximum de vraisemblance (cf. Gudivada V. N. Baeza-Yates R. et Raghavan V. V. (2015)), par exemple, permettent de réduire les disparités qui peuvent exister entre un corpus d'apprentissage et un corpus de test, disparités liés aux conditions d'enregistrement, de transmission et/ou aux problèmes d'intra-variabilité. Comprendre les méthodes mathématiques qui orientent le développement informatique est une condition essentielle pour prévenir l'effet « boîte noire », qui consiste à utiliser une technologie sans en maîtriser ni les effets, ni les résultats, ni les paramétrages (cf., Adadi et Berrada M. (2018).</font></p>
<p align="JUSTIFY"><font color="#000000">L’appréhension de l’IA par les mathématiques semble assez difficile, c’est probablement pour cette raison qu’elle est souvent réduite à la discipline informatique (algorithme calculable, c’est-à-dire à un problème de décidabilité, par une machine de Turing</font><sup><font color="#000000"><a href="#sdendnote4sym" name="sdendnote4anc"><sup>iv</sup></a></font></sup><font color="#000000">). Dans les faits, l’IA est explicable en grande partie par les mathématiques mais cela demande un effort et des connaissances dans ce domaine pour être compris. Toutefois, explicable ne signifie pas compréhensible sans effort parce qu’il ne faut pas simplifier, en prenant par exemple des raccourcis, car l’IA ne doit pas être simplifiée au point d’être décrite pour ce qu’elle n’est pas.</font></p>
<p align="JUSTIFY"><font color="#000000"><b>2.1 - Ce qui n’est pas le cas pour le Big Data</b></font></p>
<p align="JUSTIFY"><a name="_Hlk104812035"></a> <font color="#000000">En examinant les travaux de Gabriel Antoniu et Mohand-Saïd Hacid (2017) nous constatons que le Big Data est une manipulation informatique de données. Dans leur article, cette manipulation s’opère principalement avec deux fonctions : « Map et Reduce »</font><sup><font color="#000000"><a href="#sdfootnote8sym" name="sdfootnote8anc"><sup>8</sup></a></font></sup><font color="#000000"> (produit par Google). Ils préconisent dans leur article, l’utilisation de « l’écosystème Hadoop » (logiciel libre écrit en Java</font><sup><font color="#000000"><a href="#sdfootnote9sym" name="sdfootnote9anc"><sup>9</sup></a></font></sup><font color="#000000"> et géré par la fondation Apache</font><sup><font color="#000000"><a href="#sdfootnote10sym" name="sdfootnote10anc"><sup>10</sup></a></font></sup><font color="#000000">). Hadoop</font><sup><font color="#000000"><a href="#sdfootnote11sym" name="sdfootnote11anc"><sup>11</sup></a></font></sup><font color="#000000"> utilise la méthode de classement des données selon MapReduce</font><sup><font color="#000000"><a href="#sdfootnote12sym" name="sdfootnote12anc"><sup>12</sup></a></font></sup><font color="#000000"> et la gestion de fichiers distribué (HDFS : Hadoop Distributed File System). Ainsi, le Big Data est une méthode outillée de classement et de manipulation de grande masse de données hétérogènes et potentiellement dispersées sur différentes infrastructures informatiques (des serveurs informatiques</font><sup><font color="#000000"><a href="#sdfootnote13sym" name="sdfootnote13anc"><sup>13</sup></a></font></sup><font color="#000000">). C’est aussi un système dont les données sont en constantes évolutions. Ainsi, ces données sont actualisées en temps réel et présentent pour cette raison les trajectoires prises et sont visibles instantanément.</font></p>
<p align="JUSTIFY"><font color="#000000">Nous emprunterons aux auteurs, Menger P.-M., Simon Paye et </font><font color="#000000"><i>al</i></font><font color="#000000"> (2017) leurs texte « Quand les parties prenantes se multiplient, elles déploient des savoirs et des technologies qui n’obéissent plus à un modèle dominant de prélèvement et d’exploitation des informations individuelles. Un monde de transactions émerge. Les données peuvent être prélevées sur les individus à leur insu. Mais les données émises par chaque individu constituent aussi un bien ou un service qui pourra lui être vendu pour lui permettre de connaître et de contrôler son environnement, sa santé, sa sécurité, ses déplacements, ses relations, ses transactions, ses interactions de sociabilité : c’est le « </font><font color="#000000"><i>quantified self</i></font><font color="#000000"> ». Or la qualité de ce service marchand de quantification individualisée dépend de l’exploitation à grande échelle des données recueillies, qu’il s’agisse de coordonner les comportements, d’analyser les risques collectifs, d’identifier les mécanismes de contagion ou encore d’augmenter le pouvoir prédictif des connaissances accumulées. Un ensemble de techniques et d’algorithmes qui nous renseignent sur notre état de santé, sur les qualités de notre nourriture, sur les variations de notre état physique au travail et sur toute autre dimension de notre comportement augmentent la puissance des services marchands qui nous sont vendus, mais ils peuvent alimenter aussi les bases de données qui sont exploitées par la recherche publique à des fins d’intérêt général. » Il s’agit donc bien dans ce texte d’une combinaison entre une organisation et un calcul sur des données (algorithme : quantophrénique ) et un travail mathématique de modélisation et d'interprétation.</font></p>
<p align="JUSTIFY"><a name="_Toc118981404"></a><a name="_Toc118557707"></a><a name="_Toc116632245"></a><a name="_Toc116479443"></a><a name="_Toc105769921"></a><a name="_Toc104389643"></a><a name="_Toc104208660"></a><a name="_Toc89157662"></a><a name="_Toc89262591"></a><a name="_Toc91842212"></a><a name="_Toc91855944"></a><a name="_Toc92286617"></a><a name="_Toc92310162"></a><a name="_Toc92350380"></a><a name="_Toc92362839"></a><a name="_Toc96939727"></a><a name="_Toc96956849"></a> <font color="#000000"><b>3 - Transformer son activité pour être plus efficace </b></font><font color="#000000"> </font></p>
<p align="JUSTIFY"><font color="#000000">L'IA, telle que nous l’avons précédemment décrite, offre probablement des opportunités sans précédent qui ouvrent de possibles évolutions de l'environnement organisationnel. Avec ces dispositifs nouveaux et ces mutations de l’environnement le gendarme va ainsi pouvoir devenir acteur de la transformation de son activité. Des auteurs comme Morin (cf, E. Morin (2005)) et Watzlawick (cf, </font>P. Watzlawick (1976)) <font color="#000000">nous postulent que l’environnement est dynamique et toujours changeant, ils écrivent : « n’oublie pas que la réalité est changeante, n’oublie pas que du nouveau peut surgir et de toute façon, va surgir ». Pour cette raison nous devons aborder le monde avec une analyse reposant sur la complexité car elle va nous permettre de nous préparer à l’inattendu :</font></p>
<p align="JUSTIFY"><font color="#000000">- en nous montrant « qu’on ne doit pas s’enfermer dans le contemporanéité, c’est-à-dire dans la croyance que ce qui se passe maintenant va continuer indéfiniment » […] « Secouer cette paresse d’esprit » (cf, E. Morin (2005)).</font></p>
<p align="JUSTIFY"><font color="#000000">- en rendant intelligible la situation et reliant les phénomènes à l’œuvre. Car selon Morin, la cause et le causant sont liés. C’est dans cet esprit que Watzlawick écrit « une interaction est presque toujours circulaire, la cause produisant l’effet et l’effet se changeant en cause pour rétroagir sur la cause initiale » (cf, Watzlawick P. (1976)).</font></p>
<p align="JUSTIFY"><font color="#000000">Pour ces raisons, selon la gendarmerie, le gendarme peut transformer son activité grâce à l'IA en développant une approche pro-active et ainsi anticiper les besoins, aider au développement de nouveaux outils, émettre des hypothèses sur les contraintes et détecter les signaux qui pourraient altérer l'objectif à atteindre. Pour l’institution, il s'agit d'un enjeu considérable en terme de transformation métier. La Gendarmerie nationale a développé une méthode qui permet d'anticiper les faits de délinquance pour être plus efficace préventivement par une meilleure orientation des actions, plus transparent sur les opérations menées vis à vis des autorités comme du citoyen (cf, Perrot P. (2015, 2017)). Cette capacité prédictive permet par exemple d'expliquer aux autorités administratives, judiciaires mais aussi aux élus comme aux citoyens les opérations de lutte contre la délinquance et notamment dans leur motivation objective. Il ne s'agit pas de suivre les orientations d'un logiciel qui n’émet que des hypothèses mais bien de travailler différemment en anticipant, en comprenant et en expliquant à partir d’une vision stratégique globale et intégrée. L’IA est un système apprenant, fonctionnant comme un cerveau humain qui doit apprendre pour connaître, pour cette raison l’IA doit acquérir d’une façon incrémentale les expériences appliquées sur le terrain. De cette façon l’IA va mémoriser les données empiriques et les méthodes qui ont été utilisées. Or cet aspect est aujourd’hui relativement mal appréhendé au sein des organisations car les retours sur expérience sont souvent mal décrit, sans méthode scientifique, ceci en dépit du rapport </font><strong><font color="#000000">« Donner du sens à l'intelligence artificielle : pour une stratégie nationale et européenne »</font></strong><sup><font color="#000000"><a href="#sdendnote5sym" name="sdendnote5anc"><sup>v</sup></a></font></sup><strong><font color="#000000"> conduit par le député Cédric Villani (en 2018) et remis au premier ministre. Travailler sur des données empiriques (et éventuellement des données sensibles) et les exploiter avec les méthodes scientifiques programmées dans des logiciels (deep learning (Géron (2017) : apprentissage profond, machine learning (Müller et Guido (2018) : apprentissage automatique) afin de construire des simulateurs apprenants et fournissant des hypothèses exploitables sur le terrain. Dès lors, il apparaît nécessaire de s’investir en IA par la connaissance afin d’en comprendre les atouts, les limites et le fonctionnement. Parce que, le métier de gendarme doit en permanence faire face à l’incertitude. Cette dernière mettant les humains dans des zones d’inconforts, raison pour laquelle le gendarme cherche à se préserver de ce qu’a observé </font></strong><font color="#000000">Dominique Genelot (2011) dans ses recherches. Il écrit : « c’est pour moi un sujet d’étonnement permanent de voir des personnages importants et en apparence très sérieux, continuer à jouer à cette mascarade du « faisons comme si c’était simple ». Ils me font penser à cet homme qui avait perdu son portefeuille dans l’obscurité, mais qui le cherchait sous le réverbère le plus proche parce que là au moins il y voyait clair. De même, nous raisonnons très souvent sur des représentations simplistes de la réalité parce que celles-là au moins nous comprenons. Peu importe que la réalité en soit très éloignée, pourvu que notre confort intellectuel soit assuré ! » (cf, Dominique Genelot (2011)). Une réalité mutilée, qui rend aveugle et empêche de comprendre les phénomènes à l’œuvres. On est dans cette perspective très loin du « Traité de l’efficacité » de François Jullien (1996) qui étudie obstinément le «potentiel de la situation» afin d’œuvrer dans un monde complexe plein de mouvements, d’actions, de rétroactions.</font></p>
<p align="JUSTIFY"><br />
</p>
<p align="JUSTIFY"><a name="_Toc118981405"></a><a name="_Toc118557708"></a><a name="_Toc116632246"></a><a name="_Toc116479444"></a><a name="_Toc105769922"></a><a name="_Toc104389644"></a><a name="_Toc104208661"></a><a name="_Toc89157660"></a><a name="_Toc89262589"></a><a name="_Toc91842210"></a><a name="_Toc91855942"></a><a name="_Toc92286615"></a><a name="_Toc92310160"></a><a name="_Toc92350378"></a><a name="_Toc92362837"></a><a name="_Toc96939728"></a><a name="_Toc96956850"></a> <font color="#000000"><b>4 - Une IA au service des ressources humaines ?</b></font></p>
<p align="JUSTIFY"><font color="#000000">Au niveau des ressources humaines, pour la gendarmerie, il s'agit de capter les évolutions des contextes, des langages et des pratiques, donc que ses ressources soient en permanence synchrone avec leur environnement, leur terrain d’action. Ceci afin que la gendarmerie puisse rester en permanence en concordance avec son environnement. Cela se traduit dans les unités par une information du commandement et des équipes opérationnelles, mais aussi lors des formations. Pour cette raison l'enregistrement de la mémoire doit être continue, incrémentale et distribuées dans toute l'institution.</font></p>
<p align="JUSTIFY"><font color="#000000">Dès lors, et en conformité avec son slogan : la gendarmerie, une « force humaine ». La Gendarmerie nationale est engagée dans un processus de transformation, notamment dans le domaine des ressources humaines en exploitant l'IA comme moteur de l'innovation. Cela se traduit par une réflexion en cours sur une optimisation de la campagne de recrutement afin de s'assurer d'une même égalité d'accessibilité aux concours pour chaque citoyen mais aussi d'acquérir une meilleure visibilité sur le profil des candidats. La mise en place d’un mécanisme apprenant aurait pour objectif de s'adapter au mieux aux offres et aux demandes. C’est un dispositif qui s’inscrit dans un processus longitudinale et incrémentale en s’adaptant en continu aux besoins. Ce dispositif est un mécanisme cybernétique à réseau de neurones, il devrait probablement emporter une capacité de détection des potentiels à soumettre à l’analyse humaine. L'IA dans les ressources humaines offre également plus d'opportunités aux personnels en améliorant la gestion des compétences avec l'ambition de permettre à chacun d'être le principal acteur de son parcours de carrière à la fois en termes d'évolution, de formation et de mobilité. Au sein de cette institution, l’objectif de l'IA est aussi de réduire les processus chronophages et répétitifs et de faire face à la pénibilité de certaines tâches. Un agent conversationnel (IA) a été mis en œuvre pour répondre aux multiples et diverses interrogations des gendarmes sur leur parcours de carrière. De telles applications peuvent aussi être étendue aux citoyens pour une meilleure accessibilité au service de la gendarmerie, qui n’obèrerait en rien le contact humain a posteriori. Pour répondre aux besoins du personnel comme à ceux de la population, donc à une grande diversité des publics, la Gendarmerie a étudié l’intérêt d’utiliser des « d’Agents Conversationnels Animés (ACAs) [reposant] sur la technologie des agents intelligents</font><sup><font color="#000000"><a href="#sdfootnote14sym" name="sdfootnote14anc"><sup>14</sup></a></font></sup><font color="#000000"> » (cf, OUASTI N., BENDELLA F., BRAHIMI D., HATTAL A., (2016)). Ces agents conversationnels (possiblement anthropomorphe), sont des personnages virtuels interactifs qui sont dits multimodaux lorsqu’ils peuvent utiliser plusieurs modalités de communication : ils parlent plusieurs langues et peuvent également s’exprimer de façon non verbale (gestes des mains, expressions faciales, postures…) Buisine S. (2005). Il existe différents formes d’agents conversationnels (cf, Adamopoulou E., Moussiades L. (2020)), les plus simples sont dits « linéaires », s’appuient sur des arbres de décision et ne répondent qu’à des scenarii préétablis tandis que d’autres plus évolués fonctionnent sur le traitement du langage naturel (cf, Lalwani T. & Bhalotia S. et al (2018)). La mise-en-place de Chatbot</font><sup><font color="#000000"><a href="#sdfootnote15sym" name="sdfootnote15anc"><sup>15</sup></a></font></sup><font color="#000000"> « capable de dialoguer de manière autonome avec un utilisateur via le Traitement Automatique du Langage Naturel (TALN)</font><sup><font color="#000000"><a href="#sdfootnote16sym" name="sdfootnote16anc"><sup>16</sup></a></font></sup><font color="#000000"> » (cf, OUASTI N., BENDELLA F., BRAHIMI D., HATTAL A., (2016)), permet ainsi possiblement de satisfaire à de nombreuses interrogations des citoyens sans avoir à solliciter l'expertise humaine du gendarme qui interviendra néanmoins à chaque fois que le Chatbot ne pourra pas répondre à une demande. Pour la gendarmerie, il est en effet essentiel de souligner que l’utilisation d’un agent conversationnel ne doit pas déshumaniser la relation humaine mais plutôt la rendre plus disponible et plus adaptée au niveau d’expertise. La gendarmerie est particulièrement attentive à cet aspect tant vis-à-vis de son personnel que du citoyen. Le système d’apprentissage du Chatbot capitalisera ces questions/réponses et enrichira la mémoire du système. Ce système fournira également pour les gendarmes un outil pouvant aider lors de formations initiales ou continues. Il est aussi un système qui permet de repérer les nouvelles sémantiques utilisées dans les territoires. Ainsi, le Chatbot est un dispositif permettant un gain de temps humain</font><sup><font color="#000000"><a href="#sdendnote6sym" name="sdendnote6anc"><sup>vi</sup></a></font></sup><font color="#000000"> gagné grâce à l'usage de l'IA. Dès lors, sa vocation est aussi de permettre aux gendarmes de gagner en disponibilité professionnelle voire familiale et en aucune façon de supprimer des emplois. L’objectif est d’apporter aux gendarmes : informations, renseignements, formations et outillages lui permettant d’évoluer au sein d’environnements toujours dynamiques. Pour la gendarmerie, le travail peut ainsi se voir valoriser en accroissant encore l'objectif vers le mieux-être comme le mieux-faire. Il s’agit dès lors d’une transformation sociale engendrée par un nouveau contexte impulsé par la mise-en-œuvre d’un nouveau dispositif d’intelligence artificielle, dont la capacité mémoire dépasse celle d’un humain et cette dernière peut aussi être instantanément distribuée dans toute l’institution. Cette transformation s’inscrit dans une dynamique bimodale orientée sur le citoyen comme sur le gendarme lui-même. Celui-ci devenant un professionnel s’enrichissant et s’augmentant (donc avec de nouvelles capacités) avec les nouveaux dispositifs tout en s’inscrivant dans la stratégie de l’institution. On est ainsi dans l’idée de Mencius (penseur chinois confucianiste : 380-289 av J.-C.) et de François Jullien (1996) quand il écrit « il ne faut ni tirer sur les plantes pour les faire grandir plus vite [...], ni se dispenser de sarcler à leur pied pour les aider à pousser [...]. On ne peut forcer la plante à croître, on ne doit pas non plus la délaisser ; mais en la libérant de ce qui pourrait entraver son développement, il faut laisser pousser [...] Il revient à faire en sorte que cela puisse se faire tout seul ». Ainsi, il s’agit de « travailler à bien penser » (E. Morin). Dans cet esprit, nous construisons un dispositif numérique, reposant sur l’IA, créant un environnement favorable à la transformation en continue du gendarme.</font></p>
<p align="JUSTIFY"><font color="#000000">Dans ce paragraphe, nous avons montré comment l’IA, notamment par l’apport d’outils tels les chabots, va permettre aux RH de rester dans la même dynamique que les contextes en évolution permanente.</font></p>
<p align="JUSTIFY"><a name="_Toc118981406"></a><a name="_Toc118557709"></a><a name="_Toc116632247"></a><a name="_Toc116479445"></a><a name="_Toc105769923"></a><a name="_Toc104389645"></a><a name="_Toc104208662"></a><a name="_Toc89157661"></a><a name="_Toc89262590"></a><a name="_Toc91842211"></a><a name="_Toc91855943"></a><a name="_Toc92286616"></a><a name="_Toc92310161"></a><a name="_Toc92350379"></a><a name="_Toc92362838"></a><a name="_Toc96939729"></a><a name="_Toc96956851"></a> <font color="#000000"><b>5 - Anticiper l'évolution des métiers par l'IA</b></font></p>
<p align="JUSTIFY"><font color="#000000">L'IA, comme vecteur de la transformation, permet aussi d’anticiper l’impact sur l'évolution des métiers. Cet aspect semble déterminant pour le management afin de demeurer performant et attractif. Anticiper l'évolution des métiers, c'est préparer la gendarmerie aux challenges d'avenir et proposer aux personnels (militaire et civil) des formations adaptées, voire possiblement des possibilités de reconversion afin de prévenir toute désuétude des emplois. Les craintes du personnel sont à la fois réelles et légitimes quant au devenir de leurs missions opérationnelles et à l’impact des évolutions technologiques sur le maintien de leur emploi. Anticiper les évolutions par l’expression tangible (concrète) des trajectoires et des étapes exprimées dans un dispositif incrémental doit permettre de visualiser le gendarme de demain et ainsi rassurer le personnel en lui offrant une meilleure capacité à se projeter dans son devenir professionnel. Ainsi, L'IA, doit possiblement permettre de préparer chaque gendarme au devenir de l’environnement et aux mutations du métier et de l’institution. Plus qu’une disparition des métiers, une transformation des emplois est, pour la gendarmerie, très probable. Les emplois à vocation chronophage et répétitive devraient vraisemblablement être les plus impactés à court terme mais les sphères managériales devront probablement aussi se transformer. Pour ces derniers, l'IA offre une capacité d'aide à la décision possiblement démultipliée grâce à une quantité importante d'information mémorisée, analysée et transformée en hypothèse d’actions. Le manager assisté d'une IA ne sera probablement pas le manager d’hier ou d'aujourd'hui car l’IA sera pour lui un double numérique d’assistance lui apportant une rapidité informationnelle comme une vélocité d'analyse. Les métiers connaîtront probablement la transformation schumpetérienne autour du concept de destruction créatrice à savoir la destruction d'emploi accompagnée de la création de nouvelles opportunités. C’est dans cet esprit, que Philippe Agion et ses collègues (cf,</font> <font color="#000000">Aghion Ph., Antonin C., Bunel S. (2021)), ont écrit leur dernier ouvrage « le pouvoir de la destruction créatrice ». Pour eux il semble que « l’innovation a des effets indéniablement positifs – elle est positivement corrélée à la mobilité sociale et n’a pas d’effet significatif sur le coefficient de gini</font><sup><font color="#000000"><a href="#sdendnote7sym" name="sdendnote7anc"><sup>vii</sup></a></font></sup><font color="#000000">. […] Il en va tout autrement du lobbying [qui] réduit la croissance et accroît l’inégalité ». (Agion nous écrit aussi qu’il en va de même pour la corruption, elle produit les mêmes effets … (cf, Aghion Ph., Antonin C., Bunel S. (2021))).</font></p>
<p align="JUSTIFY"><font color="#000000">La dynamique de l’environnement est générateur de crises c’est la raison pour laquelle la formation du gendarme doit s’inscrire dans un système incrémentale pour être quotidiennement en prise avec son terrain. « Les crises sont des révélateurs de dysfonctionnements larvés » nous écrit Thierry Libaert (2005) c’est pour cette raison qu’elles perturbent les organisations en infiltrant les processus établis et non efficients. Dans ces circonstances les phénomènes informationnels et organisationnels s’entrelacent et se percutent. Raisons pour lesquelles il nous faut tenter de comprendre ce qui se passe, quels sont nos process, et ce qui risque de se produire. Sun Tzu disait : « connais l'adversaire et surtout connais-toi toi-même et tu seras invincible ». La profusion d’informations, multiformes, qui arrivent à flux continue va conduire à ce que les signaux d’alerte soient noyés dans des bruits postule Roberta Wohlstetter (1962) en analysant l’attaque des japonais à Pearl Harbor. Il va ainsi être nécessaire de discerner les alertes parmi les bruits. Et pour ce travail nous allons devoir disposer d’hypothèses pour guider l’analyse.</font></p>
<p align="JUSTIFY"><font color="#000000">Dans ce paragraphe nous avons montré que les évolutions de l’environnement devraient mettre certains métiers sous une pression générant une nécessaire évolution et adaptation à un nouvel écosystème, qui lui-même restera dynamique et donc en constante transformation. Dans le chapitre suivant, nous aborderons un aspect essentiel à toute démarche d'innovation : l'éthique</font></p>
<p align="JUSTIFY"><a name="_Toc118981407"></a><a name="_Toc118557710"></a><a name="_Toc116632248"></a><a name="_Toc116479446"></a><a name="_Toc105769924"></a><a name="_Toc104389646"></a><a name="_Toc104208663"></a><a name="_Toc89157664"></a><a name="_Toc89262593"></a><a name="_Toc91842214"></a><a name="_Toc91855946"></a><a name="_Toc92286619"></a><a name="_Toc92310164"></a><a name="_Toc92350382"></a><a name="_Toc92362841"></a><a name="_Toc96939730"></a><a name="_Toc96956852"></a> <font color="#000000"><b>6 - Éthique et cadre juridique, plus qu'une nécessité, une obligation</b></font></p>
<p align="JUSTIFY"><font color="#000000">Selon l’ONU</font><sup><font color="#000000"><a href="#sdendnote8sym" name="sdendnote8anc"><sup>viii</sup></a></font></sup><font color="#000000"> « Nous sommes au seuil d’une nouvelle ère. La révolution technologique transforme notre vie à une vitesse vertigineuse, modifiant profondément les façons dont nous travaillons, apprenons et même vivons ensemble. Avec l’utilisation de plus en plus sophistiquée des mégadonnées, l’IA connaît une croissance exponentielle et trouve de nouvelles applications dans un nombre toujours croissant de secteurs, y compris la sécurité, l’environnement, la recherche et l’éducation, la santé, la culture et le commerce. L’IA est la nouvelle frontière de l’humanité. Une fois que celle-ci sera franchie, une nouvelle forme de civilisation humaine verra le jour. Le principe directeur de l’IA n’est pas de devenir autonome ni de remplacer l’intelligence humaine. Mais, nous devons nous assurer qu’elle est développée selon une approche humaniste, fondée sur des valeurs et les droits de l’homme. Nous faisons face à une question cruciale, à savoir quel type de société nous voulons pour demain. La révolution de l’IA ouvre de nouvelles perspectives passionnantes, mais les bouleversements anthropologiques et sociaux qu’elle engendre méritent une réflexion approfondie ». […] « Si l’IA représente un atout pour le développement responsable de nos sociétés, elle pose aussi des questions éthiques importantes. Comment pouvons-nous nous assurer que les algorithmes n’empiètent pas sur les droits de l’homme fondamentaux – allant de la vie privée à la confidentialité des données en passant par la liberté de choix et la liberté de conscience ? La liberté d’action peut-elle être garantie lorsque nos désirs sont anticipés et guidés ? Comment pouvons-nous nous assurer que les stéréotypes sociaux et culturels ne sont pas reproduits dans les programmations en IA, notamment en ce qui concerne la discrimination fondée sur le genre ? Ces circuits peuvent-ils être reproduits ? Les valeurs peuvent-elles être programmées, et par qui ? Qui porte la responsabilité lorsque les décisions et les actions sont entièrement automatisées ? Comment pouvons-nous être sûrs que personne, où que ce soit dans le monde, n’est privé des bénéfices de ces technologies ? Comment veiller à ce que l’IA soit développée de manière transparente, de sorte que les citoyens du monde, dont la vie est affectée, aient leur mot à dire dans son développement ? » […] Et selon l’UNESCO en 2009, nous allons devoir travailler à « la définition des principes éthiques fondamentaux qui encadreront les développements de l’IA. »</font></p>
<p align="JUSTIFY"><font color="#000000">Intrinsèque à toute innovation, la dimension éthique comme juridique est à appréhender en matière d'une transformation appuyée par l'IA. L'IA est la source de nombreux débats et d'un riche questionnements éthiques au regard des risques majeures d'une utilisation malveillante. Elle peut contraindre, influencer comme dicter les choix de l'individu comme des organisations, elle bouleverse l'organisation du travail, le marché de l'emploi, les rapports sociaux, les relations économiques. L’éthique renvoie à des notions philosophiques comme au jugement moral et propose un outil pour établir des normes, des limites et des devoirs collectivement admis. La difficulté est l’hétérogénéité que porte les nations autour de l’éthique qui ne revêt pas de caractère d’universalité, car l’éthique semble être un objet culturel. L’essentiel en matière d’IA est alors de mettre en œuvre des applications qui attestent d’un niveau de confiance éclairé vis-à-vis de l’usager, c’est là un enjeu majeur pour son appropriation par les usagers. Et parce que l'éthique ne suffit pas toujours à réguler l'IA, un cadre juridique peut apparaître nécessaire. Qu’elle soit légitime ou non, objective ou non, les craintes autour des développements de l’IA nécessitent d’être appréhendées par toute organisation. Des intellectuels de renom tel que Stephen Hawking considère que l’IA peut même devenir une menace pour l’humanité en provoquant une bascule vers le temps de la singularité technologique, ce phénomène où la machine prendrait le dessus sur l’être humain. C’est le moment où le progrès technologique dépasserait l’humain dans l’appréhension des phénomènes (par exemple, par des systèmes d’apprentissage autonomes), la capacité à réagir ou à décider, un temps où l’humain pourrait devenir le vassal d’une technologie pilotée par l’intelligence artificielle conduisant à des changements sociétaux irréversibles. Il ne s’agit pas de « science-fiction » ou de raisonnement purement dystopique mais d’une inquiétude partagée par nombre de citoyens. Selon le célèbre physicien «le développement de l’intelligence artificielle complète pourrait sonner le glas de la race humaine. » </font></p>
<p align="JUSTIFY"><font color="#000000">Les Etats ont pris conscience de la nécessité de contrôler les potentiels débordements induits par le développement de l’IA mais l’équilibre est difficile à trouver afin de ne pas obérer toute capacité d’innovation. La réflexion sur l’éthique doit-être prégnante mais celle-ci ne doit pas nous obliger à prendre du retard sur le travail d’évolution et bloquer les réflexions sur les doctrines d’emploi. En effet certaines applications, certains groupes, certains pays peuvent passer outre les notions d’éthiques pour avancer dans les évolutions et travailler sur les réflexions et apprentissage afin de construire des doctrines d’emplois.</font></p>
<p align="JUSTIFY"><font color="#000000">Récemment, le 24 novembre 2021, la Conférence générale de l'UNESCO lors de sa 41e session a adopté une recommandation sur l’éthique de l’intelligence artificielle</font><sup><font color="#000000"><a href="#sdendnote9sym" name="sdendnote9anc"><sup>ix</sup></a></font></sup><font color="#000000">. L'Europe est, elle aussi, très active pour définir un cadre conforme au respect des libertés qui n’altère pas pour autant les perspectives de développement et d’innovation. C’est tout l’objet des travaux autour de « the artificial intelligence act »</font><sup><font color="#000000"><a href="#sdendnote10sym" name="sdendnote10anc"><sup>x</sup></a></font></sup><font color="#000000"> en 2021.</font></p>
<p align="JUSTIFY"><font color="#000000">L’enjeu autour de ces développements d’une éthique de l’IA, à la condition de ne pas sombrer vers une approche purement idéologique, est déterminant pour les grandes organisations afin de protéger les libertés individuelles tout en conservant la possibilité de promouvoir une innovation potentiellement disruptive au profit du progrès. Toutefois, l’éthique dans l’innovation numérique, particulièrement avec IA, semble devoir être prégnante parce que dans son ouvrage de 2016, Jean-Claude Heudin (2016) nous écrit comment il voit l’évolution de l’IA dans les futurs conflits : « les projets de robotique militaire envisagent une autonomie accrue des systèmes d’armes robotisés dans un futur proche. […] la société IAI a présenté à Eurosatory 2016 un impressionnant véhicule blindé autonome de sept tonnes […] capable de se déplacer et de combattre dans des terrains accidentés et difficiles. Un autre exemple est celui d’essaims de micro-drones largués par un avion de chasse, lui-même robotisé, pour saturer les défenses armées ennemies, comme l’envisage Ashton Baldwin Carter</font><sup><font color="#000000"><a href="#sdfootnote17sym" name="sdfootnote17anc"><sup>17</sup></a></font></sup><font color="#000000">. » […mais pas qu’en robotique…] « l’IA est capable de rivaliser avec les meilleurs experts militaires […], ainsi un expert US du combat aérien, « fut systématiquement abattu dans une simulation hyperréaliste d’engagement aérien par ALPHA</font><sup><font color="#000000"><a href="#sdfootnote18sym" name="sdfootnote18anc"><sup>18</sup></a></font></sup><font color="#000000"> « l’IA la plus agressive, dynamique et crédible qui lui a été donné de combattre » [postule ce colonel US]. C’est pour ces raisons, parmi d’autres, qu’une réflexion sur l’éthique et les doctrines d’emploi semblent nécessaires. Il convient également de conserver à l'esprit que la volonté de puissance et de domination est totalement étrangère à une machine. Seul l'humain peut insérer dans le logiciel gérant le raisonnement d’une machine ce type de volonté. Toutefois, s’agissant d’une IA mondialisée, dans un monde protéiforme, un conflit entre éthique et doctrine d’emploi peut possiblement émerger. Ainsi, face à l’incertitude, à un environnement protéiforme, en pleine évolution, il faut avancer en profitant en permanence du « potentiel de la situation » selon Julien (1996). Et, « Pour avancer, il faut toujours être en mouvement, renoncer aux arrêts. A chaque instant, on oscille entre déséquilibre, et c’est le maintien de cette posture qui assure le bon fonctionnement d’ensemble » Selon Cédric Villani (2012).</font></p>
<p align="JUSTIFY"><br />
</p>
<p align="JUSTIFY"><a name="_Toc118981408"></a><a name="_Toc118557711"></a><a name="_Toc116632249"></a><a name="_Toc116479447"></a><a name="_Toc105769925"></a><a name="_Toc104389647"></a><a name="_Toc104208664"></a><a name="_Toc89157665"></a><a name="_Toc89262594"></a><a name="_Toc91842215"></a><a name="_Toc91855947"></a><a name="_Toc92286620"></a><a name="_Toc92310165"></a><a name="_Toc92350383"></a><a name="_Toc92362842"></a><a name="_Toc96939731"></a><a name="_Toc96956853"></a> <font color="#000000"><b>7 - Conclusion :</b></font></p>
<p align="JUSTIFY"><font color="#000000">Mathis Schulte dans un entretien à HEC Paris</font><sup><font color="#000000"><a href="#sdfootnote19sym" name="sdfootnote19anc"><sup>19</sup></a></font></sup><font color="#000000"> postule que l’intelligence artificielle aura un impact majeur sur la gestion du changement dans les organisations. Dans son entretien, l’IA transformera la façon dont nous appréhendons et implémentons le changement. Il écrit que « très souvent, les organisations implémentent le changement une fois qu’il est trop tard. L’IA pourrait-elle transformer cette approche dite de « plateforme en feu » en une meilleure gestion du changement ? Qu’en serait-il si les organisations pouvaient capitaliser sur l’IA pour collecter des données et construire de meilleurs modèles de prédiction, avant même que la crise n’éclate ? ». Ainsi, il postule « que bien que l’impact de l’IA sur la gestion du changement soit, pour le moment, surtout hypothétique, il pourrait aider les entreprises à prendre les décisions plus tôt, et ainsi procéder au changement avant qu’il ne soit trop tard. » L’auteur « pense que l’IA facilitera une adaptation progressive plutôt qu’un changement immédiat et radical. « Les gens peuvent s’adapter et prendre en compte l’IA tôt dans le processus, et ainsi changer progressivement et non radicalement. » Les systèmes intelligents les plus sophistiqués ne seront cependant pas en mesure de prédire chaque facteur susceptible d’affecter une organisation. Contre les catastrophes naturelles ou nationales, par exemple, l’IA ne pourra pas faire de miracle. » Pour lui, « l’IA ne remplacera pas toute forme de collaboration humaine. En fait, elle pourrait jouer un rôle significatif pour permettre aux gens de travailler ensemble plus efficacement. « En nous fournissant des informations et retours sur la façon dont nous interagissons, les systèmes intelligents pourraient nous aider à améliorer notre communication, ». Dans sa recherche, il a établi que les personnes créatives sont souvent marginalisées, principalement parce qu’elles sont perçues comme inefficaces. Il prédit que l’IA sera capable d’analyser les dynamiques d’équipe et de réseau, ce qui mènera à une plus grande considération du rôle et de l’importance des groupes créatifs, en s’assurant que chaque voix soit entendue. »</font></p>
<p align="JUSTIFY"><font color="#000000">En période de mutations technologiques, économique, sociale, sociétale «le désir de maintenir le cours des choses jusqu'à ce qu'il soit trop tard est la plus grande menace que l'humanité fait peser sur elle-même» selon Edgar Morin(2015). C'est une réaction évidement stupide car « toute organisation, comme tout phénomène physique, organisationnel et, bien entendu, vivant, tend à se dégrader et à dégénérer» E. Morin (2005). Pour ces raisons le manager doit avoir la capacité, l'art de faire mouvoir ses équipes sans brutalité, avec intelligence émotionnelle . Sun Tzu disait : «Aimez vos troupes , et procurez-leur tous les secours, tous les avantages, toutes les commodités dont elles peuvent avoir besoin». «Ces [managers] possèdent véritablement l'art de bien gouverner les troupes, qui ont su et qui savent rendre leur puissance formidable». Enclencher et piloter un mouvement des équipes sans brutalité, sans décret, mais en travaillant en permanence sur le « potentiel de situation » F. Jullien (1996) pour les conduire dans la transformation nécessaire, est véritablement l'art de bien gouverner.</font></p>
<p align="JUSTIFY"><font color="#000000">Nous pensons comme R.-A. Thiétart & J.-M Xuereb (2005) que « Le dirigeant de l’entreprise complexe […] crée les conditions qui favorisent l‘émergence de nouvelles stratégies et formes d’organisation, il instaure une véritable dialectique, il expérimente, il offre des espaces de liberté tout en conservant en tête enjeux et sens de l’action. » parce que […] « la complexité à laquelle l’entreprise est soumise montre les limites des recettes à succès, de l’imitation des modes de management et de reconduction de pratiques qui ont réussi dans le passé. » […] « Les mêmes actions, qui ont fourni d’excellents résultats, se révèlent un jour être des sources d’échecs. » […] « Du fait des interactions multiples qui caractérisent tous les systèmes complexes, des actions similaires ne mènent jamais au même résultat. ». Cette organisation complexe avec ces espaces de libertés permettant l’innovation en continue font remonter à notre mémoire la citation de Dominique Genelot (2011) « Une innovation est une invention qui a trouvé son utilité » […] « on ne peut jamais prévoir l’accueil que l’environnement fera à une innovation; c’est seulement après coup que l’on peut constater qu’une idée s’est révélée être ou non une grande innovation ». Le management doit être familiarisé entre ces deux notions qu’il ne faut pas confondre invention et innovation. Le premier est un phénomène technique (ou artistique ) et le second appartient aux sciences de la conception (les sciences de l’artificiel, sciences de l’ingénieur : H. A. Simon (1991)). La transformation d’une invention en innovation peut possiblement se matérialiser, par un processus de bottom-up, c’est-à-dire par exemple dans un FabLab</font><sup><font color="#000000"><a href="#sdfootnote20sym" name="sdfootnote20anc"><sup>20</sup></a></font></sup><font color="#000000"> (Neil Gershenfeld). Concernant la validation de cette innovation, elle pourra possiblement être réalisée dans un LivingLab (Voilmy Dimitri, 2016) car ce dispositif permet d’impliquer les utilisateurs dès le début de la conception. Mais surtout ce dispositif permet à une population (par exemple de gendarmes de terrain, dans les brigades) d’influer sur les évolutions et d’appréhender les enjeux sociaux , technologiques et économiques.</font></p>
<p align="JUSTIFY"><font color="#000000">Mais les organisations ne doivent pas uniquement se consacrer à l’innovation (et l’exploration) car le quotidien emporte avec lui différentes actions de productions (et d’exploitations) et une gestion des risques. Et pour ces derniers Karl E. Weick, écrit que les organisations doivent apprendre à réagir face à l’incertitude causée par des événements inattendus. Mais comment les individus, installés dans des routines, peuvent-ils intégrer une capacité à réagir différemment quand ils comprennent que le neuf survient ? Parce que s’ils ne font rien, l’inattendu peut tuer les organisations mais peut aussi les rendre plus fortes . Pour cela, il faut qu’elles soient résilientes et agiles … et quelles ne se laissent pas embarquer (par facilité, par simplisme) dans de mauvaises interprétations ce que Paul Watzlawick nommait en 1976, « les pièces de la traduction ».</font></p>
<p align="JUSTIFY"><font color="#000000">Les mutations permanentes de nos sociétés et de nos environnements nous obligent à des changements dans nos habitudes, notre tactique et nos stratégies. Le changement impact donc les chefs et les gendarmes. Pour Sun Tzu « Un [manager] doit savoir l'art des changements. S'il s'en tient à une connaissance vague de certains principes, à une application routinière des règles de l'art, si ses méthodes de commandement sont dépourvues de souplesse, s'il examine les situations conformément à quelques schémas, s'il prend ses résolutions d'une manière mécanique, il ne mérite pas de commander ». Il s'agit en fait, pour le manager, d'actionner une intelligence émotionnelle, situationnelle et cybernétique par opposition à une réaction mécanique tel qu'un robot saurait le faire. Pour que le changement soit efficace, avec des acteurs réceptifs qui ont compris les mouvements, il faut un manager habile avec les processus cognitifs à l’œuvre et la mise-en-œuvre d’une stratégie agile. Ainsi, le changement nous semble une volonté de construire un demain avec un imaginaire bâti sur des incertitudes.</font></p>
<p align="JUSTIFY"><font color="#000000">A la question « Quel est l’avenir de l’incertitude ? » Edgar Morin répond en 1999 que « Ce siècle [le précédent] s’est donné des moyens très mutilant de se donner des certitudes qui sont de fausses certitudes. Aujourd’hui ces fausses certitudes s’effondrent. On retrouve l’incertitude. Mais l’incertitude n’est jamais totale. Il y a des flots de certitude et des zones d’incertitude en fonction desquels peuvent se construire la stratégie de pensée et la stratégie de l’action. […] Le monde est dans une phase particulièrement incertaine parce que les grandes bifurcations historiques ne sont pas encore prises. On ne sait pas où on va » … et pourtant il faut prendre des décisions, ne pas décider est aussi prendre une décision, en abordant les sujets avec une pensée complexe, c’est-à-dire une pensée non mutilante.</font></p>
<p align="JUSTIFY"><font color="#000000">De nos jours, en pleine période de crises (crise covid-19, crise économique à venir, crise de mutation), la confusion incessante entre risques et dangers est préjudiciable et aux individus, à ce qui fait société et aux organisations. Les dangers (les cindyniques) qui sont une science de l'ingénieur ne doivent pas être traités comme les risques, une science pour l'ingénieur. Les cindyniques tel que postulé par G-Y Kerven en 1995 doivent être abordées par l'hyperespace des dangers (avec ses 5 axes). Elles vont nous permettre de voir ce qui ne peut être vue en ne regardant uniquement les risques. Dans son ouvrage de 1997, « le risque psychologique majeur. Introduction à la psychosociologie cindynique », G-Y Kerven & al, nous évoquent (pp 57 à 152) le « risque recherché au risque dénié » (pp57-94) et « la psychologie cindynique » (pp95-152) ces phénomènes anthropologiques non visibles par une étude des risques.</font></p>
<p><a href="#sdfootnote1anc" name="sdfootnote1sym">1</a> <font size="2">L’informatique décisionnelle</font></p>
<p><a href="#sdfootnote2anc" name="sdfootnote2sym">2</a> <font size="2">Les données ouvertes, sont des données numériques dont l'accès et l'usage sont laissés libres aux personnes</font></p>
<p><a href="#sdfootnote3anc" name="sdfootnote3sym">3</a> <font size="2">la visualisation de données</font></p>
<p><a href="#sdfootnote4anc" name="sdfootnote4sym">4</a><font size="2"> De multiples exemples sont donnés dans les ouvrages de Géron et d’Heudin (op. cit.). Avec par exemple la fonction sigmoïde pour le calcul de seuil ou les calculs matriciels pour les neurones, les synapses et les couches ainsi que la propagation des données.</font></p>
<p><a href="#sdfootnote5anc" name="sdfootnote5sym">5</a> Les SVM <font size="2">sont un ensemble de techniques d'apprentissage supervisé destinées à résoudre des problèmes de discrimination et de régression.</font></p>
<p><a href="#sdfootnote6anc" name="sdfootnote6sym">6</a> <font size="2">En mathématiques, le produit de convolution est un opérateur bilinéaire et un produit commutatif. La convolution est un outil qui prend deux signaux (qui dépendent du temps) et qui en renvoie un nouveau.</font></p>
<p><a href="#sdfootnote7anc" name="sdfootnote7sym">7</a> <font size="2">Il s’agit en fait du calcul mathématique du gradient de l’erreur (Heudin, 2016, pp 81-85).</font></p>
<p><a href="#sdfootnote8anc" name="sdfootnote8sym">8</a> <font size="2">Au cœur de MapReduce se trouvent deux fonctions, Map et Reduce : La fonction Map transforme les entrées, les traite et génère un autre ensemble de données en vue d’être traitées par la fonction REDUCE. La fonction Reduce transforme les entrées issues de MAP en paires et génère des données en sortie.</font></p>
<p><a href="#sdfootnote9anc" name="sdfootnote9sym">9</a> <font color="#0563c1"><u><a href="https://fr.wikipedia.org/wiki/Java_(langage)" target="_top">https://fr.wikipedia.org/wiki/Java_(langage)</a></u></font></p>
<p><a href="#sdfootnote10anc" name="sdfootnote10sym">10</a> <font color="#0563c1"><u><a href="https://fr.wikipedia.org/wiki/Apache_HTTP_Server" target="_top">https://fr.wikipedia.org/wiki/Apache_HTTP_Server</a></u></font></p>
<p><a href="#sdfootnote11anc" name="sdfootnote11sym">11</a> <font color="#0563c1"><u><a href="https://fr.wikipedia.org/wiki/Hadoop" target="_top">https://fr.wikipedia.org/wiki/Hadoop</a></u></font></p>
<p><a href="#sdfootnote12anc" name="sdfootnote12sym">12</a> <font color="#0563c1"><u><a href="https://fr.wikipedia.org/wiki/MapReduce" target="_top">https://fr.wikipedia.org/wiki/MapReduce</a></u></font></p>
<p><a href="#sdfootnote13anc" name="sdfootnote13sym">13</a> <font color="#0563c1"><u><a href="https://fr.wikipedia.org/wiki/Serveur_informatique" target="_top">https://fr.wikipedia.org/wiki/Serveur_informatique</a></u></font></p>
<p><a name="_Hlk89074275"></a><a href="#sdfootnote14anc" name="sdfootnote14sym">14</a> <font size="2">CASTRO, SALLANTIN, CERRI (2020) proposent un protocole de communication nommé CRAT qui rend compte des communications au sein d’un couple d’agents en terme d’environnements d’évaluation et de scripts, et qui permet d’introduire la notion d’environnement dynamique dans le domaine des agents.</font></p>
<p align="JUSTIFY"><a href="#sdfootnote15anc" name="sdfootnote15sym">15</a><font size="2"> C’est-à-dire d’un programme informatique (IA) qui va converser avec une personne physique. l’utilisateur interagit en langage naturel avec le Chatbot. Ce dernier devrait possiblement être « intelligent ». C’est-à- dire être capable de comportements sociaux et tirer parti de sa représentation visuelle pour renforcer sa crédibilité.</font></p>
<p><a href="#sdfootnote16anc" name="sdfootnote16sym">16</a><font size="2"> L'objectif du traitement du langage naturel (TLN) est la conception de logiciels, capables de traiter de façon automatique des données linguistiques, c’est-à-dire des données exprimées dans une langue dite "naturelle", (OUASTI & al, 2016).</font></p>
<p><a href="#sdfootnote17anc" name="sdfootnote17sym">17</a> <font color="#0563c1"><u><a href="https://fr.wikipedia.org/wiki/Ashton_Carter" target="_top"><font size="2">https://fr.wikipedia.org/wiki/Ashton_Carter</font></a></u></font><font size="2"> </font></p>
<p><a href="#sdfootnote18anc" name="sdfootnote18sym">18</a> <font color="#000000"><font size="2">nom du système d’IA</font></font></p>
<p><a href="#sdfootnote19anc" name="sdfootnote19sym">19</a><font size="2"> </font><font color="#0563c1"><u><a href="https://www.hec.edu/fr/news-room/la-gestion-du-changement-l-ere-de-l-intelligence-artificielle" target="_top"><font size="2">https://www.hec.edu/fr/news-room/la-gestion-du-changement-l-ere-de-l-intelligence-artificielle</font></a></u></font><font size="2"> </font></p>
<p><a href="#sdfootnote20anc" name="sdfootnote20sym">20</a> <font size="2">Un fab lab (contraction de l'anglais fabrication laboratory, « laboratoire de fabrication ») est un tiers-lieu (Ray Oldenburg)</font></p>
<p align="JUSTIFY"><a href="#sdendnote1anc" name="sdendnote1sym">i</a> Nous considérons ici Le Big Data comme un volume très important et complexe de données qui peut se caractériser par cinq V : Volume — la mesure de données est en téra-octets ; Vitesse — la production de données se produit à des taux très élevés; Variété — les données sont hétérogènes (textes structurés, non structurés, images, sons); Véracité — en raison de traitements intermédiaires, la véracité soulève des inquiétudes de sécurité, de confidentialité, de confiance et de responsabilité, créant un besoin pour vérifier la provenance de données; et Valeur — l’analyse de ces données peut donner des idées contre intuitives et du renseignement actionnable (Gudivada V. N. Baeza-Yates R. et Raghavan V. V. (2015)).</p>
<p align="JUSTIFY"><a href="#sdendnote2anc" name="sdendnote2sym">ii</a> Selon le Larousse l'intelligence artificielle (IA) est « l'ensemble des théories et des techniques mises en œuvre en vue de réaliser des machines capables de simuler l'intelligence humaine ». Les principaux pionnier de l'intelligence artificielle semblent être John McCarthy et Marvin Lee Minsky. En 2006, Hugues Bersini écrit l’ouvrage particulièrement instructif : « De l'intelligence humaine à l'intelligence artificielle », Paris, Ellipse, 2006, 192 p.</p>
<p align="JUSTIFY"><a href="#sdendnote3anc" name="sdendnote3sym">iii</a> Ces cartes auto-organisatrices sont des cartes autoadaptatives, topologiques. Elles forment une classe de réseau de neurones artificiels fondée sur des méthodes d'apprentissage non supervisées. Elles sont organisées (via l’apprentissage) de telle façon, par exemple, que deux neurones physiquement proches dans le cortex visuel traitent des entrées physiquement proches.</p>
<p align="JUSTIFY"><a href="#sdendnote4anc" name="sdendnote4sym">iv</a> Une machine de Turing doit pouvoir simuler toute fonction récursive, analyser tout langage récursif, et accepter tout langage partiellement décidable. Une telle machine est semblable à un automate fini, c’est-à-dire une construction mathématique abstraite, susceptible d'être dans un nombre fini d'états, mais a un instant donné dans un seul état à la fois.</p>
<p><a href="#sdendnote5anc" name="sdendnote5sym">v</a> <font color="#0563c1"><u><a href="https://www.vie-publique.fr/rapport/37225-donner-un-sens-lintelligence-artificielle-pour-une-strategie-nation" target="_top">https://www.vie-publique.fr/rapport/37225-donner-un-sens-lintelligence-artificielle-pour-une-strategie-nation</a></u></font> (Y. Le Pottolec, 2018)</p>
<p align="JUSTIFY"><a href="#sdendnote6anc" name="sdendnote6sym">vi</a> Ce dispositif (chabot avec sa mémoire partagée et distribuée) permet ainsi aux gendarmes (managers et opérationnels) une immersivité dans les contextes qu’ils vont rencontrer (cf. IMMERSIVITÉ ET INNOVATIONS TECHNOLOGIQUES Colloque international et interdisciplinaire, Université de Montréal / Université McGill, 11-13 juin 2020).</p>
<p align="JUSTIFY"><a href="#sdendnote7anc" name="sdendnote7sym">vii</a> Selon L’INSEE, « L'indice (ou coeff) de Gini est un indicateur synthétique permettant de rendre compte du niveau d'inégalité pour une variable et sur une population donnée. Il varie entre 0 (égalité parfaite) et 1 (inégalité extrême). Entre 0 et 1, l'inégalité est d'autant plus forte que l'indice de Gini est élevé. Il est égal à 0 dans une situation d'égalité parfaite où la variable prend une valeur identique sur l’ensemble de la population. À l'autre extrême, il est égal à 1 dans la situation la plus inégalitaire possible [...]. Les inégalités ainsi mesurées peuvent porter sur des variables de revenus, de salaires, de niveau de vie, etc. »</p>
<p><a href="#sdendnote8anc" name="sdendnote8sym">viii</a> <font color="#0563c1"><u><a href="https://www.un.org/fr/chronicle/article/vers-une-ethique-de-lintelligence-artificielle" target="_top">https://www.un.org/fr/chronicle/article/vers-une-ethique-de-lintelligence-artificielle</a></u></font></p>
<p><a href="#sdendnote9anc" name="sdendnote9sym">ix</a> Rapport de la Commission Sciences sociales et humaines (SHS)- UNESCO, conférence général, 41st, 2021.</p>
<p align="JUSTIFY"><a href="#sdendnote10anc" name="sdendnote10sym">x</a> Proposal for a regulation of the european parliament and of the council - laying down harmonised rules on artificial intelligence (artificial intelligence act) and amending certain union legislative acts – european commission, 2021.</p>
<p align="CENTER"><a name="_Toc118981409"></a><a name="_Toc118557712"></a><a name="_Toc116632250"></a><a name="_Toc116479448"></a><a name="_Toc105769926"></a><a name="_Toc104389648"></a><a name="_Toc104208665"></a><a name="_Toc89157666"></a><a name="_Toc89262595"></a><a name="_Toc91842216"></a><a name="_Toc91855948"></a><a name="_Toc92286621"></a><a name="_Toc92310166"></a><a name="_Toc92350384"></a><a name="_Toc92362843"></a><a name="_Toc96939732"></a><a name="_Toc96956854"></a> <font face="Calibri Light, sans-serif"><font size="6"><font color="#000000"><font face="Calibri, sans-serif"><font size="2"><b>8 - Bibliographie</b></font></font></font></font></font><font color="#000000"><b> :</b></font></p>
<p align="JUSTIFY"><font color="#000000">Adadi et Berrada M. (2018), "Peeking Inside the Black-Box: A Survey on Explainable Artificial Intelligence (XAI)," in </font><em><font color="#000000">IEEE Access</font></em><font color="#000000">, vol. 6, pp. 52138-52160.</font></p>
<p align="JUSTIFY"><font color="#000000">Adamopoulou E., Moussiades L. (2020) An Overview of Chatbot Technology. In: Maglogiannis I., Iliadis L., Pimenidis E. (eds) Artificial Intelligence Applications and Innovations. AIAI 2020. IFIP Advances in Information and Communication Technology, vol 584. </font><font color="#000000">Springer, Cham.</font></p>
<p align="JUSTIFY"><font color="#000000">Antoniu G. et Hacid M.-S.(2017), « MapReduce pour calculer sur des données massives» (p114-115) in Les Big Data à découvert, Bouzeghoub et Mousseri, CNRS éditions. 364 p.</font></p>
<p align="JUSTIFY"><font color="#000000">Aghion Ph., Antonin C., Bunel S. (2021), Le pouvoir de la destruction créatrice – Innovation, croissance et avenir du capitalisme , Odile Jacob, Octobre 2020, 435 p.</font></p>
<p align="JUSTIFY"><font color="#000000">Allard-Poesi F. et Perret V. (2004) évoque le terme « d’architecte ingénieur constructiviste », in Allard-Poesi F. et Perret V. (2004, p10), « La représentation du problème dans la recherche-action : Définitions et illustration au travers de l’élaboration d’un projet stratégique », 13ème conférence AIMS, 2, 3 et 4 juin 2004.</font></p>
<p align="JUSTIFY"><font color="#000000">Allard-Poesi F. et Maréchal C.-G. (2003), « Construction de l’objet de la recherche » pp 34-56, in Thietart R.-A. et al., Méthodes de recherche en management - Dunod (2ème Ed.) – 2003 – 537p.</font></p>
<p align="JUSTIFY"><font color="#000000">Bailly A. (1992), « Représentation et analyse des territoires : une épistémologie de la science régionale » (pp3-24) in Derycke P.H. (dir), Espace et dynamiques territoriales – Economica – Paris - 1992.</font></p>
<p align="JUSTIFY"><font color="#000000">Bessai F.Z., Krelifaoui M., Guergab M., « Utilisation des cartes auto-organisatrices de Kohonen dans la recherche documentaire » … consulté le 29/05/2022 : </font><font color="#0563c1"><u><a href="https://www.academia.edu/" target="_top">https://www.academia.edu/</a></u></font><font color="#000000"> </font></p>
<p align="JUSTIFY"><font color="#000000">Bouchet Y. (2006), « Intelligence Economique Territoriale. Approche ingénièrique dans une municipalité de moyenne dimension ». Thèse pour l’obtention du doctorat en Sciences de l'Information et de la Communication. IAE de LYON, centre de recherche Magellan. 430p.</font></p>
<p align="JUSTIFY"><font color="#000000">Braunschweig B. (2017). « Développons MarlAnne, un agent conversationnel pour les citoyens » in N° 847, (pp 86-87), Sciences et Avenir, septembre 2017</font></p>
<p align="JUSTIFY"><font color="#000000">Buisine S. (2005), Conception et Évaluation d'Agents Conversationnels Multimodaux Bidirectionnels, Thèse pour obtenir le grade de Docteur de l’Université Paris 5, Psychologie Cognitive – Ergonomie, 264p</font></p>
<p align="JUSTIFY"><font color="#000000">Chanal V., Lesca H. et Martinet A.-C. (1997), « Vers une ingénierie de la recherche en sciences de gestion », Revue Française de Gestion, novembre-décembre, pp 41-51</font></p>
<p align="JUSTIFY"><font color="#000000">Cheun H.- C., Epps J., Enzinger E. (</font><em><font color="#000000">2013)</font></em><font color="#000000">, </font><font color="#000000"><i>Separate MAP adaptation of GMM parameters for forensic voice comparison on limited data</i></font><font color="#000000">,</font><em><font color="#000000"> </font></em><em><font color="#000000">IEEE International Workshop on Information Forensics and Security (WIFS)</font></em><font color="#000000">, 2013, pp. 1-6, doi: 10.1109/WIFS.2013.6707785.</font></p>
<p align="JUSTIFY"><font color="#000000">Claveau N. et Tannery F. (2002), « La recherche à visée ingénièrique en management stratégique ou la conception d’artefacts médiateurs », in Mourges N. et al (eds), Questions de méthodes en sciences de gestion, Caen, EMS, 2002, pp. 121-150.</font></p>
<p align="JUSTIFY"><font color="#000000">Cohen D. (2018), « il faut dire que les temps ont changé … », Albin Michel, 230p</font></p>
<p align="JUSTIFY"><font color="#000000">De Castro E. J. R., Jean S., Stefano A.-C. (2020). CRAT - Vers une Programmation Conversationnelle. P. Anjorte; S. Gouardères. Cognitique: Vers une Informatique plus Cognitive et Sociale, Cépaduès, pp.111-122, 2003, 9782854286120. lirmm-00269796</font></p>
<p align="JUSTIFY"><font color="#000000">David A. (2000), « La recherche-intervention, cadre général pour la recherche en management », in David A., Hatchuel A., Laufer R. (eds), Les nouvelles fondations des sciences de gestion, Paris, Vuibert, 2000, pp. 193-213.</font></p>
<p align="JUSTIFY"><font color="#000000">Genelot D. (2011), Manager dans la complexité – Réflexions à l’usage des dirigeants, INSEP CONSULTING Éditions, 371p.</font></p>
<p align="JUSTIFY" lang="en-US">Géron A. (2017), Deep Learning avec TensorFlow, Dunond, 346p.</p>
<p align="JUSTIFY"><font color="#000000">Dietterich, T. G., & Kong, E. B. (1995). </font><font color="#000000"><i>Machine learning bias, statistical bias, and statistical variance of decision tree algorithms</i></font><font color="#000000"> (pp. 0-13). Technical report, Department of Computer Science, Oregon State University.</font></p>
<p align="JUSTIFY"><em><font color="#000000">Gudivada V. N. Baeza-Yates R. et Raghavan V. V. (2015). Big Data: Promises and Problems. </font></em><em><font color="#000000">The Community for Technology Leaders. PP 20-23. Consulté le 26/08/2017 à l’adresse : </font></em><em><a href="https://mycomputer.computer.org/csdl/mags/co/2015/03/mco2015030020.html" target="_top"><font color="#000000">https://mycomputer.computer.org/csdl/mags/co/2015/03/mco2015030020.html</font></a></em></p>
<p align="JUSTIFY">Heudin J.-C. (2016), Comprendre le DEEP LEARNING, Une introduction aux réseaux de neurones, Science eBook, 178p.</p>
<p align="JUSTIFY">Huang C.C. and al., 2013), Convergence of pontine and proprioceptive streams onto multimodal cerebellar granule cells. En ligne le 30 mai 2022 <font color="#0563c1"><u><a href="https://elifesciences.org/articles/400" target="_top">https://elifesciences.org/articles/400</a></u></font></p>
<p align="JUSTIFY">Jullien François (1996), Traité de l’efficacité, biblio essais, livre de poche, Grasset & Fasquelle,306p</p>
<p align="JUSTIFY"><font color="#000000">Kant E. (1975) Critique de la raison pure (trad. Tremesaygues et Pacaud, préf. Charles Serrus, PUF, coll. « Bibliothèque de Philosophie contemporaine », 1975, 8e éd., 584 p.</font></p>
<p align="JUSTIFY"><font color="#000000">Kerven G-Y (1995), Éléments fondamentaux des cindyniques, ECONOMICA, 111p.</font></p>
<p align="JUSTIFY"><font color="#000000">Kerven G-Y & al (1997), le risque psychologique majeur. Introduction à la psychosociologie cindynique, Ed ESKA, 156p</font></p>
<p align="JUSTIFY"><font color="#000000">Lalwani T. & Bhalotia S. et al (2018). </font><font color="#000000">Implementation of a Chatbot System using AI and NLP (May 31, 2018). International Journal of Innovative Research in Computer Science & Technology (IJIRCST) Volume-6, Issue-3, May-2018.</font></p>
<p align="JUSTIFY"><font color="#000000">Laugier S. (2017). « Introduction» (p267) in Les Big Data à découvert, Bouzeghoub et Mousseri, CNRS éditions. </font><font color="#000000">364 p.</font></p>
<p align="JUSTIFY"><font color="#000000">LeCun Y., Bottou L., Bengio Y. et Haffner P. (1998), </font><i><font color="#000000">Gradient-based learning applied to document recognition</font></i><font color="#000000"> , </font><font color="#000000"><i>Proceedings of the IEEE</i></font><font color="#000000">, vol. 86, n</font><font color="#000000"><sup>o</sup></font><font color="#000000"> 11,</font><font color="#000000">‎</font><font color="#000000"> 1998, p. 2278–2324</font></p>
<p align="JUSTIFY"><font color="#000000">Le Moigne J.-L. (1995), « Joyeuse méditation épistémologique sur la modélisation symbolisante de l’intelligence » in Rialle V., Payette D. et al. - Modèles de la cognition, vers une science de l’esprit - Lekton, Canada - 1995</font></p>
<p align="JUSTIFY"><font color="#000000">Le Moigne J.-L. (1997), Les épistémologies constructivistes, un nouveau commencement – Le constructivismes en construction - Sciences de la société, N°41, mai – 1997 (pp195-215).</font></p>
<p align="JUSTIFY"><font color="#000000">Le Pollotec Y. (2018), </font><font color="#000000"><i>Intelligence artificielle : le rapport de Cédric Villani, </i></font><font color="#000000">In La Pensée 2018/4 (n°396) p. 73 à 85.</font></p>
<p align="JUSTIFY">Libaert Thierry (2005), La communication de crise, Ed. Dunod, 118p</p>
<p align="JUSTIFY"><font color="#000000">Menger (Pierre-Michel), Paye (Simon), dir., Big data et traçabilité numérique. Les sciences sociales face à la quantification massive des individus, Paris, Collège de France, 2017, 218 p.</font></p>
<p align="JUSTIFY"><font color="#000000">Mesnier P.-M. (dir.), Missotte P. (dir.) (2003) - La recherche-action : une autre manière de chercher, se former, transformer. - Paris : L'Harmattan, 2003.</font></p>
<p align="JUSTIFY"><font color="#000000">Moisdon J.-C. (1997) (dir), Du mode d’existence des outils de gestion, Paris, Séli-Arslan, 1997.</font></p>
<p align="JUSTIFY"><font color="#000000">Morin E. (2005), « Introduction à la pensée complexe, Points, Essais, Editions de Seuil, 160p.</font></p>
<p align="JUSTIFY"><font color="#000000">MORIN E. (2015), Penser global, Robert Laffont (3 septembre 2015), ‎ 180 pages</font></p>
<p align="JUSTIFY"><font color="#000000">MORIN E. et BIBARD L. « Complexité et Organisations - Faire face aux défis de demain », Eyrolles, Mars 2018 , 472 p</font></p>
<p align="JUSTIFY"><font color="#000000">Müller et Guido (2018), Le Machine learning avec Python, BIBLE DES DATA SCIENTISTS, Ed First, O’REILY, 367p</font></p>
<p align="JUSTIFY"><font color="#000000">OUASTI N., BENDELLA F., BRAHIMI D., HATTAL A., (2016), Un outil de conversation pour les Agents Conversationnels Animés, 7p</font></p>
<h4 align="JUSTIFY"><font color="#000000"><font face="Calibri, sans-serif"><font size="2">Perrot P. (2017), </font></font></font><font color="#000000"><font face="Calibri, sans-serif"><font size="2"><i>What about AI in criminal intelligence?</i></font></font></font><font color="#000000"><font face="Calibri, sans-serif"><font size="2"> In European Police Science and Research Bulletin.</font></font></font></h4>
<h4 align="JUSTIFY" lang="en-US"> </h4>
<h4 align="JUSTIFY"><font color="#000000"><font face="Calibri, sans-serif"><font size="2">Perrot P. (2015), </font></font></font><font color="#000000"><font face="Calibri, sans-serif"><font size="2"><i>Forecasting analysis in a criminal intelligence context</i></font></font></font><font color="#000000"><font face="Calibri, sans-serif"><font size="2">, Proc.International Crime and Intelligence Analysis Conference.</font></font></font></h4>
<h4 align="JUSTIFY" lang="en-US"> </h4>
<h4 align="JUSTIFY"><font color="#000000"><font face="Calibri, sans-serif"><font size="2">Shawe-Taylor John, Nello Cristianini (2000), </font></font></font><font color="#000000"><font face="Calibri, sans-serif"><font size="2"><i>Support Vector Machines and other kernel-based learning methods</i></font></font></font><font color="#000000"><font face="Calibri, sans-serif"><font size="2">, Cambridge University Press.</font></font></font></h4>
<p>Simon H. A. (1991), Sciences des systèmes, Sciences de l’artificiel – Paris – Bordas - Dunod – 1991 – 230p.</p>
<p align="JUSTIFY"><font color="#000000">Thiétart R.-A. & Xuereb J.-M (2005), Stratégies – Concepts. Méthodes. Mise en œuvre. Dunod, Management Sup, 336p.</font></p>
<p align="JUSTIFY"><font color="#000000">Tzu Sun, « l’art de la guerre », texte intégral, tite fée édition, 79p.</font></p>
<h4 align="JUSTIFY"><font color="#000000"><font face="Calibri, sans-serif"><font size="2">Vapnik V. (1998), Statistical Learning Theory</font></font></font></h4>
<h4 align="JUSTIFY"><font color="#000000"><font face="Calibri, sans-serif"><font size="2">Voilmy Dimitri (2016), « Les living labs et la conception participative : l’exemple d’ActivAgeing », Retraite et société, vol. 75,‎ 2016, p. 75 </font></font></font></h4>
<p align="JUSTIFY"><font color="#000000">Schumpeter J. (1998), Traduction française 1951 Capitalisme, socialisme et démocratie, Paris, Payot, p. 106-107, 1943</font></p>
<p align="JUSTIFY"><font color="#000000">Villani Cédric (2012), « La recherche ? Une obsession. Et un vertige » (pp 169-185) in Denis Lafay & al, Il est l’heure, Acteur de l’économie, La tribune. RH Editions (2012). 205p.</font></p>
<p align="JUSTIFY"><font color="#000000">Watzlawick P. (1976), « La réalité de la réalité », Points, Essais, Editions de Seuil.</font></p>
<p align="JUSTIFY" lang="en-US"><font color="#000000">Wohlstetter R. (1962), Pearl Harbor, warning and decision - Stanford - Stanford University Press – 1962</font></p>
<p align="JUSTIFY" lang="en-US"><br />
</p>
<p align="JUSTIFY"><font color="#000000">[]</font><a href="https://www.actuia.com/contribution/patrick-perrot/pour-une-intelligence-artificielle-de-confiance-au-profit-de-la-securite/" target="_top">https://www.actuia.com/contribution/patrick-perrot/pour-une-intelligence-artificielle-de-</a><a href="https://www.actuia.com/contribution/patrick-perrot/pour-une-intelligence-artificielle-de-confiance-au-profit-de-la-securite/" target="_top">confiance-au-profit-de-la-securite/</a> .</p>
<p align="JUSTIFY"><font color="#000000">IMMERSIVITÉ ET INNOVATIONS TECHNOLOGIQUES Colloque international et interdisciplinaire Université de Montréal / Université McGill, 11-13 juin 2020.</font></p>
<p align="JUSTIFY"><font color="#000000">Bouchet Y., Bertacchini Y., Groleas H., Bénet D.,</font> <font color="#000000">Badin C, (2018), « Big et Open Data, dispositifs contingents des développements sociaux & économiques locaux », JITIPEE : Journal International de Technologie, de l'Innovation, de la Physique, de l'Energie et de l'Environnement - ISSN 2428-8500, Vol 4, N°1, 2018.</font></p>
<p align="JUSTIFY">Bouchet Y., Bertacchini Y., Bénet D., (2016), « L’entreprise du 21ème siècle résiliente et ambidextre, le numérique comme hypothèse de travail ». R2IE : La Revue Internationale d'Intelligence Économique, vol 8, 2/2016, Varia, pp 83-92.</p>
<p align="JUSTIFY">Bouchet Y., Bertacchini Y., Groléas, H., (2016), « L’ambidextrie territoriale ou comment une collectivité territoriale se met en dynamique avec sa territorialité », Revue de Management et de Stratégie, (2:5), pp.23-32, www.revue-rms.fr, VA Press.</p>
<p align="JUSTIFY">Bouchet Y., Bertacchini Y. (2015), « L’innovation digitale dans l’intercommunalité, un processus adaptatif associé à une méta-méthode ». Colloque international AIRMAP (Association Internationale de Recherche en Management Public), « Les nouveaux territoires du management public », organisé en partenariat avec l'IAE Lyon - Université Jean Moulin Lyon 3. Atelier n°21 : e-territoires et smart cities du 28 mai 2015 au 29 mai 2015, 17 p.</p>
<p align="JUSTIFY">Bouchet Y. (2014), « Cloud intercommunale, une nécessité ?». Intégration et traitement de données dans les environnements Cloud ou multi-Clouds : Problématiques et perspectives. IAE de Lyon (27 mars 2014). 2p.</p>