<p>L’intelligence artificielle est une expression fourre-tout, qui suscite autant d’espoirs que de craintes. Cette expression est présente dans les médias, les conférences, les conversations, mais aussi les appels à projets des institutions de recherche et de diverses associations. Les enjeux de la présence de l’IA dans nos différentes activités (enseignement, production médiatique, prise de décision, dans le domaine juridique ou bien médical) restent cependant à découvrir. </p>
<p>La polémique autour de ChatGPT-3, l'outil public développé par OpenAI et lancé en novembre 2022, a fait rééclater dans l’espace public le débat autour de l'utilisation, de manière générale, de l'intelligence artificielle dans toutes les activités intellectuelles. ChatGPT a été salué pour sa capacité à comprendre le langage naturel et à générer des réponses de type humain, mais il a également soulevé des inquiétudes. Ces préoccupations pointent généralement les implications éthiques, la reproduction de contenus préjudiciables, des violations de la vie privée, des données de formation biaisées. Le terme « intelligence artificielle » (IA) date de 1956, mais il a connu un vrai essor de nos jours. Certaines définitions de l'IA la décrivent comme "la capacité des machines à effectuer des tâches qui nécessitent généralement une compréhension de type humain" (Knowledge & Wharton, 2018) ou "une application sophistiquée de la technologie par laquelle une machine démontre des fonctions cognitives humaines telles que l'apprentissage, l'analyse et la résolution de problèmes" (Valin, 2018).</p>
<p>Le 21 mai 2024, le Conseil de l’UE a donné son feu vert définitif à la première réglementation mondiale en matière d’IA, après un premier accord politique trouvé fin 2023. La législation européenne adoptée classe les différents types d'intelligence artificielle en fonction des risques : risques inacceptables, haut risque, risque limité et risque minimal. Les systèmes d'IA portant, par exemple, sur la manipulation comportementale cognitive et la notation sociale seront interdits dans l'UE car leur risque est jugé inacceptable. La législation interdit également l'utilisation de l'IA à des fins de police prédictive fondée sur le profilage et les systèmes qui utilisent des données biométriques pour classer les individus selon des catégories spécifiques telles que la race, la religion ou l'orientation sexuelle. Les systèmes d'IA ne présentant qu'un risque limité seront soumis à des obligations de transparence très légères, tandis que les systèmes d'IA à haut risque seraient autorisés, mais soumis à une série d'exigences et d'obligations pour accéder au marché de l'UE (Commission européenne, 2024, Conseil de l’UE, 2024). “Une cartographie des conflits de définition montrent que l’Artificial Intelligence Act, en se concentrant sur les produits et en reposant sur le paradigme des risques, ne traite que d’un aspect limité de l’Intelligence Artificielle et de son contrôle”, soulignent Benbouzid et Cardon (2022, p. 18).</p>
<p>Auparavant, l’Unesco a mis en place un Observatoire mondial de l’éthique et de la gouvernance de l’IA dont le but est de fournir des ressources aux décideurs politiques, aux régulateurs, aux universitaires, au secteur privé et à la société civile afin de trouver des solutions éthiques et responsables aux défis soulevés par l’IA. L’UNESCO recommande une approche de l’IA basée sur les droits de l’homme en mettant en avant des principes comme ceux de proportionnalité, sécurité et sûreté, mais aussi droit au respect de la vie privée et protection des données, ainsi que la transparence.</p>
<h2>Le discours des médias sur l’IA</h2>
<p>Les titres dédiés par certaines revues scientifiques françaises au phénomène de l’intelligence artificielle en disent déjà beaucoup sur la perception de l’émergence de l’IA, y compris dans le milieu scientifique : “Contrôler l’intelligence artificielle?” (revue Réseaux, 2022), “L’Intelligence artificielle: raison et magie” (Quaderni, 2021/2022).</p>
<p>Les auteurs qui se sont intéressés à la représentation médiatique de l’IA parlent même “de la magie de l’IA, à la fois la production de la hype et sa réception sous forme de croyance” (Roberge et al, 2022, p. 185) qui revient constamment et périodiquement dans l’avant-scène médiatique à de différents degrés d’intensité. Ils sont à l’unanimité d’accord pour dire qu’elle suscite une constante fascination (Zouinar, 2020, Reigeluth, 2021, Petit, 2021, Crépel et Cardon, 2022, Ménissier, 2022, Korneeva et al, 2023).<br />
Un autre point commun des recherches qui ont déjà approché la présence de l’IA dans les médias réside dans la représentation des débats publics sur le sujet autour d’une polarité entre risques et promesses, peurs et espoirs (Crépel et Cardon, 2022, Benbouzid et Cardon, 2022). “La cohabitation des deux régimes discursifs de la prophétie et de la critique dans les débats médiatiques autour de l’IA constitue une manière empirique de montrer comment se structure l’imaginaire des technologies dites « intelligentes »”, soulignent Crépel et Cardon (2022, p. 161).<br />
L’une des analyses longitudinales les plus récentes des représentations médiatiques des controverses de l’IA au cours de la dernière vague d'engouement sur la question, dans la presse anglophone (des États-Unis et d'Angleterre), montre la mobilisation de deux représentations critiques contrastées, celle du robot autonome et celle des algorithms qui ont émergé pour caractériser de nouveaux risques (Crépel et Cardon, 2022).<br />
Une autre étude longitudinale qui s’est intéressée à la représentation de l’IA sur plusieurs décennies dans les médias anglophones (Sun et al, 2020) a constaté comment les médias définissent souvent l’IA comme une solution à des problèmes communs de chaque jour (économique, de santé). Cette même étude a montré que, même si certains articles favorisent le côté sensationnel de l’IA, quand même les modèles d'argumentation axés sur les avantages (par exemple, des arguments euphoriques, pragmatiques et économiquement optimistes) sont apparus plus fréquemment que ceux qui mettent l’accent sur les risques ou les limites (par exemple, les arguments économiquement pessimistes et relativistes). Suite à l’analyse des médias allemands, Winker (2024) révèle que les discours à propos de l’IA oscillent entre le déterminisme technologique et celui social et considère que le cadrage choisi par les médias sur l’IA détermine les citoyens à insister en faveur de sa régulation par des réglementations et des lois. L’analyse réalisée par Lemke, Trein et Varone (2024) sur comment l’IA est définie en tant que problème politique, toujours dans l’espace public allemand, prouve que la plupart des acteurs se concentrent sur l’innovation technologique plutôt que sur les aspects liés aux droits civiques, même si des questions comme la protection des consommateurs, le travail et l’éducation restent quand même présents dans les discours analysés. L’étude longitudinale de Korneeva et al (2023), sur un corpus de presse anglophone, a également montré qu’il y avait des valeurs positives plus élevées associées à l’IA que celles négatives et, en plus, ce niveau positif avait augmenté dans le temps, tandis que les valeurs négatives par rapport à l’IA sont restées stables.<br />
En analysant comment le statut social de l’IA est construit dans le débat public dans quelques médias américains, Bran et al (2023) identifient une variété de positions discursives, de l’IA comme collègue de travail compétent et créatif jusqu’à l’IA comme un outil qui re-combine des informations d’une manière qui n’est pas intelligente ou même comme un magicien créatif. Souvent, dans le discours des médias sur l’IA, il y a un vocabulaire contradictoire, on perçoit l’IA soit comme créatif, soit comme purement imitatif, parfois compétent, mais aussi souvent incompétent (Bran et al., 2023).<br />
</p>
<h2>Problématique</h2>
<p>Le discours des médias est une forme de légitimation d’un problème public (Korneeva et al, 2023), mais c’est aussi une manière de construire un certain positionnement par rapport à une nouvelle technologie.<br />
Nous nous proposons d’identifier la représentation de l’intelligence artificielle dans le discours des médias roumains et français après le lancement du Chat GPT-3, en utilisant une grille d’analyse qui identifie les cadrages dominants dans le discours public à propos de l’IA qui sera appliquée sur un corpus d’articles de presse des deux pays afin de réaliser une approche comparative. Notre but c’est d’identifier les éléments des récits qui sont utilisés par les médias des deux pays pour parler de l’IA afin de comprendre quel est l’Imaginaire de l’IA (dans le sens de Flichy, 2001) construit par les médias, si celui-ci reprend des termes dichotomiques de représentation, si les médias en projettent une image positive et enthousiaste de cette technologie ou bien au contraire. Également, notre but sera de saisir les différences entre l’approche de cette problématique dans l’espace roumain et français, en fonction des différences culturelles et des systèmes politiques, sociaux et médiatiques.<br />
Notre analyse visera à vérifier si le cadrage en termes opposés (l’IA comme menace vs. l’IA comme opportunité) constaté par les précédentes études se confirment pour cette nouvelle étape de médiatisation de l’IA dans son ère dite “générative” (après le lancement du Chat GPT-3) et si nous pouvons constater une tendance vers la construction d’une représentation de l’IA entourée de peurs ou, au contraire, d’enthousiasme. Notre analyse suivra également la dimension comparative entre nos deux terrains d’observation.</p>
<h2 align="left">Méthodologie</h2>
<p>Nous utiliserons une approche discursive, par l’analyse de discours (Charaudeau, 1997, Maingueneau, 2014) pour découvrir comment la question de l’IA est construite dans l’espace médiatique français et roumain, à qui en donne la parole pour parler de l’IA, quelles types d’informations sont favorisées pour en parler, quels arguments et quels types de comportements énonciatifs sont choisis.</p>
<p>Notre corpus est constitué d’une sélection d’articles publiés entre mars 2023 et février 2024 dans les médias des deux pays, en privilégiant les articles d’opinion devant ceux purement informatifs. Nous avons pris comme point de repère mars 2023, soit le moment de la publication d’une lettre ouverte par Elon Musk et une centaine d’experts du secteur de l’IA qui appelaient à une pause de six mois dans le développement de systèmes d’IA générative plus puissants que ChatGPT 4 qui venait d’être lancé par OpenAI, citant les risques pour la société et l’humanité.</p>
<p>Pour la France, nous avons choisi un quotidien de référence (Le Monde), les sites de la radio publique France Inter (alternativement quelques articles de la chaîne d’information en continu publique France Info ont également été inclus) et le site d’information Médiapart.</p>
<p>Pour la Roumanie, nous avons choisi des médias qui pourraient être comparés à ceux de France. Ainsi, nous avons pris en compte “Adevarul” (La Vérité en roumain) le premier quotidien “de qualité” parmi les quotidiens roumains, le site en ligne de la radio publique - Radio Roumanie Actualités et la plateforme d’actualité en ligne Hotnews.</p>
<p>Pour chaque média, tant en Roumanie qu’en France, nous avons effectué une recherche avec des mots-clés dans les archives en ligne au cours de 12 mois (mars 2023-février 2024). Ensuite, parmi les résultats obtenus, nous avons sélectionné, après lecture, 10 pour chaque média en favorisant les articles d’opinion et les articles qui se positionnaient d’une manière ou d’une autre sur le sujet.</p>
<p>Notre corpus a été limité du point de vue quantitatif (30 articles pour chaque pays) vu que nous avons réalisé une analyse qualitative en profondeur qui ne permettait pas d’utiliser de grands corpus.</p>
<p>Notre analyse a suivi à déterminer le genre journalistique de l’article, les acteurs auxquels on donne la parole à propos de l’IA, le temps narratif employé, la représentation de l’IA (positif ou négatif) et les arguments conséquents, ainsi que le ton abordé (soit un ton d’avertissement, enthousiaste, de mise en garde ou mobilisateur).</p>
<p align="left"> </p>
<h2 align="left">L’analyse des médias</h2>
<h3 align="left">La multiplicité des discours</h3>
<p>En Roumanie, dans la quasi-totalité des articles analysés, on donne la parole aux experts, tandis que les autres acteurs sont quasi-absents. Nous expliquons cette dominance des experts parmi les acteurs qui prennent la parole à propos de l’intelligence artificielle comme une réaction au fait qu’il y a beaucoup d’incertitudes et peu de connaissances à propos de ce sujet. Les journalistes tentent de combler ce manque d’informations en donnant la parole aux experts.</p>
<p>Cette dominance des spécialistes qui prennent la parole doit être corrélée avec le temps narratif employé le plus souvent dans les articles analysés, soit le futur. Dans la plupart des cas, les experts sont sollicités pour se prononcer non pas sur quelque chose qui s’est déjà passé, mais sur l’avenir, sur l’évolution, sur l’impact futur de l’intelligence artificielle.</p>
<p>En France, il y a une plus grande diversité des acteurs présents dans les médias. En plus des spécialistes, on retrouve s’exprimer les décideurs politiques (ministres, commissaire européen), mais aussi des acteurs économiques ou sociaux. Aussi, dans les médias français, on donne la parole aux utilisateurs de l’IA qui exposent leur expérience - des enseignants, des étudiants, des entrepreneurs, ce qui permet de présenter aussi les faits au temps passé, même si le futur (le “qu’est-ce qui va se passer”) infiltre tous les textes.</p>
<p>Comparativement, la présence d’une multiplicité des acteurs qui parlent de l’IA dans les médias français donne l’impression que c’est une question qui concerne tous, en la rendant aussi plus accessible, tandis qu’en Roumanie les médias perpétuent l’idée que c’est l’affaire des mathématiciens, informaticiens ou sociologues qui sont préférés (de loin) pour prendre la parole.</p>
<h3>Les temps</h3>
<p>Dans les médias roumains, on emploie presque exclusivement le futur, tandis que, dans les médias français, le présent est employé à côté du futur car les journalistes couvrent des sujets d’actualité sur l’IA avant d’enchaîner les questions sur l’avenir.</p>
<p>Dans les médias français analysés, le temps futur est également utilisé dans les articles sur l’IA parce que l’interrogation à propos de l’avenir est aussi très présente, mais, dans la plupart des cas, le futur est doublé du temps présent car, le plus souvent, dans la construction des articles, on part d’une situation de fait qui est couverte dans les articles, ce qui n’est pas le cas dans les articles roumains. Ainsi, on présente les positions des décideurs politiques français à propos de la réglementation de l’IA, l’expérience des start-up français du domaine ou encore l’expérience de certaines écoles avec l’IA (Le Monde). Dans tous ces cas, on part de la réalité qui est trouvée par les journalistes sur le terrain (le présent) pour s'interroger, par la suite, sur le futur.</p>
<p>C’est aussi l’évidence de deux modèles de presse différents, l’un (roumain) qui vit dans l’urgence et qui est obligé (également par le modèle économique) à produire de contenu en vitesse, sans trop de réflexion, tandis que l’autre (français) se permet encore à prendre le temps à travailler les articles. Cette réalité est aussi présente dans le format des articles analysés : dans le corpus roumain nous comptons presque exclusivement des brèves et des entretiens (certains juste des reprises des médias internationaux) et seulement deux fois il y a des synthèses, tandis que, dans la presse française, nous avons comptabilisé des genres journalistiques plus travaillés et qui demandent plus de ressources et du temps, comme le reportage et l’enquête.</p>
<p>Dans les médias français, il y a en fait une diversité de genres journalistiques : synthèses, tribunes, enquêtes, reportages, dépêches, analyses, podcasts.</p>
<p>La diversité des genres journalistiques se reflète aussi dans la diversité des acteurs qui prennent la parole, mais aussi dans une diversité plus importante dans l’approche de l’IA en général.</p>
<h3 align="left">L’IA : héros positif ou négatif?</h3>
<p>Dans la quasi-totalité des médias roumains analysés, l’intelligence artificielle apparaît comme un héros négatif auquel on reproche la diffusion de fausses informations et des <i>deepfakes</i>, le fait d’influencer sur les résultats des élections (Adevarul, Hotnews), le non-respect des droits de l’homme et de la vie privée (Adevarul), la disparition des emplois (Radio Roumanie) et qui est parfois même perçu comme un péril pour toute l’humanité (Hotnews).</p>
<p>Ce n’est que deux fois, dans le corpus roumain analysé, que l’IA est représentée comme un héros positif qui pourrait nous apporter des avantages extraordinaires, comme toute autre technologie : “En 7-10 mois - 1 an, ChatGPT-5, 6, 7 pourra nous permettre d’arriver à une intelligence 15.000 ou 100.000 plus importante que l’IQ humain” (Radio Roumanie). Trois autres fois, les médias roumains nous présentent l’IA comme un héros controversé, avec ses avantages et ses désavantages, comme dans cette publication de Radio Roumanie : “L’Intelligence artificielle - entre enthousiasme et peurs”.</p>
<p>Dans les médias français, nous avons découvert également une représentation dominant de l’IA en héros négatif auquel on reproche à peu près les mêmes choses que dans les médias roumains : il remplacerait les emplois, il anéantirait l’esprit critique, il serait limité et commettrait des erreurs ou encore il produirait de la désinformation et du <i>deepfake</i>. Tout comme nous l’avons constaté précédemment, cette portraitisation négative de l’IA s’accompagne d’avertissements : “D’ici trente ans, nous aurons les moyens technologiques de créer une intelligence surhumaine. Peu après, l’ère humaine prendra fin”, “Des chercheurs dénoncent le développement de ces IA toujours plus réalistes et alertent sur leurs dangers, notamment démocratiques”, “les deepfakes vocaux, ces trucages audio ultraréalistes qui, à l’instar de leurs équivalents vidéo, peuvent être utilisés pour créer de fausses informations à des fins malveillantes. Faux discours de personnalités politiques, escroqueries financières type<a href="https://www.economie.gouv.fr/dgccrf/professionnels-agents-publics-attention-a-larnaque-au-president"> « arnaque au président »</a>, piratage, cybercriminalité…” (Médiapart).</p>
<p>Toutefois, dans les médias français, nous découvrons aussi des représentations positives et concrètes de l’intelligence artificielle comme par exemple dans des articles qui présentent l’effervescence des start-ups françaises actives dans le domaine de l’IA (“Le moment rappelle un peu à M. Chaumond « l’effervescence » ressentie dans la Silicon Valley en 2007 pendant ses études à Stanford, où son voisin de parking arborait une plaque au nom de la start-up qu’il avait cofondée : YouTube”, Le Monde), l’adoption de l’IA dans des écoles d’architecture ou de design (“Les étudiants vont s’emparer des outils, c’est inévitable. A nous de trouver des manières intelligentes de travailler avec ces outils”, Le Monde ; “Je me suis rendu compte que, depuis trente ans, je ne faisais que ça : décrire des images de la façon la plus précise possible. Et voilà que ce travail de verbalisation devient le cœur du processus de création par IA”, Le Monde), dans l’éducation comme outil d’apprentissage personnalisé (“Ces moteurs sont capables en temps réel de détecter si l'enfant a écrit correctement une lettre ou un mot, quelle est la nature de ses erreurs, s'il s'est trompé dans la forme de la lettre ou dans le sens de l'écriture de cette lettre ou dans la production de l'ordre des tracés", France Inter), comme source de croissance de la CA (Médiapart) ou tout simplement comme une “révolution technologique” (France Tv Info).</p>
<h2>Le ton</h2>
<p>Si dans la presse roumaine analysée, l’image dominante de l’IA est celle d’un héros négatif, le ton des articles en est lui aussi conséquent. Nous constatons, dans presque tous les articles des médias roumains analysés, une abondance d’avertissements qui portent tous sur les effets négatifs de l’intelligence artificielle : “L’arrivée d’une vague de désinformation basée sur l’intelligence artificielle qui pourrait influencer les prochaines élections qui approchent, représenterait la plus grande menace pour l’économie globale” (Adevarul), “Il serait possible d’observer une hausse des deepfakes générées par l’IA pour influencer l’opinion publique et inciter les esprits avant le vote” (Adevarul), “Le développement de l’IA risque de reproduire les erreurs déjà faites par les industries technologiques au début de l’ère des réseaux sociaux” (Adevarul), “Les devoirs ne seront plus jamais pareils”, “Notre manière d’enseigner et d’évaluer les étudiants devrait changer” (Adevarul), “L’intelligence artificielle élimine 1000 emplois par jour” (Radio Roumanie), “L’intelligence artificielle est un pas qui va réellement changer notre vie plus qu’autres technologies jusqu’à présent” (Radio Roumanie), “Les risques de l’IA devraient être considérés comme tout aussi graves que ceux représentés par les pandémies et par les guerres nucléaires” (Radio Roumanie), “L’IA ou autres technologies peuvent avancer tellement qu’elles dépasseront la capacité de contrôle des gens. D’où la grande inquiétude : super-ordinateurs vont apprendre à “penser” vont s’allier pour former un cerveau mondial” (Hotnews). Nous constatons dans ces exemples que, à part les exemples portant sur les deepfakes et la désinformation et de celui portant sur la présence de l’IA dans l’éducation, toutes les autres références ne sont pas précisées et semblent plutôt faire référence à la “super-intelligence” dont l’apparition est encore mise en question et anticipée dans un futur encore incertain.</p>
<p>Les représentations concrètes et positives de l’IA identifiées dans les médias français s’accompagnent aussi d’un ton mobilisateur qui remplace les avertissements. Parfois, l’enthousiasme reprend le positionnement des acteurs politiques qui considèrent que la France devrait jouer un rôle de premier plan dans le développement de l’IA en Europe: “la France comme un leader de l’IA en Europe”, “L’IA, ce ne sont pas que des risques, ce sont aussi des opportunités” (Le Monde), “En adoptant une approche proportionnée selon la nature des risques, le règlement définit le cadre de confiance nécessaire à l’utilisation de l’IA en Europe. Pour la plus grande majorité des applications, les mesures se résument en un mot : transparence” (Le Monde). Autres fois, le ton employé dans les articles qui couvrent des sujets relatifs à l’IA est mobilisateur : « Ça m’intéresse de savoir dompter ces IA pour que ça devienne un outil et pour ne pas me faire remplacer par elles » (Le Monde), "la France est et doit rester la première nation en Europe" (France Inter). Ce dernier type de tonalités enthousiastes et mobilisatrices sont absentes des médias roumains analysés où le ton d’avertissement domine le discours.</p>
<p>En analysant la tonalité employée dans les articles qui portent sur l’IA dans les médias français et roumain, nous avons découvert une autre similitude : l’abondance des interrogations. Dans les titres ou dans le texte des articles, on retrouve souvent des questions rhétoriques qui, d’une part, font état de l’inconnu et du manque de transparence qui entourent le débat sur l’intelligence artificielle, mais, également, ces interrogations fonctionnent comme des avertisseurs. Les questions cachent, en fait, souvent, des avertissements.</p>
<p>Ainsi, dans les médias roumains on se pose des questions générales comme “Qui peut réduire les erreurs de jugement, qui peut améliorer les modèles et les algorithmes ? (de l’IA - n.n.)” (Adevarul), “Qui contrôle la technologie?” (Adevarul), “Combien de confiance peut-on avoir en elle ?” (Hotnews), “Comment l’IA changera le journalisme, les médias et la société?” (RRA) ou plus spécifiques comme “Qui détient le contenu ? Qui fait les lois ?” (Adevarul), “Est-ce que nous aurons toujours des démocraties ?” (Adevarul), “Est-ce qu’elle sera notre amie ou elle verra les hommes comme quelque chose qu’il faut éliminer ?” (Hotnews), “Comment peut-on garantir le droit aux informations crédibles lorsque la majorité des textes et des images peuvent être générés par l’IA ?” (RRA), “Le ChaGPT, est-il un danger pour les jeunes ?” (RRA). Ces questions restent, pour la plupart, sans réponse.</p>
<p>Nous avons pu constater la même tendance dans les médias français. Il y a une abondance de questions générales qui visent, pour la plupart, le futur et l’impact de l’intelligence artificielle sur l’humanité sur l’avenir : “l’IA est-elle capable d’une autonomie comparable à celle de l’homme et représente-t-elle un danger pour l’humanité ?” (Médiapart), “Reste une question fondamentale, toujours sans réponse aujourd’hui : qu’est-ce que l’intelligence ?” (Médiapart) ou il y a même des titres des articles en forme interrogative : “Intelligence artificielle : quels dangers ?”, “L’intelligence humaine supplantée par l’IA en 2045... Vraiment ?” (Médiapart).</p>
<p>D’autres questions formulées par les journalistes français portent sur l’impact de l’intelligence artificielle dans des domaines précis de l’activité humaine : “comment peut-on croire que des enfants et des jeunes en formation puissent tirer bénéfice de la confrontation à une chose dont l’intelligence est mise au service d’une tromperie ?”, “Pourquoi devraient-ils apporter leur soutien à une technologie dont l’utilité sociale est à ce point mise en question ?” (Le Monde), “comment correctement évaluer les acquis des élèves à l’ère de ChatGPT ?”, “L’éducation doit-elle avoir peur des intelligences artificielles génératives ?” (Le Monde), “Utiliser de l'intelligence artificielle, est-ce une chance pour nos élèves ? (France Inter), “Que fait-on en cas de plagiat ?”, “ChatGPT, l'école est finie ?”, “L'intelligence artificielle ChatGPT, une menace pour l'enseignement ? (France Inter).</p>
<h2 align="left"><b>Conclusions</b></h2>
<p>Dans l’analyse de la représentation de l’IA dans l’espace médiatique français, nous constatons qu’il y a un positionnement plus stratégique et nuancé que dans sa représentation dans les médias roumains. On comprend que la France se propose également de jouer un rôle dans le développement, mais aussi dans la réglementation de l’IA. Le fait que les journalistes vont sur le terrain pour couvrir de différentes adoptions de l’IA dans différents domaines (éducation, IT) non seulement donne du concret à l’IA, mais aussi normalise son utilisation.</p>
<p>Tant dans les médias roumains que dans ceux français, ce sont les avertissements qui dominent lorsqu’il s’agit de l’intelligence artificielle. Nous sommes mis en garde sur ses capacités à créer des <i>deepfakes</i>, à désinformer, à influencer les élections, à faire perdre des emplois, à anéantir l’esprit critique, à encourager les étudiants/élèves à tricher. Encore plus, la peur qui semble transparaître dans plusieurs des articles analysés est celle relative à un futur quand cette intelligence dépassera l’intelligence humaine et ne pourra plus être contrôlée (la soit-dite “super-intelligence”).</p>
<p>On emploie souvent des questions justement parce que la société ne semble pas avoir les réponses. Le poids des interrogations découvert dans les discours médiatiques analysés, tant en France qu’en Roumanie, nous semble le résultat le plus saisissant de notre démarche. Il fait état du moment de confusion et de manque de repères créés par le lancement de ChatGPT-3 au 30 novembre 2022 et confirme l’état disruptif que cette technologie a amené aussi au niveau discursif.</p>
<p>L’abondance des interrogations doit être corrélée avec la présence importante des experts dans les articles analysés dans les deux pays : les journalistes donnent la parole aux experts, aux spécialistes, aux chercheurs, aux hommes de sciences au moment où le terrain en tant que tel ne peut plus leur fournir toutes les réponses.</p>
<p>La représentation bipolaire de l’IA (comme source d’espoirs et de peurs) ne se confirme que partiellement. Nous avons rencontré ce type de représentation tant dans les médias français que dans ceux roumains, mais la représentation de l’IA menaçante domine l’imaginaire dans les deux cas. Pareil, l’attitude positif par rapport à l’IA découverte par d’autres chercheurs qui ont analysé les médias allemands (Korneeva et al, 2023), par exemple, ne se confirment pas non plus car, dans notre cas, il y a une attitude négative dominante sur les deux terrains d’observation choisis, avec quand même un plus d’attitude positive perçue dans certains articles publiés par les médias français qui parlent de l’impact positif de l’IA dans différents domaines.</p>
<h2>Références<b> </b></h2>
<p>Bran, E., Rughinis, C., Nadoleanu, G, Flaherty, M. (2023). The Emerging Social Status of Generative AI : Vocabularies of AI Competence in Public Discourse. <i>Conference paper</i>. 10.1109/CSCS59211.2023.00068.</p>
<p>Benbouzid, B. & Cardon, D. (2022). Contrôler les IA. <i>Réseaux</i>, 232-233, 9-26. <a href="https://doi.org/10.3917/res.232.0009">https://doi.org/10.3917/res.232.0009</a></p>
<p>Benbouzid, B., Meneceur, Y. & Smuha, N. (2022). Quatre nuances de régulation de l’intelligence artificielle : Une cartographie des conflits de définition. <i>Réseaux</i>, <i>232-233</i>, 29-64. <a href="https://doi.org/10.3917/res.232.0029">https://doi.org/10.3917/res.232.0029</a></p>
<p>Charaudeau, Patrick. (1997). <i>Le discours d'information médiatique : La construction du miroir social</i>. Paris : INA.</p>
<p>Crépel, M. & Cardon, D. (2022). Robots <i>vs</i> algorithmes : Prophétie et critique dans la représentation médiatique des controverses de l’IA. <i>Réseaux</i>, <i>232-233</i>, 129-167. <a href="https://doi.org/10.3917/res.232.0129">https://doi.org/10.3917/res.232.0129</a></p>
<p>Commission européenne. (2024). Loi sur l’IA. <a href="https://digital-strategy.ec.europa.eu/fr/policies/regulatory-framework-ai">https://digital-strategy.ec.europa.eu/fr/policies/regulatory-framework-ai</a>, consulté le 2 juillet 2024.</p>
<h1>Conseil de l’Union européenne (21 mai 2024). <i>Législation sur l'intelligence artificielle (IA): le Conseil donne son feu vert définitif aux premières règles mondiales en matière d'IA. </i><a href="https://www.consilium.europa.eu/fr/press/press-releases/2024/05/21/artificial-intelligence-ai-act-council-gives-final-green-light-to-the-first-worldwide-rules-on-ai/">https://www.consilium.europa.eu/fr/press/press-releases/2024/05/21/artificial-intelligence-ai-act-council-gives-final-green-light-to-the-first-worldwide-rules-on-ai/</a>, consulté le 2 juillet 2024.</h1>
<p>Dufour-Coppolani, D. (2022). L’IA, de la SF à une réalité. <i>I2D - Information, données & documents</i>,<i> 1,</i> 7-7. <a href="https://doi.org/10.3917/i2d.221.0007">https://doi.org/10.3917/i2d.221.0007</a></p>
<p>Knowledge@Wharton. (2018). Vishal Sikka : Why AI needs a broader, more realistic approach, Retrieved from <a href="http://knowledge.wharton.upenn.edu/article/ai-needs-broader-realistic-approach/">http://knowledge.wharton.upenn.edu/article/ai-needs-broader-realistic-approach/</a><br />
Flichy, P. (2001). <i>L’Imaginaire d’Internet</i>. Paris : Editions La Découverte</p>
<p>Korneeva, E., Salge, T. O., Teubner, T., & Antons, D. (2023). Tracing the legitimacy of artificial intelligence: A longitudinal analysis of media discourse. <i>Technological Forecasting and Social Change</i>, <i>192</i>, 122467.<br />
Lemke, N., Trein, P., & Varone, F. (2024). Defining artificial intelligence as a policy problem: A discourse network analysis from Germany. <i>European Policy Analysis</i>. <a href="https://doi.org/10.1002/epa2.1203">https://doi.org/10.1002/epa2.1203</a></p>
<p>Maingueneau, Dominique. (2014). <i>Discours et analyse du discours</i>. Paris : Armand Colin.</p>
<p>Ménissier, T. (2022). L’IA, un artefact technologique porteur de promesses d’amélioration et riche de ses zones d’ombre. <i>Quaderni</i>,<i> 105,</i> 9-18. <a href="https://doi.org/10.4000/quaderni.2208">https://doi.org/10.4000/quaderni.2208</a></p>
<p>Petit, L. (2021). Les sciences humaines et sociales (SHS) et les sciences de l’information et de la communication (SIC) aux défis de l’IA. <i>Communication, technologies et développement</i>, <i>10.</i></p>
<p>Roberge, J., Dandurand, G., Morin, K. & Senneville, M. (2022). Les narvals et les licornes se cachent-ils pour mourir : De la cybernétique, de la gouvernance et d’Element AI. <i>Réseaux</i>,<i> 232-233</i>, 169-196. <a href="https://doi.org/10.3917/res.232.0169">https://doi.org/10.3917/res.232.0169</a></p>
<p>Reigeluth, T. (2022). Le rapport magique à l’Intelligence Artificielle, ou comment vivre avec l’aliénation technique. <i>Quaderni</i>, <i>105,</i> 35-52. <a href="https://doi.org/10.4000/quaderni.2216">https://doi.org/10.4000/quaderni.2216</a></p>
<p>Sun, S., Zhai, Y., Shen, B., & Chen, Y. (2020). Newspaper coverage of artificial intelligence : A perspective of emerging technologies. <i>Telematics and Informatics</i>, <i>53</i>, 101433.<br />
Taïeb, E. (2022). « Dis Siri » : dialogue avec l’Intelligence Artificielle. <i>Quaderni</i>,<i> 105</i>, 5-7. <a href="https://doi.org/10.4000/quaderni.2205">https://doi.org/10.4000/quaderni.2205</a></p>
<p>UNESCO. (novembrie 2021). <i>Éthique de l’intelligence artificielle. </i><a href="https://www.unesco.org/fr/artificial-intelligence/recommendation-ethics?hub=32618">https://www.unesco.org/fr/artificial-intelligence/recommendation-ethics?hub=32618</a>, consulté le 2 juillet 2024.</p>
<p>Valin, J. (2018). Humans still needed: An analysis of skills and tools in public relations. <i>Chartered Institute of Public Relations, 23</i>.</p>
<p>Villani, Cédric, Bonnet, Yann, Berthet, Charly, Levin, François (2018). <i>Donner un sens à l’intelligence artificielle : pour une stratégie nationale et européenne</i>. Conseil national du numérique.</p>
<p>Winkel, M. (2024). Controlling the uncontrollable: the public discourse on artificial intelligence between the positions of social and technological determinism. <i>AI & SOCIETY</i>, 1-13.</p>
<p>Zouinar, M. (2020). Évolutions de l’Intelligence Artificielle : quels enjeux pour l’activité humaine et la relation Humain Machine au travail ?. <i>Activités, 17(1)</i>. DOI : <a href="https://doi.org/10.4000/activites.4941">https://doi.org/10.4000/activites.4941</a></p>