CF202648340
La gestion de l’ignorance dans les discours de désinformation
J-18
Doctorat Doctorat complet
Droit, Gestion, Economie, Politique
Ile-de-France
Disciplines
Management
Laboratoire
DAUPHINE - RECHERCHES EN MANAGEMENT
Institution d'accueil
UNIVERSITE PARIS-DAUPHINE
Ecole doctorale
École Doctorale de Dauphine - ED 543

Description

Quand les SI se mettent au service de la désinformation

Depuis l’informatisation des Systèmes d’Information (SI) dans la seconde moitié du XXe siècle, force est de constater que les technologies ont des limites qu’il convient certes de maitriser d’un point de vue informatique, mais aussi de manager d’un point de vue organisationnel (Arduin et Ziam, 2024). En effet, à l’heure où les déploiements d’outils d’intelligence artificielle (IA) deviennent la norme, les risques de glissement d’une gestion des connaissances (Nonaka et Takeuchi, 1995) vers une gestion de l’ignorance dans les entreprises, les organisations et les sociétés civiles sont importants. En particulier si l’on considère l’influence croissante des données (Candau et Arduin, 2025), l’importance des processus interprétatifs individuels dans les systèmes d’information (Arduin, 2026), et l’existence de rapprochements trompeurs susceptibles d’être faits par les IA (Arduin et Merad, 2025).

La littérature académique montre l’émergence d’un monde post-vérité, où l’adhésion idéologique prime sur l’évaluation rationnelle des faits. McIntyre (2018) écrit par exemple que « la post-vérité est une affirmation de suprématie idéologique par laquelle ceux qui la pratiquent cherchent à contraindre quelqu’un à croire quelque chose indépendamment des preuves ». Ce monde est celui où la désinformation n’est plus un fait isolé mais une nouvelle norme, les faits objectifs ayant moins d’influence sur les mécanismes de prise de décision que les émotions et les croyances personnelles (Dalkir et Katz, 2020).

Objectifs du projet de thèse

Cette thèse vise à analyser les mécanismes de gestion de l’ignorance dans les discours de désinformation. L’ignorance n’est alors plus regardée comme un simple manque, elle est construite, maintenue, organisée et vise une fabrication active de non-savoir (Girel, 2017). Sans avoir pour finalité première de faire croire quelque chose de faux, la gestion de l’ignorance multiplie les doutes, déplace l’attention, brouille les critères de preuve et constitue une ingénierie de l’incertitude (Proctor et Schiebinger, 2008).

Il s’agira d’explorer non seulement les mutations organisationnelles et sociétales dans les discours de désinformation, mais aussi les possibilités offertes par la rationalisation algorithmique du discours via des dispositifs d’IA.

L’étude portera ainsi sur les conditions de création et de maintien de formes traditionnelles ou nouvelles de désinformation, du fait de mécanismes de gestion de l’ignorance, que ce soit par des humains, des organisations, des entreprises, des institutions, des États, ou des machines.

Compétences requises

Profil et conditions de recrutement - Niveau Master (ouvert à tout domaine) - Bonnes capacités rédactionnelles et relationnelles - Ouverture au travail multi-disciplinaire Les recherches menées dans le cadre de ce projet seront conduites au sein du laboratoire Dauphine Recherches en Management (DRM UMR CNRS 7088) qui est Unité Mixte de Recherche (UMR) du CNRS et de l’université Paris-Dauphine – PSL. Contrat : CDD de 36 mois débutant le 01/10/26 Rémunération : selon les grilles en vigueur (environ 2 300 e bruts mensuels avec charge d’enseignement de 64 heures annuelles) Le contrat comprend également : - Prise en charge partielle de l’abonnement aux transports en commun - Contribution à la mutuelle de santé - Accès aux services du personnel (activités culturelles, sportives, etc.) - Possibilité d’aide au logement Lieu de travail : Paris, télétravail en partie possible Encadrement : Pierre-Emmanuel Arduin

Bibliographie

Bibliographie / References

Arduin, P.-E. (2026). Sur l’interprétation dans les systèmes d’information : connaissances tacites, sécurité et société. Habilitation à diriger des recherches, Université Paris-Dauphine – PSL. http://arduinpe.free.fr/data/arduinpe-HDR.pdf.

Arduin, P.-E. et Merad, M. (2025). Quand les IA font des rapprochements trompeurs. The Conversation. https://theconversation.com/quand-les-ia-font-des-rapprochements-trompeurs-249900.

Arduin, P.-E. et Ziam, S. (2024). If digital tools are the solution to knowledge transfer, what is the problem ? In Duarte, S. P., Lobo, A., Delibašić, B. et Kamissoko, D., éditeurs : Decision Support Systems XIV. Human-Centric Group Decision, Negotiation and Decision Support Systems for Societal Transitions. ICDSST 2024. Lecture Notes in Business Information Processing, volume 506, pages 126–138, Cham. Springer Nature Switzerland. https://doi.org/10.1007/978-3-031-59376-5_10.

Candau, O. et Arduin, P.-E. (2025). Data journalisme et données situées : représentativités sous influences ? In L’état du management 2025, pages 73–83. Ed. La Découverte.

Dalkir, K. et Katz, R. (2020). Navigating fake news, alternative facts, and misinformation in a post-truth world. IGI Global.

Girel, M. (2017). Science et territoires de l’ignorance. Éditions Quae.

McIntyre, L. (2018). Post-truth. mit Press.

Nonaka, I. et Takeuchi, H. (1995). The knowledge-Creating Company. Oxford University Press.

Proctor, R. N. et Schiebinger, L. L., éditeurs (2008). Agnotology : The Making and Unmaking of Ignorance. Stanford University Press, Stanford, CA.

Mots clés

Systèmes d'information, Ignorance, Désinformation

Offre financée

Type de financement
Contrat Doctoral

Dates

Date limite de candidature 31/05/26

Durée36 mois

Date de démarrage01/10/26

Date de création21/04/26

Langues

Niveau de français requisAucun

Niveau d'anglais requisAucun

Divers

Frais de scolarité annuels400 € / an

Contacts

Vous devez vous connecter pour voir ces informations.

Cliquez ici pour vous connecter ou vous inscrire (c'est gratuit !)