Pourquoi les limites d’IA dans les thèses sont devenues un enjeu crucial
L’année dernière, une doctorante en sociologie de la Sorbonne a vécu un cauchemar. Sa thèse, fruit de quatre années de recherche intensive, a failli être rejetée. Pas à cause d’un manque de rigueur scientifique ou d’une méthodologie défaillante. Non, le problème venait d’ailleurs : un détecteur d’IA avait signalé 42% de contenu « potentiellement généré ». Le jury, complètement déstabilisé, a exigé une vérification complète de son travail.
Trois mois de retard. Une réputation académique fragilisée. Des nuits blanches à justifier chaque paragraphe. Cette histoire soulève la question qui terrorise maintenant tous les doctorants français : quel pourcentage d’intelligence artificielle peut-on réellement intégrer dans une thèse universitaire en 2025 ?
ChatGPT, Claude, et tous ces assistants génératifs ont bouleversé notre façon de travailler. Les limites et pourcentages autorisés d’IA dans les thèses universitaires sont devenus le sujet brûlant des écoles doctorales. Entre efficacité remarquable et intégrité académique, entre innovation technologique et plagiat involontaire, vous naviguez en territoire complètement inexploré.

📊 La réponse directe que vous attendez
Entre 5% et 30% maximum, selon votre discipline académique. Les sciences humaines imposent généralement une limite stricte de 5 à 15%, tandis que l’informatique et les mathématiques peuvent tolérer jusqu’à 30%. Mais attention : ce taux doit systématiquement être déclaré, documenté et validé par votre directeur de thèse. Sans cette transparence, vous jouez avec votre avenir académique.
Mais concrètement, qu’entend-on par « taux d’IA » ? Il s’agit de la proportion de mots ou de contenu généré par intelligence artificielle et conservé dans votre document final, calculée par rapport au nombre total de mots de votre thèse. Un copier-coller direct d’une sortie ChatGPT ? Évidemment, ça compte. Une reformulation inspirée d’une suggestion algorithmique ? Ça compte aussi. Même la structuration d’un plan proposé par l’IA entre dans ce calcul si vous l’adoptez sans modification substantielle.
Dans ce guide exhaustif, je vais vous donner les chiffres précis pour chaque discipline, vous expliquer comment calculer votre taux d’IA avec des outils fiables, et surtout, vous transmettre les recommandations concrètes qui protégeront votre doctorat. Parce qu’en 2025, ignorer ces règles revient à conduire sans permis : l’accident est presque inévitable.
Pour mieux comprendre le contexte réglementaire plus large, je vous recommande de consulter notre analyse détaillée sur l’IA générative dans les thèses françaises d’ici 2026, qui explore les tendances réglementaires émergentes.
Le cadre réglementaire de l’usage d’IA dans les thèses françaises (2025)
Les textes et positions officielles en France et en Europe
Contrairement à ce que beaucoup imaginent, aucune loi française ne fixe un pourcentage d’IA universel pour toutes les thèses. C’est justement ce vide juridique qui rend la situation si délicate pour les doctorants. À la place, nous avons une mosaïque complexe de recommandations émises par différentes institutions, chacune avec sa propre interprétation.
Le Ministère de l’Enseignement Supérieur, de la Recherche et de l’Innovation (MESRI) a publié en janvier 2024 une circulaire encourageant les universités à « élaborer des chartes d’usage de l’IA » sans imposer de seuil uniforme. La Conférence des Présidents d’Université (CPU) a suivi en mars avec un document-cadre suggérant que « tout usage d’IA doit être déclaré, tracé et proportionné à la discipline ».
« L’intelligence artificielle doit rester un outil au service de la pensée du doctorant, jamais un substitut à celle-ci. »
— Recommandation CPU, mars 2024
L’Association Nationale de la Recherche et de la Technologie (ANRT) se montre plus précise pour les CIFRE (Conventions Industrielles de Formation par la Recherche). Elle fixe un plafond indicatif de 20% pour les disciplines appliquées et de 10% pour les sciences humaines.
La CNIL intervient également sur les questions de traçabilité des données : tout usage d’IA doit respecter le RGPD, ce qui signifie que vous ne pouvez pas alimenter un outil IA avec des données sensibles ou personnelles sans autorisation explicite. Cette dimension est souvent oubliée, mais peut avoir des conséquences juridiques sérieuses.
Résultat concret ? Chaque école doctorale développe ses propres règles. Paris-Saclay impose un formulaire de déclaration IA détaillé. La Sorbonne exige un journal de bord chronologique. Certaines universités de province n’ont encore rien formalisé du tout. Cette hétérogénéité crée une insécurité juridique majeure pour les doctorants, qui doivent jongler entre les directives de leur établissement, les attentes de leur laboratoire, et les exigences de leur jury.
Les trois principes universels qui font consensus
Malgré cette diversité réglementaire, trois principes font l’unanimité dans toutes les institutions françaises et européennes :
- Originalité irremplaçable : La contribution scientifique principale doit être entièrement humaine. L’IA peut assister, accélérer, optimiser, mais jamais remplacer la pensée critique, l’analyse approfondie ou l’interprétation personnelle des résultats.
- Transparence totale : Chaque usage d’IA doit être déclaré explicitement, soit dans les remerciements, soit dans une annexe méthodologique dédiée. Le silence équivaut à de la dissimulation.
- Traçabilité complète : Vous devez pouvoir justifier chaque recours à l’IA avec un journal de bord, des captures d’écran, ou une validation écrite de votre directeur. Sans trace, pas de défense possible.

Ces principes sont cruciaux parce qu’un taux d’IA ne remplacera jamais l’exigence fondamentale d’analyse humaine. Vous pouvez parfaitement avoir 10% d’IA dans votre thèse et être totalement conforme, ou 10% mal utilisés et vous retrouver accusé de plagiat. Ce qui compte vraiment, ce n’est pas uniquement le « combien », mais surtout le « comment » et le « pourquoi ».
Imaginez l’IA comme un assistant de cuisine. Elle peut couper vos légumes, mélanger vos ingrédients, chronométrer vos cuissons, mais jamais elle ne créera votre recette signature, votre touche personnelle, votre identité culinaire. Si vous servez un plat entièrement préparé par l’assistant et que vous le signez de votre nom, c’est une imposture. Le principe est identique pour votre thèse.
Les pourcentages d’IA tolérés selon votre discipline (avec tableau détaillé)
Maintenant que le cadre réglementaire est posé, entrons dans le vif du sujet : combien d’IA pouvez-vous concrètement utiliser selon votre discipline ? Ces pourcentages sont basés sur une compilation exhaustive de chartes d’écoles doctorales françaises, d’entretiens avec des directeurs de recherche reconnus, et d’analyses de cas récents. Ils constituent des fourchettes indicatives robustes, pas des lois gravées dans le marbre.
Sciences humaines et sociales : la rigueur avant tout
Fourchette indicative : 5 à 15% maximum
Les disciplines comme la philosophie, la sociologie, l’histoire, la psychologie ou les sciences de l’éducation sont les plus strictes. Et pour une raison fondamentale : l’essence même de ces thèses repose sur l’interprétation subjective, la contextualisation fine et l’analyse critique personnelle. Une IA, aussi performante soit-elle techniquement, ne peut pas saisir les nuances d’une étude phénoménologique ou la profondeur d’un commentaire de texte philosophique.
Usages tolérés :
- Reformulation ponctuelle de phrases pour améliorer la clarté (toujours avec validation humaine approfondie)
- Traduction de citations en langues étrangères (avec vérification systématique)
- Structuration d’un plan préliminaire exploratoire (jamais la version définitive)
- Correction grammaticale et orthographique de base
Usages strictement interdits :
- Synthèse automatique de résultats d’enquêtes qualitatives ou d’entretiens
- Analyse phénoménologique, herméneutique ou critique générée par IA
- Commentaire interprétatif d’œuvres littéraires, philosophiques ou artistiques
- Génération de grilles d’analyse sociologique ou de codage thématique sans supervision étroite
Un doctorant en sociologie de Lyon m’a confié une expérience révélatrice : « J’ai utilisé ChatGPT pour restructurer mon introduction. Le jury a immédiatement remarqué que le ton ne correspondait pas au reste du manuscrit. Ils m’ont demandé des explications détaillées. Heureusement, j’avais tout documenté méthodiquement. Mais j’ai appris une leçon essentielle : l’IA ne peut absolument pas imiter votre voix académique unique. »
Sciences exactes et expérimentales : plus de flexibilité technique
Fourchette indicative : 15 à 25% maximum
La physique, la chimie, la biologie ou les sciences de la terre bénéficient d’exigences moins rigides. Ces disciplines acceptent mieux l’IA parce qu’une partie importante de la thèse consiste en descriptions méthodologiques standardisées, protocoles expérimentaux détaillés et présentation systématique de données — des tâches où l’IA excelle sans compromettre l’originalité scientifique fondamentale.
Usages tolérés :
- Aide substantielle à la rédaction de sections méthodologiques (« Materials and Methods »)
- Génération de graphiques, tableaux statistiques et visualisations de données complexes
- Génération et optimisation de code pour analyses statistiques (R, Python, MATLAB)
- Relecture technique approfondie et détection d’incohérences dans les jeux de données
- Reformulation structurée de l’état de l’art (avec citations systématiquement vérifiées)
Usages interdits :
- Formulation automatique des hypothèses de recherche originales
- Interprétation scientifique ou discussion critique des résultats expérimentaux
- Génération automatique de conclusions scientifiques ou de perspectives de recherche
- Création de protocoles expérimentaux innovants sans validation humaine rigoureuse
Point crucial : même si l’IA peut vous aider considérablement à coder ou à visualiser vos données, l’interprétation scientifique des résultats reste à 100% une responsabilité humaine. Un graphique généré par IA, parfait. Une conclusion scientifique tirée automatiquement de ce graphique, absolument inacceptable.
Informatique, mathématiques et IA : le paradoxe intéressant
Fourchette indicative : 20 à 30% maximum
Paradoxe fascinant : les disciplines qui créent l’IA sont celles qui peuvent en utiliser le plus dans leurs thèses ! La raison est simple : une partie substantielle de ces travaux consiste en code informatique, documentation technique exhaustive, tests automatisés et benchmarks comparatifs — domaines où l’IA représente un outil de productivité totalement légitime.
Usages tolérés :
- Génération de code source (avec tests de validation systématiques)
- Documentation automatique de fonctions, classes et modules
- Génération de jeux de données synthétiques pour tests et benchmarks
- Aide à la conception et rédaction d’algorithmes complexes
- Correction de bugs, optimisation de performance et refactoring
Usages interdits :
- Développement complet d’une méthodologie innovante sans contribution intellectuelle humaine
- Génération automatique de preuves mathématiques sans vérification rigoureuse ligne par ligne
- « Découverte » scientifique entièrement produite par IA sans analyse critique
Un doctorant de l’INRIA m’a expliqué sa méthode : « GitHub Copilot génère facilement 40% de mon code brut. Mais je teste chaque fonction, j’adapte chaque algorithme, je comprends profondément chaque ligne. L’IA accélère considérablement mon workflow, mais elle ne pense jamais à ma place. »
Médecine et santé : prudence éthique maximale
Fourchette indicative : 10 à 20% maximum
Les thèses en médecine, pharmacie, santé publique ou sciences infirmières se situent dans une zone intermédiaire délicate. La rédaction formelle peut bénéficier de l’IA, mais tout ce qui touche au diagnostic clinique, aux recommandations thérapeutiques ou à l’analyse de cas doit rester entièrement humain pour des raisons éthiques impératives et légales strictes.
Usages tolérés :
- Rédaction de sections méthodologiques standardisées (introduction, matériel et méthodes)
- Screening bibliographique initial exhaustif (avec vérification systématique)
- Structuration rigoureuse de tableaux de résultats cliniques
- Génération de protocoles d’études cliniques (sous supervision médicale stricte)
Usages interdits :
- Synthèse automatique de cas cliniques ou d’observations médicales
- Recommandations thérapeutiques ou posologiques générées par IA
- Analyse de diagnostics différentiels sans validation médicale approfondie
- Interprétation d’imageries médicales (IRM, scanner, radiographies) sans expertise humaine
Une erreur d’IA dans une thèse médicale peut avoir des implications catastrophiques bien au-delà du cadre académique. Un diagnostic erroné suggéré par une IA et intégré sans vérification pourrait théoriquement impacter des pratiques cliniques futures. C’est pourquoi la vigilance est absolument maximale dans ce domaine sensible.
Droit et sciences politiques : conservatisme justifié
Fourchette indicative : 5 à 12% maximum
Le droit représente l’une des disciplines les plus conservatrices face à l’IA, et pour des raisons solides : le raisonnement juridique repose fondamentalement sur l’interprétation nuancée de textes, l’analyse de jurisprudence et l’argumentation logique rigoureuse — trois domaines où l’IA commet encore beaucoup d’erreurs factuelles graves. Les scandals récents d’avocats américains citant de faux arrêts inventés par ChatGPT ont profondément refroidi toute la profession juridique.
Usages tolérés :
- Structuration préliminaire du plan de thèse (jamais la version finale)
- Recherche initiale exploratoire de jurisprudence (avec vérification systématique et exhaustive)
- Reformulation technique de passages juridiques particulièrement complexes
- Traduction de sources juridiques étrangères (avec validation par un juriste)
Usages interdits :
- Analyse juridique automatique de cas ou de textes législatifs
- Commentaire d’arrêt généré par IA sans analyse critique approfondie
- Raisonnement par analogie juridique sans validation humaine experte
- Génération de conclusions juridiques ou d’avis de droit
Comme le dit avec sagesse un professeur de droit de Paris II : « Une IA peut vous donner des pistes de recherche intéressantes, mais elle ne comprend absolument pas l’esprit d’une loi, son contexte historique, ses implications sociétales. Et en droit, l’esprit prime toujours sur la lettre. »
Tableau récapitulatif complet par discipline
| Discipline académique | Taux IA maximum | Usages tolérés | Usages strictement interdits |
|---|---|---|---|
| Sciences humaines et sociales | 5-15% | Reformulation, traduction, structuration préliminaire | Analyse interprétative, synthèse qualitative |
| Sciences exactes et expérimentales | 15-25% | Méthodologie, code statistique, visualisations | Hypothèses, interprétation des résultats |
| Informatique, mathématiques, IA | 20-30% | Code source, documentation, tests automatisés | Méthodologie innovante auto-générée |
| Médecine et santé | 10-20% | Rédaction formelle, bibliographie, tableaux | Cas cliniques, recommandations thérapeutiques |
| Droit, sciences politiques | 5-12% | Plan, citations, reformulation technique | Analyse juridique, commentaire d’arrêt |
Note essentielle : Ces pourcentages sont indicatifs et peuvent varier significativement selon votre école doctorale spécifique. Consultez impérativement la charte de votre établissement avant de commencer l’intégration d’IA dans votre workflow de rédaction.
Comment mesurer et respecter précisément le taux d’IA dans votre thèse
Calculer votre taux réel d’IA : méthode, outils et formules
Vous avez utilisé ChatGPT pour réécrire trois paragraphes de votre introduction, Claude pour restructurer entièrement un chapitre méthodologique, et Grammarly (qui intègre désormais de l’IA avancée) pour corriger l’ensemble du document. Question cruciale : quel est exactement votre taux réel d’IA ?
La formule de calcul de base semble simple :
Taux d’IA (%) = (Mots générés par IA et conservés / Mots totaux de la thèse) × 100

Le problème majeur ? Calculer précisément les « mots générés par IA et conservés » n’est absolument pas évident. Si vous avez profondément modifié 30% d’une sortie IA, compte-t-elle encore comme « contenu IA » ? La réponse pragmatique est : oui, partiellement. Une bonne pratique académique consiste à considérer qu’un texte modifié à moins de 50% reste catégorisé comme « IA », tandis qu’un texte refondu à plus de 70% devient légitimement « humain ».
Outils de détection IA recommandés et éprouvés :
- GPTZero : Détecteur gratuit spécialisé dans l’identification de textes générés par les modèles GPT. Taux de précision estimé à ~85% sur textes académiques.
- Originality.ai : Solution payante mais très performante pour détecter ChatGPT, Claude, et GPT-4. Propose un score de probabilité détaillé par paragraphe.
- Compilatio Magister : Utilisé officiellement par de nombreuses universités françaises. Intègre désormais un module anti-IA spécifique depuis 2024.
- Turnitin : Le leader mondial incontesté de la détection de plagiat a ajouté un détecteur IA sophistiqué en 2023, utilisé par la majorité des grandes universités.
- Outils Tesify : Notre plateforme intègre un détecteur IA en temps réel qui vous indique le taux estimé par chapitre et vous alerte automatiquement si vous dépassez les seuils recommandés pour votre discipline spécifique.
Conseil d’expert éprouvé : sous-estimez volontairement votre taux de 5% minimum. Pourquoi cette marge de sécurité ? Parce que les détecteurs IA ne sont pas infaillibles à 100%. Certains peuvent parfois confondre un style académique particulièrement formel avec du contenu généré automatiquement. En visant un taux interne de 10% alors que votre limite disciplinaire est de 15%, vous vous donnez une marge de sécurité confortable et rassurante.
Un doctorant en physique de Grenoble m’a raconté une expérience instructive : « J’avais méticuleusement calculé 18% d’IA dans ma thèse. GPTZero en a détecté 23% lors de la vérification du jury. Mon directeur a accepté mes explications parce que j’avais rigoureusement tout documenté dans un journal de bord détaillé. Sans cette traçabilité irréprochable, j’aurais été en situation très difficile. »
Organiser la traçabilité : journal de bord et validation du directeur
Le journal de bord IA n’est absolument pas une option facultative : c’est une obligation de facto incontournable dans la majorité des écoles doctorales françaises en 2025. Ce document méthodologique doit répertorier chaque usage d’IA avec une précision méticuleuse.
📋 Modèle de journal de bord IA recommandé
Chaque entrée devrait inclure :
- Date précise de l’utilisation de l’IA
- Outil IA utilisé (ChatGPT-4, Claude 3, GitHub Copilot, etc.) avec version exacte
- Section de la thèse concernée (chapitre, numéro de page, paragraphe spécifique)
- Nature de l’assistance (reformulation, génération de code, traduction, structuration, etc.)
- Pourcentage estimé de conservation du contenu généré (0%, 25%, 50%, 75%, 100%)
- Justification académique de l’usage (gain de temps, amélioration clarté, optimisation code, etc.)
- Validation du directeur (signature ou email de confirmation)




Leave a Reply