Votre directeur de thèse utilise probablement ChatGPT. Oui, vous avez bien lu. Mais vous a-t-il expliqué comment vous pouvez l’utiliser sans risquer votre doctorat ?
Selon une étude de Nature publiée fin 2024, plus de 67% des chercheurs reconnaissent utiliser des outils d’IA générative dans leur travail quotidien. Pourtant, dans les couloirs des écoles doctorales, le silence règne. Les règles restent floues, les consignes contradictoires. Résultat : des doctorants naviguent à vue, terrifiés à l’idée de franchir une ligne invisible qu’on ne leur a jamais montrée.
Ce fossé entre la pratique réelle et le discours officiel crée une situation absurde. Tout le monde utilise l’IA, personne n’en parle ouvertement, et les rares qui osent poser des questions se heurtent à des réponses évasives ou, pire, à un silence gêné.
L’utilisation éthique de l’intelligence artificielle dans la rédaction de thèse désigne l’emploi transparent, déclaré et conforme aux règles institutionnelles des outils d’IA générative, où l’IA assiste sans se substituer à la réflexion originale du doctorant.
Dans cet article, je vais vous révéler ce que vos encadrants omettent — souvent involontairement — et vous fournir un cadre éthique actionnable. Pas de morale culpabilisante, pas de discours déconnecté de la réalité. Juste les vérités que vous méritez de connaître pour protéger votre doctorat tout en profitant des outils de votre époque.
Pourquoi vos encadrants restent flous sur l’IA
Avant de pointer du doigt votre directeur de thèse, posons-nous une question honnête : sauriez-vous, vous, conseiller un collègue sur l’usage éthique de l’IA en recherche ? La réponse est probablement non. Et c’est exactement la situation dans laquelle se trouvent beaucoup d’encadrants.

Imaginez-vous un instant à leur place. Vous avez passé vingt ans à maîtriser les méthodologies de recherche traditionnelles. Soudain, en l’espace de deux ans, une révolution technologique bouleverse tout. ChatGPT, Claude, Gemini… Ces noms qui sonnent comme de la science-fiction sont devenus des outils du quotidien.
Vos encadrants sont eux-mêmes en apprentissage. Ils découvrent ces outils, parfois avec fascination, parfois avec méfiance. Et quand ils se tournent vers leur institution pour obtenir des directives claires, ils se heurtent souvent à un vide sidéral. C’est comme essayer de réglementer la circulation automobile avec des lois écrites pour les calèches.
Ce silence institutionnel n’est pas le fruit d’un complot. Il s’explique par trois facteurs que tout doctorant devrait comprendre :
- L’absence de cadre unifié — Chaque université, chaque discipline, parfois chaque laboratoire développe ses propres règles. En médecine, l’usage de l’IA pour analyser des données de patients soulève des questions éthiques radicalement différentes de celles posées en littérature comparée.
- La crainte de légitimer l’usage — Certaines institutions préfèrent la politique de l’autruche. En ne parlant pas de l’IA, elles espèrent éviter de devoir trancher.
- La méconnaissance technique — Combien de membres d’un comité de thèse savent réellement ce que ChatGPT peut ou ne peut pas faire ? Cette ignorance génère une peur diffuse qui pousse au silence.
Heureusement, certaines institutions montrent la voie. L’INRAE a publié un guide exemplaire qui mérite d’être connu de tout doctorant français.
Ce guide souligne un point crucial : la responsabilité finale incombe toujours au chercheur. L’IA ne signe pas la thèse, vous si. Cette simple vérité devrait guider toutes vos décisions d’utilisation.
Pour approfondir ces questions de cadre et de méthodologie, consultez notre cadre éthique détaillé pour votre thèse.
Les 5 vérités cachées sur l’IA en thèse
Maintenant que nous comprenons pourquoi le silence existe, entrons dans le vif du sujet. Voici les vérités que j’aurais voulu qu’on me dise quand j’ai commencé à m’intéresser à ce sujet.
Vérité #1 : Il n’existe pas de “pourcentage universel” autorisé
« On m’a dit qu’on pouvait utiliser 20% d’IA dans notre thèse. » J’entends cette phrase régulièrement. Elle est fausse. Il n’existe aucun pourcentage universel. Ce mythe s’est répandu comme une légende urbaine académique. Les seuils varient considérablement selon les disciplines, les universités et même les jurys individuels.
Pour comprendre les véritables seuils de votre discipline, consultez notre article sur les seuils autorisés par institution.

Vérité #2 : Les logiciels anti-plagiat détectent (mal) l’IA
Turnitin, Compilatio — ces noms font trembler les étudiants. Mais voici un secret de polichinelle : leur capacité à détecter l’IA est loin d’être infaillible. Les études récentes montrent des taux de faux positifs alarmants, jusqu’à 15% selon certaines analyses. Des textes entièrement écrits par des humains sont parfois signalés comme « probablement générés par IA ». La leçon ? Ne comptez pas sur ces outils pour vous protéger. C’est votre éthique personnelle et votre transparence qui feront la différence.
Vérité #3 : L’éthique varie radicalement d’une discipline à l’autre
Un doctorant en bioinformatique et un doctorant en histoire de l’art ne jouent pas selon les mêmes règles :
| Discipline | Usages généralement acceptés | Lignes rouges |
|---|---|---|
| Sciences dures | Analyse de données, code, visualisations | Interprétation des résultats |
| SHS | Synthèse bibliographique, traduction | Argumentation, analyse critique |
| Médecine | Revue de littérature, statistiques | Diagnostic, recommandations cliniques |
Pour une analyse approfondie par champ disciplinaire, découvrez notre guide sur les limites par discipline.
Vérité #4 : La transparence compte plus que l’abstinence
C’est peut-être la vérité la plus libératrice de cet article. Déclarer son usage de l’IA n’est pas avouer une faute. C’est démontrer sa rigueur méthodologique. Le journal de bord IA devient votre meilleur allié. En documentant vos interactions avec les outils d’IA, vous construisez un bouclier éthique inattaquable. Pour maîtriser cet aspect crucial, consultez notre guide complet de transparence.
Vérité #5 : Vos pairs l’utilisent déjà (mais n’en parlent pas)
L’omerta doctorale sur l’IA est bien réelle. Dans les conversations informelles, beaucoup admettent utiliser ChatGPT. Mais lors des séminaires officiels ? Silence radio. Être le premier à parler ouvertement de votre usage responsable peut devenir un avantage stratégique, positionnant votre travail comme méthodologiquement conscient et honnête.
Pour explorer plus en profondeur ces dynamiques, lisez notre article sur les vérités cachées sur l’IA en doctorat.
Le cadre éthique que votre université devrait vous donner
Puisque les institutions peinent à fournir des directives claires, voici le framework que tout doctorant devrait adopter.

Les 4 piliers de l’utilisation éthique de l’IA en thèse :
- Transparence — Déclarer tous les usages d’IA dans les annexes
- Supervision — L’IA propose, le doctorant dispose et vérifie
- Traçabilité — Tenir un journal des interactions IA
- Originalité — Conserver sa voix et son analyse propre
La transparence n’est pas une option, c’est une assurance-vie académique. Concrètement, cela signifie inclure dans votre thèse une déclaration explicite de votre usage de l’IA — dans les remerciements, une annexe dédiée, ou la section méthodologique.
« Dans le cadre de cette thèse, des outils d’intelligence artificielle générative ont été utilisés pour : la reformulation de passages, la génération de synthèses préliminaires de littérature, et la vérification linguistique. Tous les contenus générés ont été systématiquement vérifiés, modifiés et validés par l’auteur. Un journal de bord détaillant ces interactions est disponible en annexe. »
Pour éviter les pièges courants de la transparence, consultez notre article sur les erreurs de transparence à éviter.
L’IA excelle dans certaines tâches et échoue lamentablement dans d’autres. Comprendre cette distinction est fondamental. Elle peut vous aider pour la reformulation, la synthèse préliminaire, les traductions et la vérification grammaticale. En revanche, elle ne doit JAMAIS décider seule de l’argumentation, l’interprétation des données, la problématique ou les conclusions.
La règle d’or ? Si vous ne pouvez pas défendre une idée devant votre jury sans regarder vos notes, elle ne devrait pas être dans votre thèse.
Pour un accompagnement structuré dans cette démarche, découvrez notre guide conformité doctorat.
Les erreurs qui coûtent cher
Connaître les bonnes pratiques est essentiel. Mais parfois, comprendre les erreurs des autres est encore plus instructif.

Copier-coller sans reformulation critique — C’est l’erreur la plus fréquente et la plus dangereuse. L’IA génère un paragraphe qui semble correct, et le doctorant l’intègre tel quel. Ce texte ne porte pas votre voix, vos nuances. Lors de la soutenance, l’incohérence devient flagrante.
Ne pas vérifier les sources générées — Les IA ont une fâcheuse tendance aux « hallucinations » : elles inventent des références qui n’existent pas. Citer un article fictif dans votre bibliographie est le chemin le plus court vers le discrédit académique.
Utiliser l’IA pour la partie méthodologique sans supervision — Votre méthodologie est le cœur scientifique de votre thèse. La déléguer à l’IA, c’est construire une maison sur des fondations dont vous ne comprenez pas la structure.
Oublier que le jury posera des questions — Votre soutenance implique une discussion approfondie. Si des passages ont été générés sans que vous les ayez vraiment intégrés intellectuellement, cela se verra. Les membres du jury sont experts — ils repèrent les incohérences.
Pour une analyse détaillée de ces pièges, consultez notre article sur les erreurs qui ruinent la crédibilité et notre checklist anti-plagiat.
2025-2027 : L’avenir des jurys de thèse face à l’IA
L’avenir se dessine déjà. Les universités pionnières commencent à intégrer l’IA dans leurs critères d’évaluation — non pas pour la sanctionner, mais pour évaluer comment les doctorants l’utilisent.
Des établissements comme l’EPFL ou certaines universités néerlandaises expérimentent déjà des cadres où la déclaration d’usage IA devient standard, voire obligatoire. La question n’est plus « avez-vous utilisé l’IA ? » mais « comment l’avez-vous utilisée de manière responsable ? »
On peut anticiper l’émergence d’une « compétence IA » évaluée dans le parcours doctoral : capacité à évaluer critiquement les outputs, maîtrise de l’intégration éthique dans un workflow de recherche, aptitude à documenter et justifier ses choix.
Les doctorants qui refusent de s’adapter risquent un double handicap : un retard compétitif sur le marché académique, et paradoxalement, une méfiance des comités face aux travaux « trop parfaits » dont l’origine ne serait pas transparente.
La révolution est en marche. Vous pouvez choisir de la subir ou de la comprendre et l’utiliser à votre avantage. Le choix vous appartient — mais maintenant, au moins, vous savez ce que vos profs ne vous disaient pas.




Leave a Reply