Issy-les-Moulineaux / Lille

Un cadre clair pour l’usage de l’intelligence artificielle à la FLD

Face à l’essor rapide des outils d’intelligence artificielle générative (IAG) dans l’enseignement supérieur, l’Institut Catholique de Lille* et la Faculté de Droit se dotent d’une charte et d’un guide d’accompagnement afin de définir un cadre d’usage clair, responsable et conforme à leurs valeurs humanistes. Conscients des transformations induites par ces technologies, nous faisons le choix d’encadrer leurs usages pour en permettre une utilisation pertinente, maîtrisée et transparente au sein de la communauté académique.

*L’ICL représente une partie des établissements qui fondent l’Université Catholique de Lille.

Un cadre explicite pour les usages des étudiants

L’intelligence artificielle fait désormais partie du quotidien universitaire. Les étudiants y recourent pour reformuler des cours, structurer des plans ou mieux comprendre certaines notions complexes. Notre établissement reconnaît ces pratiques et encourage un usage critique et responsable des outils d’IA, conçus comme une aide à la démarche intellectuelle sans s’y substituer.

La charte distingue ainsi plusieurs catégories d’usages :

  • Usages autorisés

Certains usages sont encouragés lorsqu’ils contribuent au développement des compétences : résumer ou reformuler des contenus, obtenir des explications complémentaires sur un point de cours, structurer des idées en vue d’un exposé ou s’entraîner à partir de QCM générés automatiquement, par exemple.

  • Usages encadrés

Dans le cadre des travaux à rendre, l’utilisation de l’IA est possible uniquement lorsque l’enseignant l’autorise explicitement et en précise les modalités. Toute utilisation doit alors être déclarée de manière transparente. Pour les mémoires et rapports, la mention de l’usage d’outils d’IA est obligatoire, les étudiants demeurant pleinement responsables du contenu remis.

  • Usages interdits

Il est interdit de produire intégralement ou partiellement un travail académique avec l’IA sans le signaler, utiliser ces outils lors d’un examen sans autorisation ou se présenter comme l’auteur d’un contenu généré par une IA. Ces pratiques constituent des manquements à l’intégrité académique et peuvent entraîner des sanctions.

L’objectif est de permettre aux étudiants de comprendre quand et comment utiliser ces outils, d’en vérifier les résultats et d’en maîtriser les limites.

Un cadre partagé par l’ensemble de la communauté universitaire

La démarche concerne également les enseignants-chercheurs et personnels administratifs. Elle vise à garantir des pratiques cohérentes au sein de l’établissement, en précisant les responsabilités de chacun : définition de consignes claires dans les enseignements et évaluations, transparence dans l’usage de l’IA, vigilance quant à la protection des données et supervision humaine des contenus produits.

L’IA peut ainsi être utilisée comme un outil d’appui dans les missions pédagogiques, scientifiques ou administratives, dès lors que son usage reste maîtrisé, transparent et conforme aux règles institutionnelles.

Un accompagnement pour une utilisation maîtrisée

En complément de la charte de l’Institut Catholique de Lille, la Faculté de Droit développe également un guide d’accompagnement proposant des repères juridiques et éthiques ainsi que des conseils pratiques pour aider les usagers à définir leurs objectifs, relire de manière critique les contenus générés et prévenir les risques d’erreurs, de biais ou d’usages inadaptés.

Par cette démarche, la Faculté de Droit de l’Université Catholique de Lille affirme sa volonté d’intégrer l’intelligence artificielle dans ses pratiques, tout en posant un cadre clair garantissant la qualité des apprentissages, l’intégrité académique et la protection des données.

Article édité le 25 février 2026

À voir aussi

International / Issy-les-Moulineaux / Lille

Journée Portes Ouvertes