Évaluez le niveau de préparation de votre institution face à l'intelligence artificielle générative
Cet outil d'auto-évaluation vous permet de mesurer le niveau de maturité de votre institution sur 10 dimensions clés issues de l'analyse de 22 chartes institutionnelles sur l'usage de l'IA en enseignement supérieur.
Ce diagnostic est basé sur une recherche rigoureuse :
Découvrez les 10 dimensions et les 5 niveaux de maturité
Comprendre les dimensions et niveaux d'évaluation
Chaque question propose 5 niveaux de réponse, correspondant à une échelle de maturité progressive. Votre institution se situe quelque part sur ce continuum :
0-25%
Aucune action formelle n'a été entreprise. La réflexion n'a pas commencé ou reste très informelle. Risques importants non identifiés.
25-50%
Premières discussions et prises de conscience. Actions ponctuelles et fragmentées. Absence de formalisation et de coordination.
50-62.5%
Dispositifs formalisés (chartes, guides). Actions structurées mais déploiement partiel. Début de systématisation.
62.5-87.5%
Dispositifs déployés à large échelle. Formations régulières. Processus établis et suivis. Culture en développement.
87.5-100%
Approche mature et exemplaire. Innovation continue. Évaluation systématique. Leadership reconnu. Essaimage.
Chaque dimension correspond à un invariant identifié dans l'analyse des 22 chartes institutionnelles. Le pourcentage indique le taux de consensus (fréquence d'apparition dans les chartes).
Ce qui est mesuré : Le niveau de sensibilisation de votre communauté aux erreurs factuelles (hallucinations), aux biais discriminatoires et aux limites techniques des modèles d'IA générative.
Pourquoi c'est important : C'est la dimension la plus consensuelle. Les IA peuvent produire des informations fausses de manière très convaincante et perpétuer des stéréotypes. Sans cette conscience, les usages sont dangereux.
Ce qui est mesuré : L'existence de politiques claires contre la fraude, la définition des usages acceptables/interdits, les procédures de sanction, et la formation à l'honnêteté intellectuelle.
Pourquoi c'est important : L'IA facilite la tentation de plagiat et de contournement du travail personnel. L'authenticité du travail universitaire est un pilier fondamental à protéger.
Ce qui est mesuré : La formation aux méthodologies de vérification (fact-checking), au croisement des sources, à la validation des références, et au développement d'un regard critique systématique.
Pourquoi c'est important : L'IA n'est pas une source de vérité mais un outil qui nécessite une validation humaine experte. L'esprit critique est la compétence centrale du 21e siècle.
Ce qui est mesuré : La sensibilisation au RGPD, les risques de confidentialité avec les IA publiques, la disponibilité d'outils institutionnels sécurisés, et les formations à la protection des données.
Pourquoi c'est important : Les données transmises aux IA publiques peuvent être utilisées pour l'entraînement des modèles. La protection de la vie privée et des données sensibles est une obligation légale et éthique.
Ce qui est mesuré : L'obligation de déclarer l'usage de l'IA, la clarté des modalités de déclaration, la communication des règles par les enseignants, et la traçabilité des pratiques.
Pourquoi c'est important : La transparence permet d'évaluer équitablement les travaux, de différencier l'usage légitime de la fraude, et de documenter les pratiques pour amélioration continue.
Ce qui est mesuré : L'existence de formations pour étudiants, enseignants et personnels, l'accessibilité des ressources d'auto-formation, et le développement d'une culture de l'apprentissage continu.
Pourquoi c'est important : L'IA évolue rapidement. Sans formation adéquate, les usages seront soit sous-optimaux (peur), soit risqués (naïveté). Tout le monde doit être accompagné.
Ce qui est mesuré : L'égalité d'accès aux outils IA, la prise en compte de la fracture numérique, l'accessibilité des formations, et la sensibilisation aux biais discriminatoires amplifiés par l'IA.
Pourquoi c'est important : L'IA ne doit pas créer ou renforcer des inégalités. Tous les étudiants doivent pouvoir bénéficier des mêmes opportunités d'apprentissage, quelle que soit leur situation socio-économique.
Ce qui est mesuré : La clarification que l'utilisateur reste responsable de ce qu'il produit avec l'IA, l'impossibilité de se cacher derrière "c'est l'IA qui l'a dit", et l'appropriation nécessaire des productions.
Pourquoi c'est important : La déresponsabilisation ("ce n'est pas moi, c'est l'IA") est un risque majeur. Les étudiants doivent comprendre qu'ils sont comptables de tout ce qu'ils soumettent, quelle que soit l'origine.
Ce qui est mesuré : La garantie que la relation pédagogique humaine reste centrale, la préservation des interactions sociales, et la vigilance contre la déshumanisation de l'enseignement.
Pourquoi c'est important : L'enseignement supérieur n'est pas qu'une transmission de connaissances : c'est une relation humaine, un accompagnement, une socialisation. L'IA ne doit jamais remplacer cela.
Ce qui est mesuré : La clarification que l'IA doit être un assistant à l'apprentissage (pas un substitut à la réflexion), l'encouragement des usages constructifs, et la refonte des évaluations pour valoriser le processus.
Pourquoi c'est important : C'est la question fondamentale : l'objectif est de développer les compétences de l'étudiant, pas celles de l'IA. Ce principe guide tous les autres, même s'il est rarement formalisé explicitement.
Analyse complète du niveau de maturité de votre institution