Aller au contenu

Corriger en contexte de diversité

Vers une évaluation neuroinclusive, valide, rigoureuse et intègre

Mélissa Lortie est neuropsychologue, enseignante et chargée de cours.

L’évaluation façonne les apprentissages autant qu’elle les mesure. Elle reflète notre vision de la réussite, de la compétence et de la diversité des apprenants. Elle influence ce que les personnes étudiantes apprennent, comment elles s’y préparent et comment elles montrent leur compréhension. En ce sens, l'évaluation constitue un pilier du parcours étudiant.

Repenser la conception du cadre évaluatif

L’enseignement supérieur accueille aujourd’hui une population étudiante de plus en plus diversifiée. Historiquement, les écarts de performance observés chez certains groupes, notamment chez les personnes étudiantes en situation de handicap (ESH), ont été interprétés comme des difficultés individuelles. Les réponses institutionnelles misent surtout sur des accommodements au cas par cas, utiles mais insuffisants pour répondre à la diversité des besoins et pour répondre aux enjeux d’une vraie inclusion. De plus, avec la hausse des demandes, ce modèle devient insoutenable pour les services et de manière globale, peu équitable pour la population étudiante qu’elle dessert (Tai et al., 2023).

Dans cette optique, la qualité d’une évaluation se mesure dans sa capacité à représenter fidèlement la compétence visée sans être biaisée par des exigences qui n’ajoutent rien à la compétence visée (Clark, Watson et Markon, 2019). Dans une perspective de neurodiversité, cela signifie reconnaître que certaines modalités d’évaluation peuvent mobiliser des fonctions cognitives qui ne sont pas directement liées à la compétence ciblée, par exemple la mémoire de travail, la vitesse de traitement, la régulation attentionnelle, la sensibilité sensorielle ou la compréhension implicite. Ces exigences, souvent invisibles, créent une surcharge cognitive inutile pour certains profils et compromettent la validité de la mesure (Clouder et al., 2020 ou Dwyer et al., 2023). Repenser la conception des épreuves, c’est donc à la fois élargir le cadre d’analyse et retirer les éléments qui ne sont pas directement liés à ce qu’on souhaite réellement mesurer.

De la standardisation à la validité

Un des objectifs principaux d’une évaluation est sa validité : mesure-t-elle bien la compétence effectivement ciblée? La standardisation est un moyen pour assurer la validité et la fidélité, mais appliquée de manière rigide, elle se transforme en contrainte. Une approche plus inclusive déplace donc la standardisation, non plus dans les conditions, mais dans les critères d’évaluation.

La conception universelle (Hall, Strangman et Meyer, 2003) propose d’anticiper les obstacles dès la conception, d’offrir des voies d’expression variées tout en maintenant les mêmes critères d’exigence. Plutôt que de viser une large couverture, mieux vaut cibler les compétences : moins de contenus, plus de profondeur, et des gains d’apprentissage soutenus par une rétroaction formative brève et fréquente.

L’évaluation inclusive repose aussi sur l’équité, et non sur l’égalité. L’égalité impose des conditions identiques; l’équité reconnaît que des personnes différentes ont besoin de moyens différents pour atteindre la même cible (Finn, Tai et Nadarajah, 2025). Une approche proactive prévoit donc des mesures accessibles à tous, modulées selon les compétences à évaluer (ex. : choix de lieu, formats variés, écrit, oral, audio/vidéo, outils universels, lecteur PDF, synthèse ou dictée vocale, segmentation de l’épreuve ou temps ajusté). Ces flexibilités réduisent les obstacles non pertinents et permettent de démontrer la même compétence selon un chemin adapté, à critères et barèmes identiques.

Autrement dit, on ne standardise plus le moment ou le format de l’évaluation, mais les critères, les attentes et la qualité des rétroactions. Ce déplacement protège la validité, soutient l’équité et renforce la rigueur de l’évaluation (Tai et al., 2023).

Rigueur, intégrité et inclusion

On oppose souvent rigueur et inclusion. Ce sont deux dimensions interdépendantes, mais bien distinctes. La rigueur assure la cohérence entre les objectifs, les tâches et les critères. Elle repose sur des outils transparents et sur la clarté des attentes (Brassard, 2012). Être rigoureux, ce n’est pas multiplier les contraintes, mais garantir que la mesure reflète fidèlement la compétence. Une rigueur inclusive s’appuie sur des critères explicites, des outils variés et une évaluation répartie dans le temps plutôt qu’une seule « photo » ponctuelle. Ces principes limitent les biais cognitifs, linguistiques ou sensoriels, sans compromettre les standards (CAST, 2024).

Quant à l’intégrité, elle protège la confiance envers le processus d’évaluation. Elle repose sur la transparence des règles, l’équité des conditions et la cohérence éthique des pratiques. L’intégrité crée ainsi un cadre de confiance, à l’intérieur duquel l’inclusion peut pleinement jouer son rôle de levier pédagogique. Ces balises permettent de préserver l’intégrité sans sacrifier l’inclusion et rappellent que ces deux dimensions, loin des opposer, s’enrichissent mutuellement.

Conclusion

L’évaluation met en lumière les choix qui structurent nos pratiques. Sous l’angle de la neurodiversité, l’évaluation devient un espace de cohérence entre ce que l’on enseigne, ce que l’on valorise et ce que l’on mesure. Plutôt qu’une addition d’accommodements, il est plus riche de concevoir en amont des dispositifs où chacun à sa place, est reconnu pour ses forces et peut démontrer sa maîtrise dans des conditions rigoureuses, sans abaisser les standards. Évaluer autrement, c’est choisir la clarté, la diversité des preuves et la flexibilité pour que l’évaluation devienne un vecteur d’équité et favorise réellement la réussite de tous.


Quelques pistes d’action concrètes

  • Organiser l’évaluation à l’échelle du cours. Échelonner les preuves dans le temps; varier ou offrir au choix différents formats sans changer les critères (grille critériée); offrir de petits essais faiblement pondérés pour permettre des rétroactions fréquentes; aligner chaque tâche sur une compétence annoncée.
    • Offrir des choix et diversifier les preuves d’apprentissage : portfolio, projet de session, présentation, affiche scientifique, balado, étude de cas commentée.
    • Offrir une flexibilité encadrée du moment et du lieu. Par exemple avec un portfolio, la personne étudiante gère son espace et son rythme; un échéancier clair demeure en vigueur, avec jalons réguliers et date de remise finale.
    • Soutenir attention et planification. Prévoir des listes à cocher, des rappels périodiques et de courts points d’étape pour baliser la progression sans alourdir la charge cognitive.
    • Varier les modes de communication. Avec une même grille d’évaluation, accepter un document Word, une présentation PowerPoint commentée, une vidéo ou un audio de type balado; les critères demeurent les mêmes, seule la modalité d’expression change.
  • Cibler les compétences. Viser la qualité plutôt que la quantité des contenus.
  • Miser sur des situations authentiques.
  • Rédiger des énoncés clairs, sans implicites; alléger le texte; limiter la charge de mémoire de travail (mise en page soignée, repères visuels, tableaux fournis).
  • Publier la grille d’évaluation/critères et expliciter en avance les attentes (ex : illustrer le type de réponse attendu et travailler en classe les opérations complexes comme justifier, distinguer, comparer, expliquer).
  • Soutenir l’intégrité par la conception. Proposer des tâches qui exigent justification, personnalisation et trace de démarche.
  • Concevoir en amont un examen en classe plus accessible, lorsque cela est possible et pertinent à l’égard des compétences visées :
    • Segmenter l’épreuve en sections avec au moins une pause prévue.
    • Prévoir une plage horaire qui inclut le tiers temps.
    • Offrir différents choix de modalité de communication (ex : écrit, enregistrement audio + point form dans un PPT commenté, audio/vidéo).
    • Joindre une liste de concepts/théorie avec l’examen ou permettre une feuille de notes ou l’utilisation de cartes conceptuelles afin de miser sur l’application ou l’analyse plutôt que la mémorisation.
    • Fournir des éléments neutres avant l’épreuve (mise en situation ou une liste de questions).

Déclaration sur l’utilisation de l’intelligence artificielle
Une assistance rédactionnelle a été fournie par l’outil ChatGPT (OpenAI, 2025) pour la révision linguistique, la structuration du texte et la mise en forme des références selon le style APA 7. L’ensemble du contenu a été vérifié, validé et adapté par l’autrice.


Références

American Educational Research Association, American Psychological Association, & National Council on Measurement in Education. (2014). Standards for educational and psychological testing. American Educational Research Association. https://www.testingstandards.net

Brassard, N. (2012). Évaluation et rétroaction : comment en tirer profit? Le Tableau, 1(4). https://docutheque.uquebec.ca/id/eprint/135/1/letableau-v1-n4-2012.pdf

CAST. (2024). Universal Design for Learning Guidelines Version 3.0. https://udlguidelines.cast.org

Clark, L. A., Watson, D., & Markon, K. E. (2019). Constructing validity: New developments in creating objective measuring instruments. Psychological Assessment, 31(12), 1412–1427. https://doi.org/10.1037/pas0000626

Clouder, L., Karakus, M., Cinotti, A., Ferreyra, M. V., Fierros, G. A., & Rojo, P. (2020). Neurodiversity in higher education: A narrative synthesis. Higher Education, 80(4), 757–778. https://doi.org/10.1007/s10734-020-00513-6

Dwyer, P., Mineo, E., Mifsud, K., Lindholm, C., Gurba, A., & Waisman, T. C. (2023). Building neurodiversity-inclusive postsecondary campuses: Recommendations for leaders in higher education. Autism in Adulthood, 5(1), 1–14. https://doi.org/10.1089/aut.2021.0042

Finn, G. M., Tai, J., & Nadarajah, V. D. (2025). Inclusive assessment in health professions education: Balancing global goals and local contexts. Medical Education, 59(1), 88–96. https://doi.org/10.1111/medu.15535

Hall, T., Strangman, N., & Meyer, A. (2003). Differentiated instruction and implications for UDL implementation. National Center on Accessing the General Curriculum / CAST. https://www.cast.org/resources/tips-articles/ncac-differentiated-instruction-udl

Marginson, S. (2016). The worldwide trend to high participation higher education: Dynamics of social stratification in inclusive systems. Higher Education, 72(4), 413–434. https://doi.org/10.1007/s10734-016-0016-x

Ministère de l’Enseignement supérieur du Québec. (2025). Intégration responsable de l’intelligence artificielle dans les établissements d’enseignement supérieur : repères et bonnes pratiques. Gouvernement du Québec. https://cdn-contenu.quebec.ca/cdn-contenu/education/Numerique/enseignement-superieur/integration-responsable-ia-etablissements-es-guide.pdf

Ministère de l’Enseignement supérieur du Québec. (2025). Cadre de référence – Déploiement et intégration de l’intelligence artificielle en enseignement supérieur. Gouvernement du Québec. https://cdn-contenu.quebec.ca/cdn-contenu/education/Numerique/enseignement-superieur/cadre-reference-travaux-instance-ia-es.pdf

Quality Assurance Agency for Higher Education. (2024). QAA advice and resources on generative AI. https://www.qaa.ac.uk/sector-resources/generative-artificial-intelligence/qaa-advice-and-resources

Tai, J., Ajjawi, R., Bearman, M., Boud, D., Dawson, P., & Jorre de St Jorre, T. (2023). Assessment for inclusion: Rethinking contemporary strategies in assessment design. Higher Education Research & Development, 42(2), 483–497. https://doi.org/10.1080/07294360.2022.2057451

Tertiary Education Quality and Standards Agency. (2025). Guidance on assessments and generative AI. https://www.teqsa.gov.au

Zeitlhofer, I., Hartmann, F. G., Keppler, G., & Cress, U. (2024). Complexity affects performance, cognitive load, and awareness. Learning and Instruction, 94(2), 102001. https://doi.org/10.1016/j.learninstruc.2024.102001