Comment appréhender la question de l’équité et de l’épanouissement à l’école ?
Présentation du modèle théorique sous l’angle de la recherche psychométrique sur le facteur général (g) d’intelligence, les neurosciences cognitives et les styles cognitifs.
Choix d’un modèle théorique
Le choix d’un modèle théorique se fait généralement selon deux approches distincte ou complémentaire : l’analyse factorielle ou la recherche fondamentale (neurosciences). L’objectif de ces deux approches est de trouver ou de délimiter par des moyens statistiques des construits psychologiques ou cognitifs qui représentent des variables pouvant être distinguées en fonction, ou bien de leurs positions respectives (vecteurs) dans une projection en trois dimensions ainsi que part leurs parts de variance explicative dans le modèle, ou finalement, par le moyen des neurosciences cognitives.
Le problème principal des analyses factorielles est celui-ci : l’interprétation et les résultats dépendent très souvent du type de tâche ou batterie de tests ainsi que de la perspective d’analyse. D’un autre côté, les neurosciences cognitives offrent une vision plus rigoureuse de la réalité neurofonctionnelle liée à différentes tâches cognitives. L’objectif dans la recherche d’un modèle théorique se situe à l’intersection de ces deux domaines.
Le facteur général d’intelligence : réalité et mythe
Actuellement, tous les modèles psychométriques se basent principalement sur l’idée d’un facteur général d’intelligence (facteur de second ordre) qui conditionnerait ou sous-tendrait tout type de tâche cognitive. Mais quelle est la valeur réelle du factur g ? Des études en neurosciences cognitives ont été menées afin de découvrir quels étaient les soubassements neuroanatomiques de l’intelligence générale (Duncan et al., 2000). Pour ce faire, ils ont utilisé la technique de tomographie par émission de positrons (PET SCAN) qui confère une bonne résolution spatiale contre une assez mauvaise résolution temporelle (≈ 30sec). Cependant, celà ne pose pas plus de problème lorsque nous cherchons des corrélats neuroanatomiques. Dans cette étude, les chercheurs ont utilisé les fameuses matrices de Raven liées au raisonnement ou intelligence fluide mais aussi des tâches de raisonnement verbal. La difficulté étant progressive, certaines tâches corrèlent plus fortement avec le facteur g. Dans le cas des tâches de raisonnement visuospatial (matrices de Raven), des activations bilatérales du cortex (pré)frontal latéral ainsi que des activations restreintes au niveau du gyrus mediofrontal et quelques régions pariétales et prémotrices ont pu être relevées. En ce qui concerne les tâches de raisonnement verbal, l’unique activité significative fut visible dans le cortex frontal latéral gauche. Ces résultats issus de la recherche fondamentale suggèrent qu’il n’existe aucune activité cérébrale diffuse liée au facteur g mais des activations ciblées majoritairement au niveau des lobes frontaux ou préfrontaux. De plus, on peut observer des superpositions d’activités entre les différentes tâches qui corrèlent toutes positivement avec le facteur g telles que les activations au niveau du cortex (pré)frontal gauche (tâches spatiale et verbale) (à voir : Duncan et al., 2000, pour précisions et images). Ainsi, des particularités telles que la nouveauté dans la tâche, la mémoire de travail, la difficulté du stimulus ou une compétitivité entre les possibles réponses semblent produire des activations neurofonctionelles au niveau du cortex frontal latéral. Ceci ne démontre non pas la réalité du facteur g mais l’existence d’un réseau neurofonctionnel précis et restreint qui semble commun à différentes tâches de raisonnement. Ainsi, celà nous montre la direction à suivre : un modèle doit se baser sur des réseaux cérébraux fonctionnels qui sous-tendent les différents construits et non pas uniquement des analyses factorielles. Il nous faut maintenant nous pencher sur certaines controverses autour du facteur g afin de mieux cibler le challenge dans le choix du modèle théorique.
Le facteur général est-il invariant ? Une des conditions élémentaire d’une invariance du facteur général est celle-ci : le facteur g doit rester le même peut importe la batterie de tests administrée. Thurstone en 1947 stipula que le facteur général extrait d’une batterie de tests n’est pas forcément le même que celui extrait d’une autre batterie de tests. Selon ce chercheur, le facteur g n’est rien de plus que la moyenne de toutes les habiletés mesurées qui corrèlent entre elles. Ainsi, la proportion de variance du facteur g dépend toujours des intercorrélations entre les batteries de tests.
Pour bien comprendre le raisonnement de Thurstone, il faut comprendre que pour cet auteur le facteur g est similaire à un centre de gravité hypothétique qui diffère selon le nombre ou le poids des sous-tests liés à des habiletés mentales primaires (Mackintosh., 2011).
Ici, nous observons dans la Figure 7.1, les surfaces d’une hypersphère orthonormée avec différents tests (vecteurs hypothétiques partant du centre de la sphère et se positionnant à la surface. On observe les points A, B et C représentant des compétences ou habiletés cognitives (similaires aux compétences hors-domaine ou intelligences multiples). Ainsi le « centre de gravitée » ou facteur g est mobile et prend une position topologique différente selon les saturations et donc le rapprochement des différents tests avec l’une ou l’autre des habiletés. Pour résumer, le facteur g va différer dans le cas où une majorité de sous-tests se rapprochent d’une compétence ou d’une autre. Ainsi, il faut être particulièrement attentif aux tests qui ne corrèlent pas fortement avec le facteur g car ces tests nous indiquent simplement que la position du facteur g n’est plus adaptée ou représentative pour ces tests-là et donc, qu’il faut chercher un nouveau facteur g qui sous-tenderait un autre réseau anatomico-fonctionnel pour une ou plusieurs compétences. Il est essentiel d’investiguer cet état de fait.
Un autre point élémentaire à considérer concerne la mémoire de travail (working memory) qui dépend étroitement du contenu présenté. Par exemple, des capacités de mémoire de travail incluant du contenu verbal corrèlent positivement avec une forte compétence verbale (Mackintosh., 2011).
Deux autres points fondamentaux sont à prendre en compte afin de mieux comprendre et choisir un modèle théorique de compétences/connaissances.
Le premier point essentiel concerne ce que les chercheurs appellent : l’hypothèse de la différenciation. En effet, lorsqu’on observe le taux de corrélation entre les différents tests du WAIS-R, on remarque une baisse drastique de la corrélation entre les tests en fonction du QI (augmentation). Ainsi, la contribution du facteur générale (part de variance) diminue en fonction de l’augmentation du QI ce qui semble aux premiers abords paradoxal. Pourtant, ces analyses statistiques sont compréhensibles si l’on tient compte que le facteur g n’est qu’une part de variance : mais variance de quoi ? Certains auteurs ont suggéré que le facteur g ne représentait qu’un pourcentage d’échouer dans plusieurs tests et ainsi, serait plus représentatif (part de variance expliquée) chez les individus ayant un faible QI (Mackintosh., 2011). Pour terminer, l’angle de la différenciation semble le plus adéquat et analogue avec une théorie de compétences ou modules neuro-computationnels. Ainsi, plus le système se perfectionne et se différencie (QI élevé) et plus la part de variance commune entre les sous-tests diminue et ainsi, ce point amène à la légitimité d’une théorie de compétences multiples qui, hypothétiquement, augmenterait en différenciation ou en profils hétérogènes proportionnellement à la capacité computationnelle modulaire de la personne. Ainsi, des profils de compétences multiples sont fondamentaux pour permettre à l’élève, aussi bien d’évaluer ses potentialités au moment présent tout en lui permettant d’observer l’évolution et la possible différenciation et progression de ses potentialités.
Figure – Rapport entre les intercorrelations et le QI.
Un dernier aspect fondamental pour bien comprendre la direction des compétences multiples et de sa nécessité concerne aussi bien les neurosciences qu’une hypothèse statistique. Voici l’hypothèse : la superposition de processus neurofonctionnels multiples crée l’illusion d’un facteur commun. Ainsi, plus le nombre de processus impliqués dans différentes tâches est élevé, plus la correlation entre les tâches (tests) est forte et donc, émerge la théorie du facteur g ou de l’intelligence unitaire. Cependant, les tâches ou processus qui ne correspondent pas (ne corrèlent pas) avec cette création artificielle d’un concept inexistant sont simplement écartés : par exemple, la musique qui est considérée par de nombreux auteurs comme un processus non-cognitif alors que le fait d’écouter ou jouer de la musique active globalement le cerveau avec une intégration complète entre des zones cérébrales distinctes. Ainsi, la musique serait l’activité la plus cognitive et cérébrale qui existe actuellement. Il convient absolument de ne plus commettre des erreurs d’interprétations ou d’arrangements statistiques de forme sans le fond nécessaire. Ces processus hypothétiques sont à chercher dans les neurosciences comme par exemple, le cortex frontal ou préfrontal qui semble impliqué communément dans les tests de raisonnement spatiaux et verbaux difficiles (corrélation avec un haut QI). Ce point est essentiel, non pas pour classer les élèves mais pour comprendre qu’il n’existe pas qu’un seul type de processus cognitif (facteur g) impliquant le cortex frontal. La logique est la suivante : plus il existe de processus neurocognitifs communs entre les tâches ou sous-types d’intelligences (verbale, fluide, cristalisée), plus élevé sera la valeur de la variance expliquée du facteur commun (corrélations entre sous-tests) et donc, le facteur g. Ainsi, il convient de modifier l’approche et l’angle de raisonnement en comprenant qu’il convient non pas d’éliminer les tâches qui ne corrèlent pas avec le facteur g mais de les analyser afin d’en découvrir en quoi (processus cognitifs), ces tâches cognitives diffèrent des tests saturant fortement sur le facteur g (et donc corrélant fortement entre elles). Comme le dit si bien l’auteur N.J. Mackintosh : « une absence de corrélation est toujours plus informative que la présence d’une correlation » (Mackintosh., 2011).
Figure – Processus sous-jacents hypothétiques liés aux tests de Gc (Intelligence cristalisée), Gf (Intelligence fluide) et Gv (Intelligence verbale).
Les statégies ou styles cognitifs
Un des points les plus importants dans l’analyse de compétence ou connaissance chez un élève concerne ce qu’on peut appeler les styles cognitifs. Il a été démontré que certains sujets utilisent une stratégie verbale pour résoudre des tests spatiaux ou une stratégie spatiale pour résoudre des énigmes de type verbal. Majoritairement, les hommes utiliseraient des stratégies spatiales et les femmes, des stratégies verbales (Mackintosh., 2011). En outre, différentes aires cérébrales seraient sollicitées en fonction de la stratégie utilisée. Par exemple, dans le cas d’une stratégie verbale, l’hémisphère gauche incluant toutes les aires fonctionnelles du traitement du language (Broca, Wernicke, etc.) serait utilisée. En contrepartie, une stratégie spatiale (ou holistique) impliquerait les aires pariétales. Les différences de stratégie cognitive pourraient être directement liées aux compétences hors-domaine intégrant ainsi un principe logique d’optimisation. Ces différentes stratégies ne sont jamais mises en avant dans les tests d’intelligence actuels et pourtant, ce sont des aspects élémentaires de la connaissance de Soi. Alexandre Luria (1973) développa le concept des quatre quadrants de l’apprentissage impliquant les parties :
Séquentiel Verbal
Séquentiel Non-Verbal (ou visuel)
Simultané Verbal
Simultané Non-Verbal (ou visuel)
Ces différents quadrants peuvent être dichotomisés en deux plus grands facteurs : holistique et analytique correspondant à la manière de traiter l’information de manière globale ou analytique en décorticant l’information afin de mieux l’intégrer.
Le but sera d’analyser ces différents aspects chez l’élève afin de lui permettre de mieux comprendre son fonctionnement de manière générale tout en faisant les parallèles avec les compétences hors-domaine. Ainsi, les stratégies font office de modérateurs.
Modèle théorique de base et perspective de recherche
En fonction de différents points de convergence tels que, les controverses très présentes autour du facteur g, l’apport des neurosciences cognitives mais aussi l’approche du modeling, le choix peut être tourné vers un modèle intégrant une évaluation globale et complète des différents potentiels de chaque élève dans une perspective systémique. L’intelligence dans ce modèle est vue comme un potentiel biopsychologique comportant une part génétique/innée et une part fortement évolutive. Concernant la structuration des différentes compétences hors-domaine (intelligences), le modèle 3 de Castejon et al (2010) semble le plus adéquat et intègre deux facteurs de second-ordre ou facteurs g corrélés. Comme nous l’avons vu, les facteurs de second ordre étant mobile et représentant la part de variance expliquée (intercorrélations), ils servent à représenter la part de variance commune (communalities) entre différents facteurs de premier ordre (les compétences hors-domaine). Le modèle 3 sera ensuite étendu dans une perspective systémique intégrant deux modérateurs fondamentaux comme étant : les styles cognitifs (1) et les compétences transversales (2). Il convient de noter que les compétences transversales diffèrent des compétences hors domaine intra- ou interpersonnelle (Intelligence émotionnelle) dans le sens où elles sont situées (contextualisées) au contraire des compétences hors-domaine qui sont simplement des complexes fonctionnels et computationnels de stimuli (par exemple, repérer des visages exprimant des émotions mais sans mouvement). Il convient pourtant de noter que cette différenciation est plus difficile à mettre en pratique dans le cycle 1 où des ateliers sont privilégiés aux batteries de test décontextualisées.
Le modèle 3 est présenté ci-dessous avec les différents indices d’adéquation du modèle. Il convient de noter que le modèle 4 est aussi bien adapté aux données, excepté l’indice PNFI de parcimonie qui est plus « faible » au niveau du modèle 4 (modèle d’intercorrélations entre tous les facteurs de premier ordre). Ainsi, le choix du modèle 3 oppère d’un compromis entre les théories de facteurs de second ordre et les compétences multiples dans le sens où il intègre deux facteurs g et donc, accepte la part de mobilité du facteur de second ordre en fonction des tests. Partir de ce modèle-ci me semble le compromis le plus adéquat afin de le tester plus avant, dans une perspective plus systémique.
Table – Indices d’adéquation du modèle (Castejon et al., 2010 for details).
Figure – Modèle 3 avec Gnc (« Intelligence non-cognitive ») et Gc (« Intelligence cognitive ») comme facteurs de second ordre.
Figure – Modèle systémique.
Perspectives de recherche :
Ci-contre, se trouve le modèle systémique qui intégrera, bien-entendu, des facteurs de second ordre à gauche des compétences hors-domaine, selon les données et l’adéquation du modèle. Lors de l’analyse, la confrontation entre plusieurs modèles sera fondamentale afin d’opter pour le modèle le plus adapté aux données. Ensuite, l’idée de deux modérations comme étant les styles cognitifs et les compétences transversales seront intégrées dans les analyses mais aussi dans les profils d’élève afin de permettre aux élèves d’avoir une vision globale et une connaissance de Soi complète. Pour terminer, les conditions écologiques seront notamment à prendre en considération comme variables englobantes ou écologiques.
La mise en place de la recherche et de la création de profils compétence/connaissance pourrait s’axer, pour le cycle 1 et une partie du cycle 2 dans l’optique des ateliers SPECTRUM qui comprennent déjà une bonne partie du testing des compétences hors-domaine (l’étude de Castejon et al. se base sur les batteries de test (ateliers) SPECTRUM). En fin de cycle 2 et début du cycle 3 ainsi que tout au long du cycle 3, une évaluation psychométrique (tests de type Neuronation : jeux/performance avec difficulté progressive) ainsi qu’une auto-évaluation doivent être privilégiée et surtout pondéréeentre les deux.
En effet, une auto-évaluation est strictement insuffisante si l’élève ne se connait pas assez et est soumise à d’innombrables biais cognitifs. Cependant, elle est aussi essentielle dans le sens où l’avis de l’élève et son choix lui appartienent entièrement. L’objectif du modèle théorique « Visions D’Avenir » est de permettre la meilleure orientation possible pour l’élève ainsi que de promouvoir le bien-être et la connaissance de Soi dans un cadre scolaire vivant et évolutif. L’étape suivante sera de confronter ce modèle théorique au terrain grâce à l’appui de fiches thématiques pour les ateliers et d’un déploiement de « batteries de test » ou « jeux cognitifs » de type neuronation au sein des classes.