Accueil général du site de Chr. Chomant

Travaux en sciences de l’éducation

Travaux en sciences cognitives

Travaux en anthropologie cognitive

Travaux sur les idées de « temps »

Écrits sur l’éducation

Littérature générale Chr. Chomant

Catalogue Christophe Chomant Éditeur

Écrire à Chr. Chomant

 

Seconde partie                                                                                               3

Neurobiologie de la cognition                                                                       3

La biologie : démon et tabou ; explications ; exigences de discernement                              5

Le mauvais héritage de la biologie : le nazisme, l’apartheid, l’eugénisme, le « darwinisme social » 5

Nazisme, apartheid, eugénisme : la diversité biologique n’induit aucune valeur morale ni ne légitime aucune mesure politique                                                                                                                             7

Darwin, la théorie                                                                                                                  9

Les détournements politiques de la théorie darwinienne                                                          10

Un autre danger de croyance fausse et de ségrégationnisme inspiré par la biologie : Wickliffe Draper et le Pionner Fund                                                                                                                                12

Michael Ruse : la « méta-éthique » ne peut pas fonder l’éthique normative                              13

La « sélection naturelle » n’est ni intentionnelle, ni violente, ni finaliste                                     14

Avoir conscience des risques de détournement de la biologie, sans pour autant « jeter le bébé avec l’eau du bain »                                                                                                                                        15

Deux illustrations des capricieuses relations entre biologie et dignité morale : la dyslexie et l’homosexualité                                                                                                                                            16

La vérité scientifique déniée et condamnée au nom de principes « moraux » : le cas Debray-Ritzen           16

Le naturalisme est-il ségrégationniste ou humaniste ? La controverse de l’homosexualité          18

Des leçons de la dyslexie et de l’homosexualité pour notre sujet de recherche                         20

De la nécessaire distinction entre « vrai » et « bien »                                                          21

Comment est née la vie ? Rappel de quelques connaissances fondamentales                      24

L’hypothèse du « Big-Bang » : quarks, noyaux, atomes                                                          25

Des atomes aux petites molécules organiques : alcools, sucres, acides aminés                          25

Les macro-molécules : protéines, acides nucléiques                                                                26

La « caisse d’aimants légo »                                                                                                 27

« Molécule », « goutte », « cellule »                                                                                       28

Algue, bactérie... et les premiers organismes vivants sont là                                                   28

Qu’appelle-t-on « intelligence » ?                                                                                         29

Les conceptions de « l’intelligence » avant la neurobiologie et l’environnementalisme               30

Gall et la phrénologie, Broca                                                                                                 30

Binet, l’avènement et l’histoire de la psychométrie                                                                 31

Utilisations discutables du test de Binet-Simon aux États-Unis : Terman, Yerkes et Brigham    32

Le « facteur g » et sa controverse : Spearman, Jensen, Thurstone, Carroll, Sternberg               33

Howard Gardner et les « intelligences multiples »                                                                   34

Le « QI » mesure-t-il l’intelligence de manière fiable ? Flynn et les tests « dynamiques »          36

Comment définir aujourd’hui « l’intelligence » ?                                                                     37

Linda Gottfredson et l’actualité du « facteur g »                                                                     37

L’intelligence et la mémoire                                                                                                  41

Le déni de la notion « d’intelligence » : « utilité » et limites                                                      41

Le relativisme est-il une bonne façon de défendre l’égalité de dignité entre les hommes ?         42

Le relativisme est une posture « utile » à la défense de l’idéologie égalitaire... et à la promotion involontaire d’idéologies ségrégationnistes                                                                                            43

« Intelligence », « caractères cognitifs », génotype, adn                                                    44

Un comportement observable n’est pas dicté par un gène mais l’effet d’un assemblage de différents « caractères »                                                                                                                   44

Un « caractère » naturel est le produit d’un seul ou plusieurs gènes ; « monogénie » et « plurigénie »         45

Les gènes sont regroupés sur « l’adn » et constituent le « génotype »                                   45

L’exploration récente et à venir des gènes responsables du fonctionnement cognitif                 51

Un caractère est le produit de plusieurs gènes ; un même gène nourrit plusieurs caractères      51

Le caractère complexe et indirect de l’action des gènes sur les caractères ne doit pas être interprété a contrario comme une indépendance des caractères cognitifs à l’égard des gènes                                52

Ni détermination génétique directe, ni émancipation génétique du caractère                             52

Les indices de caractères cognitifs naturels                                                                          53

Les travaux sur les capacités cognitives des jumeaux                                                             54

Quelques pathologies cognitives d’origine naturelle : trisomies, phénylcétonurie, lyssencéphalie, craniosténose, Alzheimer, dyslexie...                                                                                                        56

Le point de vue matérialiste implique une influence naturelle des phénomènes cognitifs            62

Neurobiologie générale                                                                                                         63

Le cerveau, structure physiologique des phénomènes cognitifs                                                63

Les différentes parties du cerveau humain et leurs fonctions essentielles                                 63

Les fonctions des différentes parties du cerveau                                                                    64

Le cortex (« l’écorce »)                                                                                                       64

La composition du cortex : neurones, axones, synapses, neurotransmetteurs                            65

La formation du cortex                                                                                                         66

L’activité du cortex                                                                                                              67

Les phénomènes cognitifs                                                                                                      68

Neurobiologie du comportement                                                                                            69

Neurobiologie de la mémoire et de l’apprentissage : Georges Chapouthier                               72

Le langage, structure naturelle : Noam Chomsky                                                                   82

L’historique « controverse de Royaumont » entre Chomsky et Piaget : un tournant naturaliste dans l’histoire de  la cognitivité                                                                                                                         83

L’aspect génétique de la cognitivité : de l’adn au neurone                                                86

L’adn, support des caractères héréditaires à la conception                                                   87

L’adn, programmateur de la corticogenèse                                                                         87

L’adn, molécule active au sein du cerveau                                                                          88

Génétique et capacités cognitives                                                                                          88

Comment le « pathologique » éclaire le normal en matière de capacités cognitives et de génétique 92

Pourrait-on vraiment comprendre les différences de réussite scolaire sans connaissance des phénomènes cérébraux ?                                                                                                                         93

Résumé de la seconde partie                                                                                                 93

 


 

 

 

 

Seconde partie

Neurobiologie de la cognitivité

ou

 

« Quelles sont les fondements naturels

des différences de potentialités ? »

 


 

 

 

 

 

« On doit se rappeler que toutes nos connaissances psychologiques provisoires doivent être un jour établies sur le sol des substrats organiques. »

Sigmund Freud

 

« Rien ne s’oppose plus désormais, sur le plan théorique, à ce que les conduites de l’homme soient décrites en termes d’activités neuronales. »

Jean-Pierre Changeux

 

 « L’information qui donne à chaque individu de chaque espèce ses traits caractéristiques innés tant sur le plan anatomique que sur les plans de la physiologie ou du comportement, est stockée dans les molécules d’ADN des chromosomes des cellules. (...) Les bases innées du comportement sont portées par les molécules chimiques d’ADN. (...) Un certain nombre de travaux montre l’existence de relations entre les gènes et les capacités d’apprentissage ».

Georges Chapouthier

 

« Nous allons en apprendre des vertes et des pas mûres. Le génome ne sera pas politiquement correct. Il y aura beaucoup d’éléments qui nous apporteront des surprises. (...) Je pense que nous apparaîtrons beaucoup plus étroitement déterminés qu’on ne le croit aujourd’hui. »

François Jacob

 

 « Au XVII° siècle, certains prélats avaient refusé de regarder dans la lunette astronomique de Galilée. Qui sait ce qu’ils auraient pu être contraints d’admettre ! »

Frans de Waal[1]

 

« Ce qui est démocratique, ce n’est pas l’affirmation dogmatique d’une égalité factuelle entre les hommes. (…) On peut reconnaître la part de l’inné. (…) Au lieu de dissimuler (…) ce qui serait censé gêner l’égalitarisme démocratique, il vaudrait mieux (…) se donner la peine de penser démocratiquement d’éventuelles inégalités. »

Luc Ferry


 

 

 

 

 

 

 

Les connaissances en sociologie ne suffisent pas pour comprendre les phénomènes d’inégalité sociale. Certaines théories, nous l’avons vu, ont essayé d’expliquer la reproduction des inégalités, mais elles ne parviennent pas à expliquer les « trajectoires atypiques » et l’origine d’une différenciation sociale entre les hommes. Aussi apparaît-il nécessaire, pour comprendre les réussites et échecs scolaires qui échappent aux « déterminants sociaux », de s’intéresser à ce qui se passe à l’intérieur du cerveau de l’élève lorsqu’il est en situation d’apprentissage. Ce qui se passe à l’intérieur du cerveau de l’enfant s’inscrit dans le champ de la « neurobiologie », c’est-à-dire de la « biologie » du cerveau.

Ce terme de « biologie » fait peur. Il est bien souvent repoussé et condamné dans le milieu des sciences de l’éducation et des sciences sociales en général. Cette peur est-elle justifiée ? Quelles sont ses causes ?

La biologie : démon et tabou ; explications ; exigences de discernement

Qui invoque des éléments de biologie dans le cadre des sciences de l’éducation ou de la sociologie des inégalités socio-scolaire est immédiatement perçu comme un vecteur potentiel d’idéologie ségrégationniste, ou à tout le moins fataliste ou conservatrice. Cette réaction, tout d’abord, est étonnante, puisque la biologie, science objective au même titre que l’astronomie ou la géométrie, n’a aucunement ni l’intention ni le pouvoir de faire le lit de quelque idéologie que ce soit. Cette réaction, ensuite, est nocive, puisqu’en repoussant a priori la biologie, elle empêche de mieux comprendre les mécanismes inégalitaires et, partant, d’adopter des mesures pertinentes pour une meilleure justice socio-scolaire. Comment lever donc cette censure qui empêche d’intégrer des éléments de biologie aux explications sociologiques et de mieux comprendre le fonctionnement des phénomènes ? Essayons d’analyser les raisons du « tabou » naturaliste et – peut-être – les dangers politiques de la biologie.

Le mauvais héritage de la biologie : le nazisme, l’apartheid, l’eugénisme, le « darwinisme social »

La biologie traîne à son pied un héritage politique pesant, vieux de cent cinquante ans. Le souvenir le proche – et le plus vif aussi – est celui du nazisme : cette idéologie ségrégationniste et exterminatrice pensait « légitime » de fonder sa pensée sur de prétendues « données scientifiques », d’ordre biologique, selon lesquelles certaines races seraient « supérieures » à d’autres, comme si le génotype d’un Tzigane était « inférieur » à celui d’un Aryen. Pour qui a quelque notion de biologie (et est étranger aux haines xénophobes), une telle croyance est complètement dépourvue de sens. Elle est aussi absurde que dire qu’un « rouge-gorge est ‘inférieur’ à une mésange », ou qu’une « fourmi d’Australie est ‘inférieure’ à une fourmi d’Islande » . Le postulat ségrégationniste des nazis est absurde d’un point de vue biologique.

Des régimes plus récents, comme l’Afrique du Sud, ont également poursuivi des politiques de ségrégation et de séparation des races, toujours au nom de supposées « données biologiques ». Là encore, la séparation des « races » (étiquette relativement floue sur le plan biologique) ne peut s’appuyer sur aucune donnée objective : ce parti-pris est d’ordre purement « moral » et politique.

Dans un autre registre, entre les deux guerres, des pays d’Occident, comme les États-Unis, l’Allemagne ou la Suède, ont procédé à des stérilisations de personnes déficientes intellectuelles ou criminelles sur la base de leur « différence » et « spécificité » biologique. Or, à nouveau, s’il existe une diversité naturelle des potentialités et tempéraments, il n’existe pas de frontière définie entre « normaux » et « anormaux », et encore moins de raison « scientifique » de nuire aux individus étiquetés « anormaux ».

Au dernier siècle, enfin, la théorie biologiste évolutionniste de Charles Darwin a donné lieu à des exploitations politiques ‑ ultra-libérales, fascistes ou socialistes. Nous verrons que l’appréhension des mécanismes d’évolution naturelle des espèces est épistémologiquement indépendant des actions politiques choisies par les hommes.

Une exploitation de la « sélection naturelle », comprise comme une apologie de « la loi du plus fort », fut d’ailleurs également reprise par les nazis dans leur « justification » de domination et d’extermination des autres peuples (notamment Juifs, Tziganes, Slaves, Noirs, Asiatiques, etc... et également Français). Ces exploitations de notions biologiques par des idéologies répugnantes, meurtrières ou abominables, toutes indéfendables en tout cas, ont certainement de quoi expliquer les réactions de méfiance ou d’hostilité à l’égard de la biologie dans le cadre des sciences de l’éducation ou de la sociologie : c’est que la biologie est associée dans l’esprit des gens à des scandales ou des catastrophes humaines. Le réflexe de rejet de la biologie dans le champ des sciences humaines est en quelque sorte « pavlovien » : « chat échaudé craint l’eau froide » ! Quand bien même l’acteur parvient-il à faire la part des choses entre la neutralité de la biologie comme discipline et les dérapages politiques commis abusivement en son nom, il craint que l’utilisation de cette discipline n’emmène pas à nouveau la société, à sa propre insu, vers quelque extrémisme barbare. Cette peur – qui est compréhensible et recevable – nous invite à exprimer ici la plus grande prudence à observer lorsqu’on manipule des données de biologie dans le champ des sciences humaines. Il est certainement nécessaire à ce titre – nous l’avons déjà exprimé en introduction – d’employer des termes dénués d’ambiguité (tels que nous l’ont enseigné les épistémologues du Cercle de Vienne ou de la philosophie analytique), et des nuances précisant au lecteur ce que la biologie permet ou ne permet pas de dire.

Sur le risque d’exploitation idéologique de données scientifiques, il est important de remarquer que la tentation psychologique est forte pour un individu de vouloir rendre « scientifique » un point de vue personnel. On observe en effet couramment, dans la vie quotidienne, que les gens essaient de faire admettre pour « vrai » un point de vue personnel, subjectif, qu’ils considèrent comme « bon » et « bien ». C’est probablement cette tendance naturelle, cette pulsion des individus qui explique l’émergence du détournement « collectif » de savoirs scientifiques pour « justifier » une idéologie privée, particulariste, communautaire, ségrégationniste (comme par exemple le nazisme, l’apartheid ou le communisme), idéologie qui conduit à des crimes de masse abusivement « justifiés » par des références scientifiques. L’individu humain rêve que soit perçue comme vraie, scientifique, une opinion personnelle subjective. De là naissent des idéologies capables d’exterminer sans état d’âme plusieurs millions de personnes. Que notre propre croyance en des « valeurs universelles » nous garde de telles dérives !

Si l’on voulait lutter contre le danger des idéologies meurtrières, il faudrait peut-être analyser la propension psychologique individuelle à ériger le subjectif en « scientifique » ‑ phénomène qui n’épargne personne.

 

Nous allons examiner ‑ en quelques mots ‑ pourquoi les idéologies citées plus haut se sont servis de la biologie de manière abusive, l’ont fait mentir ou dire des choses qu’elle ne dit (ni ne pense) pas (si toutefois la biologie pense quoi que ce soit).

Nazisme, apartheid, eugénisme : la diversité biologique n’induit aucune valeur morale ni ne légitime aucune mesure politique

Le nazisme et l’apartheid ont prétendu justifier leurs actes sur la base de « données biologiques ». Ces données biologiques, quelles sont-elles ? Elles sont qu’on peut observer des différences d’apparence entre les différentes ethnies humaines et que ces différences sont l’effet de caractères génétiques héréditaires. Mais que cela nous dit-il de plus ? Cela nous permet-il de tirer une quelconque inférence sur les dignités, valeurs et droits politiques des différentes ethnies ? Une variété de fourmis (au sein d’une espèce donnée) peut-elle tirer de sa spécifité naturelle de quelconques droit ou « nécessité » de dominer ou exterminer les autres variétés ? On ne peut postuler de valeur politique sur la base de différences naturelles. Nazis et autres ségrégationnistes ont voulu faire dire à la biologie ce qu’elle ne disait pas, ne dit toujours pas et ne pourra jamais dire.

Il est étonnant que des gens pourtant l’aient cru. On pourrait rejoindre ici les analyses de Pareto, Scheler ou Nozick : les gens, sur la base d’un ressentiment personnel, d’une souffrance, se forgent le « vernis logique » d’une pseudo « supériorité biologique » utilisant des notions de biologie, et y croient eux-mêmes sincèrement parce que cette croyance présente pour eux une « utilité », en servant leurs intérêts affectifs ou sentimentaux. Comme nous l’avons évoqué plus haut, il est vraisemblable que la volonté « collective » de détournement de données scientifiques pour « justifier » une idéologie provienne d’une agrégation de tendances individuelles à vouloir imposer comme « vraie » une opinion subjective.

Il existe une autre objection au « racisme biologique », quie est celle d’un Albert Jacquard[2]. Elle consiste à dire qu’« il n’existe pas plus de différence biologique et génétique entre un Blanc et un Noir qu’entre deux Blancs tirés au hasard ». Or, outre que cette objection est douteuse d’un point de vue scientifique (puisque un Blanc et un Noir choisis au hasard ont statistiquement plus de chances de se différencier sur le plan génétique que deux Noirs choisis au hasard ou deux Blancs choisis au hasard), elle ne semble pas la plus judicieuse parce qu’elle élude la question des relations entre différence naturelle et dignité humaine, laquelle est centrale dans ce débat. Pis : en arguant d’une supposée identité génétique entre les ethnies, A. Jacquard semble accepter l’inférence entre diversité naturelle et dignité politique : « C’est parce que les Blancs et les Noirs sont « identiques » qu’on ne peut pas être xénophobe », semble-t-il dire. Or, ceci ne semble pas la meilleure façon de défendre une cause humaniste, dans la mesure où la diversité génétique entre les différents peuples et individus ne va cesser d’être étudiée et diffusée dans le grand public. La meilleure défense contre l’exploitation raciste de la diversité naturelle semble plutôt l’affirmation de la disjonction épistémologique entre diversité et valeur politique. Ce n’est pas l’affirmation dogmatique d’une égalité factuelle, dirait Luc Ferry, qui permettra de penser démocratiquement les différences naturelles (ethniques ou cognitives) entre les hommes. Une défense mensongère prête encore mieux le flanc, au contraire, aux idéologies xénophobes. Ce n’est pas dans la science que trouveront caution ni le racisme ni l’anti-racisme.

Pour ce qui concerne les pratiques eugénistes ayant consisté à stériliser des individus déficients intellectuels ou criminels en Allemagne, en Suède et aux États-Unis dans les années 1920, l’objection est la même que pour le nazisme ou l’apartheid : même si on établit que la déficience intellectuelle ou la criminalité sont influencés par des facteurs naturels, quel droit ce fait donne-t-il sur l’intégrité politique des personnes concernées ? Une spécificité naturelle confère-t-elle le droit d’éliminer ou stériliser des gens ? Le débat en tout cas n’est pas scientifique mais politique et moral. Si des sociétés choisissent de stériliser certains de leurs citoyens déficients intellectuels ou criminels, ce n’est pas la science qui en est responsable mais le choix politique des hommes.

Là encore, le rejet d’une influence naturelle de la criminalité ou de l’agressivité ne semble guère judicieux. En effet, que cet argumentaire deviendrait-il si on découvrait dans les années à venir que tel allèle génétique provoque une carence en sérotonine, laquelle carence empêche l’individu de maîtriser ses actes et le rend vulnérable à la violence ? L’argumentaire dénégateur volerait en éclat… et laisserait place à un ségrégationnisme social « légitimé » par les mensonges « d’humanistes » maladroits.

Darwin, la théorie

La théorie élaborée par Charles Darwin a donné également lieu à divers détournements politiques, détournements d’ailleurs aussi bien par la gauche (le progressisme, le socialisme) que le libéralisme ou l’extrême-droite. Avant d’observer les détournements de cette théorie, observons d’abord la théorie : Charles Darwin, dans L’évolution des espèces au moyen de la sélection naturelle, paru en 1859, émit l’hypothèse que les espèces animales ne sont pas fixes (idée déjà développée par le « transformisme » au XVIII° siècle) mais évoluent sous l’influence des conditions contingentes dans lesquelles elles vivent, les individus disposant par hasard de caractéristiques favorables, survivant et se reproduisant mieux que les autres. Notons que Gregor Mendel n’avait pas encore publié ses travaux sur l’hypothèse de « gènes »[3]. La théorie de Darwin, qui à son époque déclencha les foudres de la religion, demeure aujourd’hui encore valide, même s’il lui ont été apportés de nombreux affinements. On sait aujourd’hui que des bases azotées contenues dans l’ADN peuvent être altérées par le hasard ou par des radiations, provoquant des mutations génétiques, des transformations physiologiques, comportementales ou cognitives de l’organisme, lesquelles trouveront un écho négatif ou positif dans l’environnement. C’est ainsi qu’apparaissent des variétés parmi l’espèce… et même, par isolement prolongé, de nouvelle espèces. Bien sûr, comme le note fort justement un Michael Ruse[4], cette théorie scientifique, comme toutes les théories, ne peut en aucun cas inférer des prescriptions politiques : ce que nous observons dans la nature ne nous dit rien sur ce que nous devons faire, sur les règles morales ou politiques que nous avons à nous fixer.

Certes, il a été vu dans l’ouvrage de Darwin De la descendance de l’homme (1871) un appel à « l’amélioration » de l’espèce par une action eugéniste, de « sélection articificielle » de l’homme. Il faut croire que Darwin ait succombé aux sirènes prométhéennes ou se soit lui-même mal compris. Car une telle promotion de l’eugénisme n’est pas darwinienne, elle ne peut pas être déduite, en tant que telle, de la théorie évolutionniste de Darwin. Toute « sélection » de l’homme par l’homme, en effet, n’obéirait pas à la « sélection naturelle » puisqu’elle serait artificielle. Peut-être même qu’aveugle aux véritables mécanismes de l’évolution naturelle, une telle sélection serait nuisible à l’espèce humaine.

Il est possible d’ailleurs que les mauvaises interprétations et contresens opérés à l’égard de la « sélection naturelle » proviennent du caractère intentionnaliste de l’expression, alors que l’évolution est l’effet de mutations dues au hasard. Dans la réalité, personne ne « sélectionne » personne : une mutation aléatoire advient, qui demeure ou disparaît. La formulation « sélection naturelle » est trompeuse et fâcheuse ; « hasard évolutionnel » serait plus approprié. Nous aurons l’occasion d’évoquer ce point à d’autres reprises.

L’un des éléments de la théorie de Darwin qui offrira une prise aux idéologies dominatrices et guerrières (et depuis corrigé) est également celui de la « lutte nécessaire pour survivre ». En effet, cette notion peut laisser croire que les « plus aptes » à la survie individuelle et de l’espèce sont les individus musclés, égoïstes et agressifs. Or une espèce – et surtout l’espèce humaine – a besoin des caractères les plus divers pour survivre : quelques individus musclés et agressifs (pour faire rempart à des agresseurs) certes, mais également des individus réfléchis, prudents, tempérés, altruistes, doux, etc… (qui vont apporter d’autres atouts-clefs pour la survie de l’espèce). Une société qui « sélectionnerait » les individus les plus « aptes » entendus comme les plus égoïstes et agressifs courrait certainement à sa perte. Car tous les autres individus ont également été « sélectionnés » par l’évolution. La réalité est que les individus « les plus aptes » sont ceux qui ont été « sélectionnés » par l’évolution, à savoir tous les individus qui naissent aujourd’hui. L’idée d’un eugénisme au nom de la « sélection naturelle » est donc absurde… et idéologique.

Les détournements politiques de la théorie darwinienne

On sait que la théorie de Darwin a donné lieu à différents détournements politiques. Le plus connu, sans doute parce que le plus facilement crédible, est celui de l’utra-libéralisme. Herbert Spencer (1820-1903), notamment, (quoique sa pensée se résumait-elle à celle qu’on lui prête aujourd’hui ?), estima que, dans la mesure où l’évolution des espèces montre la survivance des « espèces et individus les ‘plus forts’ au détriment des ‘plus faibles’ », il serait nécessaire, pour « respecter » la « volonté » (?), la « finalité » (?), de la nature, de ne pas secourir les « plus faibles » contre la domination des « plus forts ». Spencer préconisait ainsi un ultra-libéralisme dans lequel l’État ne devait pas intervenir pour réguler forces et richesses. Cette description un peu caricaturale demanderait peut-être à être nuancée à la lecture directe des textes de Spencer. Toujours est-il que Spencer cherche à « légitimer » son idéal politique sur la base des travaux de Darwin. Or, ceci, bien sûr, nous le savons, est un abus. Spencer commet en fait une erreur d’analyse : il ne voit pas qu’appliquer à l’homme les principes de la « sélection naturelle » consiste en une « sélection artificielle ». En réalité, nul ne peut savoir en quoi consiste la « sélection naturelle » (puisqu’elle est due au hasard et transcende les millénaires et les espèces). En l’occurrence, cette « sélection naturelle » a (vraisemblablement) pu favoriser des comportements de solidarité ou de redistribution (puisqu’ils existent aujourd’hui !), principes contraires aux préceptes ultra-libéraux. Compte tenu du fait qu’une personne âgée est riche d’expérience ou d’enseignement, par exemple, il est peu judicieux pour une communauté d’abandonner ses personnes âgées. Une communauté solidaire à l’égard des vieillards a plus de chances de survivre et se reproduire qu’une autre. Les caractères naturels de tempérament solidariste ont donc plus de chance de se transmettre et se répandre au fil de l’évolution, ce qui entre en contradiction avec les principes libéraux anti-solidaristes. Les valeurs politiques anti-solidaristes sont d’ailleurs vivement contestées par une grande partie de l’opinion publique… ce qui montre que le sentiment solidariste a bien été « sélectionné » par l’évolution.

Le « hasard évolutionnel » échappe à l’humanité ; une action des hommes sur leur propre espèce n’est pas naturelle mais politique : voilà la rupture épistémologique entre science et idéologie concernant le darwinisme.

 

Un autre détournement abusif et meutrier du darwinisme fut le nazisme : puisque « les individus et les espèces sont censés se livrer à une lutte sans merci pour éliminer les plus faibles » dans le cadre de l’évolution des espèces, alors n’est-il pas souhaitable d’appliquer ce précepte soi-disant « scientifique » à son propre peuple et « justifier » ainsi des guerres de conquête, d’asservissement et d’élimination des autres peuples ? On sait que cette interprétation du darwinisme n’est pas recevable, puisque la « sélection naturelle », par définition, ne peut pas artificielle. La preuve : le nazisme a été éliminé par la « sélection naturelle » de l’Histoire.

Un autre détournement de la théorie darwinienne, moins bien connu, mais qui contient pourtant une part de « logique », est celui du socialisme. La théorie darwinienne, en effet, semble montrer un progrès, une marche déterminée de la vie en général, et de l’espèce humaine en particulier. L’évolution, mal comprise (c’est-à-dire expurgée de toute notion de contingence écologique et surtout de hasard mutationnel), peut facilement nourrir un historicisme ou un prométhéisme humaniste, bien intentionné (le fascisme ne se distinguant de cet historicisme que par ses intentions martiales[5]). Le darwinisme pouvait donc en ce sens être interprété comme la « légitimation » d’une idéologie (voire d’une dictature) progressiste, historiciste. Au cours du 50ème congrès des naturalistes allemands, en 1879, Haeckel, Nägeli et Virchow débattirent justement de savoir si le darwinisme devait être compris comme une justification des inégalités ou au contraire comme aliment du socialisme (question dont nous savons que la science ne peut pas donner de réponse). C’est à cette occasion d’ailleurs que le socialiste français Émile Gautier inventa le terme (péjoratif) de « darwinisme social ». Chaque scientifique cherchait en fait à « tirer la couverture » à ses opinions politiques.

Pourquoi ce comportement de l’homme à détourner des données scientifiques pour nourrir une opinion subjective ?

Notons que, dans tous ces cas ‑ ultra-libéralisme, nazisme, socialisme ‑, le détournement abusif est commis sur la base du présupposé premier « d’évolution », de « progrès », de « finalité » de la nature et de l’humanité. C’est ne pas voir que les seuls « déterminants » de la « sélection naturelle » sont le hasard, le chaos et les contingences climatiques. Ces progressismes laïcs finalistes que sont l’ultra-libéralisme, le nazisme ou le socialisme, seraient-ils des résurgences religieuses, faisant place au finalisme chrétien sécularisé par le « Siècle des Lumières » : « science » et « nature » auraient-elles remplacé « Dieu »... pour le meilleur et pour le pire ?

Nous avons vu également que le détournement idéologique de données scientifiques pouvait être un effet agrégatif de cette tendance naturelle, universelle et récurrente qu’a l’individu de vouloir faire reconnaître comme « vraie » une opinion personnelle subjective qu’il apprécie. On peut voir également là une expression du « vernis logique » conceptualisé par Pareto : l’individu, pour asseoir une opinion privée, l’enrobe d’une argumentation pseudo-scientifique frauduleuse.

Pourquoi l’homme montre-t-il cette tendance finaliste ? Exprime-t-elle un besoin naturel de donner sens à l’existence, la sienne et celle du monde ? Existerait-il un système de représentations et de croyances capables de répondre à ce besoin tout en évitant des drames sociaux et politiques ? La question demeure entière.

Un autre danger de croyance fausse et de ségrégationnisme inspiré par la biologie : Wickliffe Draper et le Pionner Fund

Il est également important de se souvenir que, de 1907 à 1960, plus de 100.000 citoyens américains se trouvèrent stérilisés sous prétexte qu’ils étaient porteurs de déficiences physiques ou mentales, voire pauvres ou Noirs. Cette mesure s’appuyait sur une prétendue « justification biologique ». L’idéal eugéniste demeure vivace aujourd’hui aux États-Unis, où un Wicliffe Draper a fondé en 1937 la fondation new-yorkaise « Pionner Fund », qui subventionne toutes les recherches permettant de montrer un « caractère héréditaire » de l’intelligence et de la réussite sociale. Ont bénéficé de ces subventions, notamment, le prix Nobel William Shockley, qui défendait des programmes de stérilisation volontaire chez les personnes à faible QI, ou encore Michael Levin, du City College de New York, qui préconise un contrôle de la croissance de la population noire[6] (!). On voit que ces recherches ont débordé le strict cadre de la science pour déraper vers des idéologies ségrégationnistes se rattachant à la biologie de manière irrecevable. Le rêve eugéniste d’une élimination des êtres humains jugés « moins aptes » et de la promotion d’une « élite intellectuelle héréditaire » est donc vivace (et peut-être même durable). Pourtant, ses présumées « justifications biologiques » sont erronées, et ceci à deux niveaux différents : d’abord ce que nous dit la science à un niveau descriptif ne nous autorise en rien à prescrire quelque norme que ce soit sur un plan moral ou politique ; ensuite, quand bien même l’indicatif aurait le droit d’induire l’impératif (comme aurait dit Hume), la neurobiologie cognitive nous montre une forte mobilité des potentialités cognitives entre les générations, ce qui rend infondée, inutile et criminelle ‑ même dans une « logique ségrégationniste » ‑ la prétendue nécessité d’éliminer tel ou tel type de population, jugée « moins apte » : des « génies » naissent au sein de milieux défavorisés, et, par ailleurs les peuples s’enrichissent de la diversité de leurs membres. Il convient donc, au vu de la vivacité eugéniste actuelle, de ne rien laisser sous-entendre dans nos travaux qui pourrait « justifier » de quelque manière que ce soit des programmes politiques ségrégationniste ou criminels. Nous y veillerons, en y mettant un point d’honneur.

Michael Ruse : la « méta-éthique » ne peut pas fonder l’éthique normative

L’épistémologue canadien Michael Ruse estime que les comportements et valeurs éthiques des humains sont le fruit de l’évolution des espèces[7]. Il distingue avec force – et à juste titre – entre deux niveaux de réflexion sur l’éthique.

Un premier niveau, la « méta-éthique », étude de l’histoire de l’éthique, nous informe sur les conditions d’émergence de tel ou tel type de comportement ou de valeur chez l’homme, en supposant que les comportements et valeurs les plus favorables à la survie du groupe aient été « sélectionnés[8] » par l’évolution. Ainsi, les comportements et valeurs de solidarité, d’altruisme et d’entraide (et peut-être même « d’égalitarisme ») ont probablement été « sélectionnés » parce qu’ils contribuent à une meilleure cohésion, complémentarité et survie du groupe, de la tribu, donc à une meilleure reproduction de ses individus. Cette « méta-éthique », rencontre entre l’évolutionnisme et la neurobiologie comportementale, nous renseigne sur les conditions historiques d’émergence de tel ou tel valeur ou comportement chez l’homme, en reconnaissant bien sûr également la grande diversité de distribution des génotypes individuels puisés dans le génome : ainsi, le caractère plausible d’émergence de tel comportement n’indique pas qu’il est également partagé par tous les individus. Certains individus sont plus solidaristes ou tempérés, d’autres plus égoïstes ou agressifs, etc... tous caractères qui, lorsqu’ils sont agrégés en groupe d’individus, en espèce, forment un produit favorable à sa reproduction. Il est donc irrecevable, à ce titre, de faire une promotion de l’agressivité (par exemple) parmi l’espèce humaine : ce trait est l’un des ingrédients du génome. Il n’est favorable à l’espèce que comme complément d’autres traits (solidarité, maîtrise de soi, écoute de l’autre, tolérance, etc…).

Un deuxième niveau de l’éthique est celui de l’éthique pratique ou « éthique normative ». Il s’agit simplement des normes éthiques définies et discutées par les hommes à chaque lieu et en chaque époque, par concertation des membres d’une communauté (tous statuts et tempéraments confondus). Ce niveau éthique est purement empirique et subjectif. Il ne saurait être dicté par aucun enseignement scientifique, quand bien même issu de la « méta-épistémologie », ou de l’évolutionnisme, ou de la neurobiologie cognitive. Aucune théorie scientifique sur l’éthique ne peut exercer d’autorité sur le débat normatif des hommes. Savoir (ou supposer) que l’évolution a favorisé l’émergence de l’agressivité ou de l’instinct d’entraide parmi les hommes ne détermine pas directement le contenu des lois politiques régissant la société ; découvrir (supputer déjà depuis longtemps) que les hommes naissent dotés de différentes potentialités cognitives n’apprend rien sur la définition de la « justice » sociale, du « mérite » ou sur la judicieuse répartition des richesses parmi la population.

Les connaissances acquises sur la « méta-éthique » ne peuvent pas induire ou fonder les valeurs éthiques librement discutées et définies par les hommes réunis en société.

Tout au plus les dissuadent-elles de vouloir fonder des sociétés utopiques – et partant, meurtrières.

La « sélection naturelle » n’est ni intentionnelle, ni violente, ni finaliste

Avant d’aller plus loin, il est bon d’émettre encore quelques remarques sur les curieuses représentations que les hommes se font de la « sélection naturelle ». Cette dernière consiste en effet parfois dans les esprits en une sorte « d’entité transcendantale » munie (un peu comme un « dieu » ou des « structures sociales ») d’une intention et d’une finalité, qui dépasserait et gouvernerait l’espèce. Nous avons vu plus haut que cette croyance pouvait refléter la résurgence d’un finalisme religieux expulsé par la sécularisation, en une sorte de retour inconscient du refoulé comme eut suggéré Freud.

La « sélection naturelle »  : une formulation trompeuse

Le terme de « sélection naturelle », nous l’avons déjà observé, est en lui-même trompeur : l’individu imagine voir un « acteur en train de sélectionner quelque chose » ; les gens croient parfois (souvent ?) que la « sélection naturelle », c’est « la nature qui sélectionne quelque chose », comme si la nature était une personne et qu’elle pouvait agir avec intention. Or, la « nature » n’est pas une personne, elle n’agit pas et n’a pas d’intention. La seule entité qui agisse dans la « sélection naturelle », c’est l’individu, qui s’accouple... ou ne s’accouple pas. Ce sont les effets, l’agrégation de tous les accouplements qui produiront un accroissement de certains gènes (les gènes des individus qui se sont le plus reproduits) et une diminution ou une disparition d’autres (ceux des individus décédés jeunes ou restés isolés). La formulation de « sélection naturelle » a donc de quoi tromper l’homme sur la nature et « l’essence » du phénomène. Peut-être serait-il bon, d’ailleurs, de modifier cette formulation, par trop intentionnaliste et historiciste. « Hasard évolutionnel » serait déjà moins trompeur et dangereux.

La pérennisation des gènes, issue des meilleures conditions de reproduction

 Les gènes ayant connu du « succès » et parvenus jusqu’à nous sont ceux qui, par hasard (et même doublement par hasard) se sont trouvés correspondre à un environnement écologique favorable et ont permis à l’individu de l’espèce non pas d’exterminer ses camarades, mais simplement de faire plus d’enfants qu’eux. Cette capacité d’enfanter plus qu’autrui est probablement due à des raisons de santé et d’alimentation, puis – secondairement – de comportement (l’agressivité n’étant pas forcément favorable à l’accouplement[9]). Nous parlions de « double hasard », parce que le gène favorable (ou non) à l’adaptation (et conservé ou non par l’évolution) apparaît par hasard, par mutation aléatoire, sur le brin d’ADN[10]. Il n’est conçu ni produit par personne. Le climat, l’environnement, la météorologie, de leur côté, sont également soumis aux « lois » du hasard. Ainsi, si les petits mammifères et les requins blancs survivèrent à la disparition des dinosaures il y a soixante-cinq millions d’années, c’est parce que par hasard une météorite s’est écrasée sur la Terre, et que par hasard certains organismes se trouvèrent pourvus de physiologies favorables à la survie (ceci grâce à des mutations aléatoires). L’émergence d’un caractère ou d’une espèce parmi le règne vivant se situe au confluent de deux événements aléatoires – ce qui exclue au passage une « justification » transcendantale de cette émergence. On est loin en tout cas, des projections intentionnalistes ou finalistes que les hommes opèrent souvent sur le phénomène « d’évolution des espèces » ou de « sélection naturelle ».

La « sélection naturelle » s’effectue au hasard, sans intention ni finalité. Les confusions et dérives en la matière proviennent peut-être d’un deuil incomplet du créationnisme religieux.

Avoir conscience des risques de détournement de la biologie, sans pour autant « jeter le bébé avec l’eau du bain »

Nous avons vu que des idéologies ultra-libérales, ségrégationnistes, nazis, progressistes ou eugénistes ont cherché à s’appuyer sur la biologie pour se légitimer. Nous avons vu également que, pour différentes raisons, aucune « légitimation » de ce type n’était fondée. Faut-il alors s’interdire d’utiliser des notions de biologie dans le champ des sciences humaines ? La biologie est-elle en soi dangereuse d’un point de vue politique ? Une connaissance n’est-elle pas neutre ? La connaissance en biologie ne peut-elle pas aider à mieux comprendre les mécanismes de la réussite scolaire, des différences de trajectoire et de la mobilité sociale ? À ce titre, comme nous l’avions suggéré en introduction, la biologie peut fournir aux partisans de la justice sociale des clefs pour mieux combattre « l’inégalité des chances » ou la ségrégation sociale. Ignorance et cécité ne permettent pas en effet de résoudre un problème.

 

Il est généralement cru que le détournement politique de la biologie sert des intentions ségrégationnistes, contre lesquelles se battent humanistes et défenseurs de la dignité humaine. Le chapitre suivant va nous montrer que la réalité n’est pas fidèle à ce schéma, et que la dignité de la personne humaine s’appuie parfois sur des données naturalistes, alors qu’inversement en la matière les thèses environnementalistes menacent intégrité et dignité des individus.

Deux illustrations des capricieuses relations entre biologie et dignité morale : la dyslexie et l’homosexualité

La vérité scientifique déniée et condamnée au nom de principes « moraux » : le cas Debray-Ritzen

Pierre Debray-Ritzen est un psychiatre qui défraya la chronique dans les années 1970 pour avoir supposé que la « dyslexie » était d’origine naturelle. Nous mettons ici de côté les sympathies politiques du psychiatre pour ne nous concentrer que sur ses travaux et hypothèses scientifiques. La dyslexie est un trouble de l’apprentissage de la lecture, empêchant les enfants de bien identifier les mots, et provoquant notamment des inversions de syllabes ou de lettres. Ce trouble est la cause de nombreux redoublements à l’école. Réciproquement, de nombreux cas d’échec scolaire sont causés par une dyslexie. Une dyslexie peut même demeurer ignorée chez un élève, parce que celui-ci a développé des stratégies de compensation cognitive par la logique ou la mémoire. Ce trouble fut tout d’abord et pendant longtemps interprété comme étant d’origine environnementale, psychologique : c’était, croyait-on, l’origine sociale ou le comportement des parents qui étaient en cause. Or, on sait aujourd’hui, de façon de plus en plus précise et fiable, que la dyslexie est causée par un dysfonctionnement de certaines zones cérébrales, lesquelles manifestations physiologiques sont sous la dépendance de gènes, eux aussi de mieux en mieux identifiés et localisés[11]. Mais revenons à Pierre Debray-Ritzen. Celui-ci émit l’hypothèse que la dyslexie était peut-être causée par des déterminants naturels, lesquels étaient probablement gouvernés par des gènes. Que n’avait-il pas dit ! Les communautés des enseignants, des psychologues, des psychanalystes et des intellectuels environnementalistes crièrent au scandale et se mobilisèrent pour rejeter ses thèses et le condamner personnellement : de telles hypothèses ne pouvaient provenir que de quelqu’un de « droite », voire « d’extrême-droite ». Il faut dire qu’on n’avait plus entendu parler d’origine naturelle du comportement ou des caractères cognitifs depuis la sinistre idéologie nazie. Cette référence explique peut-être le rejet des hypothèses du psychiatre. Nous avons vu en effet plus haut le poids de l’Histoire dans le discrédit et le rejet de la biologie après-guerre jusqu’aujourd’hui. Tout ce qui est associé à un objet diabolisé est diabolisé lui aussi. Dans les esprits de l’époque, l’hypothèse naturaliste de P. Debray-Ritzen menaçait d’autoriser à éliminer les enfants dyslexiques in utero, à les supprimer à la naissance, à les montrer du doigt à l’école, à les en exclure, à les mettre à part, à les parquer dans des camps ou, pourquoi pas même, les exterminer en tant qu’« anormaux », puisqu’Hitler avait préconisé l’extermination des déficients intellectuels… Les fantasmes de danger potentiel sont sans limite lorsqu’une idée est associée à une idéologie criminelle. Les fantasmes anti-Debray-Ritzen se nourrissaient de l’association de la biologie aux idéologies eugénistes et nazies.

L’hypothèse naturaliste de la dyslexie risquait-elle de provoquer des persécutions à l’égard des enfants touchés ? C’était confondre connaissance scientifique et dignité humaine. Persécute-t-on et élimine-t-on de l’école ou de la société les enfants myopes ou gauchers ? Crée-t-on dans les hypermarchés des files de caisses spéciales pour les grands ou les roux ? Prive-t-on les déficients intellectuels légers ou les aveugles du droit du vote ? Fonde-t-on la dignité d’un être humain sur ses particularités physiques ou intellectuelles ? Évidemment non[12].

Il se trouve en l’occurrence que les enfants souffrant de dyslexie (dont l’origine naturelle est aujourd’hui établie) ne font l’objet d’aucune menace ou persécution particulière à l’école et bénéficient au contraire d’une attention et de moyens pédagogiques meilleurs. L’enseignant ne s’acharne plus, avec plus ou moins de malveillance, sur le pauvre élève qui résiste à ses « talents » de pédagogue : il comprend la différence, la spécificité cognitive de cet élève, devient plus patient, plus tolérant, et met en oeuvre des méthodes adaptées. L’enfant en ressort grandi en résultats scolaires et en dignité.

Les craintes éprouvées (et les reproches exprimés) jadis à l’hypothèse naturaliste de Pierre Debray-Ritzen ne s’avèrent donc pas fondés aujourd’hui.

Les dommages causés par l’ultra-environnementalisme

Il est en revanche utile d’observer les dommages provoqués par la posture culturaliste, dommages dénoncés déjà à l’époque par Pierre Debray-Ritzen, et commis au nom de valeurs d’humanisme et de dignité individuelle[13] :

- L’enfant dyslexique, dans l’hypothèse (établie) d’une origine naturelle du trouble mais néanmoins placé dans un cadre culturaliste, a subi des pédagogies inadaptées, uniformistes, à la fois inefficaces et persécutrices ;

- Les enseignants, imputant le trouble à des causes environnementales et éducatives, se sont acharnés sur l’enfant comme s’il s’agissait d’un enfant ordinaire (« égal » aux autres), le culpabilisant et le malmenant parfois, alors que cet enfant souffrait d’un handicap dont il n’était pas responsable.

- Dans le cadre culturaliste, les personnes responsables de l’enfant (et notamment ses parents) ont été culpabilisés à tort, d’une façon inutile, injuste et cruelle. Cette culpabilisation non fondée a probablement contribué à aggraver le trouble chez l’enfant plutôt qu’à ne l’améliorer, à cause de perversions affectives suscitées par la culpabilisation parentale ;

L’hypothèse culturaliste, au delà du fait qu’elle est infondée, est donc moins inoffensive qu’on ne pourrait le penser a priori. À la comparer à l’hypothèse naturaliste, ses conséquences apparaissent finalement comme plus nocives puisque que la prise de conscience naturaliste actuelle n’engendre pas d’effet négatif pour les enfants dyslexiques. D’une façon générale d’ailleurs, une hypothèse scientifique fausse génère des effets nocifs.

On est donc en présence d’une hypothèse ‑ l’explication environnementaliste de la dyslexie ‑ qui connut le statut d’évidence et de croyance massive dans les années 1970, mais s’avère finalement aujourd’hui comme une hypothèse non seulement fausse mais également nocive. En revanche, et réciproquement, l’hypothèse naturaliste, qui fut d’abord jugée fausse et dangereuse (en réalité « fausse » parce que supposée dangereuse), s’avère finalement comme étant vraie et plutôt bénéfique pour l’enfant. Même le Ministère de l’Éducation nationale reconnaît aujourd’hui officiellement (comme le Vatican pour l’héliocentrisme ou l’évolutionnisme ? ) l’origine naturelle de la dyslexie et prépare la mise en place de moyens pédagogiques adaptés et efficaces.

Une peur idéologique injustifiée a donc contribué à rejeter une hypothèse pourtant vraie, étiquetée « dangereuse » et « fascisante », et a retardé pendant vingt ans la mise en place de moyens d’aide appropriés pour les enfants dyslexiques, conséquence contraire aux objectifs et valeurs de dignité humaine défendus par les détracteurs de Pierre Debray-Ritzen. « L’humanitarisme » environnementaliste a donc eu des conséquences morales contraires aux valeurs dont il se réclamait. C’est une leçon.

Les mécanismes neuurobiologiques de la dyslexie seront exposés plus loin.

Le naturalisme est-il ségrégationniste ou humaniste ? La controverse de l’homosexualité

Nous avons vu, avec le cas de la dyslexie, les relations controversée et inattendues entre naturalisme et dignité humaine. La débat sur l’homosexualité illustre également ce phénomène.

La question du caractère environnemental ou naturel de l’homosexualité est une question ancienne. Là aussi, il est craint qu’un éclairage naturaliste alimente une ségrégation à l’égard des homosexuels, cependant qu’au contraire une explication d’ordre psychologique ou culturelle protègerait leurs dignité et droits. Les idées reçues se trouvent cependant quelque peu malmenées depuis quelque temps par les investigations neurobiologiques. Rappelons les événements : les années 1970 voient se développer des études concernant une possible origine naturelle de l’homosexualité. En comparant la taille d'une petite structure de l'hypothalamus chez différents sujets, Simon Le Vay, un chercheur du Salk Institute for Biological Studies (à San Diego, en Californie), découvre que cette région du cerveau est plus petite chez les homosexuels. Cette découverte laisse supposer que les préférences sexuelles sont d'ordre naturel. Elle ouvre la porte à une hypothèse naturaliste de l’homosexualité. Plus tard, en 1978, l’équipe de Roger Gorski, un chercheur de l'UCLA, découvre qu’un groupe de cellules logé dans la région pré-optique de l'hypothalamus du rat est plus large chez le mâle que chez la femelle. Or, il se trouve que l'hypothalamus est un centre majeur de la régulation de nombreuses fonction physiologiques, comme la température corporelle, l’appétit, la soif ou le désir sexuel. Les chercheurs baptisent cette zone « noyau sexuellement dimorphique de l'aire pré-optique » (ou SDN-POA). Or, on soupçonne depuis longtemps le SDN-POA de jouer un rôle dans le comportement sexuel, et il semble que la différence de taille constatée entre mâles et femelles soit due à une exposition du foetus aux hormones mâles. Laura Allen, une élève de Roger Gorski, a depuis identifié chez l'homme quatre homologues potentiels du SDN-POA, que sont les noyaux intersticiels de l'hypothalamus antérieur, baptisés INAH 1, 2, 3 et 4. Sur la base de ces découvertes, Simon Le Vay nota que l’INAH 3 est plus gros chez l'homme que chez la femme. En outre, il analyse le cerveau de 19 homosexuels morts du sida, ainsi que de 16 hétérosexuels présumés (dont 6 également décédés de la maladie du sida). Il découvre alors que l’INAH 3 est de taille plus petite chez les sujets homosexuels. On se trouve en présence d’une base naturaliste sérieuse de l’homosexualité. Le généticien Dean Hamer, chercheur au National Cancer Institute, va prolonger cette découverte biologique sur le terrain de la génétique. Il s’intéresse à une région du chromosome X, la zone Xq 28, contenant quelques centaines de gènes. Cette piste lui a été suggérée par une étude des psychologues Bailey et Pillard sur des paires de jumeaux homosexuels. En effet, cette région se retrouve plus souvent chez les frères homosexuels. Ceci laisse supposer que la zone Xq 28 contient un ou plusieurs gènes influençant le développement de l'INAH 3 et déterminant le choix sexuel.

Attention : il ne s’agit pas ici de suggérer un prétendu « gène de l’homosexualité », mais un certain nombre de gènes, qui, de façon indirecte, gouvernent la synthèse d’un certain nombre de protéines, lesquelles vont influencer un trait de comportement, en l’occurrence le choix sexuel. Pour autant, même s’il n’y a pas « un gène » de l’homosexualité, il y aurait bien vraisemblablement une origine naturelle de ce comportement.

Mais le plus important et intéressant pour nous est la relation entre ce fait et les valeurs morales défendues ici par les homosexuels ou là par les homophobes.

Comment réagirent les homosexuels à cette découverte ? Lorsque le psychiatre new-yorkais William Byne émit l’hypothèse d’origines naturelles de l’homosexualité, il se mit à dos l’ensemble de la communauté gay, qui voyait dans cette hypothèse une menace eugénique : « La communauté gay m'accusait de chercher une base biologique à l'homosexualité, ce qui, en cas de confirmation aurait pu inciter des parents à renoncer à garder un enfant », rapporte-t-il aujourd’hui. Mais en 1991, contre toute attente, lorsque Byne émit des doutes sur l’hypothèse naturaliste de l’homosexualité, il s’attira à nouveau les foudres de la communauté gay. Pourquoi ? Parce qu’entre-temps, les homophobes ségrégationnistes s’étaient « adaptés » à l’hypothèse culturaliste et avaient développé une argumentation de « choix personnel » du comportement homosexuel, culpabilisant et stigmatisant plus encore l’homosexualité. L’hypothèse naturaliste de Simon le Vay, en revanche, déculpabilisait et déresponsabilisait les homosexuels de leur tendance, ce pourquoi ils s’étaient finalement mis à la revendiquer : leur comportement était le produit non pas d’un « choix personnel » mais d’une « fatalité naturelle ». La communauté homosexuelle américaine avait donc retourné et contredit la relation inductive attendue entre naturalisme et morale : elle jugeait finalement que l’hypothèse naturaliste protégeait mieux ses dignité et droits que l’environnementalisme. Comme le dit d’ailleurs le journaliste homosexuel Randy Shilts, « une explication biologique ramènerait l'homosexualité à quelque chose comme le fait d’être gaucher, ce à quoi elle se résume en réalité[14] ».

Les homosexuels ont donc compris que non seulement une possible influence naturelle de leur comportement ne menaçait pas leur dignité ou leurs droits (parce que la valeur sociale et politique d’un homme ne se fonde pas sur des caractéristiques naturelles dont il n’est pas responsable), mais également que cette hypothèse (qui a de plus l’avantage d’être réaliste) les déresponsabilisait de leur tendance et faisaient d’eux des « citoyens ordinaires ».

Il y a là une leçon épistémologique très forte : la vision naturaliste n’est pas nocive d’un point de vue moral et politique ; elle offre l’avantage d’être lucide ; en outre, elle restaure et renforce la dignité du citoyen « différent ». Inversement, l’environnementalisme ne protège pas contre la ségrégation ; il présente l’inconvénient de dénier la réalité ; en outre, sa mauvaise foi scientifique le rend vulnérable aux attaques politiques. Nous devons garder ces idées en tête lorsque nous aborderons la diversité naturelle des potentialités cognitives.

L’adaptation des valeurs aux nouvelles connaissances autorise-t-elle le progrès moral ?

Cette controverse morale autour de l’homosexualité nous enseigne également au passage que par delà les découvertes scientifiques qui sont faites, les valeurs morales (aussi bien « intégratrices » que « ségrégationnistes ») s’adaptent en permanence aux nouvelles connaissances pour se restaurer. Or, ceci pose une question d’anthropologie des croyances et des valeurs : est-ce que la connaissance scientifique permet de faire évoluer certaines valeurs (comme par exemple l’homophobie), ou est-ce que les valeurs, tant ségrégationnistes qu’intégratrices, parviennent à s’adapter et survivre inexorablement aux nouvelles connaissances ? L’anthropologie « rationaliste » et « d’évolution axiologique » d’un M. Weber ou d’un R. Boudon pencherait sûrement pour la première hypothèse. On peut néanmoins rester relativement sceptique et pessimiste, en la matière : les connaissances scientifiques nouvelles modifieront-elles chez les hommes leurs comportements et valeurs, tant de ségrégation que de solidarité ? « L’évolution » apparente des lois et des valeurs morales n’est peut-être qu’un épiphénomène illusoire, vernissant une palette comportementale stable à l’échelle des millénaires.

Des leçons de la dyslexie et de l’homosexualité pour notre sujet de recherche

Quel enseignement peut-on tirer des exemples de l’homosexualité et de la dyslexie pour la question de l’origine naturelle des potentialités cognitives ? Il y a là différentes leçons à tirer :

1°) L’héritage naturel de potentialités cognitives n’induit aucun jugement de valeur sur le sujet, ni ne met en jeu sa dignité ou ses droits. Un déficient intellectuel n’a pas moins de dignité, de valeur morale qu’un autre ; un sujet dit « précoce » n’a pas plus de mérite ni de droits ;

2°) À ce titre, il y a peu à parier qu’une hypothèse (en partie) naturaliste des potentialités cognitives induise ou autorise une idéologie ségrégationniste à l’égard des enfants déficients (pas plus en tout cas que dans le cadre d’une explication environnementaliste) ;

3°) Le déni, la condamnation et le rejet d’une hypothèse naturaliste des potentialités cognitives n’apporte rien de plus qu’une entrave à la connaissance des mécanismes cognitifs, donc à l’aide pédagogique susceptible d’être apportée aux enfants en difficulté ;

4°) Une hypothèse naturaliste ne porterait pas atteinte à la dignité de l’enfant, mais au contraire le déculpabiliserait, à ses propres yeux et aux yeux de ses parents et enseignants, ce qui serait un bénéfice certain pour l’image qu’il a de lui-même et son équilibre psychologique. On pourrait même dire que l’hypothèse naturaliste « restaure » la dignité de l’enfant déficient, comme dans le cas de l’homosexuel ou du dyslexique.

 

Il semble donc fort douteux, pour conclure, que « l’hypothèse d’une influence naturelle d’un comportement ou d’un caractère cognitif comporte un risque de ségrégation scolaire ou sociale » et soit « dangereuse » ou « suspecte » d’un point de vue politique.

 

Ces discussions pourraient paraître futiles ou secondaires. Nous les croyons au contraire centrales et primordiales dans le débat éthique et politique sur l’école.

De la nécessaire distinction entre « vrai » et « bien »

« Mitchouriniens : mon appétit de justice sociale ne saurait me faire accepter leurs sottises en biologie, mais leurs sottises en biologie ne sauraient faire tort à mon appétit de justice sociale. »

Jean Rostand[15]

 

Une question directement liée à la précédente est celle de l’indépendance entre les domaines du fait (ou du « vrai ») et de la valeur (ou du « bien »). On observe en effet parfois un mélange et une confusion des deux. C’est le cas par exemple de théories prétendument « scientifiques », qui sont animées en réalité d’un projet moral ou politique, comme on le rencontre parfois en sciences sociales, et notamment au sein des sociologies dites « critiques », qui ne se contentent pas seulement d’analyser et d’expliquer mais se chargent aussi de juger et d’exprimer une opinion suggérant entre les lignes quelque action politique – parfois radicale. Ce fut le cas du marxisme. C’est aujourd’hui celui, sous certains aspects, de la sociologie de la « Reproduction » de Pierre Bourdieu. Sa peinture accablante et désespérante de la société, en effet, suscite une colère, et appelle en filigrane à une révolte des « dominés » (ou « prolétaires ») contre les « dominants » (ou « bourgeois »). Ici, le « bien » se confond de manière inextricable avec le « vrai » (si vrai il y a) ; il s’y étaie, il s’en nourrit. L’analyse sociologique induit une action politique ; le fait fabrique une valeur.

Or, vrai et bien peuvent-ils se confondre ? La science peut-elle dire ce qu’il est « bon » de faire ? Il ne semble pas. Les deux notions se situent dans deux registres, deux dimensions distinctes l’une de l’autre, irréductibles. Ainsi que le rappelle le philosophe André Comte-Sponville, le bien ne saurait émerger de la vérité : « Qu’est-ce que la vérité, si elle n’est pas l’adéquation au réel ? (...) Quand je condamne moralement un acte, l’important, à mes yeux, n’est pas d’avoir raison ou tort. La morale n’est pas une science, ni même une connaissance : ce n’est pas le vrai et le faux qui s’y opposent, mais le bien et le mal (...) Celui qui dit que nos jugements moraux sont des vérités est (...), de mon point de vue, dans l’illusion : l’illusion, en l’occurrence, c’est de prétendre avoir raison dans un domaine où cela n’a pas de sens (puisqu’il ne s’agit pas de vérité). »[16].

Les confusions marxiste et bourdieusienne (abusives) de la science et du bien proviennent vraisemblablement d’un excès de positivisme et d’universalisme : ce qui semble bon à leurs yeux (d’acteur partial et non omniscient), ils le considèrent comme bon pour tous, sans relativisme ni prudence philosophique. Un individu doit pourtant se méfier de ce qu’il considère personnellement comme « universel » ou « vrai », parce qu’il n’a pas totalement connaissance de ce qui nourrit un fait scientifique… et a fortiori une valeur.

Quels sont les inconvénients d’un mélange du vrai et du bien ?

Un premier inconvénient est de ne plus savoir, dans l’émulsion du bien et du vrai, ce qui relève de l’un et de l’autre. Ainsi, dans la sociologie bourdieusienne, est-il « vrai » ou « bien », est-il « faux » ou « mal » que : a) il existe des inégalités de conditions sociales ; b) la reproduction des trajectoires est plus forte que la mobilité ; c) ceci est manipulé par les dominants ; d) ceci pourrait être changé ; e) ceci est « injuste » ; f) ceci devrait être changé ?[17] La confusion (souvent inconsciente) entre ce qui relève du « vrai » et du « bien » finit par conduire à revendiquer une proposition comme étant « vraie », alors qu’elle ne relève que d’une pure opinion personnelle (comme par exemple « les inégalités sociales sont injustes »). De la même façon, on est tenté de considérer comme « bien » ou « mal » quelque phénomène qui n’est que factuel et neutre (comme la forte « reproduction » des inégalités sociales). La confusion intime et non toujours conscientisée du vrai et du bien n’aide pas – serait-ce une tautologie ? – à discerner entre le vrai et le bien.

Le danger le plus grand (et le plus fréquent) est que, ayant mélangé le vrai et le bien, ayant dissous l’un dans l’autre, et porté par des passions personnelles, on prend son « bien » personnel pour un « bien universel », et on en vient à déformer le vrai pour le conformer aux espoirs de son « bien » personnel (supposé universel). C’est ainsi, par exemple, que l’URSS avait fait disparaître officiellement toute référence à la notion de « chromosome », et promu un Lyssenko seul biologiste officiel, en le couvrant d’honneurs pour sa théorie prétendant « l’hérédité des caractères acquis ». Cette théorie complètement fantaisiste présentait effectivement l’avantage, pour le régime, de croire et de faire croire à l’avènement d’un homme nouveau, du « surhomme socialiste », modelé à souhait, de façon idéale et parfaite, par l’éducation et par l’environnement. Cette croyance était associée à celle d’un « progrès de l’humanité » et d’un historicisme prométhéen et optimiste à l’envie. On sait les dizaines de millions de morts que ces généreux rêves et croyances ont – indirectement – causés.

Aujourd’hui encore, la valeur et le rêve d’égalité sont si forts chez certaines personnes qu’ils les poussent à dénier la diversité native des potentialités cognitives. Ce déni est logiquement associé à une conception ultra-environnementaliste de la réussite scolaire et du statut social, comme on observe effectivement ces deux éléments dans la théorie d’un P. Bourdieu, mais également dans de nombreuses sociologies. Qui ne trouve par « injuste » et « anormal », par exemple, que les enfants d’ouvriers soient moins représentés à l’école polytechnique que les enfants de cadres… alors que les tableaux statistiques n’indiquent pas leurs potentialités et motivations intrinsèques ?

Ces valeurs, rêves, croyances et dénis sont-ils anodins ? Probablement pas. N’est-ce pas la conviction du « bien » interprété comme étant « vrai » qui a conduit les hommes du XX° siècle aux crimes de masse ? Un Tzvetan Todorov pense que c’est le scientisme (c’est-à-dire le souci de vouloir tout rationaliser et la conviction d’avoir raison) qui ont mené au totalitarisme et à ses crimes, parce que les dirigeants d’un tel régime fondent leur programme programme sur la conviction d’une « vérité scientifique » : « C’est le scientisme, et non l’humanisme, qui a contribué à jeter les bases idéologiques du totalitarisme. (...) La relation entre scientisme et totalitarisme ne se limite pas à la justification des actes par des nécessités prétendument scientifiques (biologiques ou historiques) : il faut déjà pratiquer le scientisme (fût-il « sauvage ») pour croire à la transparence parfaite de la société et donc à la possibilité de transformer celle-ci en fonction de son idéal, par le moyen d’une révolution »[18].

Une théorie devient potentiellement dangereuse dès qu’elle confond le réel et la « nécessité » (de son point de vue), le vrai et le bien, où elle « tord » et fait mentir la réalité pour la conformer à ses rêves. La croyance en l’identité cognitive native et le rejet du naturalisme, par exemple, permettent de continuer de rêver et faire rêver à une société d’égalité des résultats scolaires et des conditions sociales. Or, ces idées se contentent-elles d’être romantiques ? Sont-elles inoffensives ? Des idées irréalistes ne sont-elles pas dangereuses au contraire ? Méfions-nous des idées irréalistes, même généreuses. Car on ne sait ce qu’elle seraient capables d’engendrer si elles étaient portées au pouvoir. Par ailleurs, des idées irréalistes n’ont pas besoin d’être extrémistes pour être dangereuses. La modération politique, si elle est irréaliste, est déjà potentiellement dangereuse. On sait que « l’enfer est pavé de bonnes intentions ». Mais plus encore, il est vraisemblable que les bonnes intentions, si elles ne sont pas réalistes, ne peuvent pas conduire ailleurs qu’en enfer. Le « bien » qui se prétend « vrai » et ne l’est pas est un « bien » dangereux.

Il importe donc, dans toute théorie en sciences humaines, de distinguer le « bien » et le « vrai », et de vérifier le « vrai ». Un « bien » qui s’appuie du faux « vrai » ne peut apporter que du mal.

Le devoir épistémologique et déontologique du scientifique doit être de traquer tout ce qui, dans la science (ou prétendue telle), confond valeur et vérité, cherche à déformer le réel et ressemble à du mensonge. « On tolère les croyances, on combat les erreurs », disait Raymond Aron. Nous devons discerner et aider à discerner au sein des productions en sciences humaines entre ce qui relève de la vérité (du vrai ou du faux) et de la valeur (du « bien » ou du « mal »). Au-delà de ce principe de prudence, les hommes ‑ les moralistes, les philosophes et les citoyens ‑ pourront choisir entre ce qui leur paraît « bien » ou « mal » d’un point de vue moral – personnel et collectif.

 

Comment débusquer dans une proposition prétendue « scientifique » ce qui relève de la morale ou de l’idéologie ? Les travaux des néo-positivistes du « Cercle de Vienne » ou de la « philosophie analytique » nous sont en cela des guides précieux : nous devons veiller, dans la mesure du possible, à expurger les textes de leurs éventuelles dérives morales en les réduisant, le plus qu’on puisse, à l’articulation logique de propositions objectives, qui ne relèvent pas de sentiments ou de passions.

 

Après ces mises au point épistémologiques sur les relations entre science et moral, nous allons aborder le champ de la neurobiologie à proprement parler, en commençant par des notions sur l’apparition de la « vie ».

Comment est née la vie ? Rappel de quelques connaissances fondamentales

Il semble difficile de parler sérieusement de « sociologie », « d’anthropologie », de comportements humains, d’apprentissage et de cognitivité, si on ne connaît pas les conditions d’apparition et l’histoire de la vie terrestre. C’est ce que nous allons essayer de rappeler en quelques pages. En outre, de telles données, bien que pouvant apparaître comme futiles, permettent de comprendre monde actuel avec plus d’acuité et de sagacité.

À moins de croire en un « Dieu » abstrait, créateur de toute chose, il est à considérer (ou rappeler) que la vie ne « tombe pas du ciel[19] » et que ce qu’on appelle par le vocable « vie » provient d’un lent et hasardeux agencement de particules de matière.

Cette partie s’est nourrie d’un ensemble d’ouvrages sur l’histoire de l’univers et la vie, et notamment Les Origines de la Vie, de Joël de Rosnay (1977, Seuil).

L’hypothèse du « Big-Bang » : quarks, noyaux, atomes

Les atomes qui sont à l’origine de la formation des molécules organiques sur la Terre se sont formés à l’origine de l’univers. Si la Terre semble âgée d’environ quatre milliards et demi d’années, l’univers, selon les hypothèses couramment admises aujourd’hui, semble s’être formé il y a environ quinze miliards d’années. On considère généralement qu’au début de l'univers ne s’agitait qu’une matière « morte », non-vivante, cependant que s'agitent aujourd'hui des « êtres » « vivants ». Comment la « vie » s’est-elle formée ? D’où vient-elle ? On peut dire que, d’une façon générale, dans l’histoire de l’univers et de la vie, un principe général fait s’assembler des éléments minuscules pour en former toujours de plus gros et complexes : des « quarks » à l’ADN, du caillou à la planète, de la cellule au primate. L’instant « zéro », de « naissance » de l’univers est supposé être une explosion transformant une gigantesque énergie en matière, se disséminant dans l’espace et dans le temps[20]. Au moment de ce supposé « Big-bang », auraient apparu les toutes premières micro-particules que sont : les photons, les électrons et les quarks. Dans la durée d’une micro-seconde, déjà, les quarks (dont il existe plusieurs sortes) se seraient associés par trois pour former, selon leur type d’association, des neutrons ou des protons. Notons que le proton est déjà le constituant principal du futur noyau d’hydrogène. Au cours des minutes suivantes, protons et neutrons se seraient unis pour former les particules d’hydrogène (deux protons), d’hydrogène lourd (trois protons) et d’hélium (quatre protons). D’autres particules élémentaires se créent, comme l’oxygène, l’azote et le carbone. Ces quatre éléments suffisent déjà à fabriquer toutes les molécules « organiques » qui existent aujourd’hui et permettent le fonctionnement d’un être dit « vivant ».

Des atomes aux petites molécules organiques : alcools, sucres, acides aminés

Les caractéristiques physiques de l’hydrogène, de l’oxygène, de l’azote et du carbone les rendent capables de se lier avec, respectivement, une, deux, trois et quatre autre(s) particule(s). Ces atomes s'associent donc entre eux pour former : de l’eau (un oxygène et deux hydrogènes, H2O), de « l’ammoniac » (un azote et trois hydrogènes, NH3) et du « méthane » (un carbone et quatre hydrogènes, CH4). Ces trois corps constituent les premières « molécules » apparues, c’est-à-dire des ensembles électriquement neutres d'atomes unis les uns aux autres par une liaison chimique.

La Terre se forme il y a quatre milliards et demi d'années. Sa surface est d’abord constituée de magma en fusion puis, en se refroidissant, de volcans en activité permanente. Le coeur de notre planète contient de l’eau, de l’ammoniac et du méthane. Peu à peu, ces corps vont s’en échapper sous forme de vapeur et constituer une « atmosphère ». Dans l’atmosphère vont se former des nuages qui, avec le refroidissement de la planète, vont se condenser, se déverser et constituer des océans. Sous l’effet des rayons ultra-violets, de la chaleur et des décharges électriques occasionnées par de violents orages, les molécules simples d’eau, d’ammoniac et de méthane vont se fragmenter et s’associer pour produire de nouvelles molécules[21] : le « formaldéhyde » (COH2) et « l’acide cyanhydrique » (CNH). A leur tour, ces deux types de molécules s’associent pour former des acides aminés (dont le plus simple est la glycine, C2NO2H5), des sucres (dont le « ribose » C5O5H10 et le « glucose » C6O6H12), des alcools, des acides gras et des bases azotées[22]. Notons que ces molécules contiennent, déjà, entre une dizaine et une trentaine d'atomes. Elle ne peuvent certes pas être qualifiées de « vivantes » à proprement parler, mais elles néanmoins dotées des qualités chimiques permettant de constituer et faire « fonctionner » des êtres « vivants ».

Il est intéressant de noter que l’apparition de ces molécules organiques sur notre planète a pu être reconstituée en laboratoire par l’expérience de Stanley L. Miller en 1953 : ce jeune étudiant, en effet, avait enfermé de l’hydrogène, du méthane et de l’ammoniac à l’intérieur d’un mini-cycle atmosphérique d’évaporation et de pluie, qu’il avait soumis à des arcs électriques. Les molécules organiques apparurent lors de la « pluie » dans « l’océan »…!

Le « hasard » associatif n’est donc pas seul responsable de l’apparition de la vie : les phénomènes météorologiques qui caractérisent notre planète (mais ne sont-elles pas également le fruit du hasard ?) ont aussi contribué à ces associations.

« L’acide aminé » est l’un des corps les plus importants de ces molécules. En effet, celui-ci, comme son nom l’indique, comporte à la fois une fonction « acide » (COOH) à une extrémité et une fonction « amine » (NH2) à l’autre extrémité. Ces extrémités ont la particularité chimique de pouvoir s’associer l’une à l’autre, entre deux acides aminés, comme les aimants liant les wagons d’un train miniature. La réaction entre l’acide de l'un et l’amine de l’autre provoque la formation d’une molécule d’eau (un oxygène et un hydrogène de la partie acide s’associant à l’un des deux hydrogènes de la partie amine) et soude l’un à l’autre les deux acides aminés par une liaison dite « peptidique »[23]. Entre ses deux extrémités, l’acide aminé peut comprendre différents éléments chimiques qui le caractérisent et lui offrent une fonction chimique spécifique. Il existe vingt acides aminés[24] présents dans l’organisme de l’homme, qui se distinguent par la partie centrale de leur molécule. Ces acides aminés sont fondamentaux dans le phénomène de la vie et de la pensée, parce qu’ils sont la « matière » des protéines, des cellules, des neurones et des neuromédiateurs.

Les macro-molécules : protéines, acides nucléiques

Au cours des premières centaines de millions d’années de notre planète, dans ce que le biologiste Haldane surnomma la « soupe primitive », se poursuivent les associations aléatoires des molécules simples en molécules complexes. Les acides aminés s’associent en chaînes pour former des protéines (ou « chaînes polypeptidiques »), pouvant atteindre jusqu’à un million d'atomes. Les « bases azotées » s’associent entre elles et à des molécules de sucre et de phosphore pour former des « acides nucléiques » : l’acide ribo-nucléique (ou ARN) et l’acide désoxyribo-nucléique (ou ADN), molécules longues de plusieurs milliards d’éléments. Ces molécules sont également fondamentales dans le phénomène de la vie, puisqu’elles comprennent les instructions génétiques qui fabriquent l’organisme, entretiennent son fonctionnement et transmettent ces informations aux générations suivantes.

La « caisse d’aimants légo »

Il semble improbable, pour le sens commun, que des acides aminés aient pu s’associer en chaînes de protéines (longues de plusieurs centaines d’éléments) ou que nos cinq bases azotées aient pu s’associer en molécules aussi longues et aussi complexes que l’ADN ou l’ARN (qui comptent plusieurs milliards de bases azotées).

Un exemple simple peut aider à mieux comprendre et concevoir ce qui semble si « extraordinaire ». On connaît le petit train Légo® formé de wagons accrochés les uns aux autres par des aimants de couleurs rouge et bleue, les premiers étant chargés positifs et les seconds négatifs, de telle sorte qu’il faille associer un bleu et un rouge pour l’accrochage, sous peine de voir deux aimants d’une même couleur se repousser. On peut dire que les acides aminés sont comme les wagons de ce train : à une extrémité, ils sont dotés d’une accroche « A », et à l’autre extrémité d’une accroche « B », de telle sorte qu’il faille associer un « A » et un « B » pour un bon accrochage. Souvenons-nous que les acides aminés sont en présence massive dans les océans primitifs de la Terre. Prenons un millier d’aimants Légo®, cinq cents bleus et cinq cents rouges, jetons-les pêle-mêle dans une caisse et posons la caisse sur une plage, soumise à l’effet des vagues et des marées. Laissons passer un million d’années (les jeux Légo® sont réputés résistants !!). Il y a fort à parier, le lecteur en conviendra, pour que tous nos aimants, ballotés chaque jour par le mouvement des vagues, aient fini par tous s’associer deux à deux, pour former de solides couples « bleu-rouge ». Imaginons maintenant qu’au lieu d’avoir jeté les aimants séparés de façon individuelle, nous les ayons au préalable unis par couples, dos-à-dos, un bleu et un rouge, tournés chacun vers l’extérieur, comme des mini-wagons. Qu’observerions-nous en revenant un million d’années plus tard ? Il y a fort à parier pour que nous trouvions dans la caisse une seule et même chaîne, unie, longue de mille aimants. Il est même probable qu’une durée moindre ait suffi pour ce faire.

Quoi d’étonnant, dès lors, à ce que des dizaines de millions d’années aient suffi à associer les acides aminés en chaînes de protéines, de modèles différents, aux capacités d’actions chimiques spécifiques ? Quoi d’étonnant à ce que les bases azotées aient pu s’associer en chaînes de plusieurs milliards d’éléments pour former des acides ribo- et désoxyribonucléiques, dont certains, par hasard, contiendront des séquences génétiques commandant l’association de certains acides aminés précis, pour la constitution de protéines précises, lesquelles, par hasard (plus exactement par sélection des formes les plus efficaces), vont exercer une action chimique qui va permettre la constitution et l’entretien d’un organisme dit « vivant » ?

« Molécule », « goutte », « cellule »

Il faudra que s’associent plus d’un million de ces macro-molécules (c’est-à-dire plusieurs millions de milliards d’atomes), pour voir apparaître ce qu’on peut appeler une « cellule vivante », à savoir un corps capable de se conserver et de dupliquer. Comment une telle cellule « vivante » a-t-elle pu apparaître ? On pense que des macro-molécules organiques se seraient agrégées en micro-sphères et, isolées de l’environnement par une membrane, auraient inauguré avec lui des échanges d’énergie, sous forme d’absorption, synthèse et rejet de différentes substances[25]. Comment, pourquoi des molécules auraient-elles pu s’agréger en micro-sphères ? Une illustration peut nous en être donné dans la vie quotidienne : la rencontre de molécules d’acide gras et d’eau produit des micro-sphères de corps gras, qui se dissocient spontanément de leur environnement. Il semble que, confrontées à l’eau, les longues molécules d’acide gras, pour des raisons de polarisation électrique, présentent toutes leur même extrémité à la molécule d’eau, ce qui a pour effet de les agréger en sphère (la « queue » de la molécule grasse se « cachant » à l’intérieur de la micro-goutte). On peut dire qu’une goutte d’huile en suspension dans l’eau est déjà une « cellule » en puissance : elle est définie par une frontière continue (sphérique), qui l’isole de son environnement, et peut procéder avec lui à des échanges d’énergie. De fil en aiguille, cette goutte d’huile peut se stabiliser, se complexifier, se répliquer et devenir une « cellule vivante ».

Comment les « micro-gouttes » moléculaires ont-elle évolué vers de véritables « cellules » ‑ celles de l’algue microscopique, de la bactérie… et celles que nous connaissons dans notre organisme, dans notre cerveau ? Il semble que la nature n’ait retenu des milliards de milliards de micro-gouttes formées par hasard que celles qui se conservaient longtemps et parvenaient à se dupliquer. La « sélection naturelle » était déjà à l’oeuvre. On imagine que de ces « super-micro-gouttes » aient surgi des cellules rudimentaires, dites « vivantes ».

Rappelons-nous que notre corps ‑ dont notre cerveau ‑ ne sont constitués que par des milliards de cellules dites « vivantes » de ce type, et apparues dans l’univers comme nous l’avons expliqué (c’est du moins ce qu’en pensent les scientifiques aujourd’hui).

Algue, bactérie... et les premiers organismes vivants sont là

On connaît la chaîne qui mène de la première cellule vivante à l’homme. D’un côté, les algues unicellulaires, microscopiques, vont muter de façon aléatoire pour produire des organismes pluricellulaires, toujours plus gros et sophistiqués : algues marines de toutes tailles, puis règne végétal terrestre ‑ arbres, fleurs, champignons... Les bactéries mutent également pour former des organismes pluricellulaires, toujours plus gros et sophistiqués : plancton, méduses, gastéropodes, mollusques, crustacés... La vie sort de la mer : batraciens, reptiles, insectes, oiseaux, mammifères... À l’issue de la disparition des dinosaures, les mammifères, d’abord minuscules, règnent en maîtres.

Il y a 70 millions d’années, apparaissent les premiers primates : Purgatorius aux États-Unis, Plesiadapis en Europe et Amérique du Nord et Adapis (découvert par Cuvier à Montmartre en 1821), qui vivait dans les forêts de séquoias recouvrant l’actuel Paris. Ces premiers primates ressemblaient aux lémuriens actuels, en plus petit. Il y a 40 millions d’années, apparaissent les « Simiens ». Branisella annonce les singes à longue queue d’Amérique du sud. Dans les forêts recouvrant la vallée du Nil apparaissent les ancêtres des variétés de singes africains et de l’homme. Nos plus proches ancêtres, les Ramapithèques, apparaissent il y a 13 millions d’années en Afrique. Les « australopithèques » sont apparus dans le sud du continent. « Lucy » est vieille de 3 millions d’années ; sa capacité crânienne est de 500 cm3. À la même époque apparaît homo habilis, doté d’un cerveau de 650 cm3 (celui de l’homme actuel est au minimum de 1100 cm3). Homo erectus, « homme-singe » (ou « pithécanthrope »), âgé de deux millions d’années, gagne le monde entier. Il a déjà notre taille et est doté d’un cerveau d’entre 750 et 1250 cm3. Homo erectus enfante homo neandertalensis, éteint pour des raisons obscures il y a quarante mille ans, ainsi qu’homo sapiens sapiens, apparu il y a cent mille ans, et qui n’a pas changé jusqu’aujourd’hui.

À ce titre, et contrairement à une croyance fort répandue, l’homme n’évolue pas de manière constante et régulière, mais « saute » d’une espèce à l’autre par une mutation massive de son génome. Une espèce demeure stable... en attendant l’avènement d’une suivante.

 

Il était bon de se rappeler ces notions pour se faire une idée juste de la place de l’homme dans le règne animal et dans l’univers, et de la matérialité de tout ce que nous appelons « pensée », « mémoire », « apprentissage », « émotion », « sentiment » ou « valeur »… et de l’aspect douteux et flou de notions abstraites comme « l’âme », le « fait social »… ou « l’habitus ».

 

Nous savons ce qu’est un homme : un « animal », un être « vivant », issu de l’agglomération aléatoire et contingente de micro-éléments « inertes ». Mais à présent, qu’est-ce que « l’intelligence » de l’homme ?

Qu’appelle-t-on « intelligence » ?

« Peu de sujets ont provoqué autant de débats que l’étude de l’intelligence humaine : le sujet est devenu tabou et il est politiquement correct de ne pas l’aborder, sinon pour affirmer que la mesure de l’intelligence est impossible. »

Linda Gottfredson

 

Lorsqu’on aborde la cognitivité dans le champ des sciences humaines, et plus précisément celles de l’éducation, on est souvent interrogé sur la question de « l’intelligence » : existe-t-elle ? Se mesure-t-elle ? N’est-il pas « dangereux » d’en parler ? Or, comment pourrait-on parler sérieusement des inégalités de « réussite » scolaire et sociale en ignorant cette notion ?

Il semble donc utile d’introduire ici la notion « d’intelligence », au travers de son histoire et de ses différentes définitions. Les différentes connaissances que nous avons tenté de synthétiser dans la partie qui suit ont été nourries, pour l’essentiel, par un dossier spécial de la revue Sciences humaines consacrée au phénomène[26].

Les conceptions de « l’intelligence » avant la neurobiologie et l’environnementalisme

Les hommes parlent vraisemblablement « d’intelligence » depuis des millénaires, des dizaines et des centaines de milliers d’années. On peut en effet imaginer que la notion existait déjà dans les langages d’homo néandertalensis et homo erectus, pour désigner des capacités cognitives à traiter rapidement un problème ou à mémoriser des informations, plus marquées chez certains individus que d’autres. Nous ferons une étude de l’histoire de « l’intelligence » depuis le début du XIX° siècle. On peut néanmoins rappeler qu’Helvetius, Rousseau ou Locke pensaient que les enfants naissaient avec des cerveaux identiques et vierges, différenciés seulement sur le plan de la personnalité et de l’intelligence, par l’action de l’environnement et de l’éducation. L’égalitarisme cognitif natif ne date donc pas des années 1970. Cette conception théorique était, il faut le dire, inspirée d’idéaux politiques qui voulaient effacer les inégalités de naissance imposées par les régimes de castes féodales. À ce credo s’opposèrent des Diderot ou Galton, qui pressentaient que l’efficience cognitive repose, entre autres, sur quelque structure naturelle différenciée ‑ comme les autres organes ‑ avant la naissance et gouvernée par des « gènes ».

 

Nous allons retracer brièvement ici l’histoire de la notion « d’intelligence » depuis son entrée dans le domaine de la médecine et de la « psychologie ».

Gall et la phrénologie, Broca

L’histoire retient de Franz Joseph Gall (1758-1828), médecin allemand, des conceptions quelque peu fantaisistes de la psychologie. Gall est en effet « l’inventeur » de la « phrénologie » ou « cranioscopie », qui est l’étude des fonctions du cerveau et de leurs localisations d’après la forme du crâne. La liste des « localisations de facultés mentales » établie par Gall peut aujourd’hui faire sourire, par sa naïveté ou ses excès. Par ailleurs, sur un plan moral et politique, on a reproché à cette théorie de voir une détermination et une fatalité des comportements enviables (hautes capacités cognitives) ou au contraire déviants (criminalité, associabilité...). C’est de la phrénologie, notamment, que vient l’expression « la bosse des maths ».

En dépit de cette théorie et de ses applications ou détournements douteux, on peut considérer Gall comme le premier biologiste à avoir supposé une relation entre les structures du cerveau et les manifestations comportementales ou cognitives. Il a supposé également une spécialisation des différentes zones du cerveau dans le comportement et la cognition, ce qui fait de lui un visionnaire et un annonciateur de la neurobiologie moderne. Comme le dit Jean-Pierre Changeux, « Gall saura faire connaître l’idée capitale d’une mise en relation causale de l’organisation du cortex cérébral avec ses fonctions les plus caractéristiques, comme le langage. Cette idée, qu’il exprimera souvent de manière bien naïve, inspirera cependant Bouillaud puis Broca, qui en démontreront la validité. Beaucoup d’autres, à leur suite, illustreront cette tradition : Charcot, Déjerine, Piéron et, plus près de nous, Hécaen ou Lhermitte. Mais leur voix n’a été que très insuffisamment entendue. Le moment est venu de les redécouvrir et, par-là même, d’enrichir la recherche sur l’homme des connaissances les plus récentes sur le cerveau, où la pensée se fabrique[27] ».

C’est, après Gall, Broca qui va être à l’origine de l’émergence des neurosciences. Paul Broca (1824-1880), chirurgien et anthropologue français, va découvrir qu'une lésion du cerveau (dans l'aire qui porte aujourd’hui son nom) entraîne la perte de la parole (dite « aphasie de Broca »). Il en déduit que de petits groupes de neurones spécialisés servent à voir, à parler ou à entendre. En établissant ainsi le lien entre des comportements observables et des zones précises du cerveau, il contribue, après Gall, à l’émergence des actuelles neurosciences.

Les comportements, les activités mentales et « l’intelligence » prennent un « visage » physiologique, neurocérébral.

Binet, l’avènement et l’histoire de la psychométrie

Le (premier) psychométricien français Alfred Binet (1857-1911) était directeur du « laboratoire de psychologie physiologique » de la Sorbonne depuis 1895 et avait fondé L’Année psychologique (dont s’inspirera plus tard E. Durkheim pour son Année sociologique) lorsqu’il fut chargé par le ministère de l’Instruction Publique, en 1904, d’une mission de dépistage des enfants en difficulté à l'école, dans l’objectif ‑ tout humaniste[28] ‑ de leur venir en aide et les faire progresser. La mission était officiellement « d’étudier les mesures à prendre pour assurer les bénéfices de l’instruction aux enfants anormaux ». Il semble que ce fut « l’école obligatoire » de Jules Ferry, datant de 1881, qui créa cette « nécessité » d’aide scolaire, et donc de « mesure de l’intelligence », de « psychométrie ». Binet élabora alors quelques « tests intellectuels » relativement rudimentaires. En 1905, il publia avec son jeune collaborateur Théodore Simon la première version du fameux test « Binet-Simon », dénommé « Échelle métrique d’intelligence ». Celui-ci se constituait de différentes épreuves destinées à « établir l’âge mental » de l’enfant. Ainsi, un élève de 5 ans était supposé être capable de comparer deux boîtes de poids différents, de recopier un carré ou répéter une phrase de six syllabes. La mesure établie par Binet n’était pas mathématique ; le psychologue avait conscience, à juste titre ‑ personne ne le dénierait aujourd’hui ‑, que « les qualités intellectuelles ne se mesurent pas comme une longueur ». Ce n’est d’ailleurs pas lui qui inventa la notion de « QI ».

Utilisations discutables du test de Binet-Simon aux États-Unis : Terman, Yerkes et Brigham

Les travaux d’A. Binet vont connaître un grand succès dans l’ensemble du monde industriel (et scolarisé), notamment aux États-Unis, où son usage va se trouver détourné de ses intentions premières. Perdant progressivement sa fonction initiale d'aide au diagnostic et à la réussite scolaire, il devient un instrument de mesure « objective » de l'intelligence. Deux auteurs américains vont participer à la diffusion de la psychométrie aux États-Unis : Lewis M. Terman (1877-1956) et Robert M. Yerkes (1876-1956).

En 1916, c’est-à-dire après la mort d’A. Binet, L.-M. Terman, professeur à l’université de Stanford, en Californie, met au point le test « Stanford-Binet », qui est en réalité une version révisée du Binet-Simon, à cette différence près que Terman y introduit la notion de « quotient intellectuel ». Cette notion avait été élaborée quelques années auparavant par un psychologue allemand, William Stern (1871-1938). Tout le monde connaît son mode de calcul : le « QI » est le rapport de l’âge mental par l’âge réel, multiplié par cent. Or, peu à peu, les « tests d’intelligence » sont détournés de leur fonction initiale : alors qu’A. Binet voulait aider les élèves en difficulté, sans rechercher la cause des diversités de performances, L. Terman affirme que celles-ci sont dues à l’hérédité. Plus avant, franchissant un pas entre la science psychologique et la valeur normative ou l’opinion politique, cédant à un « darwinisme social » prométhéen et « progressiste », il suggère de placer les déficients mentaux sous surveillance et de leur interdire de se reproduire.

La Première Guerre mondiale offrit également aux psychomotriciens l’opportunité d’une opération psychométrique de grande envergure. Le président de l’Association américaine de psychologie, Robert M. Yerkes (1876-1956), mit en place un comité destiné à faire passer des tests d'intelligence aux recrues, de façon à affecter chacun en fonction de ses « capacités intellectuelles ». 1.750.000 soldats y furent soumis. À cette occasion, Robert M. Yerkes fera une observation étonnante : près de la moitié du contingent serait constituée de « débiles mentaux » (soit environ 13 ans d'âge mental) ! Ceci lui montra (et nous montre aussi) les limites de pertinence de ces tests.

Lorsque la première guerre sera terminée, les résultats de ces tests seront utilisés à des fins sociales et politiques, et influenceront notamment la mise en place de la loi américaine sur la restriction de l’immigration en 1924. En effet, sur la base de ces résultats, le psychologue à l’université de Princeton C. C. Brigham publia en 1923 une Étude de l’intelligence américaine, dans laquelle il postulait un « abaissement de l’intelligence moyenne » des immigrants. En conséquence de quoi, Brigham préconisa une immigration restrictive. Mieux (ou plutôt « pire »), il préconisa une sélection des immigrants, estimant que certaines communautés[29] étaient « naturellement moins intelligentes » que d’autres.

 

En marge de ces détournements et utilisations politiques américaines du « test d’intelligence » élaboré par A. Binet, la question se posa de savoir de quelle nature était l’intelligence : multiforme, modulaire, gouvernée par un facteur central unique…?

Le « facteur g » et sa controverse : Spearman, Jensen, Thurstone, Carroll, Sternberg

La question n’est toujours pas tranchée aujourd’hui de savoir si ce qu’on appelle « l’intelligence » est une faculté centrale, dont la performance affecte tous ses aspects, ou si elle est au contraire modulaire, constituée de différents pôles aux fonctions et performances indépendantes… ou bien encore s’il y a mariage de ces deux types de structure. Les psychométriciens et théoriciens de l'intelligence se classent de fait selon ces trois grandes catégories : unité de l’intelligence, diversité cognitive, ou synthèse des deux.

Pour le professeur de psychologie à l’université de Londres Charles Spearman (1863-1945), « l’intelligence » est un phénomène unifié. Constatant de fortes corrélations entre les résultats obtenus sur des tests faisant appel à différents aspects de « l’intelligence », il en conclut qu’elle est une capacité générale à acquérir des connaissances, à raisonner ou à résoudre un problème. Il existe selon lui un « facteur commun » à toutes les activités mentales, qu’il appelle le « facteur g » (pour « général »). On peut dire que cette conception constitue la théorie « standard » de l’intelligence, et celle qui est la plus répandue dans le sens commun.

En quoi consisterait ce « facteur g » ? Ses partisans estiment généralement qu’il s’agirait d’un processus cognitif élémentaire.

Arthur R. Jensen, de l’université de Californie, par exemple, estime que le « facteur g » recouvre la « vitesse de traitement de l'information », vitesse qu’il mesure grâce à une expérience très simple : le sujet a le doigt posé sur un bouton et, au signal d’une lampe, il doit appuyer le plus vite possible sur un autre bouton. La vitesse de traitement de l’information est mesurée sur la base du temps de réaction, à savoir la durée s’écoulant entre l’allumage de la lampe et le dégagement du premier bouton. Jensen estime que les personnes les plus favorisées sur un plan cognitif détiendraient l’atout commun de pouvoir réaliser un grand nombre d'opérations mentales élémentaires dans un laps de temps restreint. Ceci serait la principale cause de leur grande capacité à résoudre des problèmes ou mémoriser des données, et de leur réussite scolaire (et donc sociale). Pour résumer la vision d’A. Jensen, on pourrait dire que « l’élite » sociale (dans le cadre d’une société mobile et « méritocratique ») est constituée de personnes présentant une vitesse élevée de traitement de l’information.

L’avis de Spearman ou Jensen n’est pas partagé par tous les psychologues. C’est ainsi que pour le professeur à l’université de Chicago Louis Thurstone (1887-1955), les résultats aux tests d’intelligence ne sont pas expliqués par un seul « facteur g » mais par une multiplicité de facteurs élémentaires indépendants, qu’il appelle « aptitudes mentales primaires », parmi lesquelles notamment : la mémoire, la perception, la compréhension verbale ou la « facilité du nombre ».

La troisième approche, enfin, la plus récente, suppose qu’existe une conjonction entre différents secteurs spécialisés et indépendants, et un facteur central de supervision du tout, une sorte de « synthèse », de « ramification hiérarchisée » des capacités cognitives (qui fait dire aux Français Michel Huteau et Jacques Lautrey que « Spearman et Thurstone avaient tous deux raison et tous deux tort »).

Le psychométricien américain John Bissel Carroll[30] (1916) propose un modèle hiérarchique dans lequel l’intelligence générale domine des fonctions comme la mémoire, la perception visuelle, la perception auditive, la rapidité cognitive, etc., chacune dominant à son tour des fonctions plus précises. Dans ce type de modèle, le supposé « facteur g » prend un tout autre sens : il ne peut pas se contenter d’être un simple processus élémentaire, mais relève nécessairement de fonctions mentales supérieures.

Le psychologue de l’université de Yale R. Sternberg[31] définit une « triarchie de l’intelligence », à savoir que des « métacomposantes » auraient pour rôle de sélectionner, plannifier et contrôler les diverses stratégies de traitement de l'information. R. Sternberg définit « l’intelligence » comme l'ensemble des habiletés que l'individu organise intentionnellement pour s’adapter à son milieu. Celles-ci peuvent être réparties en trois catégories : les facultés d’analyse (que mesurent les tests habituels), l’esprit de synthèse et de créativité, et les capacités pratiques. Cette « intelligence pratique » est une innovation théorique : elle désigne tout ce que le sujet met en oeuvre dans sa vie quotidienne pour réussir. Ainsi, R. Sternberg s’est démarqué des tests classiques et a proposé des épreuves « pratiques », s’inspirant de situations courantes, comme par exemple plannifier un déplacement.

Howard Gardner et les « intelligences multiples »

Pour Howard Gardner, professeur de sciences de l’éducation à l’université de Harvard, l’hypothèse de l’intelligence et du QI uniques n’est pas satisfaisante. En effet, l’observation la plus élémentaire montre que certains élèves en difficulté dans certains domaines scolaires (comme l’orthographe ou la logique) excellent dans d’autres (comme l’expression orale ou le comportement civique). Ceci ne pourrait d’ailleurs pas être dénié par un instituteur[32]. Le cogniticien américain s’est donc attaché à distinguer sept « formes d’intelligence », en ceci qu’elles existent en chaque individu, se manifestent en proportions variables, sont indépendantes les unes les autres et semblent à ce titre être générées par différentes parties du cerveau. La spécificité de ces différentes formes se manifeste notamment à l’occasion de lésions cérébrales chez un patient, qui neutralise certaines des formes et épargne les autres. La psychologie évolutionniste ne nie d’ailleurs pas que différentes formes de capacité intellectuelle aient pu se développer de façon indépendante chez une espèce animale au fil de l’évolution. Laissons Howard Gardner inventorier lui-même les sept formes d’intelligence qu’il a repéré en 1983 : « l’intelligence linguistique, la logique mathématique, l’aptitude musicale, l’aptitude spatiale, l’aptitude du corps à se mouvoir (comme chez les athlètes et les danseurs), l’intelligence interpersonnelle (la capacité de déchiffrer les états d’âme des gens, leurs motivations et autres états mentaux), et l’intelligence intrapersonnelle (l’aptitude à analyser ses propres sentiments et à s’en inspirer pour guider son comportement)[33] ». H. Gardner envisage même, depuis 1995, l’hypothèse de deux formes supplémentaires « d’intelligence » que sont : « celle du naturaliste, la capacité d’identifier et de classer des objets naturels » et « une intelligence existentielle, qui englobe la propension humaine à réfléchir aux questions fondamentales sur la vie, la mort ou l’infini ». Il se trouve effectivement que certaines lésions du cerveau altèrent chez l’homme la capacité d’identifier les animaux et autres objets animés cependant qu’elle épargne celle des objets manufacturés par l’homme, ce qui laisserait supposer que « l’intelligence naturaliste » est effectivement une capacité cognitive spécifique. Il reste à trouver les bases neuronales de cette activité. L’intelligence existentielle, également, « rejoindra la liste des élues si des preuves neuronales de son existence apparaissent[34] ». Or, pour le cogniticien américain, les tests de QI ne prennent en compte que « l’intelligence linguistique et l’intelligence logique ; quelques-uns examinent l’intelligence spatiale. Les quatre autres formes d’intelligence sont quasi ignorées[35] ». Cela pose évidemment un problème de validité et de légitimité de la psychométrie classique, ainsi que, sur un plan moral et politique, de « justice » scolaire et sociale : n’est-il pas injuste d’affubler d’un mauvais QI un élève qui excelle dans des domaines autres que la langue ou la logique ?

Si elle est séduisante sur le plan théorique, l’approche de Gardner s’avère être, selon les mots mêmes de R. Sternberg, un véritable « cauchemar psychométrique ». Car les évaluations sont forcément longues à réaliser et ne permettent pas de quantifier les performances des enfants. Mais le but des tests est-il de « quantifier » des capacités cognitives ou d’aider l’enfant à progresser, compenser ses handicaps et choisir l’orientation scolaire qui soit pour lui la meilleure ?

Notons au passage, et à ce titre, qu’en cherchant à découvrir des possibilités cognitives latentes chez l’enfant, H. Gardner renoue avec l’objectif qu’avait assigné A. Binet à la psychométrie au début de ce siècle, à savoir : aider l’élève en difficulté. Cette préoccupation est également celle des promoteurs des tests dits « dynamiques », qui, nous allons le voir, critiquent eux aussi la validité des tests de QI classiques.

Le « QI » mesure-t-il l’intelligence de manière fiable ? Flynn et les tests « dynamiques »

La prétention des tests de QI à mesurer « l’intelligence » a été remise en cause, pour différentes raisons.

Les tests se limitent à des aptitudes très spécifiques

Tout d’abord, « l’intelligence » recouvre un grand nombre d’activités mentales et comportementales, qu’il paraît réducteur de vouloir mesurer par une centaine de questions. Les chercheurs s’accordent d’ailleurs à penser que les tests de QI n’évaluent qu’une part limitée de l’intelligence, qui est l’aptitude logico-mathématique. Et encore cette aptitude s’exerce dans un contexte particulier, déconnecté de la vie quotidienne (où s’exerce la « véritable » intelligence, de l’homo sapiens sapiens, du primate, de l’animal...). De nombreuses expériences montrent par exemple que des enfants (notamment au travers d’une étude menée au Brésil) sont capables de résoudre dans la vie courante des problèmes logico-mathématiques plus complexes que ceux auxquels ils échouent en classe. De même, des sujets capables de comparer les prix dans les supermarchés, s’avèrent incapables de résoudre la même opération si elle présentée sous la forme d’un test !

Le QI ne mesure pas une quantité absolue

Ensuite, quand bien même tous ces pôles seraient représentés dans le questionnaire, on peut se demander à quoi correspond le chiffre du « QI » : mesure-t-il une quantité, quelque chose d’absolu ? Ou ne se contente-t-il pas de comparer entre elles les capacités des différents individus ? À ce titre, le psychométricien James R. Flynn a réuni des données issues de 14 pays occidentaux au cours des dernières décennies et a remarqué que les QI avaient progressé de façon très sensible au fil du temps, pouvant gagner de 5 à 25 points en une génération (à tel point que les psychométriciens sont obligés de réétalonner en permanence les tests de façon à ce que le nombre 100 corresponde toujours à la moyenne des résultats). Ceci pose bien évidemment problème : cette progression montre-t-elle que les hommes deviennent de plus en plus « intelligents » et que notre époque est peuplée de génie ? Une telle hypothèse est douteuse. Il semblerait plutôt que les tests mesurent autre chose que l’intelligence, comme des savoirs culturels et cognitifs appris à l’école et à l’université. Une autre hypothèse envisage que la forte hausse des QI en Occident depuis ces dernières décennies est due aux apports vitaminés de l’alimentation (qui expliqueraient également l’augmentation moyenne de la taille) : « une nutrition améliorée est à l’origine de l’étonnant accroissement des niveaux moyens de QI et de taille dans le monde développé tout au long de ce siècle[36] ». Il est vrai que lorsqu’on connaît les déterminants alimentaires de l’intelligence (que nous verrons plus loin), une telle hypothèse n’apparaît pas farfelue.

Quoiqu’il en soit, les chercheurs s’interrogent actuellement sur le fait de « savoir si les progrès des QI reflètent réellement une augmentation de QI ou s’ils sont dus à des changement de compétences intellectuelles spécifiques[37] ».

Le test ne mesure pas toute l’efficience intellectuelle

Un autre problème survient : c’est celui de la motivation et de l’efficience du sujet. On peut dire que le résultat au test révèle des aptitudes dont le sujet est assurément capable. Mais le résultat montre-t-il tout ce dont le sujet est capable ? Un manque de motivation, d’attention ou de « forme » intellectuelle ne risque-t-il pas de masquer au test certaines aptitudes du sujet ? Les tests sont-ils représentatifs de toute son efficience intellectuelle ? En toute rigueur, jamais ‑ ceci même dans le meilleur des cas. C’est la raison pour laquelle ont été mis au point des test dits « dynamiques ». En quoi consistent-ils ? Un test est proposé au sujet. Puis les mauvaises réponses sont signalées et ces occurrences sont soumises à nouveau au sujet, pour tester cette fois ses capacités de correction, d’amélioration, donc de compréhension. On estime que ces tests mesurent « l’intelligence » (relative) de façon plus fidèle.

 

Il convient donc, au total, de rester prudent à l’égard des « tests d’intelligence » et voir que ceux-ci, à condition encore qu’on ait réussi à définir ce qu’est « l’intelligence », n’en « mesurent » qu’une certaine partie, dans des domaines et circonstances spécifiques, et ne mesurent en réalité, au mieux, que des différences de capacités cognitives entre les individus d’une population.

Comment définir aujourd’hui « l’intelligence » ?

Qu’est-ce que « l’intelligence » ? Le Petit Robert (1990) des noms communs nous dit ceci : « Faculté de connaître, de comprendre ; ensemble des fonctions mentales ayant pour objet la connaissance conceptuelle et rationnelle ; capacité d’abstraction ; aptitude d’un être vivant à s’adapter à des situations nouvelles ; qualité de l’esprit qui comprend et s’adapte facilement ». Les notions centrales de « l’intelligence » telles qu’elles sont définies ici, et qui correspondent à celles du sens commun, semblent être celles de compréhension et résolution (d’un problème, d’un paradoxe), d’abstraction (de données empiriques) et d’adaptation (à une situation inédite). Nous nous en tiendrons là pour l’essentiel, même si la définition des capacités cognitives peut être déclinée, détaillée et sophistiquée à l’infini.

Linda Gottfredson et l’actualité du « facteur g »

Nous avons vu que si Howard Gardner postule l’existence d’une dizaines de formes d’intelligence spécifiques et indépendantes, Carroll et Sternberg estiment que les différents modules spécialisés de l’intelligence sont gouvernés par un principe unificateur, de différente efficience selon les individus. Même des philosophes de l’esprit, comme Jerry Fodor ou Dan Sperber, qui s’opposent sur le degré de modularité du cerveau, ne s’inscrivent pas en faux contre cette vision de la cognitivité. Une chercheuse comme Linda Gottfredson vient rappeler l’hypothèse hautement probable d’un « facteur g », maître des modules spécialisés, et notamment dans un article paru en 1998 dans la revue Pour la science[38]. L’auteur rappelle d’abord, à juste titre, que l’étude de l’intelligence humaine est un sujet tabou, qu’il est « politiquement correct de ne pas aborder, sinon pour affirmer que la mesure de l’intelligence est impossible[39] », et que les recherches sur les « différences individuelles de capacité intellectuelle ont été interprétées, par les politiques et les sociologues, à contre-courant des acquis scientifiques ». Aussi le grand public n’a-t-il pas une réelle connaissance des savoirs en la matière. Linda Gottfredson affirme l’existence de « l’intelligence » et de son influence dans les comportements quotidiens et dans la réussite scolaire et sociale : « nous affirmons sans ambages, après des dizaines d’années de recherches sur l’intelligence que la réponse est oui. »

Les causes idéalistes du déni de la biologie

L’auteur explique l’ignorance, la dépréciation et le déni des travaux cognitifs de la part de l’intelligentsia par une « incompatibilité entre un idéal d’équité et une réalité injuste. » L’idéalisme, en effet, « sous-tend la plupart des critiques des recherches sur l’intelligence : à leur point de vue, tous les individus naissent égaux, l’inégalité sociale n’étant que la conséquence de privilèges indus. (...) [Or] les individus ne naissent pas égaux quant à leur potentiel intellectuel ; ils sont nés ainsi, avec d’inégales qualités quant à la beauté physique, la sensibilité artistique, les possibilités sportives, et bien d’autres caractéristiques. L’expérience et l’éducation peuvent moduler ces potentialités, mais il n’existe aucune ingénierie sociale qui puisse niveler les différences de capacités intellectuelles entre individus. » Il semble difficile de contredire ici L. Gottfredson, à la fois dans son affirmation de différences natives, et de causes morales et politiques au déni de la vérité scientifique.

Le déni dessert l’humanisme

L. Gottfredson estime, contre le sens commun, que les idéaux d’humanisme, de justice sociale et d’égalité des chances ont tout intérêt à reconnaître et intégrer la diversité native, parce que « seule une approche plus réaliste des différences intellectuelles (...) permettrait à la société de mieux tenir compte de ces différences et de réduire, si cela est possible, les inégalités qu’elles engendrent ». Nous n’avons pas dit autre chose plus haut ni ne dirons pas autre chose plus loin.

Le biologique ne dénie pas l’environnemental

Notons que la scientifique ne nie d’aucune façon le rôle de l’environnement : « Les effets liés à des gènes ne se produisent bien qu’en combinaison avec des facteurs liés à l’environnement, notamment en renforçant la réceptivité d’une personne à des expériences formatrices. (...) Les différences d’intelligence globale ont une origine à la fois génétique et environnementale[40] ». Or, souvenons-nous au passage qu’un Michel Duyme, de son côté, qui essaie de montrer la réalité, l’importance – voire l’exclusivité – des facteurs environnementaux de l’intelligence, minimise tout facteur naturel en la matière. On peut donc se demander laquelle des deux postures, de Linda Gottfredson ou Michel Duyme, est la plus respectueuse de la réalité, et laquelle est la plus imprégnée de préoccupations idéologiques.

Pourquoi un « facteur g » ?

L. Gottfredson (tout comme Spearman ou Jensen) émet l’hypothèse d’un « facteur g » par observation d’une forte « corrélation croisée » des résultats d’un individu à des tests mesurant des capacités spécifiques, comme « l’aisance oratoire, l’habileté mathématique, la visualisation spatiale ou la mémoire ».

« g » exprimé dans la complexité d’une tâche

Il semble que « g » se manifeste avec force à mesure de la complexité de la tâche. Les tâches complexes, en effet, « requièrent une gymnastique mentale poussée » et ce « traitement de l’information ‑ où l’individu distingue des similitudes ou des contradictions, tire des conclusions, manie de nouveaux concepts, etc. ‑ traduit l’action de l’intelligence ». Le facteur « g » semble permettre de « raisonner, résoudre un problème, manipuler des abstractions, apprendre rapidement[41] », de la même façon que nous le suggérait le dictionnaire au sujet de « l’intelligence ». Il semble par ailleurs que de faibles différences de « g » aient « un effet important, et même cumulatif, dans la vie sociale et économique[42] ». Ceci expliquerait pourquoi et comment de faibles différences de capacités cognitives entre les élèves sont capables de générer de grandes différences d’orientation, de trajectoire scolaire, de niveau de diplôme, de statut social et de revenus. En outre, le même « continuum d’intelligence globale » est observé dans toutes les cultures. On peut en tirer deux hypothèses : ou bien les cultures construisent le même « g » ; ou bien les cultures ne construisent pas « g ». Or, chacune des occurrences annihile en tout cas l’hypothèse selon laquelle l’intelligence serait un « artefact social[43] ».

Une triarchie pyramidale

Linda Gottfredson rejoint les psychométriciens Carroll et Sternberg en situant l’action de « g » au sommet d’une pyramide surmontant « la facilité d’expression orale, le raisonnement mathématique, la visualisation spatiale, la mémoire », lesquelles chapeautent à leur tour des aptitudes plus spécifiques, dépendant davantage de la connaissance ou de l’expérience, comme par exemple « les principes et pratiques liés à une fonction ou profession particulières[44]. »

En quoi consisterait « g » concrètement ?

Les scientifiques ont noté de fortes corrélations (de 0,5 à 0,7) entre « l’intelligence » (et l’une de ses expressions le QI) et différentes sortes d’ondes cérébrales. Il apparaîtrait que la performance cognitive soit associée à une haute vitesse de circulation et de traitement de l’information le long des neurones. Diverses expériences très simples, qui excluent le raisonnement, ou l’appel à des connaissances ou des concepts, ont d’ailleurs montré les différences de vitesse de traitement de l’information entre les individus. Il s’agit par exemple d’expériences où, comme nous l’avons vu haut, le sujet a le doigt posé sur un bouton et doit, à un signal lumineux, appuyer le plus vite possible sur un autre bouton. Ce n’est bien évidemment pas le délai d’appui sur le second bouton (dépendant de contingence motrices) qui est mesuré, mais le délai de retrait (quasi-instantané) du premier bouton. La caractéristique d’onde cérébrale semble donc influencer « g ». Mais on ignore encore les facteurs de ces différences d’onde.

Le QI redevient « naturel » à mesure de l’âge

Linda Gottefredson rajoute enfin deux choses intéressantes : la première, c’est que l’influence des facteurs génétiques, contrairement à ce qu’on pourrait croire, semble augmenter à mesure de l’âge, ainsi que le montrent les études de Thomas Bouchard, menées à l’Université du Minnesota : « 40 % des différences de QI entre jeunes écoliers proviennent de différences génétiques, mais (...) 80 % pour des adultes ». Ce phénomène apparemment paradoxal peut s’expliquer par le fait que l’adulte est moins dépendant que l’enfant de facteurs environnementaux (comme les injonctions, influences et pressions parentales) ; il est plus libre « d’être lui-même », de choisir des activités en correspondance avec son tempérament et ses aptitudes naturelles. Ce phénomène est essentiel : il nous montre que le QI peut être modulé par des facteurs environnementaux pendant la jeunesse (de façon favorable ou défavorable), puis qu’il retrouve une valeur « naturelle » dès lors qu’il n’est plus « tenu à bout de bras » par les institutions parentales ou scolaires. Ainsi, à la vie adulte, « le QI d’enfants adoptés, par exemple, perd toute ressemblance avec celui des membres de leur famille adoptive et devient proche de celui de leurs parents biologiques, qu’ils n’ont jamais connus[45] ». Cette observation est fondamentale, car elle suggère que la part d’influence environnementale (familiale ou scolaire) des capacités cognitives est temporaire, et que la vie adulte révèle les véritables potentialités naturelles. Or, dans ces conditions, comment saurait-on envisager un effet durable de l’école ou de l’environnement sur une homogénéisation des capacités cognitives des individus d’une population ? Peut-on espérer que l’École puisse réduire les inégalités de réussite sociale au cours de la vie active ? Que penser, par ailleurs, des études montrant une influence du milieu d’adoption sur le QI pendant l’enfance ? Cette influence sera-t-elle durable ? Une influence temporaire constitue-t-elle une influence réelle ? Quelle est finalement la plus forte influence sur les capacités cognitives : environnementale ou naturelle ? Autant de questions qui fragilisent des certitudes et plongent dans la perplexité.

Le QI, fortement corrélé avec la réussite scolaire

Le dernier élément observé par la scientifique (mais surprendra-t-il ?) est que le QI est fortement corrélé avec la réussite scolaire : les élèves « à fort QI maîtrisent plus vite les concepts que leurs congénères moins doués », « apprennent cinq fois plus vite que les plus « lents »[46] ». Au dessus d’un QI de 125, on remarque que les élèves sont « capables d’apprendre par eux-même ».

L’intelligence et la mémoire

« g » ‑ la vitesse de traitement de l’information, la qualité des ondes cérébrales ‑ explique probablement une partie de l’intelligence et des différences observées entre les individus. Il ne faut pas perdre de vue, toutefois, qu’entrent également en ligne de compte dans l’intelligence des phénomènes importants comme celui de la mémoire. La capacité à intégrer des données extérieures, à les abstraire, à les classer, puis à les rappeler, le moment venu, de façon pertinente et efficace, la « mémoire de travail » (sorte de mémoire « vive »), sont autant d’éléments importants de l’intelligence et transversaux à la vitesse de traitement de l’information. Nous verrons plus loin, au travers de l’ouvrage de Georges Chapouthier, l’importance et les mécanismes de cette mémoire dans l’efficience intellectuelle, mémoire dont l’exercice a peut-être été sous-estimé (voire dénigré) par l’école ces dernières décennies.

Le déni de la notion « d’intelligence » : « utilité » et limites

Il n’est pas rare, dans le champ des sciences humaines (autres que la psychologie) et des sciences de l’éducation, ou dans les milieux dits « de gauche », de voir remettre en cause ou même déniée la notion, l’existence de « l’intelligence ». Lorsqu’il est interviewé à la télévision sur le sujet, par exemple, un « biologiste » comme Albert Jacquard répondra qu’« on ne sait pas bien ce que c’est que l’intelligence » et qu’il n’est « même pas sûr que cette notion soit fondée », éludant ainsi tout débat scientifique ou moral en la matière. On comprend bien « l’utilité » (parétienne) de ce déni : accepter l’idée d’existence de l’intelligence ou de sa mesure, c’est accepter la perspective d’une diversité, d’une « inégalité » d’intelligence entre les hommes, idée insupportable pour qui est épris d’égalité sociale. Le partisan égalitariste estime probablement que, sur la base d’une diversité cognitive, et d’une réelle hiérarchisation dans les performances à réaliser telle ou telle tâche cognitive, on pourrait déduire une inégalité de valeur, de dignité, de droit politique entre les hommes, estimation bien intentionnée mais également douteuse. Il est vrai que certains ont pu ‑ ou cru pouvoir ‑ réaliser ce glissement entre la diversité naturelle des hommes et une idéologie ségrégationniste, comme nous l’avons vu plus haut. Il reste cependant que ce « glissement » n’est ni fondé ni légitime.

La question du déni de la diversité cognitive est en réalité délicate : le dénégateur, en effet, a tort de craindre un dérapage du factuel sur l’éthique, mais à la fois il appuie sa crainte sur des dérapages qui ont effectivement eu lieu dans l’histoire. Ses craintes sont-elles donc fondées ? Peut-être.

Quel que soit le degré de pertinence morale de la dénégation, en tout cas, il reste qu’elle est de peu de poids en face de l’avalanche des nouvelles connaissances à venir et des idéologies ségrégationnistes qui, finalement, n’ont pas besoin de fondement naturaliste pour diffuser un message de haine et de discrimination entre les peuples ou les groupes sociaux.

Le relativisme est-il une bonne façon de défendre l’égalité de dignité entre les hommes ?

Certaines personnes envisagent de défendre la dignité humaine en relativisant les différences cognitives natives : on ne saurait pas bien ce qu’est « l’intelligence », ni même si elle existe ; on ne saurait pas la mesurer ; et, quand bien même, ses formes seraient tellement variées que « tous les enfants naîtraient avec les mêmes chances de réussir dans la vie ». Tout d’abord, cette démarche, notons-le, repose implicitement sur le principe axiologique selon lequel « un homme plus intelligent a plus de valeur qu’un autre », en vertu de quoi le relativiste, au nom de la valeur égalitaire et de la défense de la dignité, cherche à dénier ou relativiser la diversité native. Mais est-il vrai, acceptable et légitime, d’abord, de penser « qu’un homme intelligent a plus de valeur qu’un autre » ? La question est fondamentale, car si l’on considère au contraire que « la valeur (politique, morale) d’un homme ne se mesure pas à ses potentialités cognitives », alors la diversité native ne pose plus de problème à l’humaniste (ainsi que nous le détaillerons plus loin dans la partie consacrée à l’anthropologie des valeurs et croyances). Le débat est donc déplacé en aval de la diversité native : quand bien même les hommes naîtraient avec des potentialités intellectuelles différentes, aurait-on pour autant le droit de considérer ces hommes de manière inégale ? C’est la posture humaniste défendue notamment par un Luc Ferry : « Ce qui est démocratique, ce n’est pas l’affirmation dogmatique d’une égalité factuelle entre les hommes (...) ; c’est le fait que cette inégalité, fût-elle avérée, ne se traduit pas par l’attribution a priori de privilèges juridiques ou politiques, parce que la dignité de l’être humain est une donnée morale[47] ». Le débat sur le principe démocratique d’égalité de dignité entre les individus se situe alors en aval, par une reconnaissance lucide et courageuse de la diversité native et de l’affirmation de l’égalité des droits politiques des individus : « Oui, on peut reconnaître la part de l’inné et faire droit aux découvertes de la génétique sans nier la liberté et la responsabilité humaine. (...) Au lieu de dissimuler par tous les moyens ce qui serait censé gêner l’égalitarisme démocratique, il vaudrait mieux, en effet, se donner la peine de penser démocratiquement d’éventuelles inégalités. (...) La démocratie tient plus par la vérité, quelle qu’elle soit, que par l’organisation de mensonges, fussent-ils pieux[48] ».

Il n’est donc pas certain que la posture relativiste, aussi bien intentionnée soit-elle, soit une façon très judicieuse de défendre la dignité des hommes. D’abord parce que les savoirs en neurobiologie et génétique montrant la diversité native de manière indiscutable ne manqueront pas de se diffuser parmi le grand public, ensuite parce que, de toute façon, ce n’est pas sur le plan des données factuelles que se situe le débat fondant les valeurs morales, mais sur le plan d’un débat politique sur l’égalité des droits démocratique. Comme le dit également en substance Michael Ruse, dans sa distinction entre « méta-éthique » et « éthique normative », ce n’est pas l’observation de la nature mais le débat entre citoyens qui fonde et qui doit continuer de fonder les lois morales.

Le relativisme est une posture « utile » à la défense de l’idéologie égalitaire... et à la promotion involontaire d’idéologies ségrégationnistes

On comprend que la posture relativiste cherche à sauver la dignité des hommes, notamment ceux qui naîtraient avec des potentialités cognitives peu favorables. Mais, dans la mesure où cette stratégie, nous l’avons vu, semble assez peu judicieuse, on peut se demander si n’existent pas d’autres mobiles se cachant derrière cette posture. Une hypothèse serait que le relativiste aspire en réalité à l’idéal d’une société égalitaire, laquelle serait accomplie par le moyen de l’éducation. À cet effet, le postulat d’égalité cognitive à la naissance (ou le déni de la diversité) autorise deux choses essentielles aux yeux de l’idéaliste : la perspective d’une société égalitaire ; et le moyen de réaliser cette égalité grâce à l’école ou l’éducation (puisqu’aucune diversité native n’est supposée faire obstacle à l’action égalisatrice de l’environnement). Une assez nette corrélation entre la posture relativiste et une appartenance politique égalitaire permettrait de conforter cette hypothèse. Il reste que si les idéalistes égalitaires postulent l’égalité native cependant que ce postulat est faux, il est douteux qu’ils rendent service à leurs propres idéaux, parce que le camp adverse ne manquera pas d’intégrer et d’utiliser, lui, les nouvelles connaissances biologiques pour les interpréter de la façon qu’il lui lui plaira. Et il est fort à parier que le grand public accordera un relatif crédit à ces interprétations douteuses, puisque, de l’autre côté, les idéalistes égalitaires s’inscriront en faux contre les faits scientifiques diffusées dans le domaine public. Le déni de la diversité native apparaît donc comme un mauvais calcul humaniste à long terme, puisqu’il n’empêche ni la diffusion des connaissances ni leur possible dévoiement par des idéologies ségrégationnistes.

« Intelligence », « caractères cognitifs », génotype, adn

« Ils croient que je défends la génétique mendélienne : je défends simplement la science contre une foi. »

Jean Rostand[49]

 

Évoquer, définir, discuter et reconnaître la notion et le phénomène « d’intelligence » est une chose. Encore faut-il s’interroger sur ses conditions ontologiques : qu’est-ce que « l’intelligence » ? Sous quelles formes se matérialise-t-elle ? Ceci nous amène sur le terrain, un peu plus ardu, de la neurobiologie. Quelles sont les relations de « l’intelligence » avec le biologique, et les relations de ces phénomènes avec les gènes (si relations il y a) ? Là encore, la prudence à l’égard de potentielles conclusions hâtives nous oblige à passer par l’intégration de quelques données élémentaires en génétique, entendue ici comme action de l’ADN sur l’organisme (et non encore comme transmission des caractères).

Un comportement observable n’est pas dicté par un gène mais l’effet d’un assemblage de différents « caractères »

Si on admet que le comportement humain, sous ses différents aspects, n’est pas uniquement le produit de facteurs culturels ou rationnels mais qu’y entrent pour une part certaines composantes naturelles (comme le laissent supposer de nombreux travaux réalisés sur les animaux[50]), il ne faut cependant pas croire qu’un comportement donné serait l’expression d’un caractère naturel simple, ni que lui-même serait causé par un seul gène. Il est évident que des tendances comportementales aussi complexes que « l’impétuosité », « l’introversion », la « peur de l’étranger » ou le « réflexe d’entraide » sont le produit d’un faisceau de caractères naturels élémentaires. Ainsi, par exemple, le trait élémentaire « d’anxiété » (qui peut être causé par l’action de différentes molécules dans le cerveau[51]) va produire un profil psychologique (peut-être même moral et politique ?) différent selon qu’il va se trouver associé à un autre trait élémentaire de « peur de la nouveauté[52] » ou au contraire de « sociabilité[53] ». Un comportement ou un tempérament observable n’est donc pas l’expression d’un caractère unique mais de la probable association de plusieurs caractères. Cette complexité s’exprime d’ailleurs sur tous les plans de la personnalité humaine. C’est ce qui explique notamment « l’infinie » diversité des « tempéraments naturels » observables chez les hommes (comme du reste chez les autres animaux), qui est l’expression de l’unicité du génotype individuel, tel un jeu de trente mille cartes tirées au hasard dans un paquet de plusieurs millards de cartes et formant une figure unique.

Un « caractère » naturel est le produit d’un seul ou plusieurs gènes ; « monogénie » et « plurigénie »

Un caractère naturel ‑ qu’il soit physique, comportemental ou cognitif ‑ n’est pas toujours l’expression d’un seul gène. Seuls des caractères très précis, se manifestant de façon binaire parmi les hommes, sont gouvernés par un seul gène[54]. Mais on voit bien déjà que des caractères comme la forme des yeux, du nez ou des oreilles, la couleur des cheveux ou de la peau, parce qu’ils produisent des apparences diversifiées et nuancées, ne peuvent pas être gouvernés par un seul gène. Ces caractères sont nécessairement gouvernés par plusieurs gènes, au minimum deux, probablement plus. Un caractère défini par un seul gène est dit « monogénique » ; un caractère défini par plusieurs gènes, « plurigénique ».

Il va de soi ‑ et tous les neurobiologistes s’accordent sur ce point ‑ que des caractères aussi complexes et multiformes que les caractères cognitifs élémentaires (comme la mémoire, l’attention, l’aptitude au langage, le repérage spatial, etc...), qui tous réunis forment ce qu’on appelle « l’intelligence », sont gouvernés par une multitude de « gènes ». Sur les trente mille gènes qui gouvernent l’organisme humain, les neurobiologistes estiment qu’un tiers, une dizaine de milliers sont impliqués dans le fonctionnement du cerveau. Ce sont ces dix mille gènes qui, à un niveau ou à un autre, interviennent dans l’élaboration et le fonctionnement du cerveau, donc l’ensemble des capacités cognitives.

Remarquons que ces données sont éloignées de la croyance au « gène de l’intelligence ». Mais si le « gène de l’intelligence » est une chimère liée à des fantasmes ou à des peurs idéologiques, cela n’empêche pas pour autant que « l’intelligence » puisse être sous influence naturelle et génétique. Il ne faut pas que la négation du « gène de l’intelligence » fasse croire à une origine environnementale de l’intelligence. Il n’y a pas « un » gène de l’intelligence ; il y en a dix mille.

Ceci, bien sûr, n’empêche pas que l’intelligence, pour se développer, ait besoin d’informations acquises et d’un exercice régulier – dans la famille, à l’école et pendant le temps personnel.

 

Nous utilisons depuis quelques pages le terme de « gène ». Mais qu’est-ce qu’un « gène » ?. Où se loge-t-il ? Quelle est son action ?

Les gènes sont regroupés sur « l’adn » et constituent le « génotype »

Les données suivantes pourront paraître fastidieuses et inutiles pour qui les connaît. L’expérience montre cependant que ces données « élémentaires » sont mieux connues des élèves de première S[55] que du champ des sciences humaines. Or, les travaux et réflexions de cette thèse ne peuvent être bien compris si l’on n’a pas en tête ces rudiments.

Des bases azotées à l’ADN

Nous avons vu plus haut qu’au cours de l’évolution se sont constituées des molécules de moyenne taille comme les acides aminés ou les bases azotées. Ces molécules moyennes, à leur tour, se sont associées (au hasard) en très grosses molécules (ou « macromolécules »). Les acides aminés s’associent spontanément comme les wagons d’un train pour former des « chaînes polypeptidiques », qu’on appelle, lorsqu’elles forment plus de cent acides aminés, des « protéines ». Ces protéines vont exercer un pouvoir chimique sur l’organisme. Ce faisant, elles assurent la fabrication et l’entretien de tous les organes du corps.

Les bases azotées, de leur côté, s’associent pour former, en conjonction avec l’acide phosphorique et un sucre appelé « ribose », des chaînes longues de plusieurs milliards de molécules appelées « acides nucléiques ». Deux versions importantes de ces chaînes pour l’être vivant sont l’acide « ribonucléique » (ou « ARN ») et l’acide « désoxyribonucléique » (ou « ADN »), parce qu’ils vont contenir l’information nécessaire à la fabrication d’un organisme vivant. L’ADN est donc une très longue suite de bases azotées associées les unes aux autres, et soutenues par deux « piliers » ou « montants » extérieurs constitués d’acide phosphorique et du sucre « désoxyribose ». Une particularité de cette chaîne est qu’elle est constituée d’un double train de bases azotées enchâssées les unes dans les autres, face à face, deux à deux. Qui n’a jamais vu la représentation de la « double-hélice » de l’ADN ? Les quatre bases azotées constitutives de l’ADN sont : « l’adénine », la « thymine », la « guanine » et la « cytosine ». Les propriétés chimiques de ces bases font qu’elles s’enchâssent deux à deux toujours avec la même partenaire : la guanine avec la cytosine, l’adénine avec la thymine.

Le pouvoir mécanique d’auto-duplication de l’ADN

Une autre propriété de l’ADN corollaire de celle-ci, c’est que lorsqu’une base azotée est privée de sa partenaire, une autre molécule identique à cette partenaire vient immédiatement et spontanément la remplacer. C’est ainsi que l’ADN a le pouvoir de se « dupliquer ». Elle peut effectivement se scinder en deux fragments dans le sens de la longueur, comme s’ouvre une « fermeture-éclair »®. Les deux montants « orphelins » se trouvent alors « complétés » par de nouvelles bases azotées qui viennent combler les espaces libres et former ainsi, au final, deux molécules identiques d’ADN (si tout se passe bien[56]). Cette faculté de se dupliquer spontanément sous l’effet de simples phénomènes mécaniques, chimiques, a fait de l’ADN un outil privilégié (et indispensable) dans le phénomène de « reproduction » des « êtres vivants ».

 

Qu’appelle-t-on les « gènes » ? Ce sont des segments de l’ADN, au nombre de dizaines de milliers (plusieurs centaines par chromosome).

 

L’ensemble des trente mille gènes détenus par un individu forme son « génotype ». C’est sa collection personnelle de gènes. Celle-ci est unique, parce que chaque gène se décline en différentes versions et nuances appelées « allèles ». L’ensemble de tous les gènes et allèles présents dans une espèce (animale ou végétale) forme son « génome », qui lui est spécifique.

 

Où se trouve l’ADN ? De quoi est constitué un gène ? Comment agissent les gènes sur les caractères ?

Où se trouve l’ADN ?

L’identité de cette molécule est unique chez chacun. Chaque individu de chaque espèce animale est doté d’un segment d’ADN spécifique. L’association de l’ADN de la mère et de l’ADN du père a donné naissance à une molécule unique, qui détermine l’identité et l’unicité de l’individu. Lorsque le segment d’ADN de l’enfant s’est constitué, dans la première cellule de l’embryon, il va, à chaque division cellulaire, se dupliquer de façon identique, pour occuper à la fin chacune des dizaines de milliards de cellules qui constituent notre organisme. La molécule d’ADN ne se présente pas en un seul bloc dans la cellule. Elle est subdivisée en quarante-six fragments autonomes[57], logés chacun dans un sac, que l’on dénomme « chromosome ». Ces chromosomes s’associent généralement par paires similaires. Pour donner une idée de l’ampleur de ce matériau génétique, notons que l’être humain est constitué d’environ 40.000 milliards de cellules, chaque cellule comprenant l’intégralité de l’ADN individuel, long de trois miliards de bases azotées. Combien de bases azotées comprend donc notre propre organisme ? Un nombre astronomique, dont la signification dépasse l’entendement. Si l’on déroulait bout à bout tous les brins d’ADN contenus dans notre organisme, ils formeraient une chaîne longue de 40 milliards de kilomètres[58]. Quel être humain a concience de contenir 40 milliards de kilomètres d’ADN, soit des milliards de milliards d’instructions architecturales et procédurales ?

Notons donc ici que l’ingénierie génétique d’un organisme dépasse de loin sa propre capacité intellectuelle à la concevoir. La puissance et la complexité de cette ingénierie distance les tableaux statistiques ou théories sociologiques les plus sophistiquées.

De quoi est constitué un gène ?

Un « gène » est un segment de l’ADN, c’est-à-dire une suite de plusieurs dizaines, centaines ou milliers de bases azotées.

Un groupe de trois bases azotées consécutives constitue un « triplet de codons ». Ce triplet de codon forme une sorte de mot, de code, capable de désigner, de convoquer un acide aminé particulier. Il existe dans l’organisme humain des acides aminés en circulation, provenant de l’alimentation. Ces acides aminés, « briques » élémentaires de la protéine, sont au nombre de vingt sortes dans le corps humain[59]. Une suite de cinquante triplets de codons, par exemple, a ainsi le pouvoir (et la fonction) de convoquer cinquante acides aminés distincts. Ces acides aminés vont, comme nous l’avons déjà vu, se constituer en « chaînes polypeptidiques » ou « protéines ». Ces protéines sont des agents chimiques capables d’aller remplir une mission dans l’embryon en cours de développement ou dans l’organisme déjà constitué – pour l’entretenir, le réparer… ou l’altérer.

 

Les triplets de codon convoquent les acides aminés de la façon suivante :

 

UUU, UUC : phénylalanine                                                          UUA, UUG : leucine

UCU, UCC, UCA, UCG : sérine                                                   UAC, UAU : tyrosine

UAG, UAA : codon « stop »                                                        UGU, UGC : cystéine

UGA : codon « stop »                                                                   UGG : tryptophane

CUU, CUC, CUA, CUG : leucine                                                 CCU, CCA, CCA, CCG : proline

CAU, CAC : histidine                                                                    CAA, CAG : acide glutamique

CGU, CGC, CGA, CGG : arginine                                                AUU, AUC, AUA : isoleucine

AUG : méthionine                                                                          ACU, ACC, ACA, ACG : thréonine

AAC, AAU : acide aspartique                                                       AAA, AAG : lysine

AGU, AGC : sérine                                                                       AGA, AGG ; arginine

GUU, GUC, GUA, GUG : valine                                                 GCU, GCC, GCA, GCG : alanine

GAU, GAC : aspargine                                                                  GAA, GAG : glutamine

GGU, GGC, GGA, GGG : glycine

 

Par exemple, le codon « adénine-uracile-guanine » convoque l’acide aminé « méthionine » pour l’intégrer dans la chaîne protéique.

Ce « code génétique » concerne la molécule ARN et non ADN. L’ARN est une moléculaire intermédiaire entre l’ADN et la synthèse des protéines. La fonction de cet intermédiaire est de ne pas altérer l’ADN et de sortir l’information génétique de l’intérieur de la cellule jusque dans l’organisme. À la base azotée « thymine » de l’ADN correspond la base azotée « uracile » de l’ARN. C’est pourquoi le code génétique exposé ci-dessus ne cite pas la thymine (T) mais l’uracile (U).

Pourquoi les protéines sont-elles dotées de fonctions chimiques spécifiques ?

Une protéine est une suite d’acides aminés. Or, chaque acide aminé, outre qu’il se termine par une fonction acide d’un côté et une fonction amine de l’autre, contient en son milieu, nous l’avons déjà vu, un accessoire moléculaire propre. C’est ce qui distingue les acides aminés entre eux. Or, ces différents accessoires possèdent chacun une fonction chimique propre. Par agrégation, une protéine spécifique (qui est une suite spécifique d’acides aminés spécifiques) possède une fonction chimique propre. Elle est par exemple capable de dissoudre un corps, de capter une molécule ou de transporter de l’oxygène (comme c’est le cas pour les hématies).

Le lecteur considérera peut-être que nous sommes loin ici de la sociologie des inégalités et de la philosophie politique. Nous pensons au contraire que la pertinence en sciences humaines se nourrira d’une connaissance exacte et pointue du métabolisme physiologique, comportemental et cognitif de l’être humain.

Comment agissent les gènes sur les caractères ?

A

 

C

 

T

 

C

 

A

 

T

 

G

 
Proposons un exemple : une suite de bases azotées situées sur l’ADN – donc de triplets de codons – est capable de convoquer un certain nombre d’acides aminés qui, associés les uns aux autres, vont constituer une molécule d’hémoglobine. Bien sûr, si une anomalie survient dans la suite des bases azotées de l’ADN, elle va se répercuter sur la molécule d’hémoglobine fabriquée. C’est ainsi qu’une anomalie génétique particulière (la présence d’une base azotée différente sur la chaîne de l’ADN) provoque une déformation de certaines molécules d’hémoglobine, qui leur donne une forme de croissant. Cette pathologie est appelée « anémie à hématie falciforme » ou « drépanocytose ». Elle entraîne chez le patient une difficulté à diffuser l’oxygène dans son corps. Notons que cette anomalie, inversement, a le pouvoir de protéger le patient contre le paludisme. Ceci nous apprend au passage qu’une « anomalie » génétique peut exercer sur le sujet un effet négatif sur un plan… et à la fois positif sur un autre.

Citosyne

 
 


Thymine

 

Guanine

 

Adénine

 
Les bases azotées…

 

 


G

 

C

 

U

 

C

 

Ad

 

T

 

C

 

A

 
s’associent en ADN…

 

 


Sérine

 

Tyrosine

 

Thréonine

 
dont chaque triplet de codon

convoque un acide aminé précis.

 

 

Phé

 

Glu

 

Tyr

 

Thr

 
Les acides aminés s’associent en

Ala

 

Sér

 
chaîne polypeptidique…

 

Protéine a

 
 


qui forme une protéine…

 

 


Cellules

 

Métabolisme

général

 
laquelle va construire, entretenir

ou modifier les cellules de l’organisme.

 

Telle est la « mécanique » du vivant.

L’omnipotence des gènes et des protéines

Il est inconcevable qu’un seul détail de notre organisme – foie, orteil, appareil de vision, de mémoire… – n’ait pas été, à un moment ou un autre, élaboré ou modifié par une protéine, elle-même nécessairement synthétisée par un gène. Le matérialisme implique un gouvernement et une supervision protéiques et génétiques de l’organisme (ceci étant indépendant des phénomènes de transmission des caractères). Aucune cellule de l’organisme (physique ou cérébral) ne « tombe du ciel », n’a émergé ex nihilo – ou à moins d’être dualiste. Dans le cerveau, pas un neurone, pas une synapse, pas un neuromédiateur n’a pas pu apparaître, se constituer et fonctionner sans l’aide de protéines commandées par des gènes. De là, dire que « l’intelligence est indépendante des gènes » est une erreur ou un mensonge, puisque « l’intelligence » dépend du cerveau et que le cerveau est fabriqué par des protéines elles-mêmes synthétisées par les gènes – uniques – de l’individu.

Est-il besoin de préciser que la réalité de ces phénomènes n’abolit en rien la grande part de responsabilité de l’éducation dans le développement de l’intelligence et la perspective d’une société plus « juste » ?

Cerveau, protéines, gènes : « acquis », « habitus », « raison » ?

Les seuls éléments contenus par l’organisme et qui échappent au mécanisme des gènes peuvent être : une écharde dans le pied, un sandwich dans l’estomac ou une configuration spécifique de synapses, un « réseau synaptique », établi par une information extérieure[60], ce qu’on appelle le fameux « acquis ». Mais cet « acquis » ne « flotte pas dans l’air » à l’intérieur de la boîte crânienne. L’information « bonjour ! » ou « deux fois deux font quatre » n’est pas venue s’installer toute seule dans le cerveau. Elle a été prise en charge, dès l’oreille interne, par une structure organique dont l’efficience, déjà, est gouvernée par les gènes. L’information est transmise par le nerf auditif, triée par « l’hippocampe » et expédiée dans le cortex, au travers de neurones et inscrite sous forme de connexions synaptiques, toutes structures dont l’efficience et le métabolisme sont gouvernés par les gènes. On voit donc que « l’acquis », s’il provient de l’extérieur, n’est pas pour autant autonome dans le cerveau. L’information reçue par l’oreille (ou par d’autres sens) est inscrite à l’intérieur de structures dont le métabolisme et l’efficience dépendent de caractères intrinsèques issus du génotype individuel. C’est ce phénomène qui fait dire à un Albert Jacquard (et à d’autres) qu’un processus cognitif est « à 100 % acquis et à 100 % inné ». Cette phrase signifie entre autre qu’une poésie lue et mémorisée et l’âge de quatre-vingt-dix ans l’est sous l’influence du génotype. Contrairement à l’illusion (« ontologique », « métaphysique », « philosophique » ?) qu’ont souvent les hommes, les pensées, savoir, sentiments, « culture », faculté de raisonner ou « conscience » sont intimement liés à des structures physiologiques fabriquées et nourries par des protéines, qui sont elles-mêmes synthétisées par des gènes (ceci étant indépendant des questions d’hérédité). On est loin de « l’habitus » bourdieusien comme entité abstraite, censée expliquer les différences de réussite en classe. Même le « choix rationnel » ne s’exprime pas dans l’air, mais par le biais de structures matérielles naturelles, différenciées selon les individus.

L’exploration récente et à venir des gènes responsables du fonctionnement cognitif

Nous avons vu que, parmi les trente mille gènes constitutifs du génotype individuel, une dizaine de milliers semble impliquée dans la fabrication et le fonctionnement du cerveau. Ces gènes sont, selon toute vraisemblance, disséminés parmi l’ensemble des chromosomes. Des études récentes les concentrent sur le chromosome X, mais la localisation d’une centaine de gènes gouvernant la cognition sur le chromosome X ne nous dit rien sur les neuf mille neuf cents qui restent. Certains gènes responsables de troubles cognitifs sont déjà localisés et identifiés, ce que nous verrons plus loin.

Un caractère est le produit de plusieurs gènes ; un même gène nourrit plusieurs caractères

Il est important de noter qu’un « gène » ne détermine pas à lui seul un caractère – physiologique, comportemental ou cognitif – observable : le gène se contente de commander la synthèse d’une protéine, et un très grand nombre de protéines sont parfois nécessaires à la production d’un seul caractère. Inversement, une même protéine peut concourir à la production de différents caractères. Le biologiste Michel Morange[61] rappelle à ce propos « qu’attribuer la formation d’un caractère à l’action d’un seul gène est une erreur fréquente[62] » et qu’à ce titre le « gène de l’intelligence » – nous l’avons déjà vu plus haut – est une idée réductrice, si l’on songe un peu « au nombre et aux combinaisons des mécanismes moléculaires mis en jeu dans la réalisation de caractéristiques aussi complexes[63] ». Le biologiste estime d’ailleurs que « l’expression ‘gène de...’ devrait (...) être bannie, tant des discours des journalistes que ceux des biologistes ». Il n’y a pas de « gène G d’un caractère C ». Il y a « gène G d’une protéine P » et faisceau de protéines dans la constitution d’un caractère (et inversement faisceau de caractères influencés par une même protéine). Cette réalité nous permettra de comprendre plus loin que si « l’intelligence » est influencée par les gènes, pour autant, compte tenu de son aspect plurigénique et combinatoire, elle ne s’hérite de père en fils que partiellement. Ceci nous expliquera pourquoi des parents, s’ils engendrent une majorité d’enfants de potentialités proches des leurs, ils engendrent également, aux marges d’une distribution gaussienne, des enfants aux potentialités « atypiques » (par rapport à leurs parents), lesquelles pourront peut-être expliquer en partie les « trajectoires atypiques » « favorables » ou « défavorables » observées en sociologie.

Le caractère complexe et indirect de l’action des gènes sur les caractères ne doit pas être interprété a contrario comme une indépendance des caractères cognitifs à l’égard des gènes

Cette mise en garde contre une simplification erronée des relations de causalité entre le gène et le caractère (le soi-disant « gène de l’intelligence ») ne doit pas cependant pour autant laisser penser que les gènes n’exercent aucune influence sur les caractères observables. La diversité des allèles génétiques en effet module bien des capacités observables comme celle par exemple de l’apprentissage : « une mutation (...) peut affecter spécifiquement et de manière très précise un caractère donné [et] fera qu’une souris apprendra plus vite qu’une autre[64] ». Nous approfondirons plus loin ces phénomènes dans le cadre de la biologie de la mémoire.

Ni détermination génétique directe, ni émancipation génétique du caractère

Pour avoir une représentation réaliste du phénomène génétique, il convient d’éviter deux simplifications erronées et opposées selon lesquelles :

a) « un gène précis déterminerait un caractère précis » ;

b) « les caractères échapperaient à la détermination des gènes ».

Plus précisément, dans le domaine des potentialités cognitives, il faut se garder des deux écueils (souvent observés) suivants :

a) « un gène précis gouvernerait l’intelligence » ;

b) « l’intelligence serait indépendante des gènes ».

On doit au contraire (même si ce n’est pas facile) concevoir à la fois que :

a) la relation de causalité gène-caractère est complexe et indirecte ;

b) la modulation des gènes influence et diversifie néanmoins les caractères observables.

 

ADN

 
Des instructions génétiques

comprises dans l’ADN…

Chr. 1

 
 

 


Chr. X

 

Chr. 3

 

Chr. 2

 
et réparties en 46 chromosomes…

 

 


Pr

 

Pr

 

Pr

 

Pr

 

Pr

 

Pr

 

Pr

 
commandent chacune la

synthèse d’une protéine.

 

 

Neuromédiateurs

 

Organes

sensoriels

 

Hippocampe

 

Cortex

 
Chaque protéine fabrique et entretient

différents organes et substances…

 

 


Potentiatés cognitives

 
dont l’efficience produit le phénomène

global visible de « l’intelligence ».

 

 

Les « potentialités » cognitives se développent en « capacités » sous l’effet d’informations et de stimulations extérieures. Les potentialités sont différentes selon les individus en vertu de la palette de nuance des allèles (différentes options) de chaque gène. Les allèles sont hérités du père et de la mère. Mais leur combinaison génère des caractères généraux uniques, distincts de ceux des parents.

Les indices de caractères cognitifs naturels

Nous avons exploré le mécanisme général des gènes et leur relation avec l’organisme. À présent, qu’est-ce qui nous montre que des facteurs naturels sont à l’oeuvre dans la constitution des capacités cognitives et scolaires ? Trois éclairages essentiels nous permettent de supputer l’existence de ces facteurs. Les plus anciens travaux montrant une origine naturelle des potentialités cognitives sont l’étude de jumeaux monozygotes, séparés ou non de leurs parents naturels, et dont on compare les différences de capacités cognitives à celles de jumeaux hétérozygotes ou de fratries ordinaires (également élevés par des parents naturels ou adoptifs). La plus forte corrélation des QI de jumeaux monozygotes élevés dans des familles différentes est un signe de facteurs naturels des capacités cognitives. Un second éclairage est celui des pathologies cognitives (comme la phénylcétonurie, la lyssencéphalie, la trisomie 21, la craniosténose, la maladie d’Alzheimer, la dyslexie, etc…). Concernant ces pathologies, les connaissances ont sensiblement avancé et l’on connaît à présent leurs causes physiologiques et même génétiques. Or, comme l’eut précisé Freud, « le pathologique éclaire le normal », c’est-à-dire que si des gènes et caractères naturels expliquent les pathologies (que les exigences médicales obligent à explorer), alors il est hautement probable que de mêmes types de gènes et caractères naturels expliquent et causent le fonctionnement normal de « l’intelligence » et de l’apprentissage (que nulle contrainte humanitaire n’oblige à explorer[65]). Le dernier indice, enfin, se situe au niveau théorique : dans le matérialisme moniste, les phénomènes cognitifs ‑ de réflexion ou d’apprentissage ‑ sont de nature matérielle. Cette matérialité leur impose une localisation et structuration d’ordre naturel, physiologique. Pour un matérialiste, les capacités cognitives d’un organisme vivant sont nécessairement physiologiques. Si elles physiologiques, alors elles sont élaborées par des protéines elle-mêmes gourvernées par des gènes, dont les allèles diffèrent selon les individus.

Ces trois indices – empirique, pathologique et théorique – sont explorés dans la présente partie.

Les travaux sur les capacités cognitives des jumeaux

Les travaux de Robert Plomin

Robert Plomin, directeur du Center for Developmental and Health Genetics (université de Pennsylvanie, Philadelphie) et également chargé de recherche à l'Institut de psychiatrie de Londres, est l’un des principaux chercheurs en matière d’études sur l’intelligence et la psychométrie, et notamment sur les études impliquant des jumeaux. Persuadé, à la lumière de ses recherches, de facteurs naturels de la cognitivité, il pense que l'intelligence n’est pas sous la commande d'un seul, ni même d'un faible nombre, mais d’un grand nombre de gènes (corroborant la théorie génétique exposée précédemment). Plomin estime par ailleurs que les gènes influencent les capacités cognitives jusqu'à un âge très avancé[66]. Il conduit actuellement un programme de recherches destiné à identifier les gènes responsables des potentialités cognitives. En mai 1998, notamment, il a annoncé avoir localisé un gène facilitant l'action d'une hormone de croissance proche de l’insuline, l’IGF-2, qui serait étroitement liée aux potentialités.

Dans un article de Pour la science daté de 1998[67], Robert Plomin rapporte l’état des recherches en matière d’étude sur les jumeaux : « les premières mesures d’héritabilité (...) ont été effectuées dans les années 1970. La plus importante étude a été effectuée à Hawaï par des chercheurs des universités de Hawaï et de Boulder, qui ont suivi plus de 1000 familles. (...) Les résultats ont montré que les capacités cognitives des membres d’une même famille sont plus corrélées que celles d’individus sans lien de parenté[68] ». Les différentes corrélations sont dégagées en soumettant à des tests cognitifs des jumeaux monozygotes (partageant le même génotype) et dizygotes (pourvus de génotypes différents). Or, « les résultats des performances cognitives mesurées au cours des 30 dernières années de jumeaux étudiés dans quatre pays différents sont remarquablement concordants. De l’enfance à l’âge adulte, les corrélations entre vrais jumeaux sont bien supérieures à celles des faux jumeaux[69] ». Ces études semblent indiquer que dans la population générale, « la génétique est responsable d’environ 60 pour cent de la variance pour les capacités verbales et d’environ 50 pour cent de la variance pour les capacités spatiales[70] ». Les études également menées par Nancy Pedersen en Suède et Thomas Bouchard aux États-Unis ont montré une héritabilité de 50 pour cent chez les jumeaux séparés par l’adoption.

Il importe ici tout de suite de préciser différentes choses :

1°) il ne faut pas prendre une « héritabilité de 50 pour cent » pour une « part de responsabilité de l’inné de 50 pour cent dans le développement de l’intelligence » ;

2°) ce type d’étude ne montre pas l’importance ou la prédominance de l’inné sur l’acquis en matière d’intelligence, mais simplement la réalité des facteurs naturels ;

3°) les éventuelles « parts de responsabilité » de l’inné et de l’acquis n’induisent aucune implication politique : en effet, un supposé « inné puissant » n’empêche pas d’agir sur l’acquis ; inversement un supposé « acquis puissant » n’indique pas s’il est nécessaire d’égaliser la société. Ces considérations sont purement morales et politiques, et ne doivent rien au débat sur l’inné et l’acquis (ce que nous reverrons plus loin).

Différentes autres études ont été menées dans ce domaine. Toutes montrent la réalité d’une corrélation forte entre parents naturels, et plus encore entre jumeaux monozygotes, preuve d’une indéniable influence du génotype sur les potentialités cognitives.

Ces études sont souvent perçues par les environnementalistes comme représentant un « danger politique » et même comme étant inspirées ou conduites par des personnes aux opinions conservatrices. Ces études, selon les environnementalistes, chercheraient à minimiser la responsabilité de l’éducation, à justifier les inégalités et à légitimer un pouvoir politique libéral, conservateur ou ségrégationniste.

L’étude environnementaliste de Michel Duyme

Signalons à ce titre l’étude menée par Michel Duyme et ses collaborateurs Annick Dumaret et Stanislas Tomkiewcz[71] montrant les effets de l’environnement sur le développement de l’intelligence : des enfants issus d’un milieu « défavorisé » et adoptés tardivement (entre quatre et ou six ans) par des familles de milieux populaires, moyens et favorisés ont vu leur QI progresser de 14 points en moyenne, et de 19 points dans les familles favorisées contre 8 dans les familles populaires. Notons que cette étude, si elle montre l’effet de l’environnement sur le développement de l’intelligence, n’infirme pas les travaux de R. Plomin montrant l’existence de facteurs naturels.

Souvenons-nous en revanche des hypothèses selon lesquelles les caractères cognitifs et comportementaux naturels s’exprimeraient surtout à l’âge adulte, parce qu’ils y seraient plus influencés et façonnés par l’environnement familial. L’influence du milieu sur les capacités cognitives serait temporaire et centrée sur l’enfance. Une telle hypothèse fragiliserait l’étude de Michel Duyme, alors que l’émancipation de l’individu, en revanche, n’émousserait pas mais conforterait au contraire les facteurs naturels de sa personnalité et de ses potentialités.

« Effet » n’est pas « prédominance »

Un quotidien du soir avait vu dans l’étude de Michel Duyme une « prédominance de l’acquis sur l’inné » [72]. Or, pas plus que les études de Robert Plomin ne montrent une « prédominance » de l’inné, l’étude de Michel Duyme ne montre une « prédominance » de l’acquis : elle montre simplement un effet des facteurs familiaux sur les compétences cognitives (qui n’infirme pas l’effet de facteurs naturels sur les différences de potentialités). Ceci nous apprend au passage qu’une presse réputée parmi les plus sérieuses peut interpréter et présenter des travaux scientifiques d’une façon erronée et trompeuse. Des sensibilités idéologiques du journaliste, de la rédaction et du lectorat expliquent peut-être cela. Notons avec amusement qu’une étude analogue à celle de Michel Duyme, mais s’intéressant cette fois aux facteurs naturels donnera lieu dans le même journal à un article intitulé « La nouvelle religion du gène » [73] : deux poids, deux mesures dans le traitement des études scientifiques. Une certaine presse tire des travaux de M. Duyme une imaginaire « prédominance » de l’acquis sur l’inné (là où il n’y a que mise en évidence d’effets – temporaires – de l’acquis… et disqualifie au contraire des travaux naturalistes soupçonnés ‑ nous citons ‑ de possible « exploitation idéologique (...) pour « justifier et conforter la stratification des classes sociales (...), darwinisme social, dont la logique eugéniste fut poussée à l’extrême par le régime nazi[74] » ‑ propos hallucinants, mais néanmoins réels.

Le « tout-génétique » est-il en fin de compte une idée réelle ou un épouvantail agité par des militants égalitaristes pour dénier toute influence naturelle et imposer l’idée d’une supposée « prédominance » de l’environnement sur le naturel ?

Or, quelle est finalement l’idée la plus dangereuse d’un point de vue politique ? Admettre la réalité de facteurs naturels aux côtés des facteurs environnementaux ? Ou chercher à nier ou minimiser le naturel pour n’autoriser que l’environnemental ? N’y a-t-il pas dans l’idéologie ultra-environnementaliste la (dangereuse) tentation de modeler l’homme pour le rendre parfait ?

On voit en tout cas que les études psychométriques sur les jumeaux montrent l’existence de facteurs naturels des capacités cognitives (même si d’autres études montrent l’effet de facteurs environnementaux, ce qui n’est pas contradictoire).

Quelques pathologies cognitives d’origine naturelle : trisomies, phénylcétonurie, lyssencéphalie, craniosténose, Alzheimer, dyslexie...

Un autre type d’approche montre que des facteurs naturels sont à l’oeuvre dans le développement et le fonctionnement de l’intelligence : ce sont les pathologies et déficiences cognitives avérées dont les causes sont d’ordre naturel. Ces pathologies, objectera le lecteur, ne nous apprennent rien sur la diversité des performances de l’élève à l’école. Or, formuler cette objection, c’est croire qu’existent a priori deux catégories d’êtres humains, les déficients et les non-déficients, là où il n’y a en réalité qu’un continuum naturel entre ces deux « catégories ». La « pathologie » est l’expression accentuée, exacerbée, d’un comportement ou d’une compétence normal. En outre, l’observation des pathologies est susceptible « d’ouvrir un pont » dans les esprits, entre les phénomènes apparemment « abstraits » « d’intelligence », de mémoire et de pensée, et le métabolisme cérébral. Ce lien qui apparaît pour les pathologies existe aussi pour le fonctionnement « normal » de l’intelligence : « l’intelligence normale » ‑ la perception, l’apprentissage, la mémoire, le raisonnement… ‑ est également produite par et au sein de structures physiologiques.

Il existe différentes pathologies cognitives causées par des facteurs naturels.

Les anomalies chromosomiques

La plus connue d’entre elles est probablement la « trisomie 21 » : l’enfant est porteur de trois chromosomes 21 au lieu des deux présents habituellement dans le caryotype, et il est déficient intellectuel, présentant des troubles de la mémoire et de l’apprentissage, ce qui génère un retard scolaire important. On n’est pas ici dans le cas d’une mutation d’un gène ni d’une délétion de fragments de l’ADN, mais d’un « excès de gènes », lequel excès d’information génétique provoque une déficience intellectuelle. Ceci nous montre au passage que l’efficience intellectuelle est le produit d’un équilibre d’informations génétiques et de production de protéines.

On connaît principalement deux cas de « délétion » chromosomique, c’est-à-dire d’une amputation aléatoire des « bras » d’un chromosome. La délétion des bras courts du chromosome 5 provoque ce qu’on appelle la « maladie du cri du chat » (parce qu’elle s’accompagne d’une malformation du larynx) ; la délétion du chromosome 18 s’accompagne de malformations de l’oeil et du visage. Ces deux accidents chromosomiques provoquent également de graves déficiences mentales. Ceci montre que sur les bras manquants des chromosomes 5 et 18 (au moins sur ceux-là) se trouvent des séquences génétiques impliquées dans le bon fonctionnement du cerveau et la production des capacités de mémoire et d’apprentissage.

Les déficiences mentales d’origine génétique

Certaines pathologies sont causées par des informations génétiques directement inscrites sur le brin d’ADN et, soit transmises de façon héréditaire, soit produites par la conjonction de plusieurs gènes défavorables au moment de la conception de l’enfant. Ainsi, la « lissencéphalie » provoque des circonvolutions cérébrales mal décelables et un effectif réduit de neurones. L'enfant atteint apparaît comme « normal » à la naissance mais il s’avère rapidement incapable d’une quelconque acquisition intellectuelle et meurt au bout de quelques mois[75]. « L'hypothyroïdie congénitale », comme son nom l'indique, altère le bon fonctionnement de la glande thyroïde et entraîne, de ce fait ‑ parce que la glande thyroïde concourt au bon développement du cerveau ‑ une déficience intellectuelle grave chez l'enfant. Cette pathologie, hier responsable de graves déficiences, est aujourd'hui dépistée à la naissance et soignée par un simple traitement hormonal. La « phénylcétonurie » se caractérise par la mutation d’un gène, qui empêche la fabrication de l’enzyme « phénylalanine hydroxylase », ayant pour mission, normalement, de transformer un acide aminé nocif, la phénylalanine, en l’acide aminé inoffensif tyrosine[76]. La non-destruction par la phénylalanine hydroxylase de la phénylalanine entraîne une grave déficience intellectuelle. Cette pathologie est aujourd’hui également dépistée à la naissance grâce au fameux test dit « de Guthrie » et soignée par un simple traitement alimentaire. La « craniosténose » consiste en l’absence de « fontanelle », ce qui interdit à la boîte crânienne de s’aggrandir, provoquant une déficience intellectuelle. Cette pathologie est souvent d’origine génétique[77]. La « chorée de Huntington » (ou « danse de Saint-Guy ») présente d’abord une perte de contrôle des gestes moteurs, puis s’accompagne d’une détérioration mentale et cognitive. Elle est causée par la destruction de neurones au centre du cerveau, dont est responsable un gène localisé sur le bras court du chromosome 4.

Les troubles psychiatriques : psychose maniaco-dépressive, schizophrénie

Longtemps, les troubles psychiatriques comme la schizophrénie ou la psychose maniaco-dépressive, ont été attribués à des causes purement environnementales, liées à l’histoire du sujet ou à quelque méfait perpétré par l’entourage parental ou familial. On découvre aujourd’hui des facteurs naturels impliqués dans le déclenchement de ces maladies. Au XIX° siècle déjà, les psychiatres Esquirol et Kraepelin avaient remarqué une fréquence héréditaire de la psychose maniaco-dépressive. Cette observation, toutefois, ne pouvait pas prouver l’existence d’un déterminant naturel puisqu’on peut très bien supposer (sur la base d’une posture environnementaliste) qu’un trouble psychiatrique se transmette de génération en génération par simple transmission ou « répétition » culturelle. C’est seulement récemment, en 1980, que Mendlewicz montra une responsabilité naturelle hautement probable : en effet, le fils d’un malade, même dans le cas d’une adoption, avait dix fois plus de probabilité de déclencher la maladie. Les progrès du génie biologique et génétique nous permettent de penser aujourd’hui que la psychose maniaco-dépressive est causée, entre autres choses, par une mauvaise production et circulation du neuromédiateur « norépinéphrine ». Cette altération serait provoquée par l’action d’une protéine, codée par un gène localisé sur le chromosome X. On a découvert cette localisation parce que la psychose maniaco-dépressive s'accompagne souvent d'une absence de vision des couleurs et d'un déficit en « gluco-6-phosphate désydrogénase », troubles dont on avait déjà localisé les gènes responsables, situés à proximité les uns des autres, sur le chromosome X. La « schizophrénie » semble également liée à des déterminants naturels. En effet, de la même façon que pour la psychose maniaco-dépressive, « si la fréquence des schizophrénies, toutes formes confondues, est de l’ordre de 1 à 3 p. 100 dans la population prise au hasard, elle peut être dix à cent fois plus forte chez les apparentés de patients au premier degré. En outre, la fréquence observée est quatre fois plus élevée chez les jumeaux vrais que chez les faux. Et les études faites sur les enfants adoptés qui présentent une schizophrénie montrent fréquemment que l’un ou l’autre de leurs parents biologiques était souvent atteint (28 p. cent)[78] ». On soupçonne la schizophrénie d’être provoquée par un excès de production et de circulation du neuromédiateur « dopamine », anomalie fonctionnelle causée par la mutation d’un gène. La schizophrénie, par ailleurs, s’apparente à une altération de l'identité personnelle. Or, il se trouve qu’on a également observé une corrélation entre la maladie et des anomalies du « corps calleux »[79], cet ensemble de fibres qui unit les deux hémisphères et concourt à la synthèse des processus cognitifs et à la détermination unifiée des décisions et des actes[80].

La maladie d’Alzheimer

Peu d’élèves fréquentant les écoles sont concernés par la maladie d’Alzheimer, aura noté le lecteur. Certes, parce que cette maladie ne se déclenche qu’à un âge avancé. Le cas de cette pathologie est néanmoins intéressant pour notre sujet de recherche, tout d’abord parce qu’il montre des liens entre le cognitif et le physiologique, mais surtout parce qu’il montre aussi la complexité des mécanismes génétiques et biologiques qui aboutissent à la mise en oeuvre d’une procédure cognitive : il n’y a pas « un gène », héréditaire, qui est responsable « d’une » compétence intellectuelle, mais plusieurs gènes, dispersés sur le caryotype, qui sont responsables, de manière indirecte, de l’élément fragmentaire d’un processus cognitif.

Que sait-on aujourd’hui sur la maladie d’Alzheimer ? Les patients souffrant de la maladie présentent des défaillances intellectuelles, notamment mnésiques, allant s'aggravant avec l’âge. Que se passe-t-il au niveau physiologique ? On constate une désagrégation des axones des neurones de l'hippocampe et du cortex. Quelle en est la cause ? Ce serait l'action nocive d'une protéine, appelée « bêta-amyloïde », qui s’infiltrerait à l'intérieur de l'axone pour le désagréger. À l’origine, dans des conditions normales, cette protéine n'est pas libre : elle n’est que le segment d'une autre protéine beaucoup plus longue, appelée « APP », qui circule librement dans le cerveau. Lorsqu’elle est insérée dans l’APP, la bêta-amyloïde n’est pas nocive. Normalement, la bêta-amyloïde de se détache pas de l’APP et ne pénètre pas les neurones pour les détruire. Que se passe-t-il dans le cas de la maladie d’Alzheimer ? Une enzyme libère de l’APP le segment bêta-amyloïde, qui va pouvoir aller menacer l’axone. En temps normal, l’APP comprend également un segment « inhibiteur de protéase » qui a pour fonction de neutraliser l’action des enzymes menaçantes et empêcher notamment une scission du segment bêta-amyloïde. Or, dans le cas de la maladie d’Alzheimer, un gène situé sur le chromosome 14 ou 21 présente une mutation, laquelle altère la constitution du segment inhibiteur de protéase sur l’APP (puisqu’un des acides aminés constituant sa chaîne a été modifié). Cette constitution incorrecte n’est plus en mesure d’empêcher la libération du segment bêta-amyloïde par l’enzyme. Le segment bêta-amyloïde est libéré et devient une menace pour le neurone. « Menace », car la bêta-amyloïde n’est pas en mesure de pénétrer seule à l’intérieur de l’axone : il lui faut pour cela être « captée » et introduite par une variété particulière de protéine sanguine, « l’Apo-4 ». L’Apo-4 est une protéine sanguine variante des formes Apo-2 et Apo-3. Le gène qui la code est situé sur le chromosome 19. On a donc ici concomitance de deux facteurs génétiques (au moins) et de plusieurs événements chimiques et neurobiologiques combinés, en cascade, dans le déclenchement de la maladie.

On peut déduire de cela plusieurs choses : les déficiences cognitives présentées par la maladie d’Alzheimer, d’abord, sont dues à des facteurs d’ordre biologique et génétique. Cette déficience cognitive, bien que d’ordre biologique et génétique, ensuite, n’est pas à proprement parler « héréditaire », puisque les gènes responsables sont dispersés sur le caryotype et que l’enfant d’un malade peut avoir hérité d’un des gènes sans avoir hérité de l’autre, ce qui le met à l’abri de la maladie. En revanche, et de façon réciproque, l’enfant de deux parents « sains » peut avoir hérité d’un élément défavorable par son père et de l’autre élément par sa mère... et déclencher la maladie. Or, ceci nous éclaire directement sur les processus de transmission des potentialités cognitives : un faisceau de gènes concourt vraisemblablement au bon fonctionnement du cerveau, à de bonnes performances de la mémoire ou de la vitesse de traitement des informations. Cette plurigénie signifie que ces potentialités sont difficilement « héritables » en bloc : l’enfant d’un père doté d’une mémoire enviable peut n’avoir (n’a vraisemblablement) hérité de lui qu’une partie des gènes responsables de cette capacité, ce qui ne lui permet pas d’avoir la même. Réciproquement, un enfant issu de parents dotés d’une capacité mnésique moyenne peut présenter, lui, une capacité de mémoire enviable, parce que le hasard a uni les gènes hérités de ses parents d’une façon telle qu’il présente l’ensemble des gènes et caractères nécessaires à une excellente mémoire. Ce phénomène de « mobilité biologique » par combinaison aléatoire des gènes et des caractères explique vraisemblablement pourquoi on observe des enfants au QI élevé nés dans des familles de QI modeste, et réciproquement des enfants au QI moyen nés dans des familles de QI élevé. La connaissance génétique confirme l’observation empirique.

Cette dissemblance entre les enfants et les parents semble néanmoins relativement limitée : il existe pour l’enfant beaucoup de chances de ressembler beaucoup à ses parents, et peu de chance de leur ressembler peu. La dispersion des caractères naturels d’une génération sur l’autre observe certainement (selon les lois de probabilité) la distribution d’une courbe de Gauss, avec un rapprochement du pic vers la moyenne de la population.

Ce phénomène de mobilité naturelle (concernant les gènes et les caractères) prendra toute son importance dans notre réflexion sur la sociologie des inégalités socio-scolaires et de la mobilité sociale.

Ce cas de la maladie d’Alzheimer nous a montré la pluri-causalité génétique d’un caractère cognitif, et l’aspect aléatoire et complexe qui en découle sur le plan de la distribution et de la transmission de ce caractère.

Rapprochons-nous un peu plus encore du champ scolaire.

La dyslexie

Nous voici parvenus dans le champ de l’école : la « dyslexie », ce handicap dans l’apprentissage de la lecture touche plusieurs pour-cent d’enfants, et une majeure partie de ceux qui connaissent des difficultés scolaires. Dans les années 1970, la dyslexie était encore considérée comme provoquée par des facteurs d’ordre psychologique et environnemental, et il apparaissait comme « scandaleux » (« politiquement incorrect ») d’évoquer à son sujet une possible origine naturelle (ainsi qu’en témoigne le tollé provoqué par la publication en 1978 du livre de Pierre Debray-Ritzen[81], réaction idéologique évoquée plus haut). Or, la biologie éclaire à présent les mécanismes de ce trouble. Des données récentes parue dans la revue Science et Avenir n° 621, de novembre 1998 (pp. 51-56) nous permettent d’établir un bilan des connaissances en la matière. On peut compter en France différents spécialistes de la dyslexie, parmi lesquels le neurologue Michel Habib[82], responsable du Laboratoire de neurobiologie du Centre hospitalier universitaire « La Timone » à Marseille ; le docteur Paul Messerschmitt, directeur de l’unité de psychopathologie de l’enfant à l’hôpital Trousseau ; ainsi que la neuropsychologue Monique Plaza, spécialisée dans le dépistage du trouble à l’hôpital de la Pitié-Salpêtrière à Paris. La neurobiologie des enfants dyslexiques se caractérise par une difficulté à distinguer les sons au niveau cérébral, une lenteur du traitement des informations auditives ou visuelles et un excès de « matière grise ». Dès la fin des années 1960[83], des neurologues américains avaient découvert des anomalies dans le cortex cérébral des dyslexiques en étudiant leur cerveau au microscope. Depuis le début des années 1990, le neurologue américain Albert Galburda, de l’École médicale de Harvard, a observé des amas de cellules appelées « ectopies corticales » dans la couche la plus superficielle du cortex. Leur présence dans l’hémisphère gauche, et plus spécialement dans la région dite « périsylvienne » dévolue au langage, pourrait expliquer de mauvaises connexions neuronales entre les différentes zones du langage. La neurologue Paula Tallal[84] pense que ces ectopies provoquent un ralentissement dans le traitement des informations. Il existe en outre, au centre du cerveau, des structures appelées « corps genouillés », qui relaient les informations auditives[85] et visuelles[86]. Une partie de ces corps, dite « parvocellulaire[87] », est spécialisée dans le traitement des informations lentes, cependant que l’autre, « magnocellulaire », est spécialisée dans le traitement des informations rapides. Or, cette dernière structure, chez les dyslexiques, présente une rareté et une désorganisation des neurones, ce qui étaierait l’hypothèse d’une lenteur de traitement des informations. Une autre spécificité du cerveau dyslexique, ensuite, est l’hypertrophie du « corps calleux », ce canal qui relie les deux hémisphères et permet de synthétiser les informations. Cette caractéristique créerait un déséquilibre entre les deux hémisphères. Michel Habib estime que ces différentes caractéristiques sont certainement bien les causes de la dyslexie puisque, par ailleurs, « leur importance est proportionnelle à la gravité du trouble ».

L’imagerie médicale et cérébrale est un moyen spectaculaire d’observer le phénomène de la dyslexie. Ainsi, lorsque des dyslexiques sont soumis à un exercice de reconnaissance de rimes, seule l’aire de Broca est activée, contre l’ensemble de la région périsylvienne chez les sujets témoins. De la même façon, l’activité des cerveaux dyslexiques soumis à la mémorisation d’une liste de mots se limite à l’aire dite « de Wernicke ».

Quelles sont les causes des spécificités neurobiologiques responsables de la dyslexie ?

Il existe une explication hormonale : des variations anormales de la testostérone mais aussi du cortisol reçus par le foetus pendant la gestation pourraient expliquer les différentes « anomalies » neurobiologiques. Mais la piste génétique, surtout, est probable : en effet, 50 % des familles touchées comptent plusieurs dyslexiques. Des recherches menées au début des années 1990 s’orientent en direction des chromosomes 15 et 1. En 1998, une équipe de l’université d’Oxford a confirmé l’existence d’un gène favorable également sur le chromosome 6. John Stein, auteur de l’étude, précise que ces gènes interviennent dans le mécanisme de contrôle du développement du système nerveux.

 

Ces différents exemples de « pathologies » cognitives (lesquelles, ne l’oublions pas, s’inscrivent au sein d’un continuum), qui sont associées au métabolisme cérébral et à des séquences génétiques identifiées et localisées, sont d’autres marques du lien entre métabolisme cognitif et génotype.

Le point de vue matérialiste implique une influence naturelle des phénomènes cognitifs

Enfin, si l’on adopte la posture du matérialisme moniste (ce que nous faisons), alors il n’est pas possible d’envisager qu’une entité abstraite entre dans la composition des phénomènes cognitifs. Ces phénomènes se matérialisent donc forcément, quelque part, au sein des structures naturelles. Ces structures, nous le savons, se situent dans le cerveau. Or, ce cerveau n’est pas un objet inanimé, une « machine » ou un ordinateur acheté dans un magasin ; il s’agit d’un organe biologique, dont la conception, la réalisation et l’entretien sont assurés par des protéines, elles-mêmes synthétisées par des séquences génétiques, localisée sur l’ADN. Il est donc impossible, si on est vraiment matérialiste, de concevoir des potentialités cognitives qui seraient indépendantes du génotype. Tout phénomène humain – et en général vivant – est gouverné par des protéines, donc des gènes. Par ailleurs, le génotype est unique, porteur de différents allèles, chez chaque individu. Il est donc attendu, pour ne pas dire inévitable, que les sujets présentent des potentialités cognitives différentes, qui produisent différents degrés de réussite en classe (dans la mémorisation de données, la compréhension de notions abstraites, la résolution de problèmes, etc…). L’observation empirique des élèves en classe confirme d’ailleurs ce schéma attendu par la connaissance en biologie.

 

Comparaisons des capacités cognitives chez les jumeaux, connaissance neurobiologique des pathologies cognitives et raisonnement matérialiste moniste apportent trois indices d’une réalité des facteurs naturels de la cognition – au-delà de la simple observation empirique que chacun peut faire dans sa classe ou autour de soi.

Neurobiologie générale

Nous avons abordé la notion « d’intelligence », puis observé les relations de ce phénomène (comme de tout phénomène de l’organisme) avec le métabolisme. Avant d’aborder les relations entre biologie et cognitivité, présentons cet organe qui héberge (entre autres) la cognition : le cerveau.

Le cerveau, structure physiologique des phénomènes cognitifs

Le rôle du cerveau est essentiellement de : percevoir l'environnement, mémoriser les perceptions, mettre ces perceptions en relation, générer des sentiments et commander des actes. Le cerveau permet à l'homme qui se brûle de retirer prestement son doigt. De façon analogue, il permet à qui est confronté à un problème de déterminer, consciemment ou non, l'action qui lui sera la plus bénéfique[88]. Le cerveau de l’humain est un organe qui pèse en moyenne 8,15 g par centimètre de stature, soit en moyenne 1330 g. L'homme se distingue des autres espèces animales par un rapport poids-cérébral/poids-corporel sensiblement élevé. Ce poids est très variable selon les individus : l’homme est en effet l’espèce animale chez laquelle la variabilité de poids cérébral entre les individus est la plus grande[89]. Précisons enfin, pour réfuter des croyances du sens commun, que les capacités cognitives ne sont en rien proportionnelles au volume cérébral. Il est rapporté, à titre d’exemple, que le cerveau d’un Henri Poincaré dépassait à peine les mille grammes. Le bon sens indique d’ailleurs que la vitesse de circulation de l’information n’a pas de raison d’être favorisée par un fort volume cérébral. Le cerveau commença à être exploré en Occident pendant la Renaissance, par des médecins protestants. L’organe se subdivise en trois grandes parties que sont : en avant, les hémisphères ; en arrière, le cervelet (spécialisé dans la coordination motrice) ; enfin le tronc cérébral, qui relie ces parties à la moelle épinière.

Les différentes parties du cerveau humain et leurs fonctions essentielles

Les informations qui suivent sont essentiellement puisées dans l’ouvrage de Jacques-Michel Robert sur Le Cerveau[90] et L’Homme neuronal, de Jean-Pierre Changeux.

Ce qui est contenu à l'intérieur de la boite cranienne est désigné par « encéphale ». Ce qu'on appelle « cerveau » n'est qu'une partie de l'encéphale, l'autre partie se dénommant « tronc cérébral ». Le tronc cérébral, de son côté, comprend le « bulbe rachidien », le « pont de varole » et les « pédoncules cérébraux ». Le cerveau proprement dit, quant à lui, se scinde en deux grandes parties que sont le « diencéphale » (comprenant le « thalamus » et « l'hypothalamus ») et le « télencéphale » (comprenant les « hémisphères cérébraux » et les « corps striés »). Le cas du « cervelet » est particulier : élément n’appartenant ni au tronc cérébral ni au cerveau, il est placé en « dérivation » par rapport au tronc cérébral, c'est-à-dire que les informations en provenance des organes sensoriels ne passent pas obligatoirement par lui pour atteindre le cortex. Considérons seulement quelques parties de l’encéphale parmi les plus essentielles pour les capacités d’apprentissage : le cortex ‑ que nous traiterons plus loin ‑, le bulbe rachidien, le cervelet, le mésencéphale, l'hypothalamus et le cerveau limbique.

Un schéma aide utilement à visualiser ces différentes parties :

 

 

 

 

 

 

 


Les fonctions des différentes parties du cerveau

Le bulbe rachidien régule le rythme respiratoire, maintient la rythmicité cardiaque et une pression artérielle constante. Le cervelet analyse et régule l'orientation du corps dans l'espace et coordonne les mouvements volontaires. Une altération du cervelet provoque par exemple des mouvements hasardeux qui évoquent un état d’ivresse. Le mésencéphale est le lieu de passage des informations entre les organes sensoriels et le cortex. Il régle également la poursuite oculaire, ainsi que le cycle de vigilance, de sommeil et de rêve. Il régule enfin le tonus et le mouvement. La maladie de Parkinson ou la chorée de Huntington, par exemple, sont causées par une altération de certains neurones du mésencéphale. L’hypothalamus (que Descartes croyait le siège de l’âme parce qu’unique et situé au sommet de l'encéphale) régule en réalité le fonctionnement des organes et la circulation des fluides en fonction des variations de l'environnement (chaleur, humidité, stress...), ainsi que l'ensemble des activités sexuelles. Le cerveau limbique est le siège de la mémoire, des événements vécus, ainsi que de l'humeur, des passions, du plaisir et du déplaisir. Il est également le siège des fonctions d’apprentissage.

Le cortex (« l’écorce »)

Pour J.-M. Robert, le cortex serait, dans les hémisphères, le siège de la décision, du jugement et du raisonnement. De volume quasiment insignifiant chez les reptiles, le cortex a envahi, chez l'homme, toute la périphérie des hémisphères. Ce cortex est recroquevillé en circonvolutions qui totaliseraient, une fois dépliées, une surface de 22 dm²[91]. Il se compose, comme le reste du système nerveux, de substance grise et de substance blanche. La substance blanche est interne, d'épaisseur importante ; la substance grise est périphérique, épaisse de quelques millimètres seulement et subdivisée par les neurobiologistes en six couches distinctes[92]. Le cortex se partage en deux hémisphères, au creux desquels sont logés des poches emplies de liquide céphalo-rachidien, que sont les ventricules (deux latéraux et un central). La base centrale des hémisphères est circonscrite par une assise continue de « neuroblastes primitifs » (les cellules nerveuses à partir desquelles furent engendrées tous les neurones corticaux)[93].

La composition du cortex : neurones, axones, synapses, neurotransmetteurs

Le cerveau de l’homme est composé de cellules nerveuses appelées « neurones », au nombre dépassant trente milliards pour le seul cortex[94]. Le corps cellulaire du neurone est le « soma », comprenant lui-même un « noyau », du « cytoplasme », des « mitochondries » et différents appareils de biosynthèse ‑ qui fabriquent ou détruisent des substances chimiques précises). Chaque neurone peut être connecté jusqu’à dix mille de ses voisins. Notre cerveau contient donc trente milliards de cellules qui remplissent chacune des fonctions à peu près aussi complexes qu’un central téléphonique : un seul cerveau est mille fois plus puissant que tous les centraux téléphoniques de la terre réunis, le « plan » de fabrication de ces centraux téléphoniques étant compris dans les milliers d’instructions de l’ADN, du génotype. Ceci nous fait mesurer la complexité de la machinerie cérébrale, complexité qui dépasse le propre entendement humain. Souvenons-nous aussi que chacun de ces trente milliards de neurones contient les 46 chromosomes, l’ADN et le génotype du sujet, sur lesquels sont inscrits une trentaine de milliers d’instructions propres à l’individu. Le soma « communique » avec l'extérieur, c'est-à-dire avec d'autres somas ou avec des muscles, par une sorte de câble de sortie unique, un prolongement du neurone appelé « axone », et par lequel circulent toutes les « informations » émises, et émises uniquement, l'axone ne recevant aucune information (sauf rare exception). L'axone, dans sa partie externe, se termine par une arborisation de terminaisons qui débouchent sur des « synapses ». Ces synapses sont les espaces de jonction entre un neurone et d'autres neurones ou des cellules musculaires[95] ou glandulaires. On évalue le nombre possible de synapses portées par chaque neurone à environ dix mille (comme nous le disions plus haut). Ceci laisse imaginer le nombre (astronomique) possible de ces synapses à l’intérieur d’un seul cerveau (plus de cent mille milliards). Il existe en la matière deux sortes de synapses : des synapses « électriques », où l'information est transmise sous forme d’ions (c'est-à-dire de particules chargées électriquement), et des synapses « chimiques », espaces au sein desquels circulent des substances appelées « neurotransmetteurs » (ou « neuromédiateurs »). On a dénombré plusieurs dizaines de neurotransmetteurs différents. Ils sont classés par familles, dont notamment des acides aminés[96], des catécholamines[97], des peptides[98], ou l'acétylcholine[99], la sérotonine et la dopamine[100]. Comment une information est-elle transmise au travers d'une synapse chimique (entre un neurone et un muscle par exemple) ? Un neurotransmetteur est synthétisé et accumulé par le soma, puis diffusé dans la fente synaptique par un influx nerveux. À son arrivée sur la membrane musculaire, ce neurotransmetteur est « interprété » puis détruit. On évalue le total de synapses corticales (du cortex) à un nombre compris entre 1014 et 1015, soit un million de milliards[101].

La formation du cortex

La construction des neurones dans l’embryon

À partir des neuroblastes primitifs, qui préexistent au cortex, naissent, par division cellulaire, tous les neurones corticaux, qui vont grimper, un à un, le long de « cordées » d'autres neurones, à la manière d'alpinistes, jusqu'à la couche supérieure, à une place qui demeurera toujours la leur[102]. Selon J-M Robert, cette construction des neurones corticaux (« corticalisation ») s'effectue entre la seizième semaine du foetus et la naissance[103]. Chez l'embryon, la division des neurones s'effectue très rapidement : jusqu'à 250 000 par minute. À seize semaines ‑ la fin du quatrième mois ‑ cette division s'arrête. Tous les neurones alors, au nombre d'environ trente milliards, sont formés. Il ne s'en formera plus. Ces neurones, au contraire, ne cesseront de se détruire progressivement au cours de la vie[104]. Les neurones, pourtant tous issus des mêmes neuroblastes et identiques à leur genèse, se différencient pour, associés à une arborescence d'autres neurones, tenir des fonctions spécifiques, comme par exemple identifier un poème plutôt qu'un visage[105]. Une fonction cognitive est assurée bien sûr non par un neurone isolé mais par une structure neuronale entière. Les neurobiologistes distinguent six couches de neurones, numérotées de I à VI. Le nombre des neurones (dépendant de la surface corticale) semble être déterminé par le génotype de l’individu. Deux individus isogéniques ‑ comme les vrais jumeaux ‑ auraient exactement le même nombre de neurones. Ceci a été découvert par décompte des neurones sur des espèces animales en comptant un (relativement) faible effectif. En revanche, deux individus hétérogéniques ‑ comme des faux jumeaux, comme deux frères ou comme deux personnes étrangères l’une à l’autre ‑ auraient des nombres différents de neurones[106]. Si ce nombre de neurones est exactement le même pour les vrais jumeaux, leur disposition, toutefois, n’est pas la même, parce que leur mise en place n'est pas régulière[107]. Cette variabilité dans la disposition des neurones provoquera une variabilité dans la structuration des synapses[108].

Après les neurones, les synapses[109]

Une fois que tous les neurones sont contruits et installés à leur place, s'établissent alors entre eux, et de façon « horizontale », des communications, au nombre de plusieurs milliers par neurone : ce sont les synapses[110]. Lorsqu'à seize semaines, les neurones de l'embryon ont fini de se former, commence la poussée des axones (le « canal général de sortie, d'output » du neurone) à partir desquels se forment des dendrites (en ramifications et au nombre de dizaines de milliers) lesquelles, enfin, vont constituer des points de contact avec les autres neurones au travers des synapses[111]. Le fonctionnement d’un neurone, parce qu'il est capable d'établir simultanément plusieurs milliers de liaisons avec ses pairs, peut être considéré comme plus complexe, nous l’avons vu, que le fonctionnement d'un central téléphonique. Les synapses varient selon les individus à la fois en nombre et en structuration, ceci (contrairement aux neurones) même entre individus isogéniques[112].

L’activité du cortex

L’importance vitale des sens

Il ne saurait y avoir de capacités cognitives, de processus intellectuel et de réussite scolaire en l’absence des sens. Ce sont eux, et uniquement eux, qui collectent les informations enregistrées par le cerveau. La sensation du toucher est transmise rapidement ‑ en trois neurones ‑ de l'épiderme au cortex, ou plus lentement, par des réseaux complexes le long de la moelle épinière, du tronc cérébral et du thalamus. L’odeur est enregistrée par des millions de capteurs nasaux terminés par des axones et reliés à des neurones menant à l'hippocampe et à l'hypothalamus. Le goût est capté par dix mille papilles et transmis, de la même façon que le son et la vue[113], jusqu'au cerveau.

Où se localisent, dans le cortex, les différentes activités de l'homme ?

Des expériences menées en Suède en 1978 grâce au Xénon 132 (une substance radio-active) injecté dans le cerveau et observé par une gamma-caméra, ont révélé que se localisaient les activités de :

- la motricité générale : dans le lobe frontal opposé au membre qui se déplace ;

- la vue : dans le lobe occipital (au dessus de la nuque) ;

- la parole traduisant une pensée : dans la région temporo-pariétale[114] ;

- la pensée, la réflexion pure, privée de toute sensation ou toute expression : dans les aires préfrontales (à l'avant du front).

Comment se manifeste la dynamique de la pensée à l'intérieur du cortex ?

Pour J. Bullier[115], l'activité corticale, comme le simple fait par exemple d'entrevoir un visage, met en oeuvre plusieurs milliards de micro-circuits. Cette activité ne se manifesterait pas à la façon de signaux répercutés entre différents secteurs (telles plusieurs boules de loto dans leur sphère), mais plutôt comme un incendie déclenché à la fois en plusieurs points éloignés et embrasant, l'espace d'une micro-seconde, une immense forêt. Cette physionomie du phénomène de la pensée, qui est montrée par l’imagerie médicale, exprime d’ailleurs bien le fait que les connections entre les neurones s'établissent à la fois en « série » et en « parallèle »[116].

Les phénomènes cognitifs

Après avoir présenté (ou rappelé) des connaissances générales concernant l’action de l’ADN ou le métabolisme du cerveau, il est intéressant à présent de s’intéresser aux phénomènes cognitifs – qu’ils concernent le comportement, la « conscience », la mémoire ou l’apprentissage. Il est en effet nécessaire, pour entamer une discussion sur les notions de réussite scolaire, de mobilité sociale, « d’égalité » ou de « justice », d’avoir connaissance d’un minimum de données en biologie cognitive et comportementale.

La réussite scolaire de l’enfant ne tient pas seulement à ses capacités intellectuelles ; elle dépend également de son comportement : tel élève « gâche » ses potentialités par un comportement d’inattention ou d’hyperkinésie ; tel autre au contraire compense des potentialités modestes par un comportement calme et une forte capacité à la concentration ; les traits de curiosité, anxiété, volubilité, etc… sont des ingrédients de la réussite en classe – tantôt favorables s’ils sont mesurés, tantôt défavorables s’ils sont excessifs ou au contraire absents.

Avant d’évoquer la neurobiologie de la cognition, nous observerons donc celle du comportement.

Neurobiologie du comportement

Le comportement entre pour une part dans la réussite scolaire, dans la mesure où de prometteuses potentialités cognitives peuvent être contrariées par un comportement instable, ou agressif, ou asocial de l’élève ‑ et réciproquement un comportement dit « scolaire » peut permettre d’exploiter au mieux des potentialités cognitives modestes. Nous présenterons une synthèse des pistes essentielles en la matière, sans entrer dans le détail.

Le « modèle de Cloninger »

Le psychologue américain Cloninger a établi un « modèle » psychiatrique identifiant sept traits de la personnalité. Trois d’entre eux seraient héréditaires : « la recherche de la nouveauté (impulsivité, extravagance...), l’évitement du mal (inhibition, timidité...) et la dépendance à la récompense (sociabilité...)[117] ». Chacun de ces trois traits de caractère serait modulé par l’action des médiateurs respectifs dopamine, sérotonine et noradrénaline.

« Recherche de la nouveauté », dopamine et gène D4DR

Le modèle de Cloninger a récemment reçu une confirmation biologique et génétique. L’équipe israëlo-américaine de Richard Ebstein, de l’université Ben-Gourion de Beer-Sheva (Israël) a en effet montré que les personnes possédant un certain allèle d’un gène codant pour un récepteur de la dopamine, le gène D4DR, présentent une plus grande tendance à « rechercher la nouveauté ». Ces résultats n’ont d’abord pu être reproduits par d’autres laboratoires, puis ils ont finalement été confirmés par des équipes japonaises, allemandes et finlandaises, qui ont trouvé une nette corrélation entre la présence du gène D4DR et le comportement de « recherche de nouveauté ».

« Évitement du mal », sérotonine et gène du 5-HTT

Richard Ebstein a depuis publié deux études montrant une corrélation entre la variation des gènes du 5-HTT, qui code pour le transporteur de la sérotonine, et le comportement de bébés âgés de deux semaines et de deux mois, ceci conformément au « modèle de Cloninger », c’est-à-dire la manifestation d’un « évitement du mal », d’inhibition et de timidité. Évoquons ici également les travaux[118] de Jérôme Kagan[119], qui a étudié et montré l’origine naturelle des comportements d’introversion (inhibition, « timidité ») et d’extraversion ( « hyper-sociabilité », exubérance).

Influence naturelle du comportement

Précisons, pour être bien clair, que ces découvertes signifient que l’ADN comporte des gènes gouvernant, par le biais de médiateurs, notre tempérament ; que les variations et combinaisons de ces gènes produisent une variabilité des tempéraments parmi les êtres humains, cette variabilité étant probablement distribué, pour chaque trait de caractère, selon la forme d’une courbe de Gauss. Cette variabilité est probablement valable pour chaque médiateur, chaque composante comportementale, produisant ainsi une infinité de tempéraments observables. Cette variabilité naturelle du tempérament influencera la variabilité des réussites scolaires – ce que confirme l’observation empirique.

Violence, déficit de sérotonine et gènes de la TPH et du 5-HTT

Le soi-disant « gène de la violence » a fait couler beaucoup d’encre et de salive parmi les gens qui méconnaissent la biologie. En fait, si influence naturelle il y a sur la propension à user de violence (qu’elle soit d’ailleurs physique ou verbale), il semble peu probable qu’un unique gène parmi les dix mille impliqués dans le cerveau soit responsable de ce trait observable. Une piste naturelle de la violence a été pointée par l’observation d’une forte corrélation du comportement avec un faible taux du médiateur sérotonine. Un déficit de ce médiateur est en effet associé à des comportements impulsifs et agressifs chez l’animal aussi bien que chez l’homme. Cette corrélation a notamment été observée, en 1998, par Terrie Moffitt, de l’Institut de psychiatrie de Londres, sur un échantillon de 781 hommes et femmes âgés de 21 ans. Enfin, les auteurs d’agression ou de meurtre présentent très souvent un taux de sérotonine sensiblement plus bas que celui de la moyenne de la population. La sérotonine permettrait de maîtriser et réfréner toutes sortes de pulsions survenant dans la vie quotidienne ; un déficit en sérotonine rendrait difficile cette maîtrise. On voit ici comment des élèves déficients en sérotonine, ou « hypo-sérotoninergiques », peuvent « gâcher » des potentialités cognitives certaines parce qu’ils sont hyperkinétiques ou supportent mal la discipline de la classe.

La sérotonine n’existe pas sous forme naturelle dans l’organisme ni dans l’alimentation. Elle est fabriquée, à l’intérieur du système nerveux central, à partir de l’acide aminé « tryptophane », qui est, lui, présent dans l’alimentation. Le tryptophane est oxygéné par l’enzyme « TPH » (tryptophane hydroxylase) pour former la molécule de « 5-hydroxytryptophane ». Cette molécule est ensuite transformée, par une nouvelle enzyme, en « 5-hydroxytripotamine », qui est l’autre nom de la « sérotonine ». Enfin, lorsque la sérotonine a accompli sa fonction chimique, elle est reprise par la protéine de transport « 5-HTT ».

Or, en 1999, des chercheurs de l’université de Pittsburgh ont détecté sur un échantillon de 251 personnes une forte corrélation entre une forme particulière du gène codant pour la TPH et une tendance à céder à des pulsions agressives. En outre, chez le singe, une forme moins fonctionnelle du gène du 5-HTT est également corrélée à un comportement plus agressif. Remarquons également que le manque de maîtrise des pulsions peut être aggravé par l’histoire personnelle. Celle-ci touche en effet plus souvent les individus séparés tôt de leur mère[120]. De même, Peter Breggin psychiatre à Washington, fait remarquer que le métabolisme de la sérotonine est sensible à certains facteurs environnementaux (comme par exemple le stress)[121]. Il n’en reste pas moins qu’à environnement égal, les individus se différencient, par effet naturel et génétique, sur le plan de la propension à maîtriser ses pulsions.

 

Il reste que la variabilité naturelle de production de différents neuromédiateurs (noradrénaline, dopamine, sérotonine, etc…) génère vraisemblablement une diversité de comportements chez les élèves qui nourrit la diversité des réussites scolaires (au côté de la variabilité des potentialités cognitives).

Six « profils pédagogique » de l’élève

Rapportons enfin la typologie comportementale des élèves en classe synthétisée par Jean-Pierre Astolfi[122] sur la base des travaux des psychologues Antoine de la Garanderie, Herman Witkin et Michel Huteau, Jérôme Kagan (déjà évoqué plus haut), Jérôme Bruner, David Ausubel et Jean-Louis Gouzien. Le tableau montre six traits de comportement (et leur contraire) indépendants les uns des autres : élèves « auditifs ou visuels », « dépendants ou indépendants du champ », « réflexifs ou impulsifs », « centrants ou balayants », « accentuant ou égalisants », et « productifs ou consommateurs ». Les manifestations de ces traits de comportement sont les suivantes :

 

1. (D’après Antoine de la Garanderie)

Auditifs

Tendance à restituer le savoir en reconstituant sa dynamique, en s’en racontant le déroulement.

Mémorisation utilisant la chronologie, les enchaînements entre les éléments.

 

Visuels

Tendance à restituer le savoir en reconstruisant des images, en s’en figurant les éléments.

Mémorisation utilisant les relations spatiales entre des éléments visuels.

2. (D’après Herman Witkin et Michel Huteau)

Dépendants du champ

Tendance à faire confiance aux informations d’origine externe, environnementale.

Importance du contexte social et affectif de l’apprentissage.

Tendance à restituer des données telles qu’elles ont été proposées.

Besoins de buts externes.

 

Indépendants du champ

Tendance à faire confiance aux repères personnels, d’origine interne.

Apprentissage « impersonnel », peu lié au contexte social et affectif.

Tendance à restructurer personnellement les données.

Auto-définition des buts.

3. (D’après Jérôme Kagan)

Réflexivité

Tendance à différer la réponse pour s’assurer au mieux d’une solution exacte.

Indécision préférée au risque d’erreur.