Sommaire Travaux divers en sciences cognitives

Sommaire Sciences cognitives

Sommaire général du site

 

 

Christophe Chomant

DEA de sciences cognitives 2003-2004

Ehess, Ens Ulm & École Polytechnique

 

 

Intentionnalisme et cognition

 

 

Résumé et commentaire de textes fondateurs de

J. Searle, J. Fodor, Patricia Churchland et K. Atkins

 

 

(dans le cadre du cours dispensé par M. Jean-Michel Roy)

 

 

SEARLE John, 1980, « Minds, brains and programs »                                                            3

Traduction du résumé « officiel »                                                                                               3

Résumé du texte français                                                                                                           4

1. La réponse du système (Berkeley)                                                                                          5

2. La réponse du robot (Yale)                                                                                                     6

3. La réponse du simulateur de cerveau (Berkeley & MIT)                                                          6

4. La réponse de la combinaison (Berkeley & Stanford)                                                               6

5. La réponse des autres esprits (Yale)                                                                                        7

6. La réponse des multiples maisons (Berkeley)                                                                           7

Réflexions                                                                                                                                   9

L’ordinateur, miroir éclairant de l’humain ?                                                                                  9

Que recouvre au juste notre faculté cognitive de « comprendre » ?                                                9

Y a-t-il différents degrés qualitatifs de « compréhension » de l’ordinateur à l’humain en passant par la fourmi ?                                                                                                                                            9

La résistance de principe de Searle face à l’IA forte ne serait-elle pas dualiste ?                          10

La « compréhension » d’une langue (natale) se fait à l’aide d’un système intégré de « traduction » de cette langue en objets mémorisés.                                                                                                                10

La configuration expérimentale proposée par Searle n’est tout simplement pas réaliste                  10

Le « mystère » de « l’intentionnalité » ne se trouverait-il pas dans celui la « conscience », lequel ne serait-il pas lié lui-même à « l’attention » ?                                                                                                       11

L’intentionnalité du prisonnier de Searle a-t-elle une importance ?                                                12

« Intentionnalité » et « conscience » ; machines « vivantes » et « non vivantes »                           12

Un humain aveugle remplaçant un neurone dans un vrai cerveau serait-il la marque que ce cerveau n’est pas doué d’intentionnalité ?                                                                                                                 12

Pourquoi certains matériaux seraient-ils, plus que d’autres, incapables de produire de l’intentionnalité ?           13

Searle ne serait-il pas le vrai dualiste face aux tenants d’une IA forte ?                                       14

Atouts et faiblesses de Searle                                                                                                    14

CHURCHLAND Paul, 1981, « Le matérialisme éliminativiste et les attitudes propositionnelles »,    15

Résumé                                                                                                                                      15

I. Pourquoi la psychologie du sens commun est-elle une théorie ?                                                15

II. Pourquoi la psychologie du sens commun pourrait (en fait) être fausse ?                                  16

III. Les arguments contre l’élimination                                                                                       17

IV. La nature conservatrice du fonctionnalisme                                                                          17

V. Au-delà de la psychologie du sens commun                                                                           19

Résumé du résumé                                                                                                                   20

Réflexions                                                                                                                                 21

L’élimination de la « psychologie ordinaire » (actuelle)… par une autre « psychologie ordinaire » ?! 21

L’argument churchlandien d’ancienneté de la psychologie ordinaire est-il valide ?                         22

Degrés de validité et d’implication des trois arguments churchlandiens                                         22

Le retard philosophique et scientifique des IUFM et UFR de sciences de l’éducation…                22

Caractère judicieux d’exposer des objections à sa propre théorie                                                 23

L’élimination de toute psychologie ordinaire est-elle plausible ?                                                    23

Analogie avec le couple chimie-alchimie : remplacement d’une psychologie ordinaire par une autre ?  23

Les deux couples théoriques (chimie / psychologie) sont-ils du même ordre ?                               23

L’intuition alchimiste était-elle si aberrante ?                                                                              24

Quelle différence entre les or et intelligence, « naturel » et « artificiel » ?                                     24

Notre langage est-il pauvre et inefficace ?                                                                                 25

Ambiguïtés et confusions possibles au sujet de l’éliminativisme                                                    25

Finalement : « élimination » ou « déplacement » de la psychologie ordinaire ?                               25

L’insuffisance ou obsolescence de certains langages de sciences humaines ?                               25

Points d’accord et de désaccord avec Paul Churchland                                                               26

Une position personnelle sur la dynamique historique de la psychologie ordinaire                           27

FODOR J, 1987, « Introduction au problème de la représentation mentale »                      27

Résumé :                                                                                                                                   27

Résumé du résumé :                                                                                                                 32

Réflexions :                                                                                                                               32

Fodor baptise « science cognitive » une théorie qui lui est propre                                                 32

Fodor souligne le caractère non-conscient des processus cognitifs                                               32

Pertinence générale de l’hypothèse des « symboles mentaux                                                       32

La « conscience » : « vigile » cognitive pour réussir les actions risquées ?                                    32

Peut-on définir « l’intentionnalité » par le fait de « porter sur » ?                                                  33

Qu’est-ce qui est « spécifiquement humain » ?                                                                           33

« L’intentionnalité » a-t-elle une réalité claire en deçà de sa définition officielle ?                          33

La cognition peut-elle penser à des choses « inexistantes » ?                                                       34

Les symboles contiennent-ils du « sens » ?                                                                                 34

Le concept le plus abstrait qui soit ne recouvre-t-il pas in fine des images d’objets ou actions du monde ?      35

Puissance de la combinaison de données                                                                                    35

Le « modularisme », inféré des « symboles mentaux » ?                                                              36

La « cause » des pensées : plaisir, souffrance, nécessités de survie…                                          36

Au total : une théorie séduisante mais qui n’explique pas tout                                                       36

ATKINS Kathleen, 1996, « Of Sensory Systems and the « Aboutness » of Mental States » 37

Traduction-résumé                                                                                                                    37

I. Le camp naturaliste et les vues traditionnelles concernant les sens                                            37

Résumé du résumé                                                                                                                   39

Réflexions                                                                                                                                 40

Pertinence de l’idée atkinsienne d’ingrédients perceptifs élémentaires de « l’intentionnalité »         40

Fodor contre Hume… ou compatibilité possible ?                                                                        40

Perception d’un « objet » : perception d’un événement spatial ?                                                   40

La démarche de K. Atkins : explorer le perceptif pour comprendre « l’intentionnel »                     41

Réflexions générales                                                                                                                41

Le caractère « transversal » de la question de « l’intentionnalité »                                                41

Non définition précise du terme « d’intentionnalité »                                                                    42

 

SEARLE John, 1980, « Minds, brains and programs »

In Behavioral and Brain Sciences, 3 (3), 1980, pp. 417-457 ;

Traduction du résumé « officiel »

Cet article peut être vu comme la tentative d’explorer les conséquences de deux propositions :

(1) L’intentionnalité chez les êtres humains (et les animaux) est le produit de propriétés causales du cerveau. Supposons qu’il s’agisse d’un fait empirique concernant les relations causales actuelles entre les processus mentaux et le cerveau. Ceci nous dit simplement que certains processus cérébraux sont suffisants pour produire l’intentionnalité.

(2) Un programme d’ordinateur n’est jamais par lui-même une condition suffisante pour l’intentionnalité. Le principal objectif de cet article est d’établir ce fait. La démarche est de montrer qu’un agent humain pourrait concevoir un programme sans pour autant obtenir l’intentionnalité en rapport.

Ces deux propositions ont les conséquences suivantes :

(3) L’explication de savoir comment le cerveau produit de l’intentionnalité ne peut pas être tirée de l’installation d’un programme d’ordinateur. Ceci est une stricte conséquence logique de (1) et (2).

(4) Tout mécanisme susceptible de produire de l’intentionnalité doit avoir des pouvoirs causaux équivalents à ceux du cerveau. Ceci est supposé être une conséquence triviale de (1).

(5) Toute tentative de créer littéralement une intentionnalité artificielle (IA « forte ») ne pourrait pas marcher par la seule conception de programmes, mais devrait dupliquer les pouvoirs causaux du cerveau humain. Ceci découle de (2) et (4).

Une machine pourrait-elle penser ? Selon l’argument avancé ici, seule une machine pourrait penser, et seulement une machine très spéciale, à savoir les cerveaux et les machines ayant des pouvoirs causaux internes équivalents à ceux des cerveaux. Et c’est pourquoi l’IA « forte » a peu à nous dire sur la pensée, puisqu’elle ne porte pas sur des machines mais des programmes, et qu'aucun programme par lui-même n’est suffisant pour penser.

Résumé du texte français

Quels sont les enjeux de l’intelligence artificielle (IA) ? Distinguons l’IA « faible » qui considère l’ordinateur comme un simple outil de calcul et l’IA « forte » qui considère l’ordinateur comme le siège potentiel (futur ?) d’un esprit analogue à celui de l’humain.

J’accepte bien sûr l’idée d’IA faible et ne discuterai que l’idée d’IA forte, qui suppose que l’ordinateur pourrait avoir de véritables « états cognitifs », intentionnels, susceptibles de répliquer et éclairer la cognition humaine.

Je me référerai essentiellement aux travaux de Schank (Yale) parce qu’ils forment une excellente base à ces questions. Schank a programmé une machine de telle façon qu’elle est capable de répondre à une question sur une histoire (qu’on lui fait connaître)… et alors même que la réponse n’est pas donnée dans le texte mais simplement déductible de façon « intuitive », exactement comme le ferait un humain – lequel parie, en fonction d’indices, sur la très forte probabilité que la réponse à la question soit oui ou non.

Les partisans de l’IA forte affirment que la machine a en fait « compris » l’histoire et que cet exemple illustre, mime le fonctionnement de la cognition humaine. Je n’en crois rien et entends démontrer le contraire.

Que se passerait-il si mon esprit fonctionnait comme la machine de Schank ? Supposons que je sois enfermé dans une pièce avec des textes en langue chinoise, dont j’ignore tout. Supposons qu’on me fournisse un deuxième stock de textes chinois, accompagné d’instructions dans ma langue natale qui établissent des règles de correspondance entre ces deux lots. Puis un troisième lot de textes chinois, avec de nouvelles règles de correspondance écrites dans ma langue, avec des instructions me permettant de produire tel texte chinois en échange de tel autre.

J’ignore que mes instructeurs appellent mes lots respectivement « écriture », « histoire », « questions ; les symboles que je dois produire, « réponses aux questions » ; et les instructions dans ma langue, « programmes ».

Je communique également en anglais avec eux, et ma maîtrise d’échange des textes chinois devient telle qu’un observateur extérieur ne peut pas deviner que j’ignore le chinois.

Or, je comprends réellement ma propre langue… cependant que pour le chinois, je me comporte comme un ordinateur.

Les partisans de l’IA forte prétendent que l’ordinateur « comprenait » les histoires et les questions, de la même façon qu’un humain. Examinons cette thèse :

1. Il est évident que le prisonnier ne comprend rien au chinois, tout comme l’ordinateur de Schank ne comprend rien aux histoires qu’on lui raconte ;

2. De même, par conséquent, on voit mal comment l’expérience de Schank peut éclairer le fonctionnement de la cognition humaine. La procédure de l’ordinateur n’a en effet rien à voir avec la compréhension de l’histoire par un humain. Les opérations de calcul de l’ordinateur sur des éléments formels n’ont aucun rapport avec le phénomène de compréhension. Le fait qu’un humain puisse correctement suivre les instructions formelles sans pour autant rien comprendre montre qu’un ordinateur ne « comprend » rien.

En quoi comprends-je ma langue natale et non pas le chinois ? Pourquoi une machine ne peut-elle pas « comprendre » une langue ? Nous le verrons plus loin.

Les réactions des chercheurs à mon exemple du prisonnier sont très diverses.

Il y a lieu bien sûr de discuter du terme de « compréhension », qui peut se décliner selon de nombreuses acceptions, de la plus faible à la plus forte. Cette notion est souvent « normative », en cela que les humains ont souvent besoin de s’accorder sur le fait que « telle personne a compris telle chose ». Mais c’est pourtant simple : je « comprends » ma langue natale, moins bien que telle autre, et absolument pas telle autre encore. Quant aux objets automatiques (voitures, portes, thermostats…), mon opinion est qu’ils ne « comprennent » absolument rien du tout. Les humains sont animistes et attribuent à tort aux objets une intentionnalité. Il en est exactement de même pour les ordinateurs.

1. La réponse du système (Berkeley)

« Le prisonnier n’est qu’un élément d’un système plus grand que lui (comprenant la boite, les textes, les instructions…) et c’est ce système entier qui produit une « compréhension » des histoires. »

Je réponds que le prisonnier pourrait très bien intégrer tout le matériel et les textes qu’il utilise, et qu’il deviendrait ainsi lui-même le système… et sans pour autant toujours comprendre le chinois. À vrai dire, je ne vois même pas comment un système matériel englobant une personne ne comprenant rien pourrait « comprendre » quelque chose de plus. Nous ne devons pas confondre l’intégration d’outils formels et l’intégration d’un système de traitement d’une langue. Je crois que le sous-système intégré de manipulation (ignorante) du chinois et le sous-système de « compréhension » véritable de la langue natale n’ont rien à voir : la langue natale donne accès au « contenu » des histoires, cependant que la langue étrangère manipulée ne fait qu’associer entre eux des symboles abscons. Si le prisonnier intégrait le matériel et les procédures lui permettant d’échanger correctement des textes en chinois, il y aurait néanmoins une différence fondamentale entre ses manipulations de l’anglais et du chinois. Deux personnes peuvent réussir le test de Turing… et néanmoins une seule d’entre elles comprendre vraiment les procédures échangées. De plus, cette réponse du « système » conduirait à dire que même nos organes non-cérébraux (cœur, estomac…) « comprennent » ce qu’ils font, ce qui n’est évidemment pas recevable. L’IA forte doit donc nécessairement faire la distinction entre des systèmes mentaux et non-mentaux, à défaut de quoi elle ne pourra pas nous éclairer sur ce qui est spécifiquement mental. Et ceci doit être une caractéristique intrinsèque, non un jugement extérieur. Mc Carthy (1979) prétend par exemple qu’un « thermostat a des convictions ». Or, il semble qu’une théorie de l’esprit doit supposer que seuls les humains peuvent avoir des convictions. Comment des machines pourraient-elles avoir des représentations et des sentiments aussi complexes et nuancés que ceux des humains ? L’esprit serait-il donc partout ? Une telle éventualité saperait d’ailleurs la prétention de l’IA à éclairer la cognition.

2. La réponse du robot (Yale)

« Si la boîte était un robot, perceptif et actif, comprenant un ordinateur à la place du prisonnier, ce robot serait en mesure de comprendre des choses. »

Cette réponse reconnaît au moins qu’une vraie cognition exige des capacités de perception, de mouvement et d’action. Toutefois, ces capacités ne produisent pas de « compréhension » ou « d’intentionnalité ». Supposons que je sois la « cognition » du robot, qui reçois des « informations perceptives » sous forme de textes chinois, puis renvoie d’autres textes chinois qui déclenchent des actions : le robot n’a pas pour autant d’intentionnalité, et moi je ne comprends toujours pas le sens des informations que j’échange.

3. La réponse du simulateur de cerveau (Berkeley & MIT)

« Supposons que le prisonnier joue véritablement le rôle d’un cerveau et de neurones, avec différents programmes de traitement, comme pour le langage. Il serait dans ce cas difficile de nier qu’il « comprend » ce qu’il traite… ou alors ça reviendrait à nier qu’un humain ne comprend pas ce qu’il dit ».

Cette réponse est étonnante de la part des tenants de l’IA, qui prétendent expliquer l’esprit humain non par la neurobiologie mais par la programmation informatique. La réponse du simulateur de cerveau ne nous donne de toute façon pas les clefs de la compréhension de l’esprit humain. Supposons par exemple que notre prisonnier ouvre des vannes comme il ouvrirait des circuits synaptiques pour produire du chinois, toujours sur la base d’instructions dans sa langue. Or, en quoi « comprend-il » quoi que ce soit à ce qu’il fait, aux échanges qu’il engendre ? Et si vous pensez que l’ensemble [prisonnier + système] est capable de compréhension, souvenez-vous qu’on pourrait théoriquement intégrer ce système à l’intérieur du prisonnier… lequel ne comprendrait rien de plus. Stimuler rationnellement des réseaux synaptiques artificiels ne suffit pas à produire de l’intentionnalité.

4. La réponse de la combinaison (Berkeley & Stanford)

« Unifiez les trois premières objections et imaginez qu’un un robot ait le crâne occupé par un ordinateur comprenant autant de synapses qu’un humain et qu’il montre un comportement typiquement humain : vous en déduiriez qu’il est doué d’intentionnalité. »

Certes nous prêterions de « l’intentionnalité » à un robot qui aurait tout de l’humain en apparence. Mais ceci ne prouve pas l’hypothèse de l’IA forte selon laquelle un programme pourrait être doué « d’intentionnalité ». Notre jugement sur l’intentionnalité du robot n’est en effet que le produit d’une apparence et ne se fonde pas sur la routine ou les propriétés de son programme. Si nous étions avertis qu’un homme caché à l’intérieur du robot obéit en réalité à des instructions de façon aveugle, nous découvririons l’artifice et ne prêterions plus d’intentionnalité au robot. La seule « intentionnalité » dans ce robot serait celle de son agent aveugle et ne pourrait donc pas être considérée comme une véritable « intentionnalité ». De la même façon, nous prêtons une intentionnalité à certains animaux : parce qu’ils nous semblent avoir des croyances, des désirs et des intentions ; et parce qu’ils nous ressemblent physiologiquement. Ceci est analogue à notre interprétation du robot anthropomorphe – à cela près que la découverte du mécanisme du robot nous ferait abandonner l’idée d’intentionnalité à son égard.

5. La réponse des autres esprits (Yale)

« Nous jugeons la « compréhension » des gens sur leur comportement. Si vous jugez donc la compétence du chinois par des gens d’après leur comportement, vous êtes tenu d’en faire autant pour l’ordinateur. »

Je répondrai que la question n’est pas l’interprétation des comportements d’autrui, mais les états cognitifs que je leur attribue (à savoir l’intentionnalité aux humains et pas aux machines).

6. La réponse des multiples maisons (Berkeley)

« Votre argument ne tient qu’au caractère sommaire de la technologie actuelle. Mais lorsque des machines posséderont les propriétés causales qui produisent l’intentionnalité, vous aurez du mal à ne pas la leur reconnaître. »

Cette objection dépasse le projet initial de l’IA de produire de l’intentionnalité sur la base de programmes et de calculs. Si un ordinateur possède un jour les propriétés causales humaines de l’intentionnalité, le débat sur l’IA forte n’a plus de sens.

 

Revenons au fait que je comprenne l’anglais mais pas le chinois. Quelle est la raison de cette différence ? Pourquoi ne pouvons-nous pas donner cette capacité à la machine ?

Ça ne me paraît pas impossible sur le principe. Mais ça me paraît difficile tant que la machine reste faite de calculs sur des objets formels. Je comprends ma langue natale et suis doté d’intentionnalité pour nombre de propriétés que n’a pas l’ordinateur (perception, action, apprentissage, causalité, nécessité…). Seule une machine possédant elle-même ces propriétés pourrait être dotée d’intentionnalité et de « compréhension ». Un système formel ne peut pas être doué d’intentionnalité ni de capacité causale (sauf formelle).

Ce qui est nécessaire à la production d’intentionnalité ne réside pas dans l’imitation formelle de réseaux de synapses mais dans les propriétés des structures physiologiques.

 

Récapitulons un ensemble de points :

- Oui, une « machine » peut « penser », puisque nous sommes nous-mêmes des machines ;

- Oui, peut-être, une « machine artificielle » pourrait penser : à condition qu’elle soit dotée de tout ce dont l’organisme et le cerveau humains sont dotés ;

- Oui, encore, un « ordinateur numérique » pourrait « penser », en tant que – tout comme nous – forme concrète hébergeant de nombreux programmes ;

- Mais en revanche, est-il suffisant d’être un ordinateur programmé pour « comprendre » et « penser » ? Je crois que non.

Pourquoi ? Parce que les « symboles » manipulés par les ordinateurs, bien que syntaxiques, sont dénués de « sens ». L’apparente intentionnalité des ordinateurs ne provient que de l’esprit de leurs programmateurs.

La preuve en est que le fait d’introduire un humain aveugle dans une machine ne lui confère pas d’intentionnalité.

 

Concevoir un programme imitant la cognition humaine ne suffit donc pas à créer l’intentionnalité. Un programme n’est pas à l’ordinateur ce qu’un esprit est au cerveau, ce pour trois raisons :

1°) On peut très bien fabriquer un ordinateur avec toutes sortes de matériaux (papier, pierre, canalisations…), lesquels matériaux ne sauraient pouvoir être dotés d’intentionnalité ;

2°) Les états intentionnels sont définis non par une forme mais par un contenu, lui-même lié à des sentiments de satisfaction et des désirs d’action, lesquels transcendent un formalisme syntaxique ;

3°) L’esprit est produit par le cerveau, mais non le programme par l’ordinateur.

 

Dans ces conditions, pourquoi les humains prêtent-ils aussi facilement de l’intentionnalité aux ordinateurs ?

Il devrait pourtant sembler évident que l’ordinateur ne fait que simuler la cognition humaine puisqu’il simule également de façon toute aussi virtuelle bien d’autres choses (comme un incendie ou un orage). Et il n’est pas moins difficile de reproduire la cognition que les sentiments (comme on l’entend souvent). La simulation ne demande qu’entrées, programme et sorties. Elle n’est pas la reproduction.

On peut voir trois causes à cette illusion répandue :

1°) Une confusion est faite sur le fait que l’ordinateur et l’esprit font (soi-disant) tous deux du « traitement d’information ». Or, ils ne traitent pas l’un et l’autre les mêmes types d’information. L’ordinateur, notamment, a une syntaxe mais pas une sémantique. Il donne des résultats « exacts » sans comprendre leur sens. C’est une différence fondamentale et irréductible.

2°) La confusion hérite du béhaviorisme : le fait de croire que la cognition ne se développait que sur les bases d’une structure vierge et d’entrée et de sorties a incité à penser à qu’un ordinateur programmé et nourri d’instruction eut logiquement pu développer une intentionnalité humaine ;

3°) Les partisans de l’IA forte sont en réalité dualistes, en cela que leur projet de reproduire la cognition humaine par l’ordinateur suppose nécessairement que « l’esprit » se trouve ailleurs que dans la cognition. Je suppose au contraire de mon côté que « l’esprit » humain doit être causé par des propriétés physiologiques du cerveau.

De mon point de vue, il est possible que « des machines pensent », mais uniquement s’il s’agit de machines très spécifiques, qui possèdent exactement les mêmes propriétés qu’un cerveau. Or, l’IA forte s’en tient à des programmes informatiques, alors que l’intentionnalité découle probablement des structures neurobiologiques. Ce n’est en effet certainement pas en produisant un programme que le cerveau produit l’intentionnalité puisqu’aucun programme n’a la capacité de produire de l’intentionnalité.

Réflexions

L’ordinateur, miroir éclairant de l’humain ?

N’est-il pas vrai tout de même, en un sens, que l’évolution des ordinateurs éclaire l’humain sur sa cognition (à son insu) ? Il semble en effet que l’homme crée et améliore l’ordinateur (et les programmes) à l’image de sa propre structure cognitive. Il n’est donc peut-être pas entièrement faux de penser que l’IA (faible ou forte) est susceptible de nous faire réfléchir sur les mécanismes – et donc, de façon indirecte, sur la nature – de notre propre cognition.

Du reste, si on parvenait à fabriquer une « machine organisme » dont les comportements, les réactions, les désirs et les sentiments ressembleraient exactement, de façon méconnaissable, à ceux d’un être humain, il y aurait lieu de se questionner sur la relation – sur la différence – entre notre cognition et la sienne.

Que recouvre au juste notre faculté cognitive de « comprendre » ?

Concernant la situation expérimentale qu’il propose, nous pouvons adresser à Searle une première objection : qui nous dit que notre cognition ne fonctionne pas justement comme ce prisonnier manipulant des textes chinois à l’aide d’instructions compréhensibles ? Et si les phrases et les pensées produite par les autres et par soi-même n’étaient qu’un code, dont un autre langage (logique, naturel, cognitif, symbolique, interne…?) nous donne la « clef », les instructions de manipulation ? Qu’est-ce qui nous prouve que nous « comprenons » les propositions de notre langue, que ce n’est pas un code de décryptage qui nous en donne la clef, qui nous confère l’impression de sa compréhension ? Inversement, le fait que le prisonnier produise les bons textes chinois en réponse aux questions n’est-il pas dans une certaine mesure le signe qu’il « comprend » en un certain sens ces textes chinois, qu’il en « comprend » la fonction logique ?

Du reste, que signifie-t-il de « comprendre » un mot ? En saisir une « impalpable essence »… ou savoir que ce mot désigne, représente un objet (ou, ce qui revient au même, une idée) ? Bref, notre cognition « comprend-elle » mieux les mots de notre langue que le prisonnier « comprend » la fonction logique de ses textes chinois ? « Comprendre » un mot, n’est-ce pas simplement comprendre sa fonction logique ? Le prisonnier « comprend-il » moins bien les textes chinois qu’il produit, que notre cognition « comprend » les mots de notre langue, ainsi que le pense Searle ? La réponse peut sembler moins évidente qu’il n’y paraît.

Y a-t-il différents degrés qualitatifs de « compréhension » de l’ordinateur à l’humain en passant par la fourmi ?

La définition du terme « comprendre » est effectivement importante : tout dépend de ce qu’on entend par ce terme. Searle réduit ce terme à quelque chose de spécifique et restrictif, qui est l’impression, la sensation cognitive, ontologique, humaine et animale, de « comprendre quelque chose », en ayant l’impression forte d’être « conscient » de cette compréhension. Or, qu’est-ce qui distingue radicalement un cerveau de fourmi d’un super-ordinateur ? et qu’est-ce qui distingue radicalement un cerveau humain d’un cerveau de fourmi ? Autrement dit, où et comment pourrait se produire une rupture qualitative dans les différents degrés de compréhension produits par une machine ou un être vivant ? Searle ne nous l’explique pas.

La résistance de principe de Searle face à l’IA forte ne serait-elle pas dualiste ?

Derrière la critique de Searle contre les théories d’une IA forte, il semble y avoir l’idée d’irréductibilité du phénomène (ou du supposé phénomène) « d’intentionnalité » à des mécanismes neurobiologiques, physiques, matériels. Pour Searle, une machine, aussi sophistiquée soit-elle (ou sauf à être un cerveau) ne pourra jamais « comprendre » ce que les humains (selon lui) « comprennent » (ou ont la sensation de « comprendre »). En cela, ne refuse-t-il pas l’idée que la cognition humaine, l’intentionnalité, la « conscience »… puissent se réduire à des phénomènes neurobiologiques ?

La « compréhension » d’une langue (natale) se fait à l’aide d’un système intégré de « traduction » de cette langue en objets mémorisés.

Notons que le chinois ne fait « sens » aux yeux des informateurs que parce que ceux-ci ont en eux, dans leur cerveau, un « système de compréhension » du chinois, c’est-à-dire un programme qui rattache chacun des idéogrammes chinois à l’image d’un objet ou d’une action (ou d’une catégorie générale d’objets et d’actions). Les textes chinois sortant de la boite n’ont en soi aucun sens, aucune signification. Ils ne sont que des dessins noirs sur fond blanc. Ils n’ont pas plus de sens en soi qu’ils n’en ont pour le prisonnier. Ces signes ne font « sens » que dans l’esprit des organismes qui possèdent en eux le principe de décodage adéquat.

Réciproquement d’ailleurs, le prisonnier ne comprend sa langue natale que parce qu’il possède en lui un « système de traduction » de cette langue en objets et en actions mémorisés dans son cerveau. « Comprendre » sa langue natale suppose un système interne de traduction de cette langue en objets et actions qui peuplent la mémoire (ou la perception directe) de l’organisme.

De ce fait, « comprendre » une phrase signifie-t-il autre chose que posséder un système de décodage (interne ou externe) permettant d’attribuer des objets et actions mémorisés aux signes écrits ?

De ce fait, ne manque-t-il pas simplement au prisonnier que ce système de correspondance entre les signes écrits et les images mémorisées ? N’est-ce pas en cela qu’on parle de « compréhension » ?

La configuration expérimentale proposée par Searle n’est tout simplement pas réaliste

Il existerait une objection radicale à l’expérience imaginée par Searle : il nous donne un exemple qui n’existe pas ; il nous fait réfléchir sur quelque chose qui n’est pas réaliste. En effet, il n’existe pas d’instance dans le cerveau qui suive des instructions dans sa propre langue pour manipuler des symboles dans une langue étrangère : il n’y a que des neurones qui traitent des signaux. Ils ne « comprennent » pas le « sens » de ces signaux mais les perçoivent… et les transfèrent ou les inhibent. Sur la base de ce phénomène élémentaire, des milliards et des milliards de « perceptions neuronales » nous incitent à penser que nous devons prononcer telle parole ou accomplir tel acte. Mais il ne semble pas, tout simplement, que le cas de figure proposé par Searle soit représentatif en quoi que ce soit de quelque chose qui se déroule dans le cerveau humain, ni soit donc susceptible de nous aider à réfléchir sur quoi que ce soit. La situation proposée par Searle consiste en une « illusion ontologique ».

Le « mystère » de « l’intentionnalité » ne se trouverait-il pas dans celui la « conscience », lequel ne serait-il pas lié lui-même à « l’attention » ?

Plus que le problème de « l’intentionnalité », n’est-ce pas la question de la phénoménologie, de l’ontologie, de la « conscience » de l’intentionnalité qui se pose de la façon la plus cruciale ? Car la capacité de notre cerveau à représenter des objets du monde (ou peut-être des images d’objets stockées ou créées dans le cortex) n’apparaît pas comme beaucoup plus extraordinaire que le fait pour un ordinateur ou un livre de représenter également des objets du monde. Lorsque la Tour de Pise apparaît sur mon écran d’ordinateur, il semble difficile de nier le fait que, d’une façon ou d’une autre, mon système [ordinateur + écran] « représente » la Tour de Pise (qui est un objet lointain et invisible). Ce qu’il manque au livre et à l’ordinateur par rapport au cerveau sur le plan de la « représentation », c’est la « conscience » de cette représentation. Notons d’ailleurs au passage que les philosophes de l’esprit donnent au terme « d’intentionnalité » tantôt le sens de « capacité de représentation », tantôt celui de « conscience », tantôt un sens intermédiaire entre ces deux phénomènes (lequel flou sémantique ne facilite pas la discussion)…

Or, quoiqu’il en soit, la « conscience » de l’intentionnalité n’a-t-elle pas à voir directement avec la question de « l’attention » ? Nombre de nos actes, de nos représentations, s’effectuent en effet de façon automatique, parce qu’habituelle, routinière. Seule la nouveauté et la sensation de danger dans la perception (dont « l’excitation » et la « curiosité » intellectuelles) éveillent notre attention, notre « conscience » et notre impression de produire de l’intentionnalité. Ainsi préparons-nous de façon automatique et « inconsciente » un plat cuisiné que nous avons l’habitude de faire… cependant que nous sommes « conscients » de préparer un plat nouveau. Nous désherbons le jardin sans être « conscient » de ce que nous faisons (c’est-à-dire « attentifs » à ce que nous faisons)… cependant que nous sommes pleinement « conscients » de planter un arbre fruitier (parce qu’il s’agit d’une procédure nouvelle, « inouïe » et délicate).

En définitive, le (supposé) « mystère » de « l’intentionnalité » ne résiderait-il pas dans l’attention aiguë portée par la cognition à un acte original, qui éveille notre conscience et attire notre attention sur notre propriété à produire de « l’intentionnalité » (mais laquelle propriété en soi ne se distingue pas des propriétés des livres ou des ordinateurs à représenter des objets du monde) ? Ce « mystère » ne résiderait-il pas dans l’attention portée par la cognition à une procédure elle-même cognitive ? Ainsi, je peux chercher mes clefs de façon « inconsciente », automatique (en manipulant néanmoins pour ce faire de nombreuses représentations)… mais si ma cognition construit la représentation selon laquelle « ma cognition cherche les clefs », alors ne se trouve-t-on pas précisément dans le cas d’être « conscient » de chercher ses clefs ?

On serait là dans une approche « attentionnelle » de la « conscience » et de l’intentionnalité, c’est-à-dire de la propriété des animaux (doués de locomotion, de perception, de mémoire, etc…) à, dans certaines circonstances de nouveauté ou de risque, focaliser leur attention sur le monde… et sur leur capacité à gérer (connecter, inventer…) des représentations de ce monde.

L’intentionnalité du prisonnier de Searle a-t-elle une importance ?

Notons que « l’intentionnalité » de l’agent caché à l’intérieur du robot n’a, malgré les apparences, aucune importance pour la question qui nous préoccupe. Elle est un phare qui nous aveugle ; elle parasite notre réflexion. L’agent caché dans le robot n’effectue ni plus ni moins qu’un travail automatique, qui pourrait être lui-même réalisé par un robot correctement programmé. Le système searlien « d’agent dans le robot » n’est en fait ni plus ni moins qu’un système de « robot dans un robot ». La question est seulement de savoir si ce système est doué ou non « d’intentionnalité » (ce qui conduit d’ailleurs à interroger la nature – et même l’existence – de l’intentionnalité dans la cognition humaine).

« Intentionnalité » et « conscience » ; machines « vivantes » et « non vivantes »

Au-delà de son rejet des réponses faites à sa proposition, Searle doit pourtant répondre à la question suivante : qu’y a-t-il d’autre dans une machine « vivante » que n’a pas une machine « matérielle » ? S’agit-il d’ingrédients immatériels, « informels »…?

Il y a d’ailleurs ici deux questions distinctes :

1°) Une machine « non vivante » peut-elle avoir une intentionnalité ?

2°) Une machine « non vivante » peut-elle avoir une « conscience », un sentiment de soi ?

À la première question, nous serions tentés de réduire l’intentionnalité à la capacité interne d’un système à représenter quelque chose d’extérieur à lui. Et dans ce cas, oui, la machine non vivante peut avoir « l’intentionnalité » (dans un sens assez limité de ce terme).

À la deuxième question, il est difficile de répondre, mais nous retrouvons les questions soulevées au sujet de Searle en général :

- Qu’est-ce qu’un animal sinon qu’une machine matérielle très sophistiquée ? Qu’est-ce que la « vie », sinon une forme de sophistication de la matière ?

- Peut-il y avoir une substance, un état chez l’animal qu’il ne pourrait y avoir chez la machine non vivante ?

Bien qu’il soit difficile de concevoir que la « conscience » puisse peupler une machine non-vivante ou ne pas peupler notre propre esprit, les réponses à ces questions ne sont pas évidentes.

Un humain aveugle remplaçant un neurone dans un vrai cerveau serait-il la marque que ce cerveau n’est pas doué d’intentionnalité ?

On peut faire à Searle une proposition, qui retourne son objection : et si on introduisait dans un cerveau humain un être humain miniaturisé (à l’échelle d’un neurone) qui remplisse les fonctions d’un neurone (supposé défectueux), en s’appuyant sur des instructions dans sa langue natale pour envoyer ou non un signal aux neurones voisins selon les signaux qu’il reçoit ? Cet homme, bien que lui-même doué d’intentionnalité, ne comprend rien au « sens », aux finalités, aux enjeux de ce qu’il fait. Pour autant, peut-on affirmer que ce cerveau humain – dans et pour lequel il travaille – soit dénué d’intentionnalité ? Non : le fait qu’un de ses neurones soit remplacé par un être humain doué d’intentionnalité mais ne comprenant rien à ce qu’il fait n’empêcherait ce cerveau d’être doué d’intentionnalité. Un humain ultra-miniaturisé, introduit dans un cerveau humain et remplissant les fonctions d’un neurone sur la base d’instructions écrites dans sa langue natale n’empêcherait pas ce cerveau d’être doué « d’intentionnalité ».

Ceci nous montre que « l’intentionnalité » du prisonnier dans la machine et « l’intentionnalité » de la machine elle-même sont deux questions complètement indépendantes : on peut avoir l’une sans l’autre, l’autre sans l’une, les deux à la fois ou aucune des deux.

Par conséquent, l’expérience-argument de Searle n’est pas en mesure de nous dire si la machine qui comprend le prisonnier est douée d’intentionnalité ou pas ; ni le prisonnier, ni les utilisateurs de la machine, ni le lecteur de l’article écrit par Searle ne sont en mesure de, n’ont les informations suffisantes pour dire si ce système est doué ou non d’intentionnalité. Seule, en toute rigueur, la machine pourrait être capable de le dire elle-même. En effet, qu’est-ce qui nous prouve que les gens de notre entourage sont doués « d’intentionnalité » comme nous sommes persuadés de l’être nous-mêmes ? Searle se comporte comme le fameux client du restaurant dans l’histoire de Schank : il déduit que ni l’ordinateur de Schank ni le système qu’il propose (un prisonnier dans une boite) ne sont dotés d’intentionnalité sur la base d’un certain nombre d’indices qu’il connaît de cette situation. Mais seule une instance elle-même est en mesure de dire si elle est douée ou non « d’intentionnalité ». Nous ne disposons pas d’informations suffisantes sur la machine pour juger si elle est dotée ou non « d’intentionnalité ». Qui nous dit en effet qu’elle n’est pas dotée (sans que nous le sachions) de propriétés causales analogues à celles d’un cerveau humain ?

En tout cas, notre exemple du « machiniste neuronal » montre qu’on ne peut pas déduire l’absence d’intentionnalité et de compréhension d’un système au motif que « l’un de ses rouages ne comprend pas ce qu’il fait » (puisque dans notre exemple, un humain aveugle contribue au bon fonctionnement de la cognition d’un cerveau humain, dont nous supposons, dont Searle suppose qu’il est doté « d’intentionnalité »).

Chacun de nos neurones « comprend-il » ce qu’il fait ? Probablement non (bien que ceci ouvre à discussion). Et pourtant :

1°) Notre cognition n’est composée que de neurones (« incompréhensifs ») ;

2°) Notre cognition « comprend » ce qu’elle fait.

On peut donc supposer qu’un système composé de cent milliards de prisonniers ne « comprenant » rien à ce qu’ils font (comme dans l’exemple donné par Searle) serait néanmoins capable de « comprendre » lui-même ce qu’il fait. On rejoint d’ailleurs ici les arguments donnés par Berkeley et le MIT du « système » et du « simulateur de cerveau ».

Pourquoi certains matériaux seraient-ils, plus que d’autres, incapables de produire de l’intentionnalité ?

Searle dénie aux matériaux de papier, pierre, canalisations, etc… la possibilité de pouvoir générer de l’intentionnalité. Soit. Mais de quoi un cerveau est-il fait ? De neurones, de synapses, de neuromédiateurs, de protéines, de chaîne nucléiques, etc… autant d’ingrédient qui peuvent être exprimés sous une forme matérielle, physique, atomique, au même titre que le papier, la pierre, les canalisations… Alors qu’est-ce qui fait que certains matériaux seraient en mesure de produire de l’intentionnalité cependant que d’autres ne le seraient pas ? Searle ne nous l’explique pas.

Searle ne serait-il pas le vrai dualiste face aux tenants d’une IA forte ?

Searle a-t-il raison d’accuser les partisans de l’IA forte de dualisme ? Son argument ne révèle-t-il pas au contraire qu’il est, lui, le vrai dualiste, en ce sens où il suppose qu’un « esprit » doit nécessairement peupler la cognition ? En effet, pourquoi une thèse, un projet d’IA impliquerait forcément un dualisme, le fait qu’un « esprit » existerait au-delà des processus de calcul du cerveau ? Cela n’apparaît pas dans les thèses de l’IA forte. Searle ne serait-il pas le seul à supposer qu’un « esprit » non strictement computationnel existe au-delà de la cognition ? N’est-il pas contradictoire de sa part de supposer : d’un côté, qu’existe une dimension de l’esprit humain irréductible à des calculs ; et d’un autre côté, que « l’esprit » (supposé) doit s’expliquer par des propriétés physiques du cerveau ? Ne serait-il pas en quête de « l’âme » au sein du cerveau ?

Atouts et faiblesses de Searle

Searle nous semble un peu comme le chat de Schrödinger, en cela qu’il donne l’impression d’avoir en même temps raison et tort. Sur quels points ?

Il nous semble avoir raison sur les faits que :

- Il ne suffit pas qu’une machine imite le cerveau humain pour lui être identique en tous points ;

- Ce qui est conçu, fabriqué et programmé par l’humain ne fait que simuler l’humain ;

- Il est probable qu’un artefact susceptible de produire de la « compréhension », de « l’intentionnalité » ou de la « conscience » doive probablement être constitué des mêmes composants que l’humain, à savoir : de structures biologiques, neuronales… mais aussi de capacités de perception, d’apprentissage et d’action. Rajoutons que cet artefact devrait également être doté de sensations telles que le plaisir et la souffrance, ainsi que du sens du risque et du danger (d’où naît la « nécessité d’agir »).

En revanche, certaines des positions de Searle semblent fragiles ou douteuses :

- Il est possible que l’IA nous renseigne quand même sur la cognition humaine, parce que l’homme – sans en être conscient – construit l’ordinateur à l’image de sa  propre cognition ;

- Searle ne définit pas précisément ce qu’est, selon lui, la « compréhension » et « l’intentionnalité » humaines ;

- Ce qui sépare l’ordinateur de l’esprit humain n’est-il pas plutôt la « conscience », le « sentiment de soi » ? Ne sont-ce pas également par ailleurs les sensations, de « plaisir » et de « souffrance » ?

- Searle ne nous explique pas ce qui sépare matériellement, physiquement, le plus puissant des ordinateurs qu’on puisse imaginer… et le cerveau d’une fourmi (donc, partant, d’un humain) ;

- La situation proposée par Searle est-elle pertinente ? Illustre-t-elle quelque chose qui ait un rapport avec la cognition humaine ?

- Le fait qu’aucun de nos neurones (ou humain miniaturisé remplaçant un neurone) ne « comprend » ce qu’il fait n’empêche pas pour autant notre cerveau de « comprendre » ce qu’il fait – ceci étant une difficulté pour la situation proposée par Searle.

En conclusion, nous pourrions donc dire que Searle a raison d’exposer des limites et difficultés probables des programmes d’IA qui entendraient reproduire la cognition humaine sous toutes ses facettes… mais un certain nombre de ses arguments sont eux-mêmes fragiles, peu pertinents ou limités.

Quoi qu’il en soit, cet article a le mérite de soulever de nombreuses, cruciales et passionnantes questions sur la cognition humaine, et notamment les questions « d’intentionnalité » – ou de « conscience ». C’est, de sa part, une vertu appréciable.

CHURCHLAND Paul, 1981, « Le matérialisme éliminativiste et les attitudes propositionnelles »,

« Eliminative Materialism and the Propositionnal Attitudes », in The Journal of Philosophy, vol. 78, Issue 2, février 1981, pp. 67-90 ;

Résumé

Notre matérialisme éliminatif suppose que la psychologie ordinaire est une théorie fausse, qui doit être non pas modifiée mais supplantée par une autre, à la lumière des connaissances neurocognitives.

Je me propose d’exposer ces perspectives sur le plan des attitudes propositionnelles et du raisonnement.

Ceci est un changement dans le matérialisme.

I. Pourquoi la psychologie du sens commun est-elle une théorie ?

Nous comprenons tous facilement les actions et les intentions des uns et des autres grâce à un certain nombre de capacités et de connaissances qu’on pourrait appeler la « psychologie du sens commun » ou « psychologie ordinaire ».

Cette psychologie ordinaire est une solution simple et efficace à la question de l’esprit d’autrui. Nous supposons qu’autrui jouit des mêmes états mentaux que soi. L’appréciation de la pensée d’autrui ne dépend théoriquement pas de la nôtre. De même, notre impression d’introspection n’est peut-être que le reflet de réflexes et d’habitudes cognitifs. L’idée que la pensée soit le siège de l’intentionnalité (croyances, désirs…) est peut-être une illusion.

De même, il y a peut-être une illusion à voir l’intentionnalité des états mentaux (ou les « attitudes propositionnelles » russelliennes) comme un phénomène transcendant la physique. Ceci est dû à un présupposé de la psychologie ordinaire. Par exemple, les propositions numériques en physique : elles permettent la formation de propositions qui ont une signification mathématique. De la même façon, les propositions exprimant des croyances ou des désirs pourraient être formulées de façon mathématique. Ceci montre que la psychologie ordinaire est une théorie, dont la structure s’apparente à celle de la physique mathématique.

Ce point de vue nous permet aussi de réfléchir sur l’avenir des questions ontologiques et des relations entre le corps et l’esprit lorsqu’elles seront éclairées par les neurosciences.

Un partisan de l’identité psychophysique suppose une réduction douce avec conservation de la psychologie ordinaire ; un dualiste n’envisage aucune réduction possible puisque l’esprit, supposé non physique, est selon lui autonome ; un fonctionnaliste n’envisage pas non plus de réduction, mais parce qu’il ne suppose pas, lui, de liens directs entre les états psychologiques et neuraux.

Le matérialiste éliminativiste n’envisage pas non plus de réduction possible, mais c’est parce que la psychologie ordinaire lui apparaît comme beaucoup trop mal adaptée pour être seulement modifiée.

Qu’est appelée à devenir la psychologie ordinaire ?

II. Pourquoi la psychologie du sens commun pourrait (en fait) être fausse ?

N’étant qu’une théorie, elle peut très bien être fausse. Le matérialisme éliminativiste est la seule posture philosophique à douter de sa validité. Il est vrai que la psychologie ordinaire jouit d’un certain succès, dû à ses relatives capacités prédictives.

Elle est pourtant fausse. Nous avons à examiner ses failles, sa dynamique historique et ce qui pourrait la supplanter avec avantage.

Bref, nous devons juger de sa cohérence dans son ensemble et de sa compatibilité avec les autres domaines de connaissance.

Quid des limites de la psychologie ordinaire ? Celle-ci explique très mal, par exemple : les troubles mentaux, la créativité, la diversité cognitive, le sommeil et les rêves, les capacités motrices inconscientes, les illusions visuelles, les prouesses de la mémoire, etc…

Une difficulté parmi d’autres de la psychologie ordinaire est celle d’expliquer – et même de formuler – les processus de l’apprentissage.

Ceci nous montre déjà que la psychologie ordinaire est une théorie d’explication des comportements assez faible, insuffisante.

À notre avis, le succès de la psychologie ordinaire tient plus à la nécessité d’expliquer – même mal – un certain nombre de comportements, plutôt qu’à sa validité.

L’histoire de la psychologie ordinaire est faite d’un animisme qui s’est progressivement restreint aux animaux supérieurs.

Par ailleurs, la psychologie ordinaire n’a pas du tout évolué depuis 3.000 ans. Son histoire est donc stagnante et stérile. Certes l’imperfection et la stagnation ne sont pas des critères rédhibitoires d’invalidité : on peut être indulgent avec certaines théories « récupérables ». Mais quelles sont les chances de la psychologie ordinaire ?

Celle-ci pêche également par rapport à l’histoire naturelle ou aux sciences physiques, dont les connaissances peuvent être intégrées avec succès au sein de théories sans cesse plus larges et sophistiquées. La psychologie ordinaire reste malheureusement en marge de ces mouvements d’évolution scientifique. On voit mal comment elle pourrait s’intégrer dans la neurologie. Elle est probablement à la neurologie ce que l’alchimie fut à la chimie.

Nos habitudes de pensée confèrent à la psychologie ordinaire une validité excessive et non méritée. Parce qu’elle montre de sérieuses limites, parce qu’elle stagne depuis 25 siècles, et parce qu’elle ne s’ajuste pas à l’évolution des autres disciplines, la psychologie ordinaire est candidate à la disparition.

C’est cette éventualité que considère le matérialisme éliminativiste

III. Les arguments contre l’élimination

L’argument fondamental du matérialisme éliminatif est que la psychologie ordinaire n’est jamais qu’une théorie, et que celle-ci est fausse.

Certains ne trouvent pas ces arguments recevables. Examinons les objections émanant du fonctionnalisme :

Un premier point de vue consiste à considérer la psychologie ordinaire comme un système normatif, et descriptif des états mentaux. Ce point de vue n’exclue pas que soit développée une science ou une théorie des états mentaux, mais ne voit pas ce qu’il y a d’incompatible avec la psychologie ordinaire, puisque celle-ci ne se prétend pas être réellement une science du mental.

Une psychologie ordinaire pourrait, et même devrait, cohabiter de manière durable avec une théorie scientifique, neurologique. C’est la position de Dennett, mais aussi celle de Popper ou Margolis, qui défendent une dualité des propriétés de la psychologie ordinaire d’un côté et de la connaissance neurologique de l’autre.

La 2ème objection est que la psychologie ordinaire serait de caractère abstrait, qu’elle ne cherche pas à se rattacher à des phénomènes physiques, mais construit simplement des hypothèses causales entre des comportements. Auquel cas, puisqu’il n’y a pas de relation phénoménologique directe entre les états décrits par la psychologie ordinaire et les états mentaux, il n’y a pas lieu d’éliminer la première au bénéfice de la neurologie.

Or, une telle vue ressemble à un subordination des états mentaux à la psychologie ordinaire. C’est également le cas des artefacts cognitifs (ordinateurs, robots…) : on oublie qu’ils ont été imaginés par la psychologie ordinaire et ne ressemblent probablement pas aux structures mentales humaines réelles. Putnam a même soutenu que la psychologie ordinaire n’avait même pas à être corrigée. Ceci empêche évidemment par avance toute critique et remise en cause possible à son égard.

Fodor, de son côté, admet que la psychologie ordinaire essaie de décrire le mieux qui soit la métabolisme cognitif mais estime que cet aspect descriptif abstrait sera toujours conservé, avec bien sûr des affinements progressifs.

Fodor pense par ailleurs que la psychologie ordinaire est fondée, qu’elle exprime de façon relativement fiable le fonctionnement de la cognition. Il pense également qu’elle ne peut être supplantée par une théorie neurobiologique, au motif que ce sont les représentations psychologiques qui font une personne – et non pas ses états neurochimiques.

J’entends démontrer que ce type de fonctionnalisme, bien qu’attrayant, est erroné.

IV. La nature conservatrice du fonctionnalisme

Illustrons l’erreur du fonctionnalisme par le cas de l’alchimie.

Les alchimistes croyaient que ce qui fait un organisme animé, c’est l’imprégnation d’un objet inanimé par des « esprits », qui peuvent se développer eux-mêmes comme des organismes.

Les quatre esprits fondamentaux – mercure, soufre, arsenic jaune et sel ammoniaque – pouvaient ainsi se combiner pour donner à tous les matériaux leurs propriétés. En l’absence d’une théorie explicative alternative, la théorie alchimiste a pu connaître un succès durable. Survint ensuite la chimie de Lavoisier et Dalton, qui supplanta rapidement l’alchimie.

Mais imaginons qu’alchimie et chimie aient cohabité. La puissance explicative de la chimie atomique a logiquement éliminé l’alchimie. Et comme ces deux disciplines organisaient le savoir de façons complètement différentes, il n’eut pu se produire une simple réduction de l’un à l’autre. Seule l’élimination était possible… ou à moins d’argumenter de la façon suivante :

En fait, la théorie alchimiste des quatre esprits est fonctionnelle et abstraite : elle décrit des états, dont la connaissance en détail n’est pas accessible (et n’est d’ailleurs pas recherchée) ; elle se situe à un niveau autre que la réalité des phénomènes qu’elle décrit. Ceci est analogue à la psychologie ordinaire par rapport à la connaissance neurobiologique.

Une conception « fonctionnelle » et abstraite de l’alchimie aurait pu sauver cette discipline, parce qu’elle dispensait de prôner l’existence réelle d’esprits immatériels, qu’elle épargnait aux alchimistes la nécessité de connecter leurs connaissances à celles de la chimie et qu’elle préservait l’hypothèse d’esprits immatériels. L’alchimie en ressortait sauve et ouverte. De même, elle n’avait rien à craindre de sa propre « réduction » à la chimie.

Le fonctionnalisme actuel peut donc être faux et rétrograde, alors même qu’il se pare de la vraisemblance. On aurait très bien pu imaginer aussi le même type de scénario pour la défense, la sauvegarde de la phlogistique face aux nouvelles connaissances médicales : il suffit (d’essayer) de rattacher habilement les éléments de la première à la seconde et de cacher les défauts de la première théorie.

La posture fonctionnaliste en psychologie est également erronée ; c’est la même chose que l’alchimie… dont « l’or artificiel » est aujourd’hui « l’intelligence artificielle ».

Soyons précis : les alchimistes ne purent fabriquer « d’or artificiel » parce que leurs hypothèses restaient superficielles. De même, « l’intelligence artificielle » n’est actuellement pas à notre portée parce que nos présupposés psychologiques n’atteignent pas la nature des états mentaux.

Bref, les arguments d’abstraction, de fonctionnalisme ou d’irréductibilité ne sauvent pas les failles, la stagnation et l’isolement de la psychologie ordinaire. D’abord parce que de tels arguments pourraient à ce compte-là défendre n’importe quelle théorie farfelue. Ensuite, on ignore si la psychologie ordinaire décrit correctement les états cognitifs réels.

Attention : le matérialisme éliminativiste n’exclue pas l’idée d’une description fonctionnelle abstraite des états cognitifs. Nous n’affirmons pas que la cognition doive absolument être décrite en termes naturalistes. Simplement, nous pensons que la description correcte de la cognition n’aura rien à voir avec la psychologie ordinaire (actuelle).

Quid à présent de l’argument normatif contre le matérialisme éliminativiste ?

D’abord, le fait d’attribuer des relations logiques entre des propositions ou des comportements (ce que fait précisément la psychologie ordinaire) n’a rien de normatif (de la même façon que toute science établissant des relations arithmétiques n’a rien de normatif). La dimension normative vient de ce que nous valorisons certaines régularités psychologiques. Les « lois » de la psychologie ordinaire n’ont d’ailleurs une rationalité que très limitée, bien en deçà de ce que pourrait être l’idéal ; il s’agit d’une rationalité boiteuse et superficielle.

Enfin, rien ne nous prouve que le cadre de la psychologie ordinaire puisse nous permettre d’optimiser la rationalité (ou « vertu cognitive ») dont nous avons besoin. Il n’est même pas sûr que le langage, cette capacité tardive et peut-être mineure ou périphérique de l’espèce humaine, puisse nous permettre d’être rationnel. Or, la psychologie ordinaire est fondée sur, exprimée par le langage. Lui est-il donc possible d’accéder à une haute rationalité ?

Notre efficience rationnelle et cognitive s’optimisera lorsque nous dépasserons la psychologie ordinaire pour accéder à une théorie plus valide, qui nous sera offerte par les neurosciences parvenues à maturité.

Observons maintenant ce qui peut se dessiner devant nous, au-delà de la psychologie ordinaire, qui n’est qu’une théorie quelconque et provisoire.

V. Au-delà de la psychologie du sens commun

Que changerait l’élimination de la psychologie ordinaire ? Quelle proportion de nos considérations actuelles ? Ceci dépend du degré des découvertes neurocognitives et de leur degré d’exploitation. On peut imaginer trois scénarios progressifs de dissociation des conceptions cognitivistes et ordinaires :

La neuroscience considérera d’abord la « cognition » comme l’effet de configurations matérielles au sein des cerveaux animaux, en incessant mouvement, et connectés aux percepteurs sensoriels et organes moteurs. Bien sûr, il sera impossible d’exprimer l’ensemble de ces configurations. Mais les approximations auront déjà une puissance explicative, à court terme, et à long terme pour l’apprentissage, les pathologies et la diversité comportementale et intellectuelle, ceci chez l’ensemble des animaux. Une proposition (croyance, désir…) sera vue comme l’expression d’une configuration neurale via les zones du langage. Cette proposition est bien informative sur la configuration neurale, et est surtout un bon moyen de communication. Elle demeure toutefois une information partielle sur l’état neural. Ceci rappelle que la psychologie ordinaire ne peut pas saisir la réalité des états neuraux. Selon la nouvelle théorie, la psychologie ordinaire ne pourra pas être décrite par des lois ; seuls pourront l’être les états mentaux. On pourrait en fait imaginer le remplacement d’une ontologie par une autre. Bien sûr, l’avènement des neurosciences pourrait ne pas avoir d’effet sur l’ontologie de la psychologie ordinaire. Mais on peut envisager aussi que les gens se familiarisent avec les connaissances et termes des neurosciences, et finissent par remplacer, au quotidien, leur ontologie par une nouvelle ontologie, de type scientifique.

Examinons une voie un peu plus radicale. On connaît la rivalité entre la posture chomskyenne de capacités linguistiques innées et la posture connexionniste de modularisation acquise sous l’influence des inputs. Supposons cette seconde posture. Les recherches montrent que les potentialités du cerveau sont nettement supérieures, en puissance et en complexité, aux seules potentialités requises par le langage. Il est donc vraisemblable que le cerveau pourrait apprendre une langue beaucoup plus puissante et sophistiquée que la nôtre, ce qui accroîtrait la puissance de communication entre les humains, parce que cette langue restituerait de façon plus complète et fidèle les états neuraux. On peut imaginer ainsi que l’homme forge et utilise une nouvelle langue dotée d’une (plus) forte puissance de communication, et dont on pourrait appeler les phrases des « übersatze » (des « surphrases »). On peut imaginer que cette langue conquière la planète en deux générations. Dans ce cas, les attitudes « übersatzionnelles » (« surphrasiennes ») supplanteraient la psychologie ordinaire. Notons au passage qu’il existe peut-être autant de « psychologies ordinaires » potentielles que de systèmes de communication les inspirant.

Enfin, troisième scénario possible, nous savons que les hémisphères cérébraux sont spécialisés et échangent leurs informations par le biais du corps calleux. Or, les 200 millions de neurones de ce canal transmettent plus de 2.108 bits/s, contre 500 pour la parole. Cette puissance de communication entre les deux hémisphères ne pourrait-elle pas logiquement être appliquée à une communication directe entre deux cerveaux ? Ceci pourrait être techniquement envisageable par l’implantation frontale d’un émetteur et d’une antenne, connectés à des neurones, qu’il suffirait d’éduquer par entraînement. Imaginons que les humains apprennent à communiquer ainsi et que le système se généralise : quelle révolution pour les activités d’équipe – sport, spectacle, recherche ! Les langues disparaîtraient ; les bibliothèques deviendraient des banques d’impulsions nerveuses… Les gens se connaîtraient de façon non plus « propositionnelle » mais intime.

Mon objectif dans cet article était simplement d’éroder la certitude d’éternité de la psychologie ordinaire.

Certains prétendent que l’éliminativisme nie cela même qui lui permet de s’exprimer : « toutes les idées de l’éliminativisme s’appuieraient, se fonderaient sur la psychologie ordinaire ; si la psychologie ordinaire était fausse, comme le prétend l’éliminativisme, alors l’éliminativisme lui-même serait discrédité ». Le problème, c’est que ce type d’argument discrédite en même temps ses auteurs, pour la même raison : si on suppose que la psychologie ordinaire n’est pas fondée, alors détracteurs et défenseurs de la psychologie ordinaire se trouvent tous discrédités les uns autant que les autres sur la base du fait qu’il s’appuient sur elle. Ceci est le même problème que si, comme le dit Patricia Churchland, des pro-vitalistes au XVII° siècle avaient cherché à discréditer des anti-vitalistes au motif que cette critique supposait le vitalisme : on voit que c’est absurde et irrecevable.

Notre article dit en résumé que la psychologie ordinaire n’est pas un obstacle à l’avènement des neurosciences et que son déplacement est possible.

Résumé du résumé

Nous pensons que les progrès des neurosciences vont être tels que le langage relatif aux états mentaux deviendra complètement caduque, à un point tel qu’il faudra remplacer le vocabulaire de la psychologie du sens commun actuelle par une toute autre forme d’expression pour rendre compte des « états mentaux » – ou à tout le moins ce que nous désignons aujourd’hui comme tels. Il est d’ailleurs possible, à ce titre, que « l’intentionnalité » ou la « conscience » soient des termes illusoires, désignant des phénomènes qui n’existent pas.

Réflexions

L’élimination de la « psychologie ordinaire » (actuelle)… par une autre « psychologie ordinaire » ?!

Posons une question à Paul Churchland : quelle sera la « psychologie ordinaire », la psychologie du sens commun, lorsque les neurosciences seront arrivées à maturité et que la théorie éliminativiste des Churchland se sera imposée comme étant pertinente ? La nouvelle psychologie ordinaire, utilisée par le sens commun, sera-t-elle la théorie des Churchland ? Ce serait alors contradictoire, parce que leur théorie n’aurait pas éliminé la psychologie ordinaire, mais serait devenue elle-même la psychologie ordinaire, une nouvelle psychologie ordinaire.

Si par ailleurs, il subsiste dans le sens commun une psychologie ordinaire comme celle d’aujourd’hui, alors c’est que la théorie des Churchland aurait échoué à s’imposer, ce qui signifierait en un certain sens qu’elle se trompe (non pas peut-être sur le fond, mais sur sa prétention d’accomplissement).

Donc en définitive, soit la théorie des Churchland est appelée à « gagner »… mais auquel cas elle devient elle-même une nouvelle « psychologie ordinaire » ; soit elle ne supplante pas la psychologie ordinaire actuelle (ou améliorée)… et auquel cas il est permis de s’interroger sur sa « pertinence » (au sens à la fois commun et sperbérien du terme) puisque les esprits ne l’ont pas adoptée. Ou bien leur théorie devient la nouvelle psychologie ordinaire, ou bien leur prédiction est fausse.

…ou à moins de considérer que les Churchland appartiennent à une espèce extra-terrestre, dont l’esprit serait inexorablement plus lucide que celui des autres humains – ce dont on peut douter sans leur faire offense.

Or, par ailleurs, si le sens commun finit par adopter comme étant pertinente la théorie imaginée par les Churchland, ne se trouve-t-on pas alors dans un cas de « réduction » ? Il est en effet difficile d’imaginer que l’espèce humaine rejette en bloc une théorie psychologique (qui a un certain degré de pertinence) pour en adopter une autre radicalement différente. Le problème est analogue avec les langues : bien que des langues « universelles » (grec, latin, français, anglais…) semblent optimiser la communication, les différents groupes ou ethnies régionalistes n’en continuent pas moins de pratiquer leur propre langue (qui est à leurs yeux la plus efficace).

Le fait que l’espèce humaine ait adopté la théorie de la psychologie ordinaire (avec tout de même un certain succès de survie et de reproduction) révèle probablement que celle-ci exprime une part de vérité des processus cognitifs. D’un point de vue évolutionniste, le succès de la psychologie ordinaire peut difficilement faire d’elle une théorie fausse – ou complètement fausse. Dans ce cas, on pourrait plutôt imaginer que « la psychologie ordinaire » est, par l’éclairage grandissant des connaissances scientifiques, en mouvement permanent d’affinement et de pertinence (et on est ici dans un cas de « réduction » possible, contre l’opinion des Churchland).

Du reste, seule l’observation de l’accomplissement de la prédiction de Paul Churchland pourrait lui donner raison, pourrait constituer une preuve de ce qu’il avance. Car l’utilisation par les humains de telle ou telle catégorie de « psychologie » est un phénomène complètement empirique, qui dépend d’un grand nombre de facteurs complexes. La prédiction de Paul Churchland ne peut se vérifier que par l’observation (ou non) de son accomplissement, dans les décennies (ou siècles ?) à venir. Elle ne peut pas se prouver de façon théorique, rhétorique. De fait, la proposition de Paul Churchland au sujet d’une éventuelle « élimination » de la psychologie ordinaire actuelle est de nature spéculative (onirique, pourrait-on presque dire). On pourrait dire en conclusion que « la psychologie ordinaire actuelle ne pourrait être éliminée par une autre… que si elle se trouvait éliminée par une autre ». Car une telle éventualité ne nous semble pas pouvoir être prédite de façon théorique.

L’argument churchlandien d’ancienneté de la psychologie ordinaire est-il valide ?

La stabilité historique de la psychologie ordinaire est-elle un argument judicieux à sa décharge ? N’y a-t-il pas des théories valides (les mathématiques, la physique, l’astronomie, la géologie…) qui sont « indémodables », ou évoluent peu ? …évoluent peu parce que la nature d’une part, et les connaissances de l’homme d’autre part, évoluent elles-mêmes assez peu ? N’y a-t-il pas inversement des théories très jeunes qui n’en sont pas moins erronées (le lyssenkisme, les sociologies ultra-environnementalistes…) ? Bref, l’ancienneté et la stabilité d’une théorie sont-elles des indicateurs fiables de ses validité ou invalidité ? Cela n’est pas certain.

Degrés de validité et d’implication des trois arguments churchlandiens

L’argument « paul-churchlandien » de « stagnation » de la psychologie ordinaire semble discutable. Celui de « déphasage » par rapport à l’évolution des autres disciplines semble lui aussi discutable, parce qu’il est difficile de comparer une discipline traitant de l’intentionnalité (et de ses « mystères ») à des disciplines de sciences « dures », objectives. Souvenons-nous que les questions de « psychologie », de « conscience » ou « d’intentionnalité » demeurent relativement « mystérieuses » de par le fait qu’elles consistent, pour « l’esprit » à s’analyser soi-même de l’intérieur… sans cesser de fonctionner – de la même façon qu’une caméra essaierait de se filmer elle-même. Or, cette situation semble durable, ce qui augure de l’utilité durable également d’une « psychologie ordinaire » (pour essayer d’élucider ce phénomène paradoxal).

Enfin, l’argument sur les failles explicatives de la psychologie ordinaire est bien entendu recevable, justifié. Mais cet argument implique-t-il une « élimination » de la psychologie ordinaire ? N’ouvre-t-il pas la porte à un affinement, à une sophistication de cette discipline ?

En définitive, les trois arguments de Paul Churchland sont-ils pertinents et suffisants pour « éliminer » de façon radicale la psychologie ordinaire ?

Le retard philosophique et scientifique des IUFM et UFR de sciences de l’éducation…

Le fait que ni Fodor ni Dennett ni les Churchland ne soient jamais évoqués en cours de philosophie ou d’épistémologie dans les IUFM ou les UFR de sciences de l’éducation (et alors que ces auteurs écrivent déjà depuis plus de 20 ans) pourrait sembler à la fois hallucinant et attristant. « En quoi ces auteurs seraient-ils utiles à un enseignant ? » entend-on ici et là, « les enseignants ne se débrouillent-ils pas déjà seuls depuis plus d’un siècle sans ces réflexions ? ». Pourtant, ne serait-il pas intéressant pour des enseignants de réfléchir à la structure de l’esprit, à ses processus, à sa nature, à son statut philosophique, à ses relations avec la « conscience » et avec le langage de la psychologie ordinaire, à ses limites, à ses possibilités, aux prises qu’il offre à l’apprentissage, à la pédagogie…?

Pourquoi les instituts français de pédagogie sont-ils fermés à la philosophie de l’esprit et aux sciences cognitives ? Quelles en sont les raisons ? Carence, fermeture, « paresse », peur, conservatisme, obscurantisme, idéologie…? C’est là un autre – immense – terrain de réflexion et de recherche…

Caractère judicieux d’exposer des objections à sa propre théorie

Le fait, par P. Churchland, d’exposer des arguments contre sa propre théorie apparaît comme une stratégie assez judicieuse, en cela qu’elle sape chez le lecteur le désir d’émettre des objections et qu’elle apparaît comme un signe de force, de confiance (parce qu’on se dit que « cette théorie ne craint pas les objections »).

De la même façon, il serait certainement judicieux de présenter une approche atemporaliste du monde (ou un « temporalisme cognitif ») par l’exposition de ses principales objections possibles – et même si ces objections ne trouvent pas immédiatement de réponse…

L’élimination de toute psychologie ordinaire est-elle plausible ?

Une élimination de la psychologie ordinaire (quelle qu’elle soit) n’éliminerait-elle pas en même temps le caractère psychologique des personnes ? Ou, si ce caractère psychologique est maintenu, ne serait-ce pas le signe que la théorie neurale des Churchland est devenue la nouvelle « psychologie ordinaire » ? Ce fait serait contradictoire : en effet, leur démarche aurait finalement consisté non pas à supplanter la psychologie ordinaire par une théorie neurale, mais à remplacer « la psychologie ordinaire » par une autre « psychologie ordinaire », mieux appropriée (ajustée aux connaissances sur le cerveau). Or, cette seconde version ne consisterait-elle pas finalement en une « amélioration », en une « réduction », de la psychologie ordinaire (et non pas en son élimination) ?

Analogie avec le couple chimie-alchimie : remplacement d’une psychologie ordinaire par une autre ?

Comparer le conflit entre psychologie ordinaire et théorie neurale au conflit entre alchimie et chimie revient à suggérer que la supposée « élimination de la psychologie ordinaire par la théorie des Churchland » reviendrait à remplacer une psychologie ordinaire par une autre, c’est-à-dire finalement, en fait, à révolutionner la psychologie ordinaire actuelle – et non pas à bannir l’idée de psychologie ordinaire en elle-même. Pourquoi ? Parce que la chimie est devenue une « science du sens commun » (elle est enseignée dans les collèges et lycées à tous les enfants) comme l’alchimie fut (peut-être) jadis une science du sens commun. Ceci signifierait que la théorie neurale prônée par les Churchland ne supplanterait pas l’idée d’une psychologie ordinaire, mais deviendrait une nouvelle psychologie ordinaire, qui supplanterait seulement la psychologie ordinaire actuelle. Or, dans un tel scénario, on imagine mal comment il ne pourrait y avoir aucun lien entre les psychologies ordinaires actuelle et future. On serait alors plus en présence d’un scénario de « réduction » que « d’élimination ».

Les deux couples théoriques (chimie / psychologie) sont-ils du même ordre ?

Les analogies – véritables – entre les rapports entretenus par les couples alchimie-chimie d’une part et psychologie ordinaire – neurobiologie d’autre part autorisent-elles pour autant à les confondre, et à discréditer la psychologie ordinaire ? Il ne semble pas. Parce que le premier couple relève d’une science « dure », « objective », se rapportant à des objets extérieurs à la cognition (et quand bien même des processus chimiques se déroulent à l’intérieur du cerveau)… cependant que le second couple relève d’une science ontologique, subjective, se rapportant à des objets internes à la cognition… en même temps qu’ils sont traités par la cognition elle-même – ce qui, on le sait, n’est pas simple pour « l’esprit ». Les deux couples théoriques ne semblent donc pas être de même nature. Et il nous semble abusif de vouloir éliminer purement et simplement la psychologie ordinaire au motif que la chimie put en son temps éliminer l’alchimie.

Par ailleurs, et du reste, si l’alchimie s’est rapidement effacée devant la chimie, cependant que la psychologie ordinaire peine à s’effacer devant les progrès de la neurobiologie, ceci signifie peut-être justement que les deux couples ne sont pas comparables, est peut-être le signe qu’ils ne sont pas de même ordre, et ne peuvent donc être assimilés et comparés aussi facilement que le fait (qu’entend le faire) Paul Churchland.

L’intuition alchimiste était-elle si aberrante ?

Au sujet de l’alchimie (que Paul Churchland répudie comme étant aveugle et obscurantiste), qu’est-ce qui fait que « l’or est l’or » ? Certes l’atome d’or est différent des autres atomes de métal. Mais lorsqu’on divise un atome de fer ou de plutonium en sous-éléments (protons, neutrons, électrons…) et en sous-sous-éléments (différents types de quarks…), n’est-il pas possible de former un atome d’or à partir des éléments d’un ou plusieurs atomes de fer ? Nous savons que oui. En ce sens, l’intuition, l’idée essentielle des alchimistes était-elle complètement fausse, absurde ? N’avaient-ils pas raison de penser que tous les matériaux peuvent finalement se réduire à un certain agencement d’ingrédients élémentaires universels ? Ne pourrait-on pas considérer que l’intuition alchimiste fut à la physique des particules ce que les travaux de Gall furent à la neurobiologie actuelle, c’est-à-dire quelque chose de non pas complètement aberrant (malgré les apparences), mais de préfigurateur ?

L’idée de l’alchimie était que les matériaux ne sont pas radicalement différents et irréductibles entre eux, mais que des sous-éléments « génériques » de ces matériaux leur conféraient leurs propriétés. Nous savons aujourd’hui que les composants atomiques élémentaires confèrent aux différents corps leur « nature ».

Dans ce cas, l’invocation par Paul Churchland du cas de l’alchimie pour discréditer la psychologie ordinaire demeure-t-elle judicieuse, fondée ?

Quelle différence entre les or et intelligence, « naturel » et « artificiel » ?

Paul Churchland rattache l’idée « d’intelligence artificielle » à celle « d’or artificiel » cultivée par les alchimistes.

Il est vrai qu’on peut se questionner sur le terme « d’intelligence artificielle » : une « intelligence » n’est-elle pas une « intelligence », de quelque nature qu’elle soit ? Si l’homme parvient à fabriquer une intelligence égale à la sienne, y aurait-il lieu, par définition, de différencier cette intelligence de l’intelligence humaine ?

Mais il y a tout de même un sens au terme « d’intelligence artificielle » : il s’agit d’une intelligence qui n’a pas été fabriquée par la nature mais par l’être humain.

Quant au terme « d’or artificiel », quel sens a-t-il ? Y a-t-il une différence entre un atome d’or produit par la nature et un atome d’or produit par un humain ? Non. Donc l’un d’eux est-il « artificiel » (dans le sens « d’inauthentique ») au bénéfice de l’autre, qui serait le « véritable » ? Non plus. Donc existe-t-il un or « artificiel » ? Difficile à dire. Quelle est la différence entre un trait de craie dessiné sur un rocher par la mer… et un trait de craie dessiné sur un rocher par un être humain ? Difficile à dire, hormis que l’un a été dessiné par l’un, et l’autre par l’autre. Quelle est l’utilité de faire la différence ?

Notre langage est-il pauvre et inefficace ?

Paul Churchland accuse le langage de refléter une pauvreté de la psychologie ordinaire. Toutefois :

1°) La psychologie ordinaire s’exprime – le mieux qu’elle peut – en utilisant l’outil du langage. Mais rien ne dit que les idées de la psychologie ordinaire ne sont pas plus complexes que ce que le langage est capable d’exprimer. Ainsi, bien souvent, essayons-nous d’exprimer une idée psychologique… que nous ne parvenons pas à formuler par le langage ;

2°) Si Paul Churchland répudie ou méprise le langage comme étant insuffisamment rationnel, comment espère-t-il que les hommes exposeront une théorie valide de la cognition et comment espère-t-il formuler et défendre ce point de vue ? Bref, quel mode d’expression compte-t-il utiliser, qui sorte, qui s’émancipe du langage et de la psychologie ordinaire ?

Autre problème : comment, dans l’exposé et la promotion d’une nouvelle théorie à l’attention des humains, pourrait-on s’exprimer autrement que par le langage de la « psychologie ordinaire » ? La théorie et l’exposé de Paul Churchland ne sont-ils pas basés eux-mêmes sur la psychologie ordinaire ?

Ambiguïtés et confusions possibles au sujet de l’éliminativisme

Il existe une ambiguïté dans l’éliminativisme : on ne sait pas s’il estime que toute psychologie ordinaire sera éliminée, ou que notre psychologie ordinaire actuelle sera éliminée et remplacée par une autre. Dans le premier cas, on ne sait pas quel serait le statut ontologique de ce qui remplacerait toute psychologie ordinaire. Dans le second cas, on se demande comment la psychologie ordinaire actuelle pourrait n’avoir aucun lien avec la psychologie ordinaire future…

Finalement : « élimination » ou « déplacement » de la psychologie ordinaire ?

Paul Churchland conclut en disant que la psychologie ordinaire n’est pas un obstacle à l’avènement des neurosciences et que son déplacement est possible… alors qu’il avait débuté son propos par l’affirmation que la psychologie ordinaire ne survivrait pas à l’avènement des neurosciences… N’y a-t-il pas là une contradiction, ou à tout le moins une modification, une nuanciation, de ses propos au fil de l’article ?

L’insuffisance ou obsolescence de certains langages de sciences humaines ?

Le langage de la psychologie ordinaire est-il obsolète ? Une chose nous semble sûre : le langage (lexique, syntaxe, raisonnement…) des sociologies structuralistes et environnementalistes, ou de la psychanalyse, donne l’impression d’expliquer les comportements humains (et la psychologie) de façon non satisfaisante après qu’on ait intégré certaines connaissances de psychologie cognitive et de neuropsychologie. Et nombre des termes et phrases de ces disciplines ne semblent même pas pouvoir être conservés en l’état de façon acceptable, mais être appelés à se renouveler, se métamorphoser totalement. Ceci donnerait de l’eau au moulin de Paul Churchland… mais ne suffit pas à montrer que la psychologie ordinaire actuelle ou que toute forme de psychologie ordinaire est appelée à disparaître.

Points d’accord et de désaccord avec Paul Churchland

La position de Paul Churchland est tellement nourrie (jusqu’au point parfois de paraître contradictoire) qu’il semble nécessaire de dresser un bilan des points sur lesquels nous nous accordons et nous désaccordons d’avec lui :

Plusieurs éléments de sa pensée nous semblent fondés :

- Il semble évident que les progrès, voire les bouleversements, concernant les connaissances humaines sur la cognition vont également modifier, bouleverser, métamorphoser les considérations, les principes, les schémas et même le vocabulaire de la psychologie ordinaire, ceci au cours des prochaines décennies – à mesure de la diffusion dans le sens commun des connaissances en neurocognition ;

- La psychologie ordinaire actuelle rend effectivement mal compte de nombreux processus qui restent comme mystérieux aux yeux de l’observateur (notamment enseignant) : pathologies cognitives, difficultés scolaires, apprentissage, diversité des potentialités cognitives, diversité des capacités cognitives, diversité des comportements et des tempéraments, « intuition », processus « inconscients », automatismes, rêves, etc… Tous ces domaines appellent des approches et des langages nouveaux ;

D’autres éléments de la profession de foi de Paul Churchland nous semblent en revanche plus discutables :

- Il semble douteux, ou à tout le moins discutable, d’imaginer qu’une psychologie ordinaire puisse se trouver remplacée en bloc, presque du jour au lendemain, par une autre ;

- Il semble douteux que disparaisse jamais une psychologie ordinaire, dont la vocation est de rendre compte de façon fonctionnelle des états neuraux ou des comportements des êtres humains, ceci quand bien même les connaissances en neurobiologie peuvent se trouver grandement développées ;

- Les trois arguments de Paul Churchland contre la psychologie ordinaire actuelle sont séduisants mais finalement peu convaincants. Les deux premiers (stagnation et isolement) sont discutables ; le 3ème (les failles de la psychologie ordinaire) est recevable, mais n’interdit pas le scénario d’une modification en douceur de la psychologie ordinaire ;

- La comparaison du problème de la psychologie avec celui de l’alchimie, qui est une science objective, est discutable. Ces deux types de sciences ne sont peut-être pas du même ordre. Et l’argument de Paul Churchland n’est donc peut-être pas pertinent.

Nous dirions pour notre part, au final, qu’il est hautement probable que la théorie de la psychologie ordinaire actuelle se trouve profondément modifiée sous l’influence des nouvelles connaissances humaines à venir dans le domaine de la neurocognition, mais qu’on voit difficilement comment pourrait s’opérer une rupture nette entre une psychologie ordinaire (jugée dépassée) et une autre (rénovée et affinée).

Une position personnelle sur la dynamique historique de la psychologie ordinaire

Nous supposons pour notre part que la psychologie ordinaire a pour vocation de « suivre », de façon relativement parallèle, en s’affinant et en se sophistiquant, l’évolution des connaissances humaines sur la cognition.

Bien sûr, si l’élargissement des connaissances cognitives se fait plus rapide à un certain moment donné de l’histoire, on peut s’attendre à ce que la psychologie ordinaire évolue elle aussi de façon plus rapide, accélérée.

Mais il nous semble difficilement évitable que :

1°) Il demeure toujours, de façon parallèle aux connaissances neurobiologiques, une théorie de la « psychologie ordinaire », partagée par l’ensemble des êtres humains, pour décrire, « causaliser » et prédire les comportements (aussi bien de soi que d’autrui) ;

2°) Les passages d’une psychologie ordinaire à une autre, plus affinée et plus sophistiquée, ne pourront s’effectuer que de manière continue (tout comme on ne pourrait imposer et établir de façon exclusive du jour au lendemain une nouvelle langue dans un pays).

Bien sûr, on connaîtra toujours de mieux en mieux la nature et le fonctionnement des états neuraux… mais les humains éprouveront toujours la nécessité de parler de ces états neuraux. Or, les gens ne peuvent pas parler des états neuraux avec des états neuraux. Ils ne peuvent parler des états neuraux (émettre par exemple sur leur compte des hypothèses causales) qu’avec une théorie fonctionnelle, relativement abstraite et indépendante par rapport à la matérialité des états neuraux… autrement dit une « théorie psychologique ». Et si cette théorie psychologique est partagée par un certain nombre d’êtres humains, alors il s’agit d’une « psychologie ordinaire », d’une « psychologie du sens commun ». Ce phénomène de « psychologie ordinaire » nous semble voué à exister pour l’éternité… dans le sillage bien entendu des connaissances objectives concernant le fonctionnement de la cognition humaine.

Nous proposerions donc le scénario d’une psychologie ordinaire sans cesse aux trousses des nouvelles connaissances humaines sur la cognition… mais ne rompant jamais le fil de la psychologie ordinaire précédente – position qui n’apparaît pas comme incompatible avec les vues de Dennett ou des fonctionnalistes… mais pas non plus, en un certain sens, avec celles des Churchland, à condition d’estimer que les Churchland envisagent seulement un « bouleversement » de la psychologie ordinaire sous la pression des connaissances neurocognitives.

FODOR J, 1987, « Introduction au problème de la représentation mentale »

In Scientific Inquiry in Philosophical perspective, UPA, 1987 ;

Résumé :

Cet exposé veut proposer une nouvelle théorie de l’esprit, qui est née de différentes intuitions, et que j’appelle la « science cognitive ».

La « science cognitive » est un prolongement des philosophies des XVII°, XVIII° et XIX° siècles (plus que le XX°). La philosophie classique est très focalisée sur les états mentaux conscients et a tendance à réduire la cognition à ces états mentaux conscients. Ceci est peut-être dû au souci de justifier chaque étape des processus mentaux.

Les états mentaux sont un problème épineux pour les cognitivistes.

Certains mentaux (comme par exemple la douleur ou la démangeaison) peuvent difficilement ne pas être conscients. Mais la plupart des états mentaux sont des « attitudes propositionnelles », qui ne sont pas clairement conscientes.

Freud fut l’un des pionniers dans l’hypothèse que la cognition comprend une grande part de processus non conscients – dont des croyances et des désirs.

La philosophie s’occupe principalement des croyances et des désirs conscients, qui sont des états mentaux dits « intentionnels », qui ont un contenu dit « intentionnel ». Un état mental intentionnel est un état mental qui porte sur des choses. Lorsque je parle ou lorsque je pense, les états mentaux qui sont associés à ces paroles ou à ces pensées portent sur quelque chose. On peut disserter à loisir sur les relations logiques entretenues entre un état intentionnel (comme un désir ou une croyance) et l’objet de ce désir ou de cette croyance : on peut par exemple concevoir ou désirer un objet inexistant. Les philosophes distinguent les états « qualitatifs » de « conscience » (douleur…) et les états « intentionnels » (désirs et croyances portant sur un objet).

Il existe trois mobiles essentiels de s’intéresser à l’intentionnalité :

1) Savoir ce en quoi elle consiste, ce en quoi les états mentaux en sont dotés ;

2) Un mobile épistémologique, parce que la question de l’intentionnalité est liée à celle de la connaissance ;

3) Les états intentionnels sont liés aux causes des comportements.

Nous agissons en nous fondant sur nos désirs et nos croyances. C’est le cas pour chacun de nos actes (comme par exemple rédiger et affranchir une enveloppe postale).

Pour le béhaviorisme, qui régna pendant 50 ans, le comportement n’a pas de cause mentale. Le béhaviorisme ne considère pas comme littéralement vrai le fait qu’un comportement soit causé par des croyances et des désirs. La science cognitive, au contraire, admet l’ontologie représentationnelle comme étant vraie : croyances et désirs sont de réelles causes du comportement. Par ailleurs, un comportement est causé par le contenu des états intentionnels. Tout comportement est lié à des croyances qu’on a (comme un bandit au sujet des banques). Croyances et désirs ont donc un contenu intentionnel et un rôle causal, qui sont liés. La question des sciences cognitives est de savoir ce que sont les états mentaux.

Possèdent également des propriétés causales et intentionnelles les symboles, comme par exemple une phrase écrite (qui se réfère à des objets du monde).

De deux choses l’une : ou bien l’intentionnalité des états mentaux dérive du sens des symboles, ou bien l’inverse. Il existe en tout cas probablement un lieu entre théories sémantiques et cognitives.

Une première approche a consisté à dériver les propriétés intentionnelles de l’esprit des propriétés sémantiques des symboles.

La connexion entre croyances et énonciations conférerait un sens aux croyances. C’est une théorie béhavioriste.

Cette voie est sans issue, pour deux raisons essentielles :

1°) Imputer les états mentaux à des symboles linguistiques exclurait les animaux de la pensée, ce qui est douteux ;

2°) La pensée semble précéder l’apprentissage du langage.

On peut bien sûr objecter que l’apprentissage peut se faire sans pensée, que – posture béhavioriste – cette pensée présuppose une compétence linguistique, fruit de l’expérience. Réduction de la pensée au langage et béhaviorisme sont d’ailleurs logiquement liés, ce qui discrédite le premier terme.

Une autre option est que, inversement, les propriétés sémantiques du langage soient dérivées des propriétés intentionnelles de la pensée : le langage extériorise la pensée. Dans ce cas, croyance et désirs sont des états fonctionnels monadiques, qui « portent sur », qui sont intentionnels.

Une troisième voie est de considérer que les symboles linguistiques sont dérivés des propriétés intentionnelles des états mentaux (désirs, croyances), lesquels seraient dérivés de symboles mentaux, ou « représentations mentales ». Il semble y avoir un lien étroit, et inférant, entre les états mentaux et les symboles linguistiques.

Mais les états intentionnels (croyances, désirs…) peuvent également dériver eux-mêmes de symboles mentaux, dotés de sens et articulés entre eux de façon logique. Dans ce cas, ces représentations mentales symboliques sont premières : ce sont elles qui « portent sur », qui sont intentionnelles.

Une telle stratification risque-t-elle d’amorcer une régression à l’infini ? Comment justifier cette seconde strate ?

Deux problèmes étaient l’hypothèse que les états mentaux héritent leur intentionnalité (le fait de « porter sur ») de symboles mentaux :

1°) Le problème des « contenus communs » : Il existe des nœuds de sens commun à des idées qui sont proches (comme par exemple vouloir ou refuser de la glace au chocolat). Quel est ce nœud sémantique commun ? Il peut justement consister en un symbole mental, dont les variations de relation avec la conscience produiraient des variations d’idées.

2°) Le problème de la « constituance » : On peut s’interroger sur les relations entre des idées qui semblent associées, comme par exemple « il pleut » et les « rues sont mouillées ».

On remarque que ces idées peuvent très bien être disjointes.

Comment rendre compte des noyaux de sens qui constituent l’intersection entre p et q, et les parties de p et de q qui n’ont pas d’intersection ? Une solution possible serait justement l’existence de symboles mentaux, simples ou complexes, qui puissent signifier respectivement « p », « q », et « p ou q ».

Observons à présent comment la science cognitive intègre cette notion, pour elle centrale, de « représentation mentale ».

La science cognitive s’éclaire à la lumière des théories classiques dont elle est issue. On peut dire que la « Théorie de Hume » est l’un des premiers prototypes de la psychologie de la représentation mentale. Hume définit les « idées » comme classe de phénomènes mentaux, qui sont des symboles mentaux, et remplissent les mêmes fonctions qu’en science cognitive : sources de l’intentionnalité (par le sens) ; et véhicules des processus (par leurs propriétés causales). Hume estime que les états mentaux se distinguent selon la façon qu’ils ont d’être une idée.

Retenons l’hypothèse d’un lien entre une idée et le contenu de l’état représentationnel : c’est le lien entre symboles linguistiques et représentations mentales. Cette relation directe entre états intentionnels et idées permet à Hume de donner une réponse simple à la question de « porter sur » : les idées sont des images mentales, avec une intentionnalité intrinsèque.

Cette vision est aujourd’hui invalidée. Hume a néanmoins localisé le problème de l’intentionnalité, et ce dans une perspective naturaliste. Il réduit l’intentionnalité à une ressemblance.

Mais il s’agirait ensuite d’essayer de réduire l’intentionnalité à des phénomènes non-intentionnels, pour montrer que cette intentionnalité n’est pas une caractéristique fondamentale du monde.

Qui des « processus mentaux » humiens ? Hume les tient pour des interactions causales entre les idées, selon un « principe d’association » lié à leur connexion.

La théorie de Hume nous intéresse essentiellement pour ses faiblesses – notamment trois points –, que la science est appelée à dépasser :

1°) La théorie humienne de l’intentionnalité des symboles mentaux comme ressemblance n’est pas satisfaisante. La « preuve » : un portrait peint peut ressembler à une autre personne que celle à laquelle il était censé ressembler (?). Il faut donc trouver mieux, pour l’intentionnalité des symboles mentaux, que la théorie humienne de la ressemblance.

2°) Le simple associationnisme n’est pas une explication satisfaisante des processus mentaux. Il est en effet nécessaire, pour que deux idées soient liées logiquement, que leur contenu le soit aussi (sinon tout binôme d’idées sans lien logique pourrait être considéré comme « associé »). L’association causale entre deux idées exige, plus qu’une simple connexion, un lien causal entre leurs contenus.

3°) Comment rendre compte de la productivité mentale ? L’esprit peut produire une infinité de pensées, tout comme le langage peut produire une infinité de phrases. Une théorie des images ne peut expliquer correctement cette capacité infinie de production.

Tournons-nous à présent vers la « science cognitive » et les solutions qu’elle propose. On peut imaginer tout d’abord que des systèmes symboliques soient mieux à même d’être productifs qu’un système d’images, système d’images qu’on peut donc évincer au profit d’un « langage de la pensée ».

Ce choix nous permet de résoudre le second problème, qui est celui de l’associationnisme : un langage de la pensée permet mieux qu’une collection d’images d’expliquer les relations causales entre les idées, les processus mentaux. Notons que ce type de réflexion a été négligé par les philosophes sous influence béhavioriste.

Notons également que la conjonction de deux propositions (par la conjonction « et ») suggère une relation inférentielle, causale, entre la première et la seconde, ce qui n’est pas le cas pour une proposition disjonctive (avec la conjonction « ou »).

Le rôle inférentiel entre deux propositions a-t-il un lien avec le contenu intentionnel de ces propositions ? Si oui, quel est ce lien ?

Notons qu’une propriété inférentielle n’est pas nécessairement causale.

Il y a donc en jeu trois éléments qui sont : le contenu intentionnel, le rôle inférentiel et le rôle causal.

L’idéal serait d’arriver à établir un parallélisme entre le rôle causal et le contenu intentionnel ou le rôle inférentiel (car ces deux derniers éléments peuvent parfois être tenus pour confondus).

On peut imaginer que les symboles mentaux ont des propriétés syntaxiques, liées à leur propriétés intentionnelles, et qui définissent autant de relations logiques potentielles avec d’autres symboles mentaux de la même façon qu’une clef ouvre telle et telle serrure. Le rôle causal d’un symbole est corrélé avec sa syntaxe.

Il est possible d’imaginer que des systèmes cognitifs (humains ou artificiels) transforment un symbole en un autre en vertu de ses propriétés syntaxiques. La relation entre l’esprit humain et l’ordinateur est éclairante en cela que tous deux effectuent probablement des inférences sur la base de symboles ayant un sens.

Seule l’existence de symboles mentaux, c’est-à-dire d’objets syntaxiquement structurés, est capables d’expliquer comment l’esprit effectue des inférences entre les états mentaux.

Nous recherchons une théorie de la relation entre les symboles mentaux, et laquelle, qui plus est, doit être naturaliste, c’est-à-dire ne doit pas convoquer d’autres propriétés sémantiques ou mentales.

On est en présence de deux théories cognitives sur le « marché » :

- l’une, celle de la « ressemblance », fondée sur des images mentales ;

- l’autre, fondée sur des symboles mentaux, qui seraient connectés entre eux de façon sémantique et causale.

Comme nous supposons l’invalidité de la première, nous affirmons la pertinence de la seconde, à la formulation de laquelle nous travaillons.

Telle est la science cognitive comme je la conçois : prolonger, dépasser et améliorer les intuitions humiennes. On peut croire au succès d’une théorie de l’esprit qui interprète les états mentaux (mélange d’intentionnalité et de causalité) comme étant les éléments d’un mécanisme de traitement symbolique.

Plusieurs avancées empiriques dans différents domaines de la cognition semblent abonder en ce sens.

Conclusion : les philosophes devraient plus se soucier des valeurs sémantiques et intentionnelles, qui expliquent en aval le comportement humain.

Un problème est que des propriétés sémantiques et intentionnelles peuvent difficilement être des causes en soi du comportement.

La notion de « causalité intentionnelle » demeure un problème et un mystère. Ce problème ressemble à une ancienne tension philosophique entre faits et valeurs.

Nous semblons approcher de ce qu’est la « causalité intentionnelle ». À ce sujet, la crainte initiale que « l’intentionnalité » n’existe pas (selon les béhavioristes) semble s’estomper.

Résumé du résumé :

Nous pensons que la propriété « d’intentionnalité » de l’esprit humain (qui est la propriété de représenter des objets du monde ou d’établir des relations causales entre ces objets) ne réside pas dans les idées et les mots du langage ou des images mentales (comme le pensait Hume) mais réside dans un « langage symbolique », qui se trouve dans la cognition à un échelon supérieur au langage et à partir des ingrédients duquel le langage se compose.

Réflexions :

Fodor baptise « science cognitive » une théorie qui lui est propre

J. Fodor dénomme « science cognitive » (c’est-à-dire le nom d’un domaine de connaissance, une discipline) une théorie toute personnelle, qui consiste à supposer l’existence de symboles mentaux comme constituants premiers de la pensée et de l’intentionnalité. Or, ceci n’est qu’une hypothèse parmi d’autres au sein de la philosophie et des sciences cognitives.

Fodor souligne le caractère non-conscient des processus cognitifs

Fodor a par ailleurs le « mérite », à nos yeux, d’avancer le fait que la philosophie ne saurait limiter sa réflexion à la seule circonscription des états mentaux conscients, que la cognition comprend un grand nombre de processus auxquels n’a pas accès la conscience, et qu’une philosophie moderne, novatrice, a pour tâche de prendre en compte et d’essayer d’analyser et imaginer cette « face cachée » de la cognition. Il se trouve que les recherches en sciences et neurosciences cognitives ne cessent de montrer ce pan non conscient de la cognition – sur le plan de la perception, de procédures de traitement de l’information et de mémoire.

Pertinence générale de l’hypothèse des « symboles mentaux 

Fodor a également le mérite de suggérer qu’existent dans la cognition des instances plus petites que les idées ou les mots, qui en sont les ingrédients, dont ils sont l’expression, et qui, associés logiquement les uns aux autres (par ce qu’on peut imaginer être des liaisons synaptiques) sont capables de produire toutes les idées et nuances d’idées de la pensée, notamment les objets, les actions entre les objets et les catégories générales d’objets (les « concepts »). Il s’agirait là de « primitifs sémantiques » (semantic features).

La « conscience » : « vigile » cognitive pour réussir les actions risquées ?

Une douleur ou une démangeaison (que cite Fodor pour illustre le cas d’états mentaux conscients) ont pour fonction de faire « réagir », c’est-à-dire de faire agir l’organisme. En conséquence, ne serait-il pas envisageable que le caractère « conscient » d’une perception ou d’une idée ait pour fonction de faire agir le sujet, ceci à des fins de survie ? Et, plus avant, que le degré de « conscience » d’un état mental soit proportionnel au degré de nécessité d’agir ? L’état de « conscience » pourrait ainsi être une sorte « d’état d’alerte », allant de la simple manipulation d’informations stockées en mémoire jusqu’à l’urgente nécessité de retirer son doigt du feu, de saisir une proie, d’éviter un projectile ou de fuir un prédateur. La « conscience » est ainsi « aiguisée » lorsque l’être humain (ou, je le crois aussi, l’animal) essaie de s’orienter dans un territoire nouveau, inconnu, inattendu… cependant qu’elle est « en sommeil » lorsque l’organisme effectue une tâche plutôt automatique, dépourvue de risque d’erreur, comme par exemple conduire en voiture jusqu’à son travail (ou à moins que la « conscience » ne travaille activement à ce moment à propos d’un autre problème, personnel ou professionnel, qu’il s’agit de résoudre). La « conscience » serait-il une procédure « vigile » ou « tutrice » de la cognition, qui aurait pour fonction d’optimiser la réussite de procédures (aussi bien intellectuelles que motrices) inhabituelles ?

Peut-on définir « l’intentionnalité » par le fait de « porter sur » ?

La définition que donne Fodor de « l’intentionnalité » (le fait qu’un état mental porte sur quelque chose) n’a-t-elle pas de sens que pour l’observateur d’un organisme ? En effet, un livre, un programme informatique ou une émission télévisée « portent également sur quelque chose ». Peut-on pour autant les considérer comme des états intentionnels ? Certes, ils ne sont pas des états mentaux. Mais comment peut-on alors définir un « état mental » par différence avec l’état du contenu d’un livre ? Cet état est « mental » parce qu’il se déroule à l’intérieur du système cognitif, du cerveau ? Oui, mais lorsque je pense au contenu d’un livre, cet état se déroule également à l’intérieur de ma cognition. Le « contenu d’un livre », si on le prive d’une cognition qui le pense, n’a pas de réalité, pourra-t-on répondre. Certes, mais le contenu d’un cerveau, si on le prive également de la cognition qui le pense, n’a pas plus de réalité.

Quel est donc finalement la différence entre le contenu d’un livre et le contenu d’un cerveau ? C’est une question qu’il n’est pas facile de trancher.

Qu’est-ce qui est « spécifiquement humain » ?

Si « l’intentionnalité » c’est seulement la référence ou le caractère référentiel d’un phénomène cognitif à un objet du monde extérieur, alors on ne voit pas pourquoi un livre ou un ordinateur n’auraient pas d’intentionnalité. Ce qui resterait de spécifique à l’humain ne serait pas dans ce cas « l’intentionnalité » mais plutôt la « conscience ». Et encore : il resterait à définir précisément ce qu’est la « conscience » et en quoi consiste son processus (ou en tout sa manifestation). Est-ce une fonction qui optimise la réussite de procédures cognitives inhabituelles, est-ce simplement la perception de procédures cognitives internes…? On peut aussi supposer que ce qui reste de spécifique à l’être humain par rapport au livre ou à l’ordinateur, c’est le fait de ressentir du plaisir et de la douleur, et que nombre de (toutes ?) ses pensées sont empreintes de ces deux sentiments (qui sont liés à des nécessités de survie). Remarquons d’ailleurs que dans un tel cas, la cognition humaine ne serait plus « spécifique » : elle partagerait en effet cette propriété avec nombre de (toutes ?) les autres espèces animales.

« L’intentionnalité » a-t-elle une réalité claire en deçà de sa définition officielle ?

Par ailleurs, on peut très bien imaginer que les philosophes de la cognitions s’entendent sur une définition de ce qu’est (ou serait) « l’intentionnalité ». Soit. Mais pour que tout débat au sujet de cette « intentionnalité » ait un sens, il est encore nécessaire que ce terme désigne un phénomène réel, qui soit perceptible par tout être humain normalement constitué. Or ceci ne semble pas évident. Qu’est-ce que « l’intentionnalité » ? Qu’est-ce qui la différencie du fait de « porter sur » ou de la « conscience » ? Il n’est pas certain que les points de vue en la matière soient les mêmes chez tous les philosophes.

La cognition peut-elle penser à des choses « inexistantes » ?

Fodor évoque le cas d’objets que la cognition peut concevoir ou désirer bien qu’ils soient « inexistants ». Or, question : la licorne est-elle « inexistante » puisqu’elle existe dans mon imagination, et que mon imagination n’est pas abstraite mais consiste en substrats matériels ? On pourrait dire que la licorne est « inexistante », mais il faudrait alors préciser « dans le monde réel extérieur à la cognition », puisque l’image et l’idée de la licorne existent dans ma cognition. Or, ceci est restrictif, parce qu’il existe beaucoup de choses à l’intérieur de la cognition (des milliards de réseaux synaptiques et des milliards d’états mentaux). Donc il n’est pas certain qu’un état intentionnel puisse avoir pour objet quelque chose d’inexistant : il peut avoir pour objet soit un élément du monde réel extérieur à la cognition, soit un élément interne à la cognition. Une licorne, « Dieu » ou le « temps », par exemple, n’existent pas forcément dans le monde réel (tout au moins est-ce ce que je pense) ; mais ils existent à l’intérieur de la cognition d’un certain nombre d’humains (et peut-être même d’autres animaux). Essayons par exemple de « penser à rien », de penser à « quelque chose qui n’existe pas » ? Reconnaissons que c’est assez difficile (euphémisme pour « impossible »)… ou que ça reviendrait à « ne pas penser ». Arrive-t-il donc à la cognition, comme le pense Fodor, de penser à des choses qui « n’existent pas » ? Cette question est discutable.

Les symboles contiennent-ils du « sens » ?

Fodor nous dit qu’une phrase écrite se réfère en tant que telle à des objets du monde. Est-ce vrai ? N’est-ce pas plutôt sa lecture et la formation d’une idée dans le cerveau qui se réfèrent à quelque chose (qui existe dans le monde ou également dans le cerveau) ? Une phrase écrite ou un livre contiennent-ils vraiment des idées, pourrait-on également demander ? Ne contiennent-ils pas seulement que des signes dépourvus de sens, de contenu, d’intentionnalité, mais auxquels la cognition – et elle seule – donne un « sens » ? Bref, les idées et les contenus sont-ils dans les symboles ou dans la cognition qui les déchiffre et les traduit en idées ?

Si j’écris par exemple « il fait jour » et vous demande si cette phrase contient une idée, vous me répondrez « oui » sans hésitation. Si je dessine en revanche une suite de symboles inconnus les uns à la suite des autres et vous demande si cette suite contient une idée, vous me répondrez toujours sans hésiter « non » (ou à tout le moins « non, pas pour moi »). Or, cette suite « dépourvue » de sens a peut-être un sens pour un humain d’une autre culture ou pour un extra-terrestre. Ceci signifie quoi ? Que le « sens » de la phrase n’est pas dans la phrase mais dans l’esprit. Ceci signifie que la phrase française en tant que telle n’a pas de « sens ». Ceci signifie qu’aucune phrase, aucune suite de symbole n’a de « sens ». Elle n’a de « sens » que pour l’esprit qui en crée en la percevant.

Plus avant, ceci nous interroge sur les « symboles mentaux » supputés par Fodor. Comment ces symboles pourraient-ils contenir du « sens » ? Contiennent-il un « sens » autre que les objets (ou les catégories d’objets) qu’il désigne, objets dont le cortex a mémorisé l’image ? Comment des « symboles » pourraient-ils contenir du « sens » ou de « l’intentionnalité » indépendamment des images et informations perceptives qui ont nourri les systèmes sensoriels de l’organisme et peuplé ses mémoires ?

Le concept le plus abstrait qui soit ne recouvre-t-il pas in fine des images d’objets ou actions du monde ?

Bien que la théorie de Hume soit « aujourd’hui rejetée » (comme l’estime Fodor), une telle hypothèse paraît néanmoins plausible. De nombreuses occasions de la vie mentale ordinaire quotidienne étayent cette option. Il est également possible qu’un concept de 1er, 2ème, 3ème degré, etc… (« chien », « animal », « organisme », « vie », « concept », « mot », etc…) convoquent, se raccordent in fine à des image mentales ou plus exactement des sensations perceptives au sens large, qui ont été mémorisées dans le cortex au fil de l’expérience. Il est possible qu’une phrase en apparence très abstraite (composée de mots uniquement « abstraits ») (comme par exemple « la vie s’est rapidement développée à l’ère tertiaire ») n’ait un sens que parce que chacun de ses termes recouvre, exprime, in fine une collection, une catégorie de sensations perceptives mémorisées dans le cortex, lesquelles se rapportent à des objets du monde réel. Il est par ailleurs possible, inversement, qu’une phrase abstraite dénuée de sens, absconse, ne satisfasse pas ces conditions « perceptuelles », « concrètes »… ce qui pourrait justement faire d’elle une phrase « absconse », dépourvue de sens (et de pertinence).

Notons également que l’exemplification (ou en tout cas la tentative d’exemplification) d’une phrase « abstraite » aboutit généralement à sa confirmation… ou (de façon parfois inattendue) à son invalidation (lorsque justement elle ne trouve pas d’exemples pour s’illustrer). L’exemplification est l’ultime test de validité d’une proposition, exemplification d’ailleurs généralement crainte ou évitée par certains discours et « théories » spéculatifs, douteux. Ceci pour dire qu’une phrase abstraite n’a pas de « sens » en soi ; elle n’a de « sens » que par les objets concrets du monde qu’elle désigne in fine, aux racines de son arborescence généralisante.

Est-il possible que la cognition construise des concepts et des « symboles » en l’absence d’images mémorisées, comme le laisse entendre Fodor ? Ceci semble douteux.

Puissance de la combinaison de données

Fodor trouve stupéfiante la capacité de la cognition à produire une « infinité » de pensées ou d’idées. Pourtant, considérons une machine à sous ayant trois tambours imprimés chacun d’une dizaine d’images différentes. Cette machine peut « produire » mille combinaisons possibles d’images, qui sont comme autant de « phrases » logiques. Un cerveau comprend cent milliards de neurones, dont chacun peut se connecter à dix mille autres. On voit que la simple mémorisation d’une centaine d’images ou de sensations perceptives ou d’action peut générer, par combinaison, un nombre astronomique de pensées et de phrases (dont certaines auront un lien pertinent avec le monde). Et le cerveau stocke probablement (beaucoup) plus de cent images et sensations nouvelles par heure… La productivité mentale semble donc compatible avec une théorie imagée ou perceptive de la cognition. Il ne lui suffit que de mettre en rapport les objets ou les actions dont elle a stocké les images.

Proposons le schéma général suivant :

 

 

 

 

 

 

 

 

 


Ce schéma suggérerait qu’il y a conceptualisation, abstraction progressive et continuelle de l’esprit humain par récursivité entre la production de phrases et de pensées (et leur mémorisation et combinaison).

Le « modularisme », inféré des « symboles mentaux » ?

Fodor n’aurait-il pas par hasard développé sa théorie modulariste (en second lieu) pour essayer d’étayer sa théorie (hypothétique) première des symboles mentaux ? Pourquoi la possibilité d’un tel mobile ? Parce que l’hypothèse d’un « langage symbolique » existant dans la cognition indépendamment d’images du monde stockées en mémoire (Fodor rejette la théorie de Hume) supposerait la pré-existence innée d’une telle structure, laquelle est pemise par une théorie modulariste de spécialisation innée de la cognition. Or, à propos de cette hypothèse modulariste (qui semble par ailleurs pertinente sur bien des points), il n’y a peut-être en réalité qu’un cerveau « à tout faire », avec des inputs perceptifs venant se mémoriser dans des couches neuronales de différentes maturités, et des images et souvenirs sensoriels comme uniques ingrédients élémentaires des idées et concepts abstraits, idées qui peuvent être neuralement connectées entre elles dans le cerveau en fonction des propriétés physiques et causales du monde extérieur.

La « cause » des pensées : plaisir, souffrance, nécessités de survie…

Fodor s’interroge sur la « cause » des pensées. Or, il semble que chacune de nos actions est motivée, causée, par des désirs, des besoins, des craintes, des souffrances, lesquels sont gouvernés par l’hypothalamus – et en amont la nécessité de survie. Les représentations mentales ne jouent entre ces nécessités et le comportement observable qu’un rôle de médiateur, « d’explicitateur ». Nulle cause comportementale première n’est à rechercher au sein des propositions mentales. De même que la cause première du fonctionnement d’un logiciel n’est pas à rechercher dans chaque ligne d’instruction de son programme, mais dans les nécessités en amont (ici, l’esprit du concepteur du logiciel ; pour la pensée humaine : la nécessité de vie et de survie).

Au total : une théorie séduisante mais qui n’explique pas tout

Fodor propose une théorie séduisante de « l’intentionnalité », qui serait le gouvernement des pensées et du langage par un « langage symbolique » élémentaire situé en amont, qui permettrait des connections causales entre les idées. Mais il évacue rapidement l’idée humienne selon laquelle le cerveau serait essentiellement (et même exclusivement) nourri d’informations perceptives, et il n’indique pas comment se forme, se construit ce « langage symbolique ».

ATKINS Kathleen, 1996, « Of Sensory Systems and the « Aboutness » of Mental States »

In The Journal of Philosophy, vol. 93, Issue 7, July 1996, pp. 337-372 ;

Traduction-résumé

Nous croyons que nos pensées « portent sur » un objet : lorsque je regarde une photo de la Tour Eiffel, je pense à cet objet qui existe réellement quelque part. UUUne question est évidemment : « comment » cela peut-il se produire ?

Je vais discuter certaines théories naturalistes récentes (Churchland, Dennett, Dretske, Fodor…) sur « le fait de porte sur » (« aboutness »), et voir comment certains états neuraux ou psychologiques peuvent représenter ou concerner des propriétés ou des objets.

J’aimerais montrer que les théories cognitives naturalistes en restent souvent à des spéculations théoriques sur l’intérieur de la cognition et ne s’intéressent pas suffisamment à la façon concrète dont les sens intègrent les informations depuis l’extérieur.

Cet article traitera du mode de fonctionnement des sens.

Comme tous les naturalistes, je pense que les états mentaux et l’intentionnalité, « le fait pour un état mental de porter sur », sont biologiques.

Ce que je suggère simplement, c’est d’emprunter peut-être des voies méthodologiques différentes.

I. Le camp naturaliste et les vues traditionnelles concernant les sens

Le « camp naturaliste » est en fait diversifié, et s’accorde peu sur l’objet et les méthodes du naturalisme. Prenons par exemple trois des théories les plus connues :

- Les partisans de Fodor, tout d’abord, admettent la psychologie ordinaire et l’introspection pour essayer de définir l’intentionnalité ;

- À l’opposé, les Churchland, éliminativistes, dénient l’existence de tout état mental affirmé par la psychologie ordinaire, et se soucient plutôt de savoir comment des états neuraux ou computationnels peuvent représenter quelque chose ;

- Les partisans de Dennett, enfin, supposent une « instance intentionnelle », selon laquelle nous n’observons pas réellement d’états intentionnels chez autrui mais lui en attribuons, sur la base de son comportement des finalité que nous prêtons à ce comportement. Ce qu’il y a de réel dans ces états supposés est distinct de ce que nous en croyons. Ce sont ces phénomènes qui, selon Dennett, devraient être éclairés par la neurobiologie. Cette approche reconnaît une certaine validité à la psychologie ordinaire, sans que les états mentaux proposés par cette psychologie n’aient forcément de fondement neurobiologique.

Les naturalistes sont donc divisés sur la nature de la propriété à étudier : celle d’intentionnalité, ou de contenus, psychologiques ou représentationnels. Ils ne savent pas non plus en quel type d’état consiste cette propriété : psychologie ordinaire ou scientifique, états neuraux ou computationnels…

Comme chacun chercher à imposer ses propres points de vue, je me ferai fédératrice en qualifiant cette propriété « d’aboutness », c’est-à-dire le « fait de porter sur ».

Plus spécifiquement, d’abord, les naturalistes voient l’aboutness comme une propriété relationnelle : la relation entre un état mental et l’objet qu’il représente.

Ensuite, on peut dire que toutes les théories naturalistes cherchent à réduire le mental à un phénomène physique.

Troisièmement, un naturaliste se base souvent sur une relation naturelle pour expliquer la relation d’aboutness. On peut en effet supposer par exemple que l’objet « Tour Eiffel » entretient une relation causale ou informationnelle avec l’état mental de celui qui la voit ou y pense. Un éliminativiste, de l’autre côté, rejette l’état mental de la psychologie ordinaire et explique le phénomène par une relation entre des événements du monde et un état neural. Les naturalistes s’accordent donc sur le fait que l’aboutness consiste en une relation entre un état cognitif et un objet extérieur. Le débat est finalement : quelle est cette relation ? Quel est son rôle ? Cette relation est-elle causale, informationnelle, indicative, purement neurale…? Quelle est la relation entre le psychologique et le neurobiologique ? Les avis divergent – hormis sur le fait que l’aboutness émane d’une relation naturelle.

Quatrièmement, tout le monde s’accorde à dire que les états cognitifs sont construits sur la base de nos informations perceptives, et ceci y compris, nécessairement, pour l’aboutness.

Notons que nos états intentionnels sont très complexes, et peuvent se référer à des choses inaccessibles, virtuelles, méconnues ou fausses. Nos pensées ne correspondent pas forcément à des choses qui existent réellement ou qu’on a réellement perçues.

Bien sûr, il existe également des représentations « simples », d’objets réellement existants et perçus.

Nous pensons que ce sont précisément ces représentations simples qui nourrissent et fondent les représentations complexes, d’objets virtuels.

Les quatre suppositions partagées par les naturalistes sont donc les suivantes :

- que l’aboutness découle d’une relation entre un état mental et un objet ;

- que cette relation doit être éclairée de façon non pas sémantique mais physique ;

- que cette relation sera éclairée par les neurosciences ;

- et que la perception simple est l’élément de base d’une théorie des représentations complexes.

Pourquoi les cognitivistes sont-ils donc si divisés s’ils s’accordent sur ces quatre points ?

Le système cognitif central, le « moi », ressent et commande toute action de l’organisme. Mais il serait complètement isolé, vierge et aveugle, en l’absence des systèmes perceptifs : les sens sont pour le cerveau comme une fenêtre ouverte sur le monde.

Prenons un exemple : la sensation de la chaleur. Songeons à diverses sensations de chaleur (ou de froid) de la vie ordinaire. On pourrait supposer que la sensation est causée par une sorte de « thermomètre dermique ». Nous supposons là que nos capteurs réagissent selon un signal unique, qui est celui de la température physique objective.

Bien que nous sachions que la thermoréception ne fonctionne pas ainsi (ne serait-ce qu’en raison des illusions de variations de température), cette vision des choses trahit une certaine croyance du sens commun, selon laquelle nos sens nous renseigneraient sur des états objectifs du monde. Selon cette vue, le cerveau serait capable de dire, par le truchement des sens, quel est l’état réel du monde.

Premièrement, ceci suppose que la thermoréception soit un système fiable et qu’il informe le cerveau de l’état réel du monde selon une « corrélation constante ».

Deuxièmement, cette « corrélation constante » n’est pas suffisante : le cerveau doit en effet pouvoir établir des relations de grandeur et de comparaison des températures… pour juger par exemple s’il est nécessaire de retirer sa main du feu.

Troisièmement, un système sensoriel doit être « sensible », en ce sens où il répond à des besoins et injonctions épistémiques du cerveau : le toucher procure par exemple des informations parce que le cerveau s’interroge sur la nature d’un objet tenu dans la main. Les sens sont en ce sens des sortes de « drones ontologiques » du cerveau, ayant pour mission de l’informer sur « quoi, quand et où » au sujet d’événements du monde. Leur tâche se limite à établir des faits. Les faits sont « serviles », en ce qu’ils renseignent le cerveau de la façon la plus fidèle qui soit.

Selon les vues traditionnelles, donc, les sens capturent une propriété du monde extérieur et produisent un signal qui informe le cerveau, sans exagération ni omission. Ceci a un lien avec la philosophie cognitive, puisque la question de l’aboutness est liée à nos représentations du monde. Ceci est également le cas dans la théorie perceptive traditionnelle. C’est précisément le rôle des sens que d’établir des représentations du monde pour le cerveau. Il y a donc un lien étroit entre la perception et l’aboutness.

Bien sûr, tous les états intentionnels ne sont pas sensoriels, ne représentent pas forcément un objet réel ou présent.

Il n’en reste pas moins que la perception semble être un chemin privilégié pour éclairer les processus de l’aboutness, de la « représentation mentale », de « l’intentionnalité ».

Résumé du résumé

Au-delà des querelles d’objectifs et de méthodes qui divisent les philosophes naturalistes, il semble que l’étude en détail des mécanismes perceptifs soit une voie d’approche privilégiée pour l’étude de ce qu’on appelle « l’intentionnalité », parce que toutes nos pensées, idées et représentations sont en réalité nourries in fine, à la base, par l’intégration d’informations perceptives sur le monde extérieur.

Réflexions

Pertinence de l’idée atkinsienne d’ingrédients perceptifs élémentaires de « l’intentionnalité »

Il est difficile de contredire K. Atkins sur le fait que toutes nos représentations, même les plus virtuelles, imaginaires ou abstraites, sont le produit, à la base, de perceptions simples, élémentaires, d’objets réels, stockées dans le cortex. Puisqu’en effet « de rien, rien ne peut naître » (Lucrèce), toute représentation mentale est nécessairement issue d’informations provenant du monde extérieur, et ces informations sont nécessairement perceptives. La voie indiquée par K. Atkins semble être une voie fructueuse pour explorer ce en quoi consiste ce que les philosophes appellent « l’intentionnalité ».

Fodor contre Hume… ou compatibilité possible ?

Ceci nous ramène à la critique de Fodor à l’encontre de Hume : Fodor doute d’une cognition et d’une intentionnalité basées sur des « images » mémorisées, comme le suggérait Hume. Par cette critique, Fodor entendait peut-être d’ailleurs essayer de promouvoir sa théorie d’un « langage mental symbolique » (et logique) qui existerait dans le cerveau en amont de la pensée et du langage. Or, on voit difficilement comment le cerveau pourrait contenir autre chose que des informations perceptives, en l’occurrence essentiellement des images et des sons. On voit mal par ailleurs comment des informations ou du « sens » pourraient peupler le cerveau de façon « innée », antérieure à l’encodage d’informations sensorielles.

On pourrait proposer une issue, qui serait que se construit dans le cerveau, sous l’influence des informations sensorielles reçues de l’extérieur, un « langage symbolique », qui développe progressivement une fonction en quelque sorte « récursive » pour optimiser la puissance de traitement cognitif du cerveau. Cet « outil » de « langage symbolique » serait l’effet d’une sorte de « modularisation acquise ».

En ce sens, finalement, ni Fodor ni Hume n’auraient tort : Hume (et avec lui K. Atkins) aurait raison de penser que le cerveau ne se nourrit que d’informations sensorielles (d’images, de sons…) et ne peut donc construire ses représentations « abstraites » ou imaginaire que sur la base de ces images stockées en mémoire ; et Fodor aurait raison de son côté de penser que se développe ensuite, sur la base de ces images « primaires » et de ces représentations « secondaires », une sorte de « code logique » tertiaire, qui optimiserait la connexion logique entre différentes représentations (« primaires » ou « secondaires »).

Perception d’un « objet » : perception d’un événement spatial ?

Est-il pertinent de distinguer la perception d’un « objet » et d’un « événement » ? La perception d’un objet ne pourrait-elle pas finalement être en soi une sorte « d’événement », en cela qu’elle informerait l’organisme que « tel objet est à portée de main, d’action », ou inversement que « tel objet est susceptible d’action sur l’organisme » (comme dans le cas d’un prédateur par exemple). Or une telle information constitue plus un « événement » (un événement spatial) qu’une simple « image » ou « sensation » perceptive d’un objet inerte. Il est possible qu’une information perceptive sur un objet (« Je vois la Tour Eiffel ») soit en réalité une information sur un événement spatial : « Compte tenu de la position actuelle de mon organisme dans l’espace, dans le monde, il m’est possible d’admirer la Tour Eiffel, ou de l’escalader ». Cette vision des choses rejoindrait d’ailleurs la théorie de l’affordance selon Gibson.

En ce sens,  la vue (ou l’audition) d’un « objet » dans le monde par l’organisme pourrait se résumer au fait de « pouvoir faire quelque chose » (dans le cadre d’un besoin ou d’un désir), ou de « devoir faire quelque chose » (dans le cas de la fuite face à un prédateur, par exemple).

Et ce que nous appelons « l’intentionnalité » pourrait consister en le lien existant entre un désir ou une crainte intérieurs (gérés tout en amont par l’hypothalamus) et des informations perceptives sur le monde apportées au système central par les modules sensoriels.

« Voir une pomme » signifierait ainsi : « mon organisme est spatialement concomitant avec une pomme, ce qui est un événement spatial, lequel événement m’offre la possibilité (non obligatoire) de saisir et manger cette pomme… ou la crainte de recevoir cette pomme dans la figure, auquel cas il me serait bénéfique de fuir… »…

La démarche de K. Atkins : explorer le perceptif pour comprendre « l’intentionnel »

Ce que nous dit K. Atkins, en substance, c’est que tous nos états mentaux (nos pensées, nos images, nos idées…) proviennent nécessairement, à la base, d’informations perceptives. Donc il nous incombe d’examiner le fonctionnement des mécanismes perceptifs à la loupe, dans le détail… ce qui nous permettra (peut-être) de comprendre, de fil en aiguille, le processus – plus complexe – de « l’intentionnalité », processus qui n’est finalement peut-être pas un « mystère » mais simplement une cristallisation ultime d’informations perceptives élémentaires.

Ce qui nous semble pertinent en tout cas, dans la démarche de K. Atkins, c’est que, dans l’histoire de la pensée, l’innovation philosophique n’est jamais venue de spéculations philosophiques « autarciques », mais d’explorations scientifiques et empiriques nouvelles. Ainsi, de la même façon, il est peut-être plus fructueux pour essayer de cerner la nature de « l’intentionnalité » d’observer à la loupe, de manière toute empirique, les phénomènes perceptifs… plutôt que disserter de façon abstraite sur la façon dont les philosophes conçoivent « l’intentionnalité ».

Réflexions générales

Le caractère « transversal » de la question de « l’intentionnalité »

Il semble, au travers de ces articles, que la question de « l’intentionnalité » peut être éclairée et discutée à la lumière :

- des projets d’intelligence artificielle (cf. J. Searle) ;

- de la posture éliminativiste (cf. P. Churchland) ;

- de l’hypothèse de structures logiques « supérieures » de la pensée (cf. J. Fodor) ;

- des phénomènes de perception (cf. K. Atkins) ;

- etc…

La question de « l’intentionnalité » ne semble donc pas être une question spécifique et cloisonnée, mais une question transversale, qui traverse de nombreux domaines anthropologiques et philosophiques.

Non définition précise du terme « d’intentionnalité »

Il n’est pas certain que le terme « d’intentionnalité » désigne exactement la même chose pour les différents philosophes de la cognition. En effet, rarement les philosophes discutant de « l’intentionnalité » ne prennent le soin, en introduction, de définir avec précision ce qu’est sensé recouvrir ce terme selon leur propre point de vue. Bien souvent, les philosophes utilisent et reprennent le terme « d’intentionnalité » selon son utilisation, son traitement, par un autre philosophe, sans préciser ce que ce terme recouvre pour cet autre philosophe, ni non plus ce qu’il recouvre pour eux-mêmes. Il existe en effet une zone de recouvrement assez indéterminée du terme « d’intentionnalité », entre d’un côté le fait « qu’un état mental représente quelque chose » et de l’autre côté la « conscience » qu’a un esprit de penser à quelque chose, avec la nuance intermédiaire de « comprendre quelque chose ». Il n’est pas certain non plus que le terme « d’intentionnalité » recouvre un phénomène réel pour tous les philosophes, et il est possible que le degré de réalité ou plutôt d’importance de ce phénomène varie selon les philosophes.