La sagesse des nations ou le pourquoi de la méthode expérimentale

 

 

"Dans le désarroi des doctrines et des philosophies, dans la mise en question des morales et des religions, un seul terme reste à la fois cause de toutes les incertitudes, espoir de toutes les clartés : la méthode expérimentale."

                    Jean Fourastié

 

Un "sujet" est un être qui existe non seulement en soi, mais pour soi, et qui, ne se bornant pas à être un objet visible du dehors ou délimité par des contours logiques, n'a sa véritable réalité qu'en contribuant à se faire lui-même, à partir, sans soute d'une nature donnée et selon des exigences intimement subies, mais par un devenir volontaire et une conquête personnelle. Le sujet  n'est pas comme du fini ; il croît in infinitum."

                    Maurice Blondel

 

 

Dans un essai en tous points remarquable, Jean Fourastié souligne l'importance de la méthode expérimentale, et il explique avec brio pourquoi elle est néanmoins presque unanimement négligée. En revanche, et peut-être parce que cela était évident pour lui, il n'explique pas pourquoi la méthode expérimentale est aussi fondamentale dans tous les domaines de la connaissance et de la réflexion. Je voudrais donc tenter d'écrire "Un supplément au voyage de Jean Fourastié".

 

---------------

 

L'honnête homme du XXIème siècle accepte aisément que les données qui relèvent de la physique, de la chimie ou même de la biologie, aient été acquises par une approche qualifiée de scientifique ou expérimentale. Il est en revanche très réticent à accepter une conclusion comparable pour ce qui relève du domaine des sciences humaines. L'opposition entre approches scientifiques et non scientifiques, est donc non seulement une question de méthodes, mais également de domaines. Existe-t-il réellement une dichotomie significative entre une réflexion à caractère scientifique, et d'autres approches cohérentes qui ne seraient pas à caractère scientifique.  A l'époque d'un développement considérable des neurosciences, il me semble qu'un arrêt sur l'image peut être positif.

 

Il est manifeste que le conflit actuel qui oppose les tenants des neurosciences aux psychologues de doctrine, est identique au conflit qui a marqué l'astronomie au XVIIème siècle, et l'honnête homme d'aujourd'hui, a la mémoire courte. En 1610, Martin Horky écrivait contre Galilée : Les astrologues ont fait leurs horoscopes en tenant compte de tout ce qui bougeait dans les cieux. Donc les astres médicéens de Galilée ne servent à rien, et Dieu ne créant pas de choses inutiles, ces astres ne peuvent exister. On sait ce qu'il est advenu des propos de Marin Horky. Pourtant, un tel propos, mis au goût du jour, n'étonnerait guère : Freud affirme que la plupart des troubles mentaux sont la conséquence de situations conflictuelles parents-enfant durant les premières années de vie. Il s'appuie sur un certain nombre de pré-supposés. Les neurosciences conduisent à contester la plupart de ces présupposés. Or Freud n'a pas pu se tromper. Ce sont donc les neurosciences qui se trompent et il n'y a pas à  tenir compte de leurs données.

Plus sérieusement, deux directions me paraissent importantes sur un plan diachronique, celle de l'avance phylogénétique croissante du retour sur l'action ou feed-back et celle d'une autre dichotomie opposant l'approche dogmatique et l'approche sceptique qui a profondément marqué toute l'histoire de la philosophie occidentale. Je souhaiterais montrer que ces deux directions se rejoignent pour valoriser l'approche expérimentale.

 

Le feed-back dans l'apprentissage

 

En 1943, Bigelow, Rosenblueth et Wiener publient un article considéré à juste titre comme un texte fondateur des sciences cognitives. Ils soulignent l'importance du retour sur l'action aussi bien pour une machine que pour le comportement des êtres vivants. L'innovation est très importante dans la théorie des machines, moins dans l'étude du comportement. Avant ces auteurs, J.B. Baldwin et Jean Piaget avaient insisté sur l'importance de la réflexion sur l'action, dans la conscience adualistique et la réaction circulaire. L'originalité des auteurs, en 1943 tient à la généralisation à tout système, et plus encore, l'introduction de feed-backs emboîtés les uns dans les autres, faisant apparaître le projet et la prédiction du résultat d'une action non encore entreprise.  Le retour sur l'action est ainsi ouvert à de multiples influences cohérentes, elles-même régulées. Il en résulte une approche toute nouvelle du mécanisme de l'apprentissage, même dans ses formes les moins évolués, pouvant se substituer aux explications par le conditionnement. Le rôle du sujet est développé, l'environnement ne va guère au-delà de fournir des modèles et des occasions d'apprendre. La réflexion sur l'action vécue ou représentée devient le moteur essentiel de l'apprentissage.

L'emboîtement des régulations peut être dessiné de façon synchronique ou diachronique :

- dans le premier cas, il existe un réseau complexe de régulations en interaction

- dans le second cas, l'acquis d'un apprentissage antérieur vient moduler le retour sur l'action durant un nouvel apprentissage. L'apprentissage se fait donc par étapes obligées.

 

La réalité d'un sujet

 

En 1981, Von Foerster écrivait : " la règle du jeu de société le plus populaire est de rendre les autres responsables de nos propres déboires". Ainsi s'explique le développement de toutes les formes de déterminisme qui auront marqué la fin du XIXème  et le XXème siècle, depuis le marxisme jusqu'au béhaviorisme en passant par la psychanalyse. Le moins qu'on puisse en dire est que ce fut loin d'être un succès universel, et que les raisons de critique s'accumulèrent dans tous les domaines.

Il me semble que si l'héritage de Laplace, théoricien brillant du déterminisme, a pu se poursuivre aussi longtemps, cela vient de ce que les approches matérialistes de tous bords ne prenaient pas en compte le bénéfice comportemental du retour sur l'action Il fallait peut-être que le schéma laplacien explose pour qu'on puisse faire le retour qui en montre les faiblesses.

Inversement, le schéma action/évaluation par retour, puis mémorisation, ne suffit pas expliquer l'apparition et l'évolution des organismes biologiques et de leur comportement. Wikipedia définit l'autorégulation comme synonyme de la rétroaction sans faire de distinction entre machines artificielles et naturelles. Les machines artificielles, aussi complexes qu'elles soient, résultent de structures conçues par un agent extérieur, et sont donc des systèmes hétéronomes. Les machines biologiques, à l'inverse, assurent non seulement une autorégulation mais elles y associent des capacités de développement structural et fonctionnel. Ce sont  des systèmes pleinement autonomes qui ne dépendent que de leurs lois propres, y compris pour assurer leur développement. Ce sont donc pleinement des "sujets" selon la définition de Maurice Blonlel. Dans son ouvrage, "Biologie et Connaissance", Piaget décrit les autorégulations biologiques dans le cadre  implicite de tels "sujets".  Modeste, il conclut qu'il ne présente que des hypothèses de travail. Quarante ans plus tard, les progrès scientifiques ont largement validé les hypothèses piagétiennes. Je souhaite reprendre ces progrès pour montrer, dans une perspective phylogénétique, que la méthode expérimentale n'est rien d'autre que le chaînon le plus élevé des autorégulations biologiques, en reprenant des chaînons plus élémentaires ou plus anciennement apparus.

 

Le développement prénatal

 

Beaucoup ont cru que la découverte de l'ADN mettait fin au long conflit qui avait opposé les explications rationalistes de préforme, et les explications empiristes durant plus de deux siècles. Le déroulement déterministe d'un programme pré-existant devait expliquer de façon satisfaisante tous les développements prénataux. Les décryptages complets des génomes ont rapidement montré que l'explication n'était pas satisfaisante. François Jacob soulignait déjà en 1970 que l'information contenue dans l'œuf initial ne pouvait suffire à définir l'individu achevé. Or par ailleurs, il est manifeste qu'aucun agent organisateur n'intervient dans le développement embryologique de l'ovipare, et il est facile de démontrer qu'il en est de même dans le développement vivipare. La solution à ce dilemme,  déjà envisagée par Piaget en 1967 est la "réflexion" sur l'activité, ce que l'auteur appelle l'abstraction réfléchissante. Les chercheurs anglo-saxons sont arrivés aux même conclusions en les étayant sur de solides travaux expérimentaux. Ils parlent depuis la fin des années 70, d'activity-dependant development pour expliquer le développement embryologique, ce qui est un synonyme exact de l'abstraction réfléchissante.

A la rétroaction, il faut associer évidemment un processus de mémoire qui modifie de façon durable, certains des processus existants, en fonction des données de cette rétroaction.

Ainsi, dans de bonnes conditions d'approche expérimentale, le développement embryologique démontre la toute puissance du couple "sujet" et autorégulation. Il y a là un encouragement certain pour envisager ce couple dans tous les développements, notamment le développement cognitif ontogénétique après la naissance, ou l'évolution des cultures.

 

Il y a une autre leçon à tirer, conséquence du mécanisme du développement embryologique. Si le génome ne peut contenir ni programme, ni image de l'individu achevé, à plus forte raison ne peut-il contenir la moindre référence à l'environnement physique ou social. De telles références ne peuvent être formées ex nihilo durant le développement embryologique. Le cerveau à la naissance est donc vide de toute référence, de toute signification concernant l'environnement, physique ou social.   Ces références et significations doivent donc être construites, certes en mettant en jeu des mécanismes innés complexes, mais également par une réflexion sur le vécu au contact de l'environnement. Il faut noter à ce propos que le terme de réflexion a quelque peu dérivé, et qu'il serait souhaitable de rester fixer à la définition de Lalande : retour sur elle-même de la pensée qui prend pour objet un ou plusieurs de ses actes spontanés, ce que je fais tout au long de cette analyse.

 

La conscience primaire

 

Watson a développé le béhaviorisme en réponse aux prétentions des techniques d'introspection qu'il estimait avec raison trop subjectives. Il a donc cru devoir se limiter aux données comportementales observables, ce qui était le cas de l'approche pavlovienne. Mais Pavlov lui-même était croyant et spiritualiste, et n'a jamais pensé que le conditionnement pouvait expliquer les processus mentaux supérieurs. L'introduction du conditionnement opérant, repris par Skinner d'après Thorndyke, introduisait une note de réflexion personnelle, mais Skinner ne s'y est pas arrêté. Watson et Skinner voulaient se limiter aux données observables. Mais, comme le disait Lorenz en 1938, les théories de conditionnement, peut-être explicatives dans le cadre étroit et stéréotypé des expériences de laboratoire, n'apportent pas grand chose à la compréhension du comportement en milieu ouvert. Aujourd'hui, le domaine observable s'est considérablement étendu dans l'étude du fonctionnement cérébral. Les processus de décision consciente, considérés par Watson comme des épiphénomènes négligeables, apparaissent aujourd'hui au cœur même des explications de l'évolution des conduites dans l'adaptation aux expériences passées.

 

La conscience primaire correspond à la conscience adualistique de J.M. Baldwin. Elle traduit une intégration indifférenciée du sujet dans son activité sur l'environnement et des perceptions de cet environnement. Elle n'est pas associée, comme la conscience supérieure, à une représentation isolée du moi.

Sous une forme ou sous une autre, cette conscience primaire existe chez des organismes très simples, comme la drosophile. Ainsi une telle mouche qui a reçu une seule fois une "punition" électrique dans une ambiance colorée en jaune, oriente sa motricité pour éviter le jaune pendant au moins 20 heures, ce qui traduit un engramme dans la mémoire à long terme. Il y a ensuite retour à la normale si la punition n'est pas renouvelée en ambiance jaune.

Comme les pigeons de Sinner, la mouche relie la survenue de la punition à sa motricité propre, ce qui entraîne une modification comportementale sans représentation isolée du "moi" ni de l'environnement. L'effet feed-back est manifeste. Il y a une réflexion et un retour  sur l'analyse de la motricité et des conditions d'ambiance. Si tel n'était pas le cas, toute donnée, même non nociceptive, devrait conduire à une réorientation comportementale après une seule présentation.

 

En revanche, la conscience primaire est limitée au présent. L'observation suivante portant

sur les chauve-souris le démontre bien. Un grillage avait été placé, obturant presque complètement l'entrée/sortie d'une grotte habitée de jour par une population de chauves-souris. Seul avait été laissé un étroit passage en position excentrique. A la tombée de la nuit, les chauves-souris s'envolèrent et détectèrent aisément le grillage. Il s'en suivit une activité d'exploration, et le passage excentré fut assez vite découvert. Les jours suivants, les observateurs constatèrent que les chauves souris apprenaient rapidement à se diriger immédiatement par un crochet, vers la voie libre. Par la suite, le grillage fut enlevé et les chauves-souris continuèrent à se diriger vers le passage excentré. Quelques jours plus tard, un obstacle fut posé au seul niveau du passage excentré. Presque immédiatement les chauves souris retrouvèrent leur trajet initial.

 

L'imitation d'autrui :

 

Piaget définissait la perception comme une imitation du réel. Cette affirmation apparaît aujourd'hui comme un truisme car nous avons appris que le réel est avant tout, l'expression des mécanismes perceptifs innés. En revanche, l'imitation du comportement d'autrui apparaît un fait comportemental d'importance extrême.

De nombreux travaux ont tenté d'analyser l'imitation d'autrui en dehors des primates, avec des résultats controversés. Il est néanmoins probable que l'imitation auditive chez les psittacidés, permet à l'oiseau naïf de se faire intégrer dans le groupe. La découverte des neurones miroirs chez le macaque a révolutionné l'approche de l'apprentissage, donnant du poids au folklore qui reconnaît les talents d'imitation chez cet animal. Mais l'imitation n'avait jamais été contestée sérieusement chez les anthropoïdes, avec une valeur comportementale certaine. Le champ de l'imitation ne dépasse cependant pas les comportements effectivement vécus avec les congénères. Cette forme d'imitation apparaît vers 8 mois chez l'enfant selon les études très fines de Piaget.

Cependant, des imitations sans portée comportementale peuvent être beaucoup plus précoces. En témoigne la copie des physionomies chez le nouveau-né de quelques jours ( Meltzoff et Moore, 1977), reprenant l'observation princeps de R.Zazzo. L'imitation est très probablement compulsive, mais il y a fort  à parier que les neurones miroir seront évoqués comme explication.

Des formes plus élaborées d'imitation comportementale apparaissent rapidement chez l'enfant de 12 mois, ce qui tendrait à démontrer que le langage articulé n'est pas le seul facteur du développement de l'imitation d'autrui, bien qu'il soit certainement rapidement prépondérant.

 

Il est évident que l'apprentissage par imitation fait la part belle aux réflexions du sujet qui apprend. Un choix subjectif s'impose, tous les comportements ne sont pas bons à imiter. Les comportements à imiter le sont en fonction de leur réussite, et il y a donc un retour sur l'action d'autrui. L'imitation suppose un constat d'équivalence entre le comportement d'autrui et le sien propre. Même si les neurones miroirs favorisent considérablement ce constat d'équivalence, celui-ci demeure propre au sujet.

 

L'apprentissage par symbole interposé :

 

Il est évidemment impossible de retrouver comment est née la transmission d'une culture cérébralement représentée, dans les groupes humains. Nous pouvons cependant nous en faire une idée par l'analyse de la naissance des mythes dans certaines populations actuelles, et mieux encore par l'observation conjointe des jeunes enfants à l'apparition du langage.

 

Les concepts, pour l'essentiel, sont appris par imitation en ce qui concerne le signifiant, même si le signifié est initialement un  schème construit antérieurement par l'enfant.

Par ailleurs, le premier langage tourne principalement autour de l'injonction.

Pour ces raisons, le langage ne peut se dégager d'une référence à autrui, et se trouve principalement validé par cette référence. Il n'y a donc pas de rupture par rapport à l'apprentissage par imitation non langagière.

 

Très vite, débute  une orientation du langage au-delà de l'injonction, et vers la description, mais le développement est ensuite  très progressif. Paul Valéry prend l'exemple du petit enfant qui dit "Kekcekça" devant un arrosoir et se satisfait pleinement de la réponse "C'est un arrosoir". La description se réduit donc initialement à une correspondance simple objet-concept, faute d'une géométrie représentée et d'une hiérarchie suffisante des concepts par abstraction emboîtée.

 

C'est vers six ou sept ans qu'une transformation se fait. C'est alors un accès à une "culture" et un véritable langage descriptif. Mais si les règles culturelles, mythiques, morales ou autres, peuvent être apprises dès cet âge, elles ne sont pas comprises. La validation demeure donc nécessairement basée sur l'acceptation de l'autorité des adultes. En pratique, la situation n'est pas très différente pour les adultes soumis à autorité dans les sociétés primitives, prêtres, anciens ou chefs notamment.

 

Parallèlement, la contestation, feed-back manifeste, a précédé le langage chez le nourrisson, et s'est donc normalement développée avec le langage d'injonction. Le langage de description ne peut donc échapper à cette contestation.

 

Au total, le contenu sémantique s'enrichit initialement par l'acceptation d'autrui qui dispense du contrôle, et se situe donc dans la ligne de l'apprentissage par imitation des contenus de pensée. Mais en même temps, tout est réuni pour que naissent les conflits d'idées. Historiquement, il n'est pas déraisonnable de penser que le mythe sumérien de la faute originelle, repris par la Bible, est une condamnation de quiconque pense pouvoir contester l'autorité des prêtres. Si les prêtres condamnaient la recherche individuelle de la Science du Bien et du Mal, c'est bien parce qu'ils voulaient protéger une autorité qu'ils sentaient menacée. La nuque raide d'Israël marque toute l'Exode. Le Décalogue est à double sens : ordonnances d'autorité absolue, ou contrat pour se protéger contre les abus arbitraires d'autorité. Mais dans tous les cas, l'analyse du contenu a du mal à se dégager des personnalités qui proposent ce contenu. Le code d'Hammourabi, beaucoup plus ancien, ne mérite probablement le nom de code qui lui a été donné, et résume plus probablement les décisions du souverain.

Il faut retenir que ce passage obligatoire par une acceptation a priori de l'autorité des personnes explique certainement pourquoi la majorité des adultes intelligents aujourd'hui préfèrent s'en reporter à l'autorité d'un "leader" ou d'un maître à penser, plutôt que d'effectuer eux-mêmes une étude critique de contenu, même s'ils en sont capables.

 

Il se prépare en revanche, dès le VIème siècle AC, un changement de plan qui prend tout son développement après Thalès, la figure mythique de l'Ecole de Millet. La compréhension et l'explication du monde environnant, ne fait alors plus appel aux dieux, mais aux principes et aux lois physiques et mathématiques. Il y a donc une laïcisation et une indépendance vis à vis du fait religieux et de l'autorité religieuse Chacun peut proposer son système et nombreux sont ceux qui ne s'en font pas faute. Il y a une ouverture vers une multiplication des hypothèses, souvent contradictoires, et donc dont certaines au moins sont nécessairement fausses. Ainsi, la négation du mouvement de Parménide se dresse face au "tout est mouvement" d'Héraclite. Ces différentes thèses ne dépassent guère le plan de l'exposition, et sont donc à l'origine de conflits insolubles que la logique aristotélicienne nourrit, tout en se montrant incapable d'une solution universellement acceptée. Il en est résulté en philosophie, de nombreuses réactions qui peuvent être classées en deux tendances, celle des partisans du discours dogmatique et celle des sceptiques.

- les dogmatiques partent de certitudes ou vérités premières qu'ils estiment a priori ne pas pouvoir être mises en cause, et qui jouent le rôle des axiomes ou postulats dans les théories mathématiques. Sur ce plan, la position d'Aristote est ambiguë puisqu'il affirme que sa logique est démonstrative, mais il l'appuie sur des données dialectiques que lui-même considère comme seulement possibles.

- les sceptiques ont donc eu beau jeu d'affirmer que la pensée humaine ne peut s'appuyer sur des certitudes. Cela ne rejette pas la recherche, bien au contraire, mais ne laisse jamais cette recherche conclure. Ménodote et Sextus Empiricus, dès les IIème et IIIème Siècle après le Christ ont théorisé, et démontré la valeur positive de l'approche sceptique.

 

De Pyrrhon à Hume, la mouvance sceptique ne s'est jamais interrompue, mais faute d'être productive sur le plan cognitif, elle n'a jamais occupé longtemps le devant de la scène. Aristarque a été enterré pour vingt siècles par Archimède au nom de la physique dogmatique d'Aristote, mais il ne se prétendait pas sceptique. Ménodote a été enterré par Galien parce que celui-ci était moins rigoureux et plus optimiste sur les bienfaits de la médecine. Le nom du médecin français, Pierre Alexandre Louis,  qui, vers 1830, a comparé un lot de patients traités par la saignée, avec un lot de non-traités, et observé un pourcentage plus élevé d'évolution négative que positive après saignée, fondant ainsi l'analyse statistique médicale, est pratiquement oublié. A Montaigne ou Bayle, ont rapidement succédé les sursauts rationalistes de Descartes et Kant, qui semblaient ouvrir des voies plus positives. La malchance s'en est mêlée. Robert Boyle, considéré avec raison comme le père de l'étude expérimentale au début du XVIIème siècle, a conduit des expériences rigoureuses, mais a abouti à des conclusions fausses car il ne pouvait envisager que l'air contienne l'essentiel quantitatif des nutriments. L'approche expérimentale n'a pu exploser sur le plan de bénéfices cognitifs, qu'avec Lavoisier.

 

Claude Bernard a fait la théorie de la méthode expérimentale, il en a démontré l'intérêt, mais il n'a pas su terminer une révolution conceptuelle. Au début du XXème siécle, Fisher et W.S. Gosset alias Student, ont fait progresser très largement les techniques de la statistique en les appliquant aux petits échantillons, mais eux non plus, n'ont pas assuré cette révolution. Celle-ci avait pourtant été effectuée plus tôt par Charles Peirce et la logique abductive.

La logique, pour être efficace, doit être un retour de validation sur une hypothèse, proclame Peirce. Il est à la portée de tout le monde de formuler toutes les hypothèses, même les plus farfelues. C'est une simple question d'imagination, et l'imagination n'a guère de limite. L'hypothèse n'a donc qu'une valeur d'exposition et d'accord entre des prémisses non validées. Elle n'a de portée vraie qu'en fonction d'une validation, et non parce qu'elle paraît intéressante, étonnante ou séduisante.

Théoriquement, la validation pourrait être établie par confrontation logique avec des vérités premières comme le voulait Leibniz, réinterprétant  correctement la logique démonstrative d'Aristote, s'il existait des vérités premières. Mais nous savons aujourd'hui ce que valaient les vérités premières mises en avant par  Leibniz.. Ne demeure alors que la validation expérimentale, et une validation, comme le souligne Peirce, qui ne peut dépasser la vraisemblance, une validation que des faits nouveaux peuvent venir secondairement invalider. Lavoisier avait déjà compris la supériorité de l'expérience sur le raisonnement, mais il n'avait pas compris la réduction dans l'approche expérimentale, qui va de la vérité ou de la certitude, à la seule vraisemblance.

 

D'aucun pourraient voir dans cette réduction, une dévalorisation partielle de la méthode expérimentale, mais en fait, il n'en est rien. Pour le comprendre, il faut, avec William James, passer du critère de véracité au critère d'utilité. Il n'y a pas de données cognitives "vraies", seulement des données "utiles" et utiles à une certaine époque, dans un certain contexte, ce qu'exprime le caractère de vraisemblance provisoire. Cette règle s'applique à toutes les données de connaissance. L'histoire des sciences démontre à quel point, dans tous les domaines, ce qui passait hier pour une vérité ou une évidence, devient le lendemain, contestable sur le plan expérimental. K. Popper a insisté sur le fait qu'une bonne théorie scientifique doit permettre de définir les expériences qui l'invalideraient, et les expériences répétées de Michelson-Morley viennent immédiatement à l'esprit. La description scientifique est distincte du fait expliqué, bien que les deux puissent avoir la même structure, ce qui rend compte de l'utilité de la première, dit Korzybsky. La méthode expérimentale reconnaît l'impossibilité d'établir des certitudes, mais ce faisant, elle rend mieux compte de ce qu'est la connaissance, que toute autre approche cognitive. La méthode expérimentale traduit un optimum d'équilibre cognitif par autorégulation. Les prémisses fondamentales ne sont pas prises pour des certitudes, mais sont néanmoins tout à fait utilisables pour obtenir des résultats efficaces.

 

Récemment, l'approche expérimentale des neurosciences a complété la boucle qui limite le domaine de la science. Ce que nous appelons le réel apparaît pour une très large part, une construction liée aux particularités et à l'activité du cerveau. Le temps et l'espace sont bien des données a priori, mais parce qu'elles résultent de mécanismes cérébraux innés. Le point de vue néo-kantiste de F. Lange et Helmholtz est devenu une donnée scientifique observable. Construit ou perçu, le réel devient relatif à notre façon de connaître, ce qui renvoie à des boucles dont il est impossible de sortir. Faute notamment de n'avoir de notre fonctionnement qu'une connaissance relative, il ne nous est pas possible d'épuiser la connaissance du réel. Il me paraît vain de penser que le progrès cognitif surmontera un jour, ces boucles. Or l'honnête homme n'accepte pas de demeurer sur des points d'interrogation. Comme l'avait pressenti Pierre Duhem, avec beaucoup moins de raisons que nous n'en avons aujourd'hui, il y a donc un domaine de réflexion qui ne relève pas de la science et qui va au-delà de la science, ce qui devrait définir la métaphysique.

 

Cette métaphysique a, elle-même, ses limites puisque, par définition, elle échappe au jugement rationnel. Elle n'en est pas moins respectable et nécessaire, mais il est essentiel d'en bien comprendre l'approche. La métaphysique relève de la croyance, c'est à dire d'une adhésion subjective et compulsive qui va au-delà du rationnel. Par définition, il peut y avoir plusieurs métaphysiques, éventuellement contradictoires, et toutes a priori respectables si elles acceptent de se situer "après" la physique. Le métaphysicien doit parfaitement connaître l'ensemble des approches expérimentales établies, afin de n'en point faire, dans ses spéculations métaphysiques, un usage illégitime. Le risque inverse existe également, et il est tout aussi condamnable. C'est le cas lorsque William James discute de façon très ambiguë de la croyance en Dieu, sans opposer nettement la notion métaphysique de Dieu, et le côté d'utilité comportementale de l'adhésion à la morale chrétienne.