CHAPITRE 1: L'EVOLUTION DES CONCEPTIONS EPISTEMOLOGIQUES
"Le sens commun estime raisonnable d'attribuer la plupart de nos sensations à des causes qui agissent de l'extérieur sur nos corps. Il ne croit pas que la chambre où nous sommes assis cesse d'exister dès que nous fermons les yeux ou allons nous coucher. Il ne croit pas que notre femme ou nos enfants sont de purs produits de notre imagination. En cela, nous pouvons être d'accord avec le sens commun; mais où il a tort, c'est lorsqu'il suppose que les objets ressemblent intrinsèquement aux perceptions qu'ils causent."
Bertrand Russell
"Toute la question de la réalité, célèbre en philosophie, provient de la valeur abusive donnée au mot réalité. Si ce moi eût été mis au point, et empêché de fuir hors de toute pensée nette, le problème eut disparu ou se fut prodigieusement transformé.
Paul Valéry
Résumé Au moins dans la pensée occidentale, le réalisme marque le point de départ de la réflexion épistémologique, et constitue une référence pour les évolutions ultérieures de cette réflexion.
1. Analyse critique du Réalisme. Doit-on brûler Platon, Aristote et Saint Thomas d'Acquin ? Tendance spontanée de l'esprit humain, le réalisme philosophique a été formalisé pour la première fois par l'école de Milet, dans la Grèce pré-socratique. Il a ensuite été vulgarisé au travers des oeuvres de Platon et d'Aristote, puis conduit jusqu'à nos jours. Il recouvre en fait trois affirrnations distinctes :A) Le Monde existe. Il n'y a aucun sens à discuter cette assertion car cela mettrait notre propre existence en doute. Mais il est fondamental de souligner que cette assertion réaliste indiscutable, est indépendante des deux suivantes.
B) Le Monde est tel que nous le percevons. C'est en fait une attitude limite, jamais pleinement défendue par les philosophes réalistes qui ont toujours admis un minimum de distorsion subjective. Mais la critique doit aller plus loin et affirmer qu'a priori, tout découpage en objets distincts, toute propriété constatée dans le Monde est marquée par les particularités de l'observateur, traduit la relation entre l'observateur et l'observé. L'objet de la Science est de corriger l'effet de la distorsion perceptive, permettant une évolution continue vers une meilleure compréhension du réel.
C) Les idées, les essences, les formes ont une existence réelle et une indépendance. Ce point est des plus contestables. Toutes les structures ont normalement une naissance et une histoire, résultent d'une création par un système qui les précède et les dépasse. Le concept, notamment, est une création de l'activité mentale humaine, par abstraction des données du vécu. En revanche, le concept une fois formé, peut se détacher de ses origines, ce qui donne l'illusion de son caractère premier et irréductible. Le concept réfléchit l'attitude cognitive d'une époque, et il n'y a pas de raison de l'accepter obligatoirement comme une réalité "en soi".
2. Les oppositions au Réalisme. : Certaines accordent le primat à l'environnement, faisant de la sensation la base de toute connaissance et considérant une élaboration progressive du sujet connaissant par pression de l'environnement. A l'opposé, sous sa forme native, l'idéalisme initial a surtout la signification historique d'avoir mis le réalisme en cause, au travers de la "révolution copernicienne" : si de nombreuses générations se sont trompées en plaçant la terre au centre du monde, nous devons nous méfier aujourd'hui de toutes les évidences. Les autres affirmations épistémologiques de Kant sont sans doute plus discutables. L'idéalisme kantien revu par Helmholtz nous parait beaucoup plus positif. Helmholtz affirme que les formes a priori de la sensibilité correspondent à l'inné physiologique; un "écran" sensoriel vient s'insérer entre le monde extérieur et la conscience, marquant par sa nature propre les données perçues d'environnement. C'est implicitement l'annonce des interfaces perceptivo-sensorielles, relayée récemment par la découverte des mécanismes constitutionnels d'analyse perceptive.
3. L'Opposition des approches scientifiques et philosophiques. Elle s'est progressivement dessinée au XVIIème et XVIHème siècle dans un climat de contestation du rationalisme religieux. Le courant positiviste, inauguré par Auguste Comte, a surtout un intérêt historique et d'analyse critique des autres conceptions épistémologiques. En revanche, la phénoménologie présente le caractère hautement positif de centrer la connaissance sur la rencontre entre un sujet et un objet. Mais, faute de suivre une dimension historique qui expliquent la genèse de structures cognitives, la phénoménologie risque de dériver vers le réalisme des espèces naturelles en postulant des essences, des formes, des normes, sous l'aspect de structures irréductibles et admises a priori, conjointement présentes dans l'Univers et l'entendement humain.
4. La Nouvelle Alliance de la philosophie et de la science.
4.1. G. Bachelard et l'histoire des sciences : G. Bachelard fournit des clefs précieuses pour comprendre l'évolution des sciences. En revanche, l'auteur n'apporte aucune donnée permettant d'expliquer le développement cognitif ontogénétique, de préciser les mécanismes communs au développement ontogénétique et à l'évolution des théories scientifiques.
4.2. K. Popper et la connaissance conjecturale : K. Popper montre que l'induction ne peut conduire à la certitude et que toute connaissance est seulement conjecturale. Il croit en une épistémologie évolutionniste où toute connaissance nouvelle est une modification d'une connaissance antérieure, ce qui en fin de compte appuie toute démarche cognitive sur des dispositions innées. Popper croit en une "connaissance objective", créée par l'homme mais acquérant une existence indépendante de ses créateurs, contenant des théories vérifiées mais aussi des théories fausses ou invérifiables.
4.3. Le constructivisme piagétien : il a été formulé par J. Piaget dans la suite de J.M. Baldwin et E. Claparède; il constitue une alternative cohérente au réalisme. La connaissance apparaît comme l'organisation progressive des données issues de la rencontre entre le sujet et son environnement. Le constructivisme permet seul une confrontation satisfaisante entre données neurophysiologiques et données psychologiques. On peut cependant reprocher à J. Piaget de ne pas avoir fait une part suffisamment belle à l'organisation cérébrale innée. Le constructivisme retrouve avant la lettre l'affirmation de Niels Bohr, faisant de l'homme un acteur et non pas seulement un spectateur au théâtre de la Nature, sans tomber pour autant dans les difficultés de l'idéalisme kantien. La découverte des mécanismes perceptifs constitutionnels apporte une dimension nouvelle au constructivisme. Les interfaces perceptivo-sensorielles fournissent une interprétation immédiate de l'environnement, précédant toute expérience, mais marquée par les particularités de ces interfaces. La construction cognitive ultérieure apparaît alors comme une révision de ces données immédiates, établie à partir des échecs comportementaux au contact de l'environnement.
4.4. Les conséquences de l'analyse de la matière : la notion de substance est réduite à rien par la théorie atomique et la mécanique quantique. Le réalisme traditionnel faisait un large emprunt à la différence de substances pour expliquer disparités et propriétés dans l'Univers. La théorie atomique s'oppose à l'irréductibilité des différences de substances. La mise en relation d'éléments discrets, concrets ou virtuels, est la véritable créatrice de significations et propriétés nouvelles. La mécanique quantique développe la critique de la substance et illustre une connaissance conçue comme l'analyse d'une rencontre entre un sujet connaissant et une régularité de l'environnement.
Au total, la succession historique des conceptions épistémologiques accorde une part croissante à la constitution et à l'activité humaine dans la genèse des connaissances. Mais au lieu d'être admise a priori comme dans l'idéalisme kantien, l'activité humaine doit devenir elle-même objet d'étude, tout spécialement sur le plan neurophysiologique et sur celui du développement ontogénétique. Le discours premier doit être mis en question. La relation doit occuper toute la place laissée vide par une recherche sans espoir des différences de "substances", ce qui justifie a priori tous les réductionnismes. La connaissance évolue vers un progrès continu, mais un progrès qui ne peut être défini par avance. Les thèses de l'autonomie biologique s'insèrent aisément dans cette évolution de l'épis témologie.
-----------------
Nous avons hérité de notre maître Piaget, le souci de présenter toute notion épistémologique nouvelle en référence avec les positions traditionnelles de différentes écoles. Les idées nouvelles se nourrissent spontanément des difficultés apparues lors de la mise en pratique d'idées plus anciennes. De nouvelles conceptions épistémologiques doivent donc être analysées, pour être bien comprises, par rapport à des conceptions plus traditionnelles.
Cependant, une analyse exhaustive des différents courants épistémologiques passés ou présents est hors de notre compétence. Nous souhaiterions plus modestement définir les repères que nous avons cru pouvoir relever, précisant une évolution dans les thèses qui se sont succédées depuis vingt cinq siècles en Occident. En 1929, dans "Process and Reality", A.H. Whitehead écrivait "The safest general characterization of the European philosophical tradition is that it consists of a series of footnotes to Plato". Cette opinion nous parait globalement justifiée, bien qu'outrancière. D'une part, Platon est l'héritier de l'école milésienne et d'autre part, la révolution copernicienne de Kant a introduit indiscutablement une remise en question de nombreuses données platoniciennes. Il n'empêche que le réalisme platonicien continue à constituer la référence autour de laquelle est organisée toute l'analyse critique en Epistémologie. L'histoire de l'épistémologie nous a semblé pouvoir être centrée effectivement sur la formulation initiale du réalisme, comme le voulait Whitehead, puis sur les critiques auxquelles ce réalisme a donné lieu; ces critiques nous ont paru joué un rôle majeur dans la proposition et l'édification de conceptions épistémologiques nouvelles.
1. Le Réalisme, attitude épistémologique spontanée.
Nombre de doctrines philosophiques, passées ou présentes, du reste souvent contradictoires, pourraient se recommander du réalisme. Elles ont en commun d'affirmer l'existence ontologique des objets du monde environnant (Lalande):
- cette existence est indépendante des représentations que les objets peuvent fournir à un sujet connaisseur ; l'objet existe même s'il n'est pas perçu.
- mais surtout, les propriétés ontologiques de ces objets sont accessibles, sinon à la perception, du moins à la réflexion de ce même sujet. Pour le réalisme, le sujet perçoit l'objet tel qu'il "est".
- il s'associe typiquement la notion que les concepts qui décrivent l'existence et les propriétés de l'objet ont une valeur et une existence propres.
- comme J. Piaget l'a souligné, il en résulte un certain primat de l'objet sur le sujet, et donc un certain recul dans l'importance du sujet, l'acceptation d'une réalité indépendante de l'esprit qui la conçoit.
1.1 Le Réalisme naïf ou vulgaire.
Le moindre effort d'introspection met en évidence que les contenus de conscience correspondent à un appris ou un vécu antérieur, même si l'imagination permet de dépasser les limites de ce vécu. Le discours appris, notamment, est au centre de la réflexion consciente. Lorsque l'homme commence à réfléchir sur le sens de la connaissance, ce qui ne survient guère avant l'adolescence, il a déjà acquis un discours et un système de connaissance qu'il vit spontanément, mais qu'il ne peut juger, faute d'une mémorisation suffisante des conditions de formation.
La première réflexion sur ce système de connaissance est donc spontanément marquée par des intuitions immédiates qui découlent de la façon dont la relation avec l'extérieur est vécue :
- il y a une opposition entre le moi-sujet et l'objet, chacun ayant leur existence indépendante.
- le discours dont l'origine n'est pas perçue, paraît le support de la pensée, et il est valorisé a priori, dans les concepts admis sans preuve et idéalisés, aussi bien que dans le formalisme logique.
Tout naturellement, il y a confusion complète entre l'objet et la connaissance qu'on peut en avoir. Ce point de vue est accentué par le fait que les connaissances sont avant tout acquises auprès d'autrui et donc partagées avec lui. Ainsi apparaît le réalisme naïf qui sera toujours une étape obligatoire dans le développement cognitif individuel, tellement il semble évident en première analyse et s'impose avant qu'une réflexion n'en montre les faiblesses. Inversement, l'histoire de l'épistémologie pourrait être ramenée à une longue et difficile prise de conscience de ces faiblesses et à la nécessité de corriger l'approche réaliste de la nature de la connaissance.
1.2. Le Réalisme philosophique du Monde grec.
Ce qui vaut dans une évolution cognitive individuelle, vaut tout autant dans l'évolution socioculturelle du groupe et il est normal que les premières conceptions épistémologiques formalisées aient été réalistes. C. Hagège (077) propose l'hypothèse très plausible selon laquelle un langage écrit phonétique a constitué la réflexion indispensable du langage oral, pour en permettre l'analyse. La traduction écrite littérale a pour le moins favorisé la conservation de concepts abstraits, survivant à leur créateur et orientant vers une vie propre du discours.
1.2. 1. La première formalisation du Réalisme.
Le réalisme grec, initié par l'Ecole pré-socratique de Milet et développé par Platon et Aristote, est un début de formalisation du réalisme naïf. Formalisation limitée qui s'est complétée progressivement au fur et à mesure que les critiques obligeaient les tenants du réalisme à en percevoir les implications et les faiblesses. Sur un point, Platon et Aristote se rejoignent, celui d'une anthropologie qui fait de l'esprit humain une réalité irréductible, totalement différente du monde matériel, et isolée par rapport à lui. En revanche, Platon et Aristote s'opposent sur la nature des idées :
- pour Platon et ce qui fut appelé plus tard le réalisme platonicien ou le réalisme de natures, les idées sont indépendantes des objets qu'elles servent à décrire. Les idées sont même plus "réelles" que les êtres individuels et sensibles, qui n'en sont que le reflet et l'image (Lalande).
- pour Aristote, la séparation entre l'idée et l'objet est artificielle et l'accent est mis sur les opérations du discours. Par ailleurs, Aristote introduit une autre opposition, celle d'une part de la matière et d'autre part, la forme qui donne son individualité à la portion de matière constituant un objet.
1.2.2. L'Essence et la Substance.
Aristote a tenté de rendre compte de la permanence des êtres, traduisant leur réalité ontologique indépendamment des "accidents", variations de tous types de l'apparence des êtres. Aristote a fait appel à la notion d' dont les commentateurs ont souligné habituellement le sens ambigu. Nous nous hasarderons à dire que deux notions ont été tirées de l' aristotélicienne :
- "l'essence" qui forme le fond de l'être, par rapport aux modifications qui ne l'atteignent que superficiellement ou temporairement (Lalande) et qui caractérise aussi bien les êtres totalement passifs que les êtres actifs. Le passage est facile de l'essence de l'être au concept qui décrit cette essence.
-la "substance" traduit la permanence dans un "sujet", défini "en soi" et "pour soi", qui peut agir et subir des changements qui le laissent "le même"(Lalande). Assez paradoxalement, c'est le terme de substance qui a été ultérieurement retenu pour définir la "matière" physiquement ou chimiquement définie.
On peut alors retenir certains points caractérisant l'aristotélisme et toutes les doctrines qui en sont nées
- l'existence de "sujets" est affirmée. Le sujet est lié à un principe irréductible, la substance.
- essences et substances sont irréductibles.
- ce sont les différences d'essences ou de substances qui supportent fondamentalement les descriptions cognitives au sein d'une épistémologie nécessairement typologique.
1.3. La querelle des Universaux.
Au troisième siècle après le Christ, Plotin remit Platon à l'honneur, faisant par ailleurs des emprunts à la doctrine chrétienne naissante. On comprend facilement l'adhésion de Saint Augustin à ce néo-platonisme, adhésion qui engagea pratiquement la pensée occidentale durant les sept siècles suivants. C'est sans doute le renouveau d'un intérêt philosophique, très net chez un Béranger de Tours au Xlème siècle, qui expliqua l'apparition simultanée des premiers détracteurs du réalisme. La contestation ne portait pas sur l'accessibilité du réel à l'analyse mais sur le réalisme des idées. Roscelin fut le premier nominaliste : il réfuta les idées générales qui n'étaient pour lui que des signes généraux. En opposition, l'enseignement officiel de l'Eglise affirmait que les idées générales ou universaux existent indépendamment des choses dans lesquelles ils se manifestent.
Le conflit du nominalisme et du réalisme se poursuivit dans les siècles suivants et favorisa une réflexion sur le sens véritable du réalisme. Cela apparaît notamment dans l'évolution du vocabulaire. Les termes même de "reales" et de "nominales" furent utilisés dès Albert le Grand au XIIIème siècle, mais la conceptualisation du réalisme et du nominalisme n'a été complètement effectuée qu'au début du XIXème siècle. Cette opposition doctrinale a eu deux conséquences fondamentales:
- elle a conduit pour la première fois au conceptualisme, doctrine très positive formulée par Abélard au début du XlIème siècle, et qui se voulait un compromis entre réalisme et nominalisme. Selon cette doctrine, les idées ou les universaux n'existent pas en eux-mêmes, mais ils ne sont pas de simples signes; ce sont des opérations propres de la pensée.
-la stérilité des premières discussions scolastiques a sans aucun doute favorisé au Xlllème siècle, le retour à Aristote sous l'impulsion de Saint Thomas d'Acquin, ouvrant davantage à l'étude de la nature et au rôle des sensations.
1.4. Le Réalisme des Temps modernes et d'aujourd'hui.
Le "Cogito" de Descartes (046) marqua une avancée fondamentale en épistémologie par la prise en compte du sujet connaisseur. La thèse cartésienne n'en reste pas moins marquée de réalisme platonicien dans une recherche de preuve ontologique d'existence. A la suite de Descartes, le réalisme demeura extrêmement puissant dans la pensée moderne en dépit de la révolution copernicienne de Kant. Il est au centre du débat qui opposa Einstein et l'école de Copenhague sur le sens de la mécanique quantique. Le réalisme platonicien le plus pur caractérise à l'aube du XXème siècle le Bertrand Russell première manière (184) et la préexistence des idées est considérée par G. Bateson en 1979 comme la découverte la plus fondamentale de Platon (O 10).
Le réalisme de Pierre Duhem (052), à la fin du XIXème siècle, est beaucoup plus construit et argumenté que l'affirmation gratuite de Bateson. Physicien français du début du siècle, Duhem a été immédiatement célèbre à l'étranger pour ses analyses épistémologiques. Ses oeuvres sont en train de sortir en France du ghetto où les avaient plongées le conservatisme politique et religieux de leur auteur. Duhem souligne la séparation complète et nécessaire entre l'approche scientifique et métaphysique. En revanche, il soumet la théorie scientifique aux faits, indiquant que la théorie n'est rien d'autre qu'un lieu géométrique de cohérence des faits entre eux. Inversement il affirme le primat du fait, recueilli directement et en toute indépendance de la théorie. Ce faisant, il se fait "l'apôtre du sens commun, seul fondement de toute certitude" ce qui revient à une profession de foi réaliste.
Aujourd'hui, c'est surtout dans l'explication des Mathématiques que le réalisme est le plus agressif. K. Gödel, célèbre pour avoir montré l'indécidabilité dans le raisonnement mathématique, fut aussi un grand théoricien du réalisme mathématique; P. Benacceraf, H. Putnam, P. Maddy en demeurent, à la suite de W.V.O. Quine, d'ardents défenseurs. Il est remarquable que ces auteurs s'appuient uniquement sur des arguments logiques, donc bouclant sur eux-mêmes, et négligent les connaissances acquises sur le fonctionnement mental au travers de la neurophysiologie ou du constructivisme psychologique.
Par ailleurs, plusieurs mouvements ont conduit durant la première moitié du siècle, à postuler un discours premier, sans que soit formulée pour autant une référence explicite au réalisme. Le pavlovisme russe a tenté de placer dans un langage défini a priori, tout ce que le conditionnement pouvait présenter de spécificité chez l'homme social par rapport à l'animal. Le structuralisme linguistique de Jacobson, reprend dans un contexte très différent l'affirmation du discours premier. Lacan a repris les explications psychanalytiques dans le cadre du structuralisme linguistique. Le développement de l'Informatique a orienté vers des conclusions similaires. Les opérations logiques pouvant être aisément reproduites par la machine, de nombreux penseurs ont recherché dans les significations premières, les particularités du fonctionnement mental humain.
Au travers de cette permanence historique, il est possible de définir un réalisme strict et son contenu, sous un triple aspect:
- le réalisme affirme l'existence de l'Univers.
- le réalisme ontologique affirme que l'Univers, la Nature, l'environnement, ont des propriétés "en soi" indépendantes d'un observateur et directement accessibles à la connaissance. L'esprit humain peut avoir accès à ces propriétés ontologiques, non seulement de façon directe et perceptive mais surtout de façon critique en partant de vérités d'évidence qui ne sauraient être sérieusement mises en cause; la logique permet de relier de façon contraignante à ces vérités, des propositions initialement hypothétiques.
- des structures primaires irréductibles, idées ou concepts du discours mais aussi formes ou essences, ont une existence et une valeur propre, indépendante du penseur qui les manipule. Ainsi l'espace, le temps, le nombre, le bien, le mal, la libido, le cru et le cuit ont une existence propre, évidemment supra-biologique. Il découle obligatoirement de ce dernier point que le sujet qui manipule ces notions abstraites est lui aussi irréductible à un fonctionnement biologique.
1.5. La critique du Réalisme.
Implicitement ou explicitement, le réalisme a été l'objet de nombreuses critiques. Les premières formulations d'Aristote se heurtèrent immédiatement aux objections de Pyrrhon et des sceptiques qui pensèrent illusoire de pouvoir établir une vérité. Tout naturellement le réalisme a été ébranlé par la remise en cause de données qui semblaient antérieurement des vérités d'évidence, comme l'organisation géocentrique de l'Univers, ou la croyance qu'un objet en déplacement s'arrête inéluctablement si aucune force ne lui est appliquée. Il est manifeste que la mise en cause de ces vérités entraîne un point d'interrogation systématique sur toutes les autres vérités dites d'évidence.
Le réalisme a résisté néanmoins assez bien aux critiques, jusqu'à ce qu'apparaissent, depuis la fin du XIXème siècle, des objections beaucoup plus graves. Ces objections ne sauraient être d'ordre logique. De nombreux auteurs, de B. Russell à H. Putnam ont discuté du réalisme, en terme de cohérence logique. Qu'il s'agisse de défendre ou d'attaquer le réalisme, une telle discussion ne nous paraît guère avoir de sens. Elle repose sur un discours limité à un maniement de concepts dont la valeur est justement l'objet du débat. L'argumentation réaliste ne peut donc rien prouver pour un adversaire du réalisme. L'argumentation anti-réaliste est tout aussi auto-réfutante puisqu'elle critique la signification ontologique des concepts qu'elle utilise dans ses démonstrations. En revanche, des arguments plus éloignés d'une simple discussion de logique ont une grande valeur.
1.5.1 La fin des vérités premières.
Kant avait fort bien compris que l'espace et le temps constituaient des références cognitives essentielles, et le fait qui vaut pour l'idéalisme kantien, vaut tout autant pour le réalisme. La géométrie euclidienne, le temps et l'espace absolus des théories newtoniennes paraissent bien constituer des vérités d'évidence fondamentales auxquelles doit se rattacher le réalisme. Or toute la construction de ces vérités s'est effondrée à la fin du XIXème siècle. Leibnitz avait déjà indiqué qu'à son avis, espace et temps n'étaient pas autre chose que des relations entre événements. Mais ce furent surtout les analyses de Mach qui démontrèrent l'inanité du temps et de l'espace absolus, indépendamment même de l'expérience décisive de Nlichelson-Morley. Parallèlement, les travaux de Lobatchevski et Riemann reléguaient la géométrie euclidienne au rang d'un cas particulier parmi d'autres géométries possibles. Au total les référentiels d'espace et de temps ne pouvaient plus être considérés comme des points d'ancrage d'une description réaliste.
On a pu objecter que le référentiel espace/temps relativiste pourrait être le véritable référentiel réaliste. L'argument ne vaut guère car bien plus encore que l'espace et le temps newtoniens, l'espace/temps relativiste paraît une construction, déduite par formalisation de l'expérimentation. Le nombre, autre référence primaire du réalisme, apparaît réductible à une combinaison d'activités opératoires, associant comme l'ont montré J. Piaget et J.B. Grize (076), une approche cardinale et ordinale des collections. L'école constructiviste de mathématique a souligné l'intérêt et la possibilité d'une réduction d'un grand nombre de concepts mathématiques (002).
1.5.2 La fin de la Logique transcendante.
De 1915, date de la première publication du théorème de Lowenhein, jusque en 1936, date du théorème de Church, plusieurs logiciens ont montré (1 18) :
- soit que certains systèmes fondamentaux pour formaliser les mathématiques contiennent nécessairement des propositions indécidables qui ne peuvent être ni dérivées, ni réfutées. Cette affirmation correspond au théorème de Gödel (139) mais elle est également proche du théorème de Church.
- soit que pour tout système assez vaste, la notion de vérité permettant d'associer à chaque proposition du système un symbole "vrai" ou "faux" ne peut elle-même être formalisée à l'intérieur du système. C'est le théorème de Tarski.
Autrement dit, la logique dans son ensemble comporte des propositions indécidables et ne peut formaliser ses propres critères de vérité dès qu'elle est appliquée à une situation empirique non totalement définie par avance. Cela ne diminue nullement l'utilité pratique de la logique mais celle-ci ne peut démontrer une validité propre, indispensable à la mise en pratique d'un réalisme sans nuances dans l'analyse de l'environnement.
1.5.3. L'analyse diachronique du discours
Le réalisme platonicien revient à affirmer un discours premier où les concepts ont une existence indépendante des objets qu'ils décrivent. Cela devrait aboutir à une préexistence du concept par rapport à l'objet qu'il décrit. Or, en fait, pour la quasi-totalité des concepts utilisés aujourd'hui, le processus est chronologiquement inverse: 1'utilisaùon du mot et son contenu apparaissent secondaires à l'expérience. Cela est aussi manifeste sur le plan dudéveloppement individuel et sur le plan culturel.
- l'enfant construit progressivement son corpus sémantique, apprenant à nommer ce qu'il a connu auparavant. Le fait est absolument évident pour les premiers mots, le petit enfant inventant véritablement des mots qui lui sont propres pour traduire ses expériences; Jean Piaget a bien étudié ce phénomène (149). Nous avons pu constater nous-même la capacité du jeune enfant à effectuer des constructions verbales incorrectes à partir de suffixes ou de préfixes. Une petite fille de trois ans annonce qu'elle va "dévaler" pour indiquer qu'elle a une nausée. L'invention de l'étiquette verbale utilisée pour traduire une expérience est alors manifeste.
Le processus est moins évident au niveau conceptuel mais tout aussi réel, expliquant notamment les "bons mots" des enfants, qui reflètent simplement une erreur sur le sens exact des mots. Le vocabulaire s'enrichit selon des règles précises et universelles pour un groupe social donné. Lorsque le mot est abstrait et appris avant que la signification conceptuelle du mot ne corresponde aux capacités cognitives de l'enfant, on peut observer une précision ultérieure de la signification. Ainsi, nous avons pu constater que le mot paresseux" est synonyme de méchant" pour l'enfant de quatre-cinq ans. Il désigne le camarade "qui ne sait pas écrire" ou "qui est mal vu par la maîtresse" pour l'enfant de six ans. C'est seulement vers sept ans que "paresseux" signifie "qui ne veut pas lire et écrire", et seulement vers huit ans que la signification " ne veut rien faire" est acquise. Enfin, la distinction entre paresse et oisiveté est encore plus tardive.
- alors qu'un élève de dix-sept ans de notre société peut, selon G.A. Miller (130), signifier avec précision une moyenne de quatre-vingt mille formes verbales différentes, les sociétés actuelles dites primitives ont un vocabulaire limité à quelques centaines de mots. Dans le langage de notre société, beaucoup de mots traduisent une combinaison de mots ou de concepts plus simples, mais cela est également vrai pour les sociétés primitives. Il faut donc bien que la plupart des concepts aient été historiquement créés. On le constate du reste aisément chez les auteurs présocratiques, souvent difficiles à interpréter car ils sont obligés d'utiliser des comparaisons concrètes pour étiqueter des contenus conceptuels que nous désignons aujourd'hui par des termes abstraits spécifiques. Inversement, il est facile de constater que beaucoup de termes abstraits sont des métaphores décrivant une réalité concrète, comme "la source" désignant l'origine.
- à l'inverse, de nombreux concepts, de la licorne au phlogistique, qui ont longtemps paru recouvrir une réalité concrète indéniable, apparaissent aujourd'hui correspondre à des classes vides. L'étude comparée des langues étrangères montre qu'elles utilisent des découpages conceptuels qui se chevauchent souvent; il est alors difficile d'admettre que les concepts pré-existent à ce découpage. Il est donc légitime de s'interroger systématiquement sur le contenu de tout concept. Or la dynamique épistémologique du réalisme est fortement dévalorisée si dans 1'utüisation d'un concept abstrait, il faut envisager qu'il corresponde à une classe vide. Le réalisme est encore mis en accusation lorsque les catégories comme la couleur, la forme, qui semblent des concepts particulièrement significatifs par eux mêmes, apparaissent comme nous le verrons, correspondre en fait à des mécanismes cérébraux unitaires.
1.5.4. Le réalisme rejeté au niveau du concept pourrait réapparaître au niveau des symboles.
Depuis Freud et surtout Jung, de nombreuses études anthropologiques démontrent une universalité au moins relative des symboles (051). Il y a peu de chances que cette universalité ait pu être réalisée par une diffusion universelle à la suite de créations locales et on pourrait faire l'hypothèse d1une origine "patrimoniale" de certains symboles au moins, correspondant à un point de vue réaliste. Cette explication réaliste n'est cependant pas obligatoire, comme l'ont suggéré J. Laplanche et J.B. Pontalis analysant l'apparition des fantasmes originaires freudiens, et gênés avec raison par une théorie de transmission génétique héréditaire des symboles(1 17). Ils proposent l'alternative d'une explication épigénétique faisant appel à l'uniformité du contenu de la vie sexuelle infantile et la constance des influences modificatrices ultérieures. Dans une approche d'autonomie, il faudrait y adjoindre les concepts d'homéorhésis* et de créodes*, proposés par Waddington et repris par Piaget (151). Selon ces concepts, une similitude même partielle de constitution et des conditions d'environnements voisines dessinent des chemins épigénétiques obligatoires ou créodes. Une force autonome, l'homéorhésis, ramène le développement épigénétique* vers ces créodes* lorsqu'apparaissent des effets déviants. Sans obligatoirement suivre Laplanche et Pontalis sur la validité des fantasmes originaires, il est fort possible de retenir une explication secondaire, épigénétique, à l'universalité des symboles et ne pas y voir nécessairement un argument probant en faveur du réalisme de natures.
En définitive, les piliers fondamentaux qui semblent indispensables à l'affirmation du réalisme, se sont effondrés et il est généralement possible d'expliquer "autrement" les arguments qui pourraient être proposés en faveur du réalisme. Il devient alors tout à fait légitime d'envisager des corrections importantes du réalisme traditionnel ou à défaut, de se tourner vers des épistémologies non réalistes.
1.6 Les corrections du Réalisme.
Il faut les envisager indépendamment sur le plan du réalisme des objets et sur celui des concepts.
1.6.1 Le Réalisme ccritique et le Réalisme voilé de B. d'Espagnat.
La critique du réalisme la plus radicale et la mieux argumentée vient des physiciens philosophes de la mécanique quantique, Niels Bohr, Wemer Heisenberg et Erwin Schrödinger. Soumis aux impératifs de pensée qu'exigeait l'approche de la microphysique, ces physiciens ont compris que la révolution conceptuelle à laquelle ils devaient se plier, avait une valeur universelle. Schrödinger notamment (188), fit remonter à l'école de Nfilet, au Vlème siècle avant le Christ, ce qu'il nomma "l'objectivation" et qu'il considéra comme une déformation de la pensée: Thalès, Anaximandre et Anaximène auraient amorcé la démarche qui isole l'objet du sujet qui le perçoit et lui donne une réalité en soi. Tout le réalisme s'est évidemment construit à partir de cette notion que Schrödinger condamna vigoureusement, affirmant que l'observateur et l'observé forment un tout indissociable. Schrödinger défendit l'idée que l'objet isolé n'existe qu'en fonction du sujet qui le pense. On peut objecter que l'école milésienne a seulement formalisé une attitude qui existait spontanément auparavant mais l'influence sur le développement du réalisme n'en a pas été amoindrie et la critique n'en perd pas pour autant sa valeur.
Il nous semble cependant que Schrödinger va trop loin dans sa critique car il ne prend pas en compte le fait devenu évident aujourd'hui, que le réalisme, en dehors même du réalisme des idées, recouvre deux affirmations indépendantes concernant les objets environnants:
- la première concerne l'existence du monde, de "quelque chose" correspondant au moins partiellement à l'objet ou au fait, existence affirmée sans considération de propriétés. Une telle affirmation réaliste se limite à proclamer que le monde, l'objet ou le fait existent et bien entendu que l'environnement est hétérogène, qu'il présente des régularités, qu'il est possible d'y définir des propriétés, car à défaut, l'affirmation d'existence n'aurait pas de portée.
- la seconde concerne la relation entre ces régularités ou ces propriétés et la connaissance. Le réalisme traditionnel affirme non seulement que ces régularités ou propriétés ont une signification ontologique, indépendante des particularités des observateurs, mais aussi qu'elles sont aisément accessibles en tant que telles à l'entendement humain.
Ce fut le mérite de G. Santayana et de l'école américaine du réalisme critique (Realism, in E.B.) d'introduire cette distinction essentielle. L'analyse critique que nous avons essayé de conduire porte principalement sur la seconde affirmation réaliste. Rejeter totalement la première affirmation relèverait d'une croyance solipsiste peu raisonnable et dont H. Putnam a souligné le caractère d'auto-réfutation (174). W. Heisenberg (082) a fait remarquer que la distinction établie par Kant entre la réalité ontologique "nouménale" inaccessible à l'entendement humain et l'apparence "phénoménale", traduisait une croyance implicite dans la réalité nouménale.
W.V.O. Quine (176) devait aller plus loin que Santayana, affirmant une réalité des choses mais contestant le fait que les structures que nous attribuons aux choses puissent correspondre à des structures réelles, extérieures à nous. Récemment, B. d'Espagnat (062,063) est parvenu sensiblement aux mêmes conclusions que Santayana, Heisenberg ou Quine. Il a montré que l'analyse approfondie de tout objet aboutit à une approche microphysique où les données cognitives sont strictement relatives à l'observateur; l'incertitude et la relativité du niveau microscopique se reportent sur l'objet lui-même. B. d'Espagnat qualifie de réalisme voilé cette affirmation de l'existence d'un monde présentant des régularités sans possibilité d'analyses autres que relatives à l'observateur. Nous partageons ce point de vue qui associe une reconnaissance de la réalité du monde et une conception épistémologique beaucoup plus critique vis à vis du réalisme au sens plein du terme, d'un réalisme que H. Putnam qualifie d'externe (174).
Il est possible d'aller plus loin dans l'acceptation du réalîsrne. Une fois admis la distinction entre le noumène et le phénomène, il est tout à fait raisonnable d'admettre qu'il peut y avoir une adéquation partielle bien que non démontrable, entre notre représentation du monde et ses régularités ou hétérogénéités authentiques. Nous pensons même que le développement des connaissances traduit justement un progrès du niveau d'adéquation.
1.6.2. L'Oubli et le Réalisme des concepts.
Le réalisme critique ou le réalisme voilé paraissent des réponses bien adaptées aux problèmes contradictoires posés par la signification de notre représentation du monde. Une même réflexion peut être conduite au niveau du réalisme platonicien qui recouvre également deux conceptions distinctes :
- le réalisme traditionnel accorde aux êtres abstraits une existence authentique, pleinement indépendante des organismes biologiques qui les manipulent. C'est la position extrême de Ch. Hermite par exemple (cité par Lalande) qui ne craignait pas d'affirmer à propos des entités mathématiques, "qu'elles existent en dehors de nous avec le même caractère de nécessité que les choses de la réalité objective, et que nous les rencontrons ou les découvrons, ou les étudions comme les physiciens, les chimistes et les zoologistes." C'était la position de Saint Thomas d'Acquin affirmant que les universaux avaient une existence "ante rem" dans l'esprit divin.
- il existe une conception beaucoup plus nuancée qui se contente d'affirmer que certains êtres abstraits, souvent indispensables au raisonnement, paraissent effectivement permanente, irréductibles et indépendants des mécanismes qui font appel à eux comme des organismes qui les manipulent, mais sans qu'aucune hypothèse de principe ne soit formulée concernant l'existence propre de ces êtres abstraits.
Ce second point de vue nous paraît beaucoup plus raisonnable et peut être à même de clarifier les problèmes posés par le réalisme des concepts, tout spécialement le réalisme mathématique. Il est en effet possible de concilier l'indépendance et l'irréductibilité du concept avec une origine construite, ramenant l'être abstrait au résultat d'une activité d'abstraction effectuée par un organisme, mais s'étant ensuite pleinement détaché de cet organisme et des objets dont l'abstraction était dérivée.
Cette conception du concept seulement irréductible en apparence, renvoie à deux notions:
- la première notion est celle de l'émergence régulière de structures originelles, à partir d'éléments et du jeu d'un organisme, mais se libérant ensuite de ses origines; seule une analyse historique délibérée peut parfois retrouver les conditions de l'émergence mais la réflexion logique peut construire un modèle vraisemblable d'émergence. Cette thèse de l'émergence est une des idées clef que nous tentons de défendre dans ce travail,
- la seconde notion est celle des effets de l'oubli. La mémoire individuelle ou collective pérennise bien davantage le résultat final d'un processus constructif que les circonstances de la construction. Par ailleurs, les mécanismes constructeurs n'ont nul besoin d'être bien analysés pour que le résultat de leur activité fassent l'objet d'une fixation mnésique. Un concept peut donc être créé et sa signification retenue alors même que les circonstances de sa création sont oubliées. Or la majorité des concepts que nous utilisons témoignent de cette fixation sélective :
- l'histoire nous permet bien souvent de démontrer qu'un concept nouveau a été formé, sans pour autant que les conditions de formation soient bien définies.
- nous utilisons constamment et sans trop de gêne, des concepts, en ayant totalement oublié les circonstances au cours desquelles nous avons appris ces concepts.
En définitive, il suffit d'envisager que le concept une fois construit, se détache des conditions de sa genèse pour qu'il prenne l'apparence d'une structure première irréductible. Une comparaison pourrait être faite avec les organismes biologiques. Si nous acceptons le transformisme des espèces, ce qui est le cas de presque tous les penseurs aujourd'hui, nous devons considérer que tout organisme actuel est le résultat d'une histoire. Pourtant, nous pouvons aborder la réalité de cet organisme en presque totale indépendance de cette histoire.
En Epistémologie, la situation est partiellement identique, partiellement différente.
a) il est manifeste que tous les arguments sérieux des réalistes sont basés effectivement sur l'indépendance et la permanence des concepts, leur non réductibilité au moins apparente. Il est souvent tout à fait raisonnable d'accepter ce point de vue, tout en retenant qu'il est conciliable avec l'une ou l'autre des deux hypothèses envisagées plus haut. L'indépendance peut traduire une existence propre ou une construction mentale dont le mécanisme a été oublié. Comme le souligne J. Piaget, seule l'observation du jeune enfant, associée éventuellement à l'étude des sociétés humaines primitives, retrouvant les conditions de formation, peut apporter au débat, des arguments valables.
b) en revanche, l'utilisation du concept dans le discours, apparaît très différente selon que l'une ou l'autre des deux hypothèses est retenue:
- supposer que le concept a une existence propre authentique, c'est conclure qu'il a des propriétés invariantes, que nous pouvons progresser dans la connaissance de ces propriétés mais qu'elles n'en sont pas modifiées pour autant. Il devient légitime de poursuivre indéfiniment un raisonnement établi sur les seules propriétés des concepts utilisés, à la condition cependant que la correspondance entre concept et mot soit bijective et spontanée.
- supposer que le concept est le produit d'une réflexion humaine antérieure dans des circonstances oubliées depuis, conduit à penser que le concept ne peut réellement présenter d'invariances définitives. Dans ces conditions, l'utilisation d'un concept dans un discours circulaire cherchant à conduire jusqu'au bout les conséquences des invariances retenues, a toutes chances de conduire à l'erreur.
Pour notre part, il nous semble tout à fait légitime d'utiliser communément les concepts en leur reconnaissant indépendance et permanence. En revanche, leur refusant une existence propre, nous refusons qu'un discours conduit jusqu'aux limites de la définition actuelle d'un concept, puisse s'appuyer de façon absolue sur cette définition. Nous verrons plus loin comment G. Bachelard a pu montrer combien la définition stricte des concepts était cause d'erreurs.
1.6.3. Le Réalisme mathématique face au Constructivisme.
L'opposition entre un réalisme platonicien authentique et l'acceptation d'une irréductibilité relative des concepts est particulièrement importante sur le plan mathématique, car c'est le domaine où le réalisme de natures est aujourd'hui le plus actif. Il nous paraît que la seconde hypothèse décrite devrait satisfaire réalistes, formalistes et constructivistes.
L'attitude du constructivisme mathématique qui voudrait n'utiliser que des objets mathématiques complètement définis est peut-être épistémologiquement saine mais elle est illusoire car à défaut d'une reconstruction historique complète, le constructiviste a toujours besoin de faire appel à des concepts non réductibles pour établir une définition. Inversement, le seul fait d'affirmer que nombre de concepts mathématiques doivent être utilisés comme des entités irréductibles, sans obligation de se soucier de leur origine, devrait répondre à toutes les exigences des réalistes, faisant l'économie des difficultés nombreuses liées à un platonisme strict.
Reprenons sur ce point, la thèse la plus récente de la conception réaliste du nombre telle que P. Maddy l'envisage (123). On peut du reste souligner que si P. Maddy se déclare réaliste, les explications qu'elle emprunte à Hebb la situe bien près du conceptualisme. Paradoxalement, P. Maddy en appelle aux travaux de J. Piaget et A. Szeminska(161) soulignant que les relations entre sous-ensembles ne peuvent être correctement perçues avant les propriétés du nombre. . Elle cherche à montrer que la notion théorique de l'ensemble est une donnée réaliste et qu'elle est indissociable de la notion de nombre: "La connaissance du nombre est la connaissance de l'ensemble parce que le nombre est une propriété de l'ensemble. Réciproquement, la connaissance de l'ensemble présuppose la connaissance du nombre." Nous remarquons que P. Maddy, comme K. Gödel, part du constat qu'il doit exister "quelque chose" entre la simple combinaison de sensations au contact d'une collection concrète et la notion d'ensemble (cité par P. Maddy). Toute l'organisation perceptive, mise en évidence après les travaux initiaux de Hubel et Wiesel (V-C) explique en fait aisément ce "quelque chose", et cela beaucoup mieux que les conceptions de Hebb auxquelles P. Maddy fait référence. L'auteur s'éloigne des propres explications de Piaget auxquelles elle se réfère, Piaget disant simplement que la quantification intensive des sous-ensembles présente les mêmes exigences que la construction du nombre. Les analyses de P. Maddy nous conduisent aux réflexions suivantes :
- il est effectivement vrai en pratique que la comparaison quantifiée de sous-ensembles est considérablement favorisée par la manipulation des nombres.
- la faible étendue du champ de conscience, notion fondamentale sur laquelle nous reviendrons, empêche de percevoir simultanément le nombre, à la fois comme un outil opératoire dans la comparaison des sous-ensembles et à la fois, comme une construction apprise, par fusion d'une classe et d'une relation asymétrique, selon le schéma piagétien. Pour que le nombre soit correctement utilisé, il faut donc qu'il soit effectivement détaché des circonstances de sa création.
- le détachement du nombre par rapport aux circonstances de son apprentissage en font un outil qui paraît premier et qui est effectivement utilisé comme structure irréductible, mais cela ne contredit en rien un processus antérieur de construction du nombre.
En définitive, il peut être souhaitable de considérer des concepts mathématiques comme premiers. Les propriétés restrictives de la conscience exigent même "d'oublier" temporairement que les concepts sont construits mais en revanche, les mathématiques n'ont probablement rien à gagner et tout à perdre dans l'affirmation d'une existence propre d'objets mathématiques car elles se couperaient alors de toutes les données que la psychologie génétique et les analyses neuropsychologiques récentes peuvent leur apporter de valeur explicative.
1.6.4. Réalisme interne et conceptualisme.
Nous avons beaucoup insister sur le réalisme de notions mathématiques, notamment chez les auteurs anglosaxons, car il nous parait exemplaire pour situer le réalisme interne de Putnam par rapport au conceptualisme :
- peut-être par malchance, nous n'avons guère rencontré le terme de conceptualisme dans la littérature philosophique anglo-saxonne. L'Encyclopaedia Britannica n'y fait pas référence même dans un article largement documenté sur Abélard. Nous nous demandons alors si le "réalisme interne" de Putnam n'est pas en fait très proche d'un conceptualisme nativiste qui affirmerait l'existence dans l'activité mentale, de "formes" ou de "mécanismes" qui n'auraient pas à être appris, seraient donc inscrits dans la constitution humaine mais ne correspondraient pas pour autant à des entités du monde extérieur.
- or, nous postulons nous-même une organisation innée beaucoup plus développée que ne l'indiquait J. Piaget. Cependant nous avons le souci de relier toute capacité innée à une analyse neurophysiologique qui la met en évidence. Par ailleurs, nous conservons la distinction nécessaire entre une structure constitutionnelle et le schème mobilisable qui peut en être dérivé. La confrontation entre un réalisme "interne" et un constructivisme modifié doit se placer sur les seuls plans de l'analyse neurophysiologique, de l'observation du jeune enfant et d'une théorie de la formation des schèmes mobilisables. La question qui se pose alors nous parait la suivante : telles notions, du reste plus opératoires que descriptives, comme l'opposition entre la figure et le fond, entre l'élément et la collection, sont-elles premières, incluses dans la constitution cérébrale, et immédiatement utilisables ? Sont-elles au contraire rapidement et précocement dérivées de notions plus fondamentales qui correspondraient quant à elles, à des structures constitutionnelles ? La question nous parait tout à fait comparable à celle qui concerne la nature des grammaires, et qui a été l'objet d'un conflit entre N. Chomsky et J. Piaget (162). Il ne nous parait pas possible que soit donnée aujourd'hui une réponse claire, et dans l'état actuel des connaissances, il nous semble de peu d'importance de choisir l'une ou l'autre des réponses.
- nous aurions malgré tout tendance à penser que les formes ou mécanismes supposés premiers selon le schéma du réalisme interne, sont conçus comme trop mobilisables dans l'activité mentale pour être authentiquement premiers. Un temps d'exercice au contact de l'environnement et d'abstraction réfléchissante nous semble indispensable pour assurer une mobilisation. Inversement et contrairement à J. Piaget, nous pensons effectivement que formes et mécanismes supposés constitutionnels dans le cadre du réalisme interne, sont beaucoup plus proches de mécanismes cérébraux constitutionnels que ne le pensait J. Piaget. La distinction entre le réalisme interne et un constructivisme renouvelé devient alors une question de nuances.
1.7. Le Réalisme relatif, minimal ou pondéré.
L'analyse du Réalisme nous conduit donc à penser que les opinions contradictoires qui sont portées à son sujet, relèvent d'un mélange de points de vue dont les uns demeurent essentiels, les autres sont non seulement contingents mais nuisibles.
- il serait aberrant de contester la réalité du monde mais il est fort critiquable d'affirmer qu'il se présente spontanément à tout observateur sous des propriétés nouménales. La "réalité en soi" est une potentialité indépendante de tout observateur et de toute observation, pour que des qualifications émergent si des observations par quelque observateur se produisent(M. Mugur-Schachter), quelque chose qui admet l'unique qualification d'être qualifiable, indépendamment du fait si oui ou non des qualificateurs existent et agissent(C. Castoriadis) (138). Il nous parait indispensable d'ajouter que ce quelque chose se situe dans un espace à la fois non limité et hétérogène, ce qui le distingue d'un simple espace continu de probabilité. Cette hétérogénéité* doit être affirmée mais elle ne peut être analysée car elle est totalement masquée par l'action cognitive qui débute par un découpage subjectif, créant une hétérogénéité* autre. Tout "objet" d'analyse du monde extérieur sur lequel porte la connaissance est en effet le résultat d'une démarche subjective préalable de découpage du réel. Inversement, cette réalité s'impose comme le souligne W. Heisenberg : " On ne peut admettre de tout réduire à l'acte d'observer; dans sa science, le physicien doit postuler qu'il étudie un monde qu'il n'a pas fabriqué lui-même et qui serait présent, essentiellement inchangé, si le scientifique en était lui-même absent (083)".
- le fonctionnement mental exige l'utilisation d'idées générales, de formes, de normes ou de concepts mathématiques, manipulés comme des structures premières mais ü est tout à fait permis et même souhaitable de rattacher ces structures mentales à des circonstances de construction ancienne dont elles se sont ensuite détachées. Par ailleurs, nous corrigeons nous-même le constructivisme piagétien en reconnaissant, au moins sur le plan de l'organisation perceptive, des "formes" et surtout des "mécanismes" inscrits dans la constitution cérébrale et immédiatement utilisables. L'ensemble de ces démarches correspond au "réalisme pondéré" de G. Edelman (058), hypothèse minimale seulement postulée mais indispensable pour donner une signification à toute réflexion sur la connaissance.
- nous pensons qu'un minimum d'abstraction réfléchissante est indispensable pour passer d'un mécanisme constitutionnel à un schème mobilisable dans l'activité mentale, mais inversement qu'un mécanisme constitutionnel peut être extrêmement proche d'une notion apparaissant presque première dans l'activité mentale.
Au travers de ces réflexions, les différences entre un réalisme minimal et le constructivisme sont très atténuées ou même annulées, ce qui pourrait peut-être diminué l'intérêt d'une recherche d'épistémologies non réalistes.
2. Les Epistémologies non réalistes traditionnelles.
Elles marquent le primat du monde extérieur avec le sensualisme et l'empirisme, ou le primat du sujet connaisseur avec l'idéalisme kantien.
2.1. Le sensualisme.
Il est habituel de décrire sous ce terme un courant de pensée allant d'Epicure à Ernst Mach, qui privilégie la sensation dans le processus cognitif. Aristote avait déjà atténué le rationalisme de Platon en affirmant le rôle de la sensation qui assimile les formes extérieures pour en permettre l'analyse. Quelque trente ans plus tard, Epicure inverse les rôles et fait de la sensation le temps premier de la connaissance. Il ne néglige pas pour autant l'action du sujet au travers de "l'anticipation" qui accorde immédiatement une signification à la sensation, et il parle souvent de "raison" et de "raisonnement'.
Au XVIlème siècle, l'opposition du sensualisme et du rationalisme se retrouve dans la controverse qui oppose Gassendi et Descartes. Peu après, Condillac radicalise véritablement le sensualisme. Plus récemment, le primat de la sensation, affirmé par Mach, apparaît l'une des caractéristiques fondamentales de l'empirisme logique.
D'une façon générale, les thèses épicuriennes ont eu le grand mérite de marquer les limites du rationalisme. Cependant, il était difficile de voir dans la sensation autre chose qu'une traduction passive du "réel", ce qui rendait bien difficile une explication de l'élaboration active des connaissances. Comme nous le verrons (V-C), la découverte d'un double système d'analyse de l'environnement en amont de la réflexion consciente, renouvelle totalement le rôle des sensations dans la connaissance.
2.2. L'Empirisme.
Par nécessité, l'empirisme reconnaît l'importance de la sensation mais son originalité se situe ailleurs. Comme la majorité des doctrines philosophiques, l'empirisme se définit autant par opposition à d'autres doctrines que par lui-même. Il s'oppose au rationalisme innéiste qui accorde des propriétés mentales innées aux individus, comme le font Descartes ou Kant par exemple. L'empirisme condamne les mécanismes et les idées innées mais de plus, il minimise les activités mentales des sujets acquérant des connaissances.
Robert Bacon fut, à la fin du Xlllème siècle, le précurseur de l'empirisme. Il déclara préférer l'observation à la déduction en un temps où le triomphe de la scolastique favorisait une réflexion en circuit fermé. Francis Bacon, à la fin du XVIème siècle, est considéré comme le père de l'empirisme anglais (E.B.); il encouragea au recueil premier des données d'expérience et d'observation, affirmant que l'arrangement de ces données s'établit ensuite systématiquement, quasi mécaniquement. John Locke, à la fin du XVIlème siècle, fut surtout critique des connaissances innées : l'enfant ne sait rien. David Hume, au XVIIIème siècle, tenta de démontrer qu'il est impossible d'affirmer les liens de cause à effet ; on peut seulement noter qu'un état "a", apparemment causal, précède régulièrement la survenue d'un état "b". La portée du raisonnement se trouve ainsi très amoindrie.
Les conditions étaient alors remplies pour une systématisation de l'empirisme mais l'idéologie politique joua certainement un rôle complémentaire. C'est avec nombre d'arrière-pensées contestataires que Diderot reprit la thèse de Locke de la table rase : le cerveau n'est initialement qu'une ardoise sans inscription et l'enfant doit tout apprendre. Ainsi peut être refusée la supériorité a priori de certaines catégories sociales. Ce faisant, Diderot n'avait pas pleinement conscience que sa thèse portait simultanément sur les connaissances apprises et la structuration mentale mais il annonçait néanmoins l'introduction d'un facteur temps et une structuration secondaire de l'individu.
A la fin du XVIIIème siècle, l'empirisme se déplaça vers les Sciences Naturelles. Lamarck postula la transformation des espèces mais il demeura ambigu sur un point fondamental : les transformations sont-elles liées à l'activité du sujet vis à vis d'un milieu ou à une action instructive de ce milieu ? A la relecture de l'auteur, il semble bien que Lamarck favorisait la première thèse pour expliquer le transformisme animal et la seconde pour traduire le transformisme végétal (075). C'est donc à James Hutton qu'il faut accorder le premier credo empiriste fondamental, formulé dans le cadre de la géologie et de la géographie : les structures présentes, montagnes, vallées, lac, sont l'effet de l'action continue et très prolongée de forces extérieures existant toujours actuellement (E.B.).
Ce déplacement de l'empirisme vers les sciences naturelles a permis un siècle plus tard, une orientation vers la recherche de bases expérimentales dans le domaine de la psychologie, initialement réservé à la philosophie. Pavlov, à la fin du XIXème siècle, paradoxalement lui-même peu convaincu de la valeur d'explication des réflexes conditionnés dans les processus mentaux supérieurs, fonda l'école russe de réflexologie. Watson reprit la réflexologie aux Etats Unis, fondant le béhaviorisme, développé au cours du siècle présent par Skinner et Lashley.
- à partir d'un corpus de réflexes innés, directement peu efficaces, la présence répétée de régularités dans l'environnement fait apparaître des réflexes dérivés, dits "conditionnés", qui permettent une adaptation de bien meilleure qualité au milieu effectivement rencontré. Ce sont donc les régularités d'environnement qui constituent l'élément moteur de l'apparition des conduites apprises, l'organisme n'étant guère plus que le lieu géométrique où se concentrent les effets des régularités. Skinner accrut légèrement le rôle du sujet en décrivant le réflexe conditionné opérant, où une action spontanée de l'organisme est renforcée par une récompense. Globalement, selon le schéma behavioriste, l'organisation sociale est évidemment première par rapport à l'organisation individuelle et le comportement humain n'est rien d'autre qu'une somme d'habitudes apprises.
- pour tenter de compléter le support neurophysiologique du conditionnement et en dépit des travaux antérieurs de Broca, Lashley postula et tenta de démontrer expérimentalement l'équipotentialité des systèmes cérébraux : toutes les aires cérébrales ont au moins initialement une fonction identique et peuvent se suppléer les unes les autres; le cerveau par lui-même est inorganisé.
A l'épreuve des faits, l'empirisme fut un double échec
- en 1937, Konrad Lorentz pouvait brocarder une doctrine qui avait l'ambition d'expliquer les conduites animales dans le milieu naturel et qui était incapable de prévoir le comportement du rat blanc dans le milieu déterminé du laboratoire.
- en 1945, Lashley lui-même reconnaissait que la thèse de l'équipotentialité cérébrale était insoutenable.
Cependant, cet échec de l'empirisme fut positif. Il permit en contraste l'affirmation de l'école d'éthologie objectiviste de K. Lorentz et N. Tinbergen, qui démontra l'existence des déterminants innés du comportement. A son tour, les excès mêmes de cette école (177) favorisèrent chez T. C. Schneirla et J.S. Rosenblatt, la thèse des apprentissages animaux sans modèles parentaux qui a évidemment une signification d'un intérêt exceptionnel pour les thèses de l'autonomie biologique (085,177).
2.3 L'Idéalisme kantien.
L'inertie des idées acquises fit qu'il s'écoula plus de trois cent ans avant qu'un philosophe ne prenne la pleine mesure épistémologique de la découverte de Copernic. Kant, le premier, fit remarquer l'importance d'une donnée qui avait été reconnue mais non commentée : le fait que le soleil tourne autour de la terre, erroné et traduisant une illusion de nos sens, avait pourtant été accepté sans discussion depuis l'aube de l'humanité. Si de nombreuses générations successives étaient restées dans l'erreur sur ce point précis, il devenait évident que beaucoup de croyances paraissant correspondre à des évidences, pouvaient être tout aussi illusoires. Kant proposa une généralisation à partir de ce constat : nous ne pouvons connaître que ce qui nous est connaissable et notre connaissable est conforme à notre faculté de connaître (012). De ce fait, la connaissance "en soi" devient une connaissance "pour nous".
Il y a dans les analyses de Kant, deux points essentiels et relativement indépendants
- les objets ont bien des propriétés ontologiques, correspondant à un "noumène" mais ce noumène est inaccessible à l'entendement humain. En revanche, les mêmes objets ont pour nous une apparence et constituent des "phénomènes" accessibles à l'analyse cognitive. La connaissance porte donc exclusivement sur cette apparence.
- la rencontre avec l'objet a lieu dans l'espace et le temps ; il faut donc qu'espace et temps précèdent l'expérience : ils sont les formes a priori de notre sensibilité. La connaissance ne peut être immédiate car elle serait telle quelle a priori, indépendamment de l'objet en soi qui la provoque. La connaissance est donc synthétique, construite. Le Cogito constatant de Descartes devient Cogito constituant. La connaissance traduit nos facultés cognitives en action.
La distinction entre la réalité ontologique et l'accessibilité à cette réalité est probablement l'une des conquêtes les plus fondamentales de la philosophie et recouvre toute conception épistémologique. Le second point de la doctrine kantienne pose plus problème. La démonstration du caractère a priori de l'espace et du temps nous semble un jeu philosophique qui n'aurait de valeur que pour autant que les concepts utilisés aient une valeur absolue, permettant de conduire un raisonnement à son achèvement. Le kantisme renvoie notamment à une définition absolue et discutable de l'espace et du temps. En revanche, l'affirmation du caractère synthétique et construit de la connaissance est beaucoup plus positif.
Quoiqu'il en soit, l'idéalisme kantien marqua un temps essentiel dans l'histoire de la philosophie. Cela explique ses prolongements et son influence, notamment en Allemagne jusqu'à la fin du XIXème siècle et même plus tard en France avec L. Brunschvicg (030). Cette influence se retrouve dans les différents mouvements néo-kantiens.
2.4 Le Néo-kantisme d'H. von Helmholtz.
Helmholtz fut avant tout un neurophysiologiste et l'un des plus grands. Mais étudiant les processus sensoriels, il fut conduit à relire l'oeuvre de Kant de façon originale. Helmholtz refusa l'assimilation directe, passive et automatique du monde environnant. Les sensations sont pour lui, à la fois des modifications corporelles et un vécu de la subjectivité, autant construites que données; en ce sens, Helmholtz suivit bien l'enseignement de Kant. En revanche, l'accès à la conscience n'est pas immédiat pour Helmholtz, car entre l'excitation et l'interprétation, il existe des organes récepteurs actifs qui signifient les sensations. Ce sont ces organes récepteurs et non la conscience qui élaborent le temps et l'espace. Les formes a priori de la sensibilité sont donc conservées mais deviennent des propriétés du corps propre physiologique, auxquelles la conscience n'a pas accès, au moins immédiatement. En quelque sorte, l'a priori devient inné physiologique (H.P.).
Cette réinterprétation de Kant est essentielle car elle met de côté la difficulté majeure de l'appréhension consciente immédiate du temps et de l'espace. Helmholtz ne se contenta pas d'une affirmation mais commença une démonstration et c'est avec raison que P. Buser et M. Imbert ont pu dédier à Hehnholtz leurs récentes publications sur la neurophysiologie fonctionnelle de la vision et de l'audition (033). Helmholtz a promulgué la théorie trichromique de la vision qui a été confirmée un siècle plus tard. Il a également affirmé la nécessité de résonateurs auditifs spécifiques pour chaque fréquence sonore auditive, ce qui a également été vérifié. L'oeuvre d'Helmholtz est donc capitale en ouvrant le domaine d'une activité subjective authentique différente de la conscience et formant un écran obligatoire entre le sujet et l'objet.
3. L'opposition des approches scientifiques et philosophiques.
Les penseurs grecs ou romains de l'Antiquité n'opposaient pas la science et la philosophie. Le même constat peut être fait concernant la pensée arabe et la pensée occidentale au moins jusqu'au XVIlème siècle. L'éclipse durant le Moyen Age occidental d'une étude de la nature est liée à des conditions sociales privilégiant la théologie beaucoup plus qu'à un refus doctrinal.
La situation changea ensuite radicalement, vraisemblablement en raison de l'opposition entre les courants du rationalisme religieux et ceux de l'étude expérimentale. La séparation, une fois amorcée, se poursuivit sur sa propre lancée. Le courant positiviste est ainsi marqué par une exclusion ou une négation de la métaphysique. Le spiritualisme de Bergson ou la phénoménologie de Husserl sont inversement construits en quelque sorte contre la Science, ou tout au moins contre certains aspects de la Science et en dehors d'elle. Les conséquences de ces oppositions sur l'épistémologie sont manifestes.
3.1. Le courant positiviste.
Il est né avec le Cours de philosophie positive d'Auguste Comte, mais s'est vraiment manifesté de façon cohérente bien plus tard.
3.1.1 Le Positivisme d'Auguste COMTE.
Peu d'auteurs ont émis des opinions ou des interdits qui ont été plus rapidement et plus complètement contredits par l'évolution des idées, qu'Auguste Comte. Michel Serres mentionne le fait (189) et l'explique en soulignant qu'Auguste Comte, vivant dans la première moitié du XIXème siècle, est en fait l'héritier ultime du courant encyclopédiste du XVIIIème siècle. Malgré cet échec, Auguste Comte a été l'initiateur d'un mouvement épistémologique essentiel qui se poursuit de nos jours, courant que Lalande résume ainsi :
- seule la connaissance des "faits" est féconde.
- la certitude est fournie par les sciences expérimentales.
- l'esprit humain ne peut éviter l'erreur et le verbalisme, qu'en se tenant sans cesse au contact de l'expérience et en renonçant à tout a priori.
- le domaine des choses en soi est inaccessible, la pensée ne peut atteindre que des relations et des lois.
Le développement considérable des sciences, l'inclusion dans la pensée scientifique de réflexions sur l'espace et du temps, traditionnellement réservées à la philosophie, expliquent l'importance d'un courant positiviste demeuré très dynamique. On note en fait un certain nombre d'orientations plus ou moins reliées les unes aux autres, et en dehors du cercle de Vienne, actif de 1924 à 1930, il est relativement difficile de systématiser des écoles définies. Le courant positiviste contemporain a pris les noms de positivisme logique et d'empirisme logique (095). On peut y trouver trois inspirations.
3.1.2. L'inspiration empiriste.
Indépendamment de l'empirisme scientifique sévissant en psychologie, une pensée empiriste d'origine distincte se retrouve dans une approche logique et épistémologique. Cela est sans doute lié à la très forte personnalité d'E. Mach et à son influence sur les membres du cercle de Vienne. E. Mach affirma qu'un objet se résume à l'ensemble des sensations qu'il peut provoquer chez l'observateur. L'inconvénient majeur est un retour à Francis Bacon, sans interrogation sur les mécanismes d'assimilation des données sensibles puisque cette assimilation est considérée comme allant de soi. En fait, l'empirisme a surtout été invoqué par le positivisme logique pour condamner tout a priori idéaliste, toute essence* phénoménologique. Le terrain se trouvait ainsi libéré pour une approche logique et formaliste.
Une mention spéciale doit cependant être faite des analyses de M. Schlick, l'un des fondateurs du cercle de Vienne. Il a été très conscient du caractère irréductible des sensations subjectives dans leur aspect qualitatif et des difficultés de la transmission intersubjective de ces aspects. Il a de ce fait affirmé que les aspects configuratifs dessinés par des sensations élémentaires de même type étaient beaucoup plus importants que le type qualitatif des sensations (cité par L. Rougier, 183). Nous retrouverons la validité de ce point de vue (V-B).
3.1.3. La Science. langue bien faite.
La logique mathématique est née avec Leibnitz puis elle s'est assoupie. La logique devait renaître à l'époque d'Auguste Comte avec B. Bolzano et surtout avec la publication en 1847 de "Mathematical analysis of Logic" de G. Boole. Dans ce travail et les suivants, Boole inventait un système symbolique permettant de traiter la logique comme l'algèbre et favorisant considérablement le travail de ses successeurs. De 1879 à 1903, Frege tentait une logification des mathématiques qui avait un retentissement très important chez tous les logiciens. Ce sont tous ces travaux qui ont permis la publication par Whitehead et Russell, de 1910 à 1913, de la véritable somme que constituent les Principia Mathematica, fournissant un outil essentiel d'analyse du langage.
La jonction de ces travaux logiques et de l'empirisme prôné par Mach aboutit à la synthèse réalisée par M. Schlick et ses collègues du Cercle de Vienne en 1924. M. Schlick intégra la logique mais il en refusa le caractère réaliste et y vit les seules règles d'un langage tautologique dont les conclusions sont latentes dans les prémisses. La logique régularise le langage dans l'expression des vérités d'expérience : la science est ramenée à une langue bien faite portant sur les données sensibles.
A partir de cette notion, M. Schlick et surtout R. Carnap (E.B., Positivism and Logical Empirism) vont tenter de montrer l'importance de clarifier le sens des concepts de base et des assertions, notamment dans le domaine des sciences. C'est le seul moyen pour éviter les pseudo-problèmes et l'utilisation de concepts vides. Par ailleurs, les auteurs trouvent absurde de s'attaquer aux questions sans réponse de l'ontologie. C'est pourquoi ils ne s'en prennent pas comme K. Popper aux aspects pseudo-scientifiques du marxisme ou de la psychanalyse freudienne mais aux métaphysiciens de leur époque, notamment M. Heidegger. Utilisant toutes les données de la logique moderne, notamment les travaux de Russell, Schlick et Carnap s'efforcent de montrer que la métaphysique fait largement appel à des concepts mal définis et conduit à émettre des propositions logiquement incorrectes ou dénuées de sens.
Il faut bien reconnaître que les critiques des positivistes du cercle de Vienne sont en partie fondées et on peut parfois se demander si les métaphysiciens ne recherchent pas souvent délibérément le flou pour éviter la contradiction. Les propos sévères de L. Rougier, défendant l'empirisme logique, ne sont peut-être pas totalement dénués de fondements : " La plupart des métaphysiciens sont comme la Pythie de Delphes. Ils se servent d'un langage si impénétrable que, quand vous leur démontrez qu'il est absurde, ils ont toujours l'échappatoire de vous dire que vous les avez mal entendus. Pour défendre leur position, les métaphysiciens, comme les augures de l'antiquité, s'entendent pour soutenir le droit de se servir de notions non définies, de concepts fluides et en état de perpétuelles métamorphoses. C'est comme si, jouant aux Echecs, on se permettait, sans en avertir l'adversaire, d'en modifier constamment les règles, ou comme si l'on faisait de la physique en modifiant continuellement, sans en avertir le public, les étalons de mesure."(183)
Mais l'hygiène sémantique a d'étroites limites. Si le réalisme platonicien est rejeté, les concepts n'ont plus qu'une signification relative qui est non seulement ouverte aux révisions mais aussi en partie indéterminée; de ce fait, aucun raisonnement logique ne peut être conduit à des conclusions ultimes. De plus, les concepts sont implicitement marqués par les théories qu'ils décrivent, ce qui provoque des boucles indécidables. Hertz avait montré il y a cent ans déjà que la cohérence* des théories newtoniennes venait de ce que les concepts de masse, de temps, d'espace, utilisés par Newton étaient définis selon ces théories. Hanson, Kuhn et Feyerabend (095) ont fait remarqué que la signification réelle du vocabulaire le plus descriptif, apparemment le plus observationnel dépend du contexte théorique dans lequel il est utilisé. La formalisation logique a elle-même, nous l'avons vu, de strictes limites de validité. Au total, les propositions les plus correctement construites ne peuvent avoir qu'une valeur très relative.
Inversement, comme nous le verrons, le bénéfice de l'hygiène sémantique est lui-même relatif car une transmission correcte d'information peut tout à fait s'effectuer en présence de bruit, comme J.D. Cowan et S. Winograd l'ont montré (225).
3.1.4. Les critères de vérification du sens empirique.
Les propositions peuvent avoir un sens empirique ou un sens formel. Pour l'école du positivisme logique, une expression qui contient des termes logiques et des termes empiriques, est vide de contenu empirique si sa vérité ou sa fausseté dépendent uniquement des règles d'emploi des termes logiques. Les seules propositions qui ont un sens empirique sont celles qui traduisent un fait observable pouvant être vérifié ou infirmé concrètement.
En pratique, cette affirmation des critères de vérification pose beaucoup de problèmes. Que peut-on penser par exemple du sens empirique de la phrase "Tous les chats ont des griffes" qui ne peut être vérifié que sur un nombre limité de chats. Le principal mérite de la position positiviste fut de provoquer l'analyse critique de K. Popper. Celui-ci, retrouvant L. Brunschvicg et la critique des théories non réfutables, montra que le critère de validité empirique devait être abandonné et remplacé par le critère de réfutabilité : un ensemble d'affirmations n'a de valeur scientifique que s'il est possible d'envisager des faits pouvant conduire à réfuter ces affirmations. Les théories nouvelles, et c'est très bien comme cela, sont souvent des conjectures osées et loin de la tradition. Il est donc indispensable que ces théories soient soumises à critique, une seule contradiction empirique bien établie devant suffire à une réfutation. Le développement des connaissances doit consister à éliminer les erreurs par réfutation des théories existantes, soit qu'on découvre qu'elles sont logiquement non consistantes, soit surtout qu'elles se trouvent infirmées par des faits.
En définitive, le mouvement positiviste n'a pas réalisé directement les révolutions épistémologiques qu'espéraient son promoteur. Il a eu cependant une influence indirecte très importante par les réactions qu'il a provoqué. Il a montré les défauts d'une science qui voudrait tout comprendre et la vanité de ce que Michel Foucault a appelé "l'épistémé scientifique" des temps modernes. Une critique inverse pourrait être adressée à la phénoménologie, lorsqu'elle apparaît artificiellement détachée des données scientifiques.
3.2. La Phénoménologie et l'Existentialisme.
Historiquement, la phénoménologie est née en 1891 avec R. Husserl. Il était mathématicien et sans grande formation en psychologie, ce qui explique son attitude très différente vis à vis des mathématiques et de la psychologie (091). Ultérieurement et bien qu'Husserl ait eu une influence persistante, nombre de ses continuateurs ou élèves ont introduit des points de vue originaux, en tout premier lieu Heidegger.
Le but de l'approche phénoménologique apparaît comme un effort pour définir des "essences" ou des normes, inséparables des faits ou phénomènes mais qui ne sont pas immédiatement accessibles à la conscience claire. Ces essences et ces normes sont également présentes chez le sujet connaisseur qui en a l'intuition. Pour L. Rougier, l'achèvement de la connaissance phénoménologique est une mise en correspondance des essences, normes, formes ou structures irréductibles dans leur double réalité, objective et subjective (183).
Sur le plan des sciences positives, la phénoménologie n'a pas une position conflictuelle car elle affirme que les savants recourent, sans s'en douter, à l'intuition des essences* (152). Le problème est tout autre sur le plan psychologique où le psychologisme, qui vise en fait surtout les thèses associationnistes, est hautement critiqué. La méthode phénoménologique permet seule une "réduction", affranchissant le sujet de limitations spontanées provoquées par les expériences antérieures, lui permettant de retrouver les essences, tout en se découvrant lui-même. En quelque sorte, le sujet apprend qu'il n'est pas seulement une partie de l'Univers mais le fondement de l'appréhension de cet Univers. Heidegger introduisit une nouvelle approche qui est une redéfinition du verbe "être", annonçant l'idée sartrienne de l'homme qui est seulement ce qu'il fait, l'existence précédant l'essence.
Une des originalités de la phénoménologie vient du postulat d'une interaction fondamentale entre sujet et objet, donc d'un point de départ de la connaissance qui n'est ni dans des propriétés ontologiques de l'objet, ni dans une activité purement synthétique du sujet mais bien dans la relation sujet/objet. La phénoménologie ne dit pas "Je pense" mais "Je pense à quelque chose", annonçant les affirmations de J. Schlanger pour qui toute connaissance est une connaissance de quelque chose par quelqu'un (186,187). Inversement, l'objet n'est pas objet en soi mais essentiellement objet perçu.
Ni Husserl, ni Heidegger n'ont vraiment cherché à fonder la connaissance. Ils pensaient plutôt parvenir par leurs méthodes à préciser des normes permettant une redéfinition du monde (152). Il n'empêche que la position phénoménologique nous paraît très proche par de nombreux côtés des thèses que nous tentons de soutenir: - le "néant" initial de l'existentialisme traduit peut-être de façon un peu compliquée, l'affirmation très simple d'un stade premier dans la vie biologique de l'individu, où la conscience n'existe pas encore réellement en tant que telle, car elle est réductible à un mécanisme neurologique pur, sans contenu mental. - le point de départ de la connaissance apprise est une relation entre un sujet et un objet de connaissance. En ce sens, tout individu doit construire lui-même toute la connaissance apprise qu'il peut acquérir, et par là même le contenu de sa propre conscience.
- la connaissance apprise traduit une redéfinition du monde à partir de la relation sujet/objet, aussi bien de la représentation de soi que de celle de l'Univers.
la phrase de Sartre "L'homme est ce qu'il devient" pourrait être légèrement modifiée et correspondre à notre thèse l'homme n'acquiert la conscience et la connaissance de ce qu'il est et de ce qu'il rencontre qu'en agissant.
Ces idées très riches de la phénoménologie sont, malheureusement à notre avis, associées à des positions qui nous semblent critiquables :
- la phénoménologie marque un retour au réalisme des espèces naturelles. On le voit aussi bien au travers des essences que dans les "bonnes formes" de la gestalttheorie*, mouvement psychologique très proche de la phénoménologie.
- phénoménologie et existentialisme ont historiquement accentué une coupure avec les données scientifiques, notamment celles qui peuvent être recueillies sur la conscience connaissante ou sur la nature de la relation perceptive avec l'environnement. La phénoménologie nous parait donc introduire nécessairement un dualisme* qui oppose une conscience irréductible et la constitution biologique. - aucune place n'est laissée au développement des connaissances par étapes, pourtant évident aussi bien dans l'évolution culturelle que dans le développement ontogénétique.
De ce fait, Piaget a pu dire (152) que la phénoménologie et l'existentialisme restaient sur un plan de définitions de normes et ne pouvaient prétendre à l'universalité sur le plan épistémologique. Cela n'est pas trop gênant dans le contexte d'une recherche purement philosophique de "norme" mais rédhibitoire dans l'application au fait. Deux exemples que nous avons vécu personnellement nous paraissent très suggestifs
3.2. 1. Phénoménologie et perception.
La gestalttheorie*, proche de la phénoménologie, s'est beaucoup intéressée à la loi de constance qui explique que nous accordons la même taille aux objets, quelle que soit la distance à laquelle ils se trouvent par rapport à notre oeil; la taille de l'image rétinienne varie pourtant avec la distance. La gestalttheorie* voyait dans cette loi, le résultat d'une organisation globale irréductible, reliant par la conscience le sujet percevant et l'objet perçu. Or deux données récentes modifient profondément l'analyse :
- T.G.R. Bower a démontré que la loi de constance de la taille et par conséquent de la forme, était appliquée par le nourrisson de deux mois, ce qui suggère un résultat obtenu par la mise en jeu d'un mécanisme simple, demandant peu d'apprentissage (025).
- nous avons pu constater nous-même que les lois de constance étaient mises en jeu chez l'adulte pour des objets vus pour la première fois, sans aucune expérience préalable permettant d'attribuer une taille à l'objet; mais cela seulement en cas de vision binoculaire et non en vision monoculaire. Or, l'appréciation directe de la profondeur ne peut être fournie aisément par une vision monoculaire, mais l'est par l'effet télémétrique de la vision binoculaire. La loi de constance est donc tout simplement explicable par la mise en jeu de mécanismes neurologiques non conscients et intégrant automatiquement la différence de vision entre les deux yeux pour en dériver une perception de distance. Les études neurologiques actuelles démontrent l'existence de mécanismes de ce type. L'explication est alors conduite évidemment bien au delà de l'analyse phénoménologique.
3.2.2. Phénoménologie et clôture.
A. Pichot (163) défend l'idée séduisante et tout à fait correcte sur le plan phénoménologique, que les particularités des êtres vivants sont liées à une histoire vécue individuelle, distincte de l'histoire de l'environnement. Les mutations sont ramenées par lui à des micro-événements sélectionnés en fonction d'une meilleure aptitude à vivre. Nous lui avons fait remarquer qu'une telle idée ne pouvait cependant présenter un réel intérêt qu'à condition d'être associée à une proposition d'explication concernant trois données essentielles pour lesquelles l'approche scientifique peut fournir des réponses :
a) l'isolement de l'être vivant d'avec son environnement est-il un isolement total ou traduit-il un contrôle de flux d'échanges qui sont indispensables à la vie ?
b) comment les micro-événements individuels que sont les mutations sont-ils sélectionnés si le vécu est indépendant de l'environnement ?
c) comment s'est initialement établie la frontière permettant effectivement au premier individu vivant d'avoir un vécu indépendant de l'environnement ?
3.2.3. Phénoménologie et Constructivisme.
L'intérêt que nous portons à la démarche phénoménologique nous conduit à tenter une confrontation entre la thèse que nous défendons et la phénoménologie, précisant alors :
- l'individu que je suis, précède la connaissance réfléchie que je peux avoir de moi-même, des autres et du monde environnant. L'existence ne précède pas l'essence, mais elle précède la connaissance apprise et les contenus de conscience. Cette précession est celle d'un sujet doté constitutionnellement d'une organisation biologique stable et déterminante, capable d'une connaissance immédiate élémentaire du moi et du monde, en toute indifférenciation.
- à cette connaissance première se substitue peu à peu une connaissance apprise du moi, de l'autre et de l'environnent qui est à la fois une véritable structuration et une "abstraction réfléchissante" du moi sur sa propre activité extériorisée ou intériorisée. Si la connaissance apprise présente de fortes similitudes d'un sujet à un autre, cela n'est pas lié à l'existence d'essences de signification universelle mais à une similitude d'organisation biologique.
La connaissance a donc un double aspect:
a) une connaissance immédiate qui est d'origine biologique et constitutionnelle, et qui se situe en écran entre la conscience et la réalité extérieure.
b) une connaissance secondaire, apprise, consciente qui est une véritable réflexion de notre action sur le monde, mais qui a la valeur de la "réduction" postulée par la phénoménologie, dérivant simultanément de cette réduction, la prise en compte de nos particularités et des régularités qui caractérisent l'Univers.
En conclusion, il nous semble qu'il y a entre la phénoménologie et la thèse épistémologique que nous exposerons une similitude foncière sur la nécessité d'une longue réflexion pour mieux préciser notre nature véritable et inventer une nouvelle image du monde; cette réflexion définit la connaissance apprise. Mais il y a par ailleurs une différence fondamentale :
- la phénoménologie postule une correspondance a priori entre des essences, des formes, normes, "gestalts", qui au moins chez les premiers phénoménologistes, sont présentes avant toute réflexion, chez le sujet de connaissance comme dans le monde. Nous ne croyons pas à cette correspondance a priori.
- notre point de vue est celui de l'existence de nonnes subjectives incluses dans notre organisation biologique, qu'il nous faut dégager et expliciter à partir de notre action sur le monde. Cela permet de réaliser des inventions ou des constructions que nous projetons ensuite pour mieux nous expliquer, et mieux expliquer le monde. Cela marque évidemment une ouverture conjointe sur la philosophie et la biologie.
4.La Nouvelle Alliance de la Philosophie et de la Science.
En 1979, 1. Prigogine et 1. Stengers ont publié un plaidoyer (173) en faveur d'une alliance de la philosophie et de la science. L'importance de la notion de "structure dissipative*" isolée par Prigogine et sur laquelle nous reviendrons longuement leur donnait manifestement droit à la parole. Il est cependant bien évident que plusieurs auteurs ne les avaient pas attendus pour renouer une relation étroite entre science et philosophie.
4.1. G. Bachelard et l'Histoire des Sciences.
En 1927, Gaston Bachelard ouvrit une réflexion épistémologique fondamentale, que devait poursuivre G. Canguilhem puis F. Dagognet, M. Foucault et M. Serres, délivrant ses lettres de noblesse à l'étude de l'histoire des Sciences en y puisant deux grandes lignes de critiques.
- d'une part, l'auteur trouve tous les arguments souhaitables pour rejeter l'image positiviste d'une évolution régulière et continue des Sciences vers un progrès en quelque sorte prévisible (006,007).
- d'autre part, il souligne les défauts des approches philosophiques lorsqu'elles fonctionnent sur elles-mêmes, en indépendance des acquisitions et des évolutions de la pensée scientifique. Canguilhem a exprimé le fait un peu plus tard :" Le philosophe doit sortir de la caverne philosophique, s'il ne veut pas se condamner à se repaître d'ombres, cependant que les savants non seulement voient la lumière mais la font."(036)
La synthèse entre ces deux préoccupations est centrée sur une approche nouvelle de la vérité et de la réalité au travers d'une philosophie de l'inexact. Au centre de cette philosophie, se trouve la notion d'obstacle épistémologique. A un instant de l'histoire des Sciences, l'analyse montre à quel point la réflexion du savant est obscurcie par des erreurs dont il a le plus grand mal à se dégager:
- erreurs individuelles qui sont inhérentes au processus de fonctionnement de la connaissance.
- erreurs de l'époque.
Le progrès de la connaissance ne peut se faire qu'en réaction contre ces erreurs, et se traduit par des ruptures épistémologiques successives qui n'obéissent pas à une ligne cohérente d'unification, de simplification ou de réduction et traduisent une discontinuité fondamentale.
Ces ruptures sont synthétiques, et coupent du passé. Le souci d'affirmer la coupure chez Bachelard vient peut-être du désir de mieux contester la continuité du positivisme. Piaget voit dans les mêmes ruptures, une succession d'étapes selon une orientation imprévisible, mais où la réflexion sur l'étape antérieure explique l'étape suivante. Pour G. Bachelard, l'erreur porte principalement sur les mots qui ne recouvrent pas forcément le même concept pour tous les savants, sur le concept lui-même qui est inséré dans un contexte et une intention de l'expérimentation. Il y a une surcharge de contenu du concept qui empêche une adaptation aux conditions d'utilisation et qui lui donne trop de sens, et un sens variable selon les utilisateurs.
Une telle approche ne rejette nullement la philosophie. C'est au contraire avant la lettre, la nouvelle alliance de la Science et de la Philosophie. Chacune prise séparément, les conceptions philosophiques sont dogmatiques et desséchantes, surtout lorsqu'elles négligent les données scientifiques. En revanche, une polyphilosophie aide la dialectique et la correction des erreurs. Ainsi s'établit une association ouverte vers l'avenir et non a priori, entre l'activité scientifique actuelle, expérimentale et réflexive, et un retour historique sur l'élaboration des données scientifiques antérieurement construites. Le bénéfice est double, fondant une philosophie et une épistémologie, et apportant un guide dans les domaines de la Science où les risques de dérapage sont particulièrement importants du fait des difficultés de la vérification expérimentale. "Il n'y a pas de vérités premières, il n'y a que des erreurs premières."... " Le monde est ma vérification, il est fait d'idées vérifiées par opposition à l'esprit qui est fait d'idées essayées."..."L'esprit scientifique se constitue comme un ensemble d'erreurs rectifiées."
La vérification est un véritable travail rationnel qui répond à la contradiction :
- contradiction entre théorie et faits
- contradiction entre différentes théories.
Mais l'approche doit se faire au centre, "la connaissance ne peut se modifier que peu à peu, sous l'impulsion d'une hostilité modérée". En définitive, "La connaissance demeure toujours approchée et des approximations plus poussées révèlent sans cesse par de lentes modifications spirituelles les erreurs dans les choix implicites des théories antérieures."
Bien évidemment, Bachelard ne nie pas une évolution positive des connaissances et l'insistance sur les discontinuités a surtout pour effet de rejeter la croissance régulière décrite par le positivisme ou l'orthogenèse finaliste que l'on trouve chez Theilhard de Chardin. La position de Bachelard nous semble très voisine de "l'orthogenèse constatée après coup", selon l'expression de L. Brunschvicg. Le progrès est dégagé de la pratique des théories existantes, par une succession de correction d'erreurs et n'obéit à aucune loi préétablie. "L'histoire récurrente, l'histoire jugée, l'histoire valorisée" nous semblent synonymes de la formule de Brunschvicg.
Le point est d'importance car cette dynamique de progrès paraît absente des analyses de continuateurs directs ou indirects de Bachelard. C'est le cas chez M. Foucault ou P. Feyerabend. C'était également le cas des premières approches de T. Kuhn.
-pour Kuhn (1 15), chaque époque est caractérisée par une conception particulière des théories scientifiques qui reflète des conditions sociologiques et qui établit un modèle à suivre dans toute théorie. Ce seraient donc des facteurs sociologiques qui seraient responsables des révolutions scientifiques et non la pratique des théories précédentes. Cependant, Kuhn paraît beaucoup moins affirrnatif dans ses travaux plus récents.
- Feyerabend (064) va beaucoup plus loin, niant en quelque sorte l'évolution positive des théories. Il y aurait selon cet auteur, à toute époque, une pluralité de théories opposées et ce serait au savant d'adopter la théorie qui lui paraît la plus adaptée à ses travaux.
Comme l'a fait remarquer K. Popper, il faut se garder de sous-estimer les risque d'une autonomie fonctionnelle enfermant les savants d'une époque dans un "paradigme", mais il faut accorder toute leur importance aux mouvements scientifiques parallèles qui laissent rentrer de l'air frais et assurent un progrès poursuivi. C'est à notre avis, rejoindre les thèses de Bachelard.
Au total, deux notions se dégagent de ces thèses
- l'ouverture vers un progrès, mais un progrès non définissable a priori, un progrès seulement constaté après coup.
- ce progrès se traduit par des approximations successives de meilleures en meilleures, par élimination d'erreurs. Plutôt que d'élimination d'effeurs, nous serions du reste personnellement tenté de parler d'une diminution de l'indétermination.
Reprenant alors totalement ces idées à notre compte, nous serions tentés d'ajouter la notion que le progrès traduit la fixation d'un nombre croissant de variables implicites. Nous essayerons de montrer que cette dynamique globale de progrès s'explique par les particularités du fonctionnement cérébral, notamment par l'étroitesse du champ de conscience vis à vis du contenu mental global.
Aujourd'hui, à soixante ans de distance, les thèses initiales de G. Bachelard demeurent d'actualité et sont source de riches réflexions. Nous retrouverons au cours de ce travail, de très nombreuses concordances et des acquisitions récentes qui expliquent et confirment largement nombre des conclusions de G. Bachelard. En revanche, il nous semble que ces conclusions sont partiellement affaiblies par des omissions dans deux domaines:
- G. Bachelard n'établit pas un parallèle entre l'évolution de la Science au travers des générations successives et le développement de la pensée cognitive chez le jeune enfant, alors que la similitude des mécanismes nous paraît manifeste.
- G. Bachelard n'inclut pas dans ses analyses les connaissances acquises à l'époque, en biologie et sur le fonctionnement neurologique humain; il est bien évident que les multiples découvertes effectuées depuis un demi-siècle accentuent encore cette insuffisance.
Le constructivisme piagétien en revanche, répond au moins à la première de ces insuffisances.
4.2. Karl Popper et la connaissance conjecturale.
K. Popper est un contemporain de G. Bachelard et il exprime des positions épistémologiques tout à fait comparables (168,169). Cependant Popper s'oppose non seulement à l'empirisme logique mais tout autant aux idéologies.
- à l'empirisme logique, il oppose le fait qu'il est impossible de vérifier "toutes" les occurrences d'une affirmation et de ce fait aucune affirmation d'expérience ne peut établir une certitude.
- aux idéologies comme la psychanalyse et surtout le marxisme, il reproche une "immunisation" qui leur permet de retourner les faits contradictoires, en les rendant compatibles par un ajustement idéologique fait a priori.
De ce fait, il est impossible d'atteindre la certitude et il faut se contenter de rechercher le vraisemblable. Par ailleurs, il est vain de penser que les démarches cognitives se font sans considérations théoriques préalables. Autrement dit l'hypothèse est au départ et l'application de l'hypothèse permet une infirmation ou une confirmation; la vérification de Bachelard est ainsi retrouvée. Pour K. Popper, la "bonne" théorie est celle qui définit les résultats expérimentaux qui pourraient l'invalider puisque l'accumulation de résultats favorables différents n'a qu'une valeur limitée et est beaucoup plus difficile à effectuer.
Mais les thèses épistémologiques poperriennes vont bien au delà du principe de réfutabilité.
- Popper affirme fortement son adhésion au réalisme des objets mais il n'est nullement certain que ce réalisme aille au delà de ce que nous avons décrit comme réalisme minimal. Popper fait de la base du réalisme, le "relevé croisé" entre plusieurs approches cognitives distinctes sur un même objet, ce que nous appellerons multicrucialité. Ces relevés croisés traduisent des démarches d'observateur et implicitement, Popper admet que des expériences ultérieures puissent modifier le découpage du réel ou conduire à des réinterprétations sur les propriétés accordées à un objet.
_ Popper affirme une "épistémologie évolutionniste" dont il trouve les racines chez J.M. Baldwin, Lloyd Morgan et H.S. Jennings. On peut vraiment se demander comment Popper a fait pour ne pas rencontrer Claparède ou Piaget. Peut-être en raison d'un nativisme qui lui faisait rejeter un constructivisme faisant peu appel aux connaissances innées. "Toute connaissance acquise, tout apprentissage consiste dans la modification (éventuellement le rejet) d'une certaine forme de connaissance, ou de disposition, qui était déjà là au préalable; et, en dernière instance, de dispositions innées." et Popper dit encore : "Tout développement de la connaissance consiste dans l'amélioration d'une connaissance existante que l'on change dans l'espoir de se rapprocher davantage de la vérité."
- Popper affirme l'existence de trois mondes. Le monde 1 est celui de la réalité physique. Le monde 2 est celui du sujet connaissant avec "ses" connaissances, connaissances donc subjectives. Le monde 3 est celui des connaissances objectives. C'est un monde d'idées, de théories, de formes, mais ce n'est en aucun cas un monde de réalisme platonicien. C'est un monde de connaissances qui se sont détachées de leurs créateurs, comme la toile se détache de l'araignée qui l'a secrétée. "Le troisième monde* de Platon était divin, dit Popper; il était immuable et, évidemment, vrai. Il y a donc un fossé immense entre son troisième monde et le mien; mon troisième monde est un produit de l'activité humaine et il est changeant. Il ne contient pas seulement des théories vraies, mais aussi des théories fausses, et surtout des problèmes ouverts, des conjectures et des réfutations." Ce monde 3 est à la disposition de tout sujet connaissant et il peut alors être source d'évolution de ce sujet au même titre que les connaissances subjectives durant le développement ontogénétique. Ce monde*3 correspond donc bien à ce que nous avons décrit plus haut des concepts, idées qui semblent avoir une existence propre parce qu'ils se sont détachés de leur créateur et des conditions de leur naissance.
Ce monde 3 comporte des conséquences qui lui sont propres et qui n'apparaissaient pas au moment de la création de la connaissance. Ainsi, l'homme crée la notion de nombre et doit ensuite découvrir une à une les propriétés du nombre qu'il n'avait pas envisagées initialement. Nous créons le nombre puis "nous découvrons les nombres premiers, et surgit comme une conséquence le problème d'Euclide (la suite des nombres premiers est-elle infinie ?)"
Par ailleurs, et pour les mêmes raisons, ce monde 3 contient nécessairement des erreurs, introduites au moment de création et qui doivent être ensuite corrigées.
Ces attitudes épistémologiques de Popper nous paraissent passionnantes et nous y adhérons pour l'essentiel. Les "dispositions innées" de Popper sont même probablement plus proches de nos thèses que les "exercices de réflexes" de Piaget. Inversement, peut-on dire que Popper est un véritable constructiviste ? Nous ne le pensons pas dans la mesure où Popper postule bien davantage l'évolution des connaissances que celle du sujet connaissant. Il nous faut cependant reconnaître que Popper est bien près du credo constructivisme quand il dit "Il n'y a rien de direct ni d'immédiat dans notre expérience, il nous faut apprendre que nous avons un moi qui dure dans le temps." Peut-être a-t-il manqué seulement à Popper de prendre la dimension du développement cognitif ontogénétique dont il concevait l'existence.
4.3. Le Constructivisme piagétien.
Dans ses principaux travaux publiés de 1895 à 191 1, J.M. Baldwin (009) défendit le principe selon lequel le développement individuel et l'évolution des espèces par sélection naturelle exigent une intervention active de l'organisme et ne peuvent s'expliquer exclusivement par des forces extérieures. De ce fait, Baldwin substitue à la fonction réflexe, la "réaction circulaire" au cours de laquelle les effets de l'action sur l'environnement sont appréciés par l'organisme, conduisant à une activité adaptatrice dans l'acquisition des habitudes ou l'évolution des constitutions. C'est soixante ans avant les publications de P. Wintrebert (226,227), l'affirmation que le vivant est de son évolution.
Bien avant la publication en 1933 de l'oeuvre qui devait couronner ses activités de recherche, "La genèse de l'hypothèse, étude expérimentale", E. Claparède défendit l'idée que l'intelligence traduisait une adaptation aux circonstances nouvelles, suppléant à l'insuffisance des adaptations innées ou acquises antérieurement. Cette adaptation nouvelle est obtenue au cours de l'action, par des tâtonnements qui ne sont pas des essais au hasard mais des modifications ponctuelles des conduites ayant réussi précédemment dans des circonstances que le sujet juge voisines de celles de l'action en cours.
Jean Piaget, élève de Claparède, réalisa la synthèse de ces deux notions en les dépassant du reste très largement. Biologiste de formation mais découvrant avec passion la philosophie à vingt ans, chargé pendant dix ans d'un enseignement d'histoire de la pensée scientifique et... père de famille, Piaget eut toute latitude pour confronter philosophie, psychologie et données scientifiques, ce qui est une caractéristique fondamentale de son oeuvre. Le plus grand mérite de Piaget est d'avoir introduit une dimension historique dans toute approche de la connaissance. Dans une comparaison avec d'autres positions épistémologiques, les points suivants apparaissent essentiels
4.3. 1. Le développement ontogénétique.
L'enfant à la naissance est déjà un "sujet" constitué. Il opère sur un plan purement neurologique, sans contenu mental inné. Mais l'enfant est créateur d'un développement psychologique par exercice du plan neurologique. L'enfant à la naissance, dispose d'un certain nombre de "réflexes" lui permettant une relation avec l'environnement. L'exercice de ces réflexes conduit à leur différentiation, contrôlée par l'organisme et permettant les premières adaptations apprises et les premiers contenus mentaux.
La connaissance apprise est le fait d'accumulation de données concrètes concernant les réponses à l'application des réflexes différenciés, et surtout le fait de l'acquisition de schèmes d'action dérivés des réflexes. Ces schèmes sont regroupés de façon de plus en plus élaborée, selon des étapes marquées par une structuration mentale croissante. Une constitution biologique semblable, la similitude des environnements physiques et sociaux expliquent seules comment ces étapes peuvent être identiques d'un enfant à l'autre car chaque étape ne trouve son explication que dans la pratique de l'étape précédente au cours de la rencontre avec l'environnement. La succession des étapes est comparable "à un enchaînement de théorèmes géométriques où chacun est rendu nécessaire par l'ensemble des précédents sans être contenu d'avance dans les axiomes de départ."(Waddington, cité par Piaget,151). La connaissance apprise est donc le résultat d'une réflexion du sujet sur ses propres tentatives d'adaptation au contact de l'environnement.
Le constructivisme est une conception épistémologique et psychologique originale:
- il s'oppose, dit Piaget, au réalisme qui pose le primat de l'objet et à l'idéalisme kantien qui affirme le primat du sujet. Comme la phénoménologie, il situe l'origine de la connaissance apprise dans la rencontre entre un sujet et un objet.
- il s'oppose à l'empirisme qui postule implicitement le primat de l'objet au travers de l'environnement, et qui traduit une négation du sujet, réduit à une fiction grammaticale. L'opposition à l'empirisme vient encore de ce que cette dernière doctrine met en avant une genèse sans se préoccuper des mécanismes qui pourraient expliquer cette genèse.
- il s'oppose à la phénoménologie traditionnelle car il affirme l'existence d'un développement ontogénétique authentique, y compris de la conscience, et à partir d'une constitution biologique.
4.3.2 Le développement culturel et scientifique.
Le même mécanisme de "réflexion" sur les déséquilibres internes et externes au contact de l'environnement explique le développement embryologique, le développement mental et l'évolution culturelle (151). L'individu humain assure seul une riche évolution personnelle, depuis le fonctionnement de l'œuf au moment de la conception jusqu'à la mise en place d'une intelligence sensori-motrice. Ayant isolé la notion d'objet et s'étant défini par rapport à l'environnement, l'enfant devient ouvert aux influences d'autrui. Dès lors, son développement s'explique à la fois par la poursuite d'un dynamisme évolutif interne et par les données culturelles de l'entourage, jusqu'à ce que l'essentiel de ces données soit assimilée Quelques individus, par capacité, par motivation et par chance, poursuivent cette évolution au delà de l'organisation culturelle présente. Ils le font à partir de la même dynamique interne(37), dynamique qui devient du fait des circonstances sociales celle que G. Bachelard a décrite en étudiant l'histoire de la science.
Le développement scientifique est donc distinct du développement ontogénétique puisqu'il le prolonge autant qu'il prolonge les acquisitions scientifiques antérieures. Mais il est très proche de ce développement (1 50,15 1) car il obéit à la même dynamique et demeure tout autant conditionné par la nature biologique des savants qui l'assurent. Dans les deux cas, comme W.V.O. Quine l'a fort bien dit (176), l'étude du monde doit commencer par les choses de l'expérience humaine immédiate avant de diverger vers le microscopique invisible ou le cosmologique, par la simple description analytique du vécu avant d'aborder l'analyse de plus en plus précise des concepts utilisés et avant de construire des inductions généralisatrices. En ce sens, l'humanité entière et l'individu qui atteint et dépasse la culture de son temps procèdent de façon identique.
4.3.3. La nature de la Conscience.
Un dernier point essentiel dans l'oeuvre de Piaget, est celui de la place et de la nature de la conscience. Celle ci "commence par être centrée sur les résultats des activités avant d'atteindre le mécanisme de celles-ci : la conscience part de la périphérie et non pas de processus centraux. Et encore, comme l'a montré Claparède, ne surgit-elle (en ce domaine des résultats ou des points d'application périphériques de l'action) qu'à l'occasion des désadaptations, les mécanismes fonctionnant normalement d'eux-mêmes ne fournissent pas de telles occasions."(L.C.S., pg 404) Nous préciserons I'importance de cette description de la conscience en y adjoignant les conséquences de l'étroitesse du champ de conscience instantanée, soulignée par H. Simon (VI-C). Alors apparaît pleinement la possibilité d'une analyse réductrice de la conscience, une dépendance du contenu de conscience vis à vis du développement ontogénétique antérieur, une limitation dans les capacités opératoires d'analyse de l'environnement qui est une clef fondamentale dans l'explication de la formation des connaissances apprises.
4.3.4. La sous-estimation de l'organisation cérébrale innée.
Tel quel, le constructivisme piagétien nous paraît le point de départ épistémologique le plus valable. Cependant, le respect pour un maître dont nous avons toujours suivi la pensée depuis que nous avons eu la chance, en 1958 de bénéficier de son enseignement, n'exclut pas toute critique. Une insuffisance nous paraît altérer une explication épistémologique fondamentale par ailleurs : il y a, chez Jean Piaget, un véritable fossé mal comblé entre la constitution innée et l'apparition de l'intelligence représentative durant la deuxième année de vie ; ce fossé est lourd de conséquence.
Piaget décrit le développement intellectuel de l'enfant à partir de l'exercice au contact de l'environnement, mettant en jeu des mécanismes innés et des conduites héréditaires (147). Il semble donc bien que Piaget ne rattache les schèmes cognitifs qui marquent pour lui la connaissance apprise, qu'à une transformation des conduites héréditaires. Mais avant tout du fait des connaissances neurophysiologiques limitées à son époque et d'une recherche insuffisante sur les capacités cognitives du nouveau-né ou du jeune nourrisson, Piaget accorde trop à l'exercice et pas assez à la constitution cérébrale innée. Il semble considérer que la perception au contact de l'objet se construit préalablement et selon les mêmes règles que la perception représentative. Or il apparaît aujourd'hui que la perception au contact de l'objet est très développée chez le nouveau-né et marque beaucoup plus profondément que ne le pensait Piaget, le développement cognitif de la première année.
Cela n'est pas seulement une erreur de détail. La richesse des mécanismes perceptifs innés et d'une façon générale, la richesse de l'organisation cérébrale innée rend beaucoup plus vraisemblable la thèse selon laquelle toute acquisition cognitive quelle qu'elle soit n'est rien d'autre que l'actualisation d'une façon de fonctionner du cerveau, définie potentiellement par la constitution innée.
4.4. Les conséquences de l'analyse de la Matière.
Les progrès dans l'observation et les calculs en astronomie eurent des conséquences essentielles sur l'épistémologie, notamment la révolution "copernicienne" de Kant. Les développements de la théorie atomique au XIXème siècle, puis ceux de la mécanique quantique au XXème siècle, contiennent en germe une révolution épistémologique tout aussi importante.
4.4.1. La théorie atomique.
Formulée progressivement et très péniblement (208) durant le XIXème siècle, la théorie atomique conduit à admettre que tout objet physique est réductible à une combinaison d'atomes. Ces atomes sont considérés initialement comme des corps simples, théoriquement indivisibles et appartenant à un ensemble de 92 termes différents seulement. Mais il est ensuite apparu que ces 92 corps simples semblaient eux-mêmes réductibles à une combinaison de particules sub-atomiques de trois types différents seulement. Bien que cela apparaît aujourd'hui comme une vision trop simplifiée, il devenait évident que la notion de substance était très appauvrie dans l'élaboration des connaissances, sinon totalement annulée; une substance uniforme ou même quasi uniforme ne présente aucun intérêt dans la description physique. Inversement, la notion de combinaison occupait la place laissée libre par la substance et Démocrite triomphait finalement sur Aristote à partir de données qui ne devaient pratiquement rien à la spéculation philosophique.
La théorie atomique provoquait une révolution épistémologique dans le sens de l'analyse réductrice comme dans celui des synthèses structurales. Ce n'est pas seulement l'intérêt de centrer les descriptions du réel sur des différences de substances qui apparaît pratiquement perdu. Ce sont encore et surtout, de nombreuses émergences fonctionnelles essentielles qui peuvent être totalement expliquées, au niveau chimique moléculaire, du seul fait de la mise en relation d'éléments :
- dans de très nombreuses situations, la simple mise en voisinage d'éléments provoquent leur réunion spontanée pour former une structure stable; c'est par exemple le cas de la formation d'un sel par réunion de deux ou plusieurs ions. Les éléments préexistants gardent leur individualité après cette réunion, peuvent être ultérieurement restaurés, ce qui traduit bien que la relation nouvelle est la seule explication des propriétés constatées dans la structure apparue.
- des lois physiques simples permettent de prévoir les émergences fonctionnelles et les propriétés nouvelles produites par la mise en relation. Ainsi la propriété de métal ou de métalloïde s'explique uniquement par le nombre de "particules" sub-atomiques mises en symbiose. Les points de fusion, d'ébullition, sont déterminée par des lois thermodynamiques selon le même principe. Le processus est encore plus marqué en chimie organique pour tous les composés de carbone, d'hydrogène, d'oxygène et d'azote.
La théorie atomique a donc été elle-même à la base de données nouvelles qui la précisent et complètent sa signification épistémologique :
- la description atomique a montré le caractère universel de l'emboîtement et de la hiérarchie des structures. Non seulement, l'atome, théoriquement élément universel de combinaison est lui même décrit comme une combinaison de termes discrets, mais l'échelon atomique conduit aux échelons moléculaires, macromoléculaires et autres échelons de niveau plus élevé, sans solution de continuité jusqu'à la description des organismes. Au cours de ces constructions emboîtées, la mise en relation d'éléments préexistants résume toute la dynamique constructive.
- la conduite de l'analyse des organismes jusqu'au niveau atomique a permis d'affirmer qu'au sein d'un organisme, n'importe quel élément peut être parfaitement remplacé par un élément identique, sans aucune conséquence sur l'identité de l'organisme. Au maximum, le corps humain remplace en quelques années la totalité ou quasi-totalité de ses constituants chimique sans rien perdre de son identité. C'est donc bien que la combinaison est tout et que les particules décrites sont pratiquement réduites à la propriété d'exister.
La mécanique quantique permet de conduire encore plus loin la crise épistémologique ouverte par la théorie atomique.
4.4.2. Les apports épistémologiques de la Mécanique quantique.
La mise en cause par la théorie de la relativité, des positions traditionnelles concernant l'espace et le temps a certainement joué un rôle considérable dans l'évolution épistémologique récente. Deux autres notions apparues dans la physique moderne ont une importance tout aussi grande. Il est du reste probable que ces deux notions sont dépendantes l'une de l'autre.
- le principe d'incertitude d'Heisenberg. Cette limitation de fait de la connaissance est tout à fait reconnue mais diversement interprétée. Pour certains, le principe d'Heisenberg traduit des fluctuations microscopiques, éventuellement explicables par des variables cachées, et de toutes façons, sans intérêt à l'échelle macroscopique. Pour d'autres au contraire, il conduit plus aisément à accepter une incertitude essentielle à notre échelle, l'Univers irrésolu qu'a décrit K. Popper (170). Il peut enfin caractériser tout simplement l'incomplétude de notre connaissance.
- la relativité de la connaissance, reliée à l'observateur. Comme le dit Heisenberg (083), en mécanique quantique les données sont simultanément un fait et la connaissance d'un fait. Ce qui se passe dépend de notre manière de l'observer ou du fait que nous l'observons. La conclusion de N. Bohr (024) et de W. Heisenberg (082) est que les sciences de la nature présupposent toujours l'homme et que nous devons nous rendre compte que nous ne somme pas spectateurs mais acteurs dans le théâtre de la vie. De même, E. Schrödinger (188) parle d'une objectivation du réel à propos de l'attitude du réalisme philosophique dont il fait une hérésie. Il nous faut pleinement accepter cette leçon des physiciens du quanta et la généraliser à toutes les échelles de la connaissance, notamment celles de notre expérience immédiate. Comme le dit Piaget, " les découvertes de la microphysique contemporaine commencent seulement à nous apprendre à travers quels échanges entre l'expérimentateur et la réalité poursuivie s'obtient une objectivité construite pas à pas et non pas déduite more dialectico." (L.C.S., pg 1245)
- les principes de correspondance et de complémentarité. Ce que nous percevons d'une particule, dit N. Bohr (024), n'est pas la particule elle-même mais la trace, sortie du temps et de l'activité de cette particule, sur une plaque photographique ou dans une chambre à bulle. C'est donc un phénomène appartenant au domaine de la physique classique qui nous fournit des informations sur une particule qui échappe aux lois de cette physique. Les informations obtenues sont probabilistes et fragmentées, dépendant de chaque protocole expérimental et nous sommes notamment dans l'incapacité de préciser simultanément l'emplacement d'une particule et les différentes facettes de son comportement. Les démarches cognitives effectuées dans le cadre de la mécanique quantique sont marquées par les points suivants:
- il faut construire l'objet cognitif par relevé croisé, comme point fixe de résultats expérimentaux qui sont à la fois distincts et reliés par l'existence supposée de cet objet. Cela n'est pas toujours facile car les résultats expérimentaux peuvent être "complémentaires".
- en effet, même si plusieurs expériences sont reliées par un projet en partie commun, des points de départ conceptuels voisins et des conditions expérimentales qui ne diffèrent pas totalement les unes des autres, chaque expérience traduit une relation originale entre l'observateur et l'observé. De ce fait les résultats de chaque expérience peuvent être totalement indépendants des résultats fournis par les autres expériences. C'est le principe de complémentarité. (024).
- il faut toujours tenter de traduire au sens strict du mot, en des termes de langage caractéristique de la physique classique et accessible à tous, un formalisme mathématique décrivant des comportements qui ne s'intègrent pas dans le cadre de la physique classique. La traduction ne peut évidemment être qu'approchée. C'est le principe de correspondance* (024).
Fait essentiel, N. Bohr affirme explicitement (024) qu'il a recherché, pour décrire le résultat des expériences de la mécanique quantique, des modèles épistémologiques préexistants. Cela le conduit à affirmer le caractère universel des démarches épistémologiques qu'il formule, et nous acceptons pleinement cette conclusion. Piaget a suivi également l'école de Copenhague sur ce plan (150).
Le résultat global des théories atomiques, relativistes et quantiques, est une mutation profonde qui aboutit à une connaissance centrée sur la relation et non sur la substance, qui fait de l'objet un point fixe de l'analyse cognitive et non une réalité "en soi". C'est le sujet de connaissance qui "construit" l'objet en réunissant dans un graphe unique, un certain nombre de relations, les unes reliant le sujet et une zone ponctuelle de l'environnement, les autres deux zones ponctuelles distinctes de l'environnement. Comme nous le verrons, c'est parce que les aires perceptives réalisent immédiatement et automatiquement, de façon préconsciente, un découpage puis un assemblage local de l'environnement continu, que nous avons l'illusion de l'existence ontologique de l'objet en tant que tel.
De façon assez ambiguë, Démocrite avait déjà privilégié la relation en faisant de tout objet une combinaison particulière d'atomes. Mais parallèlement, I)ëmocrite attribuait à chaque atome tous les caractères de l'Etre éléate. L'atome de la mécanique quantique est tout autre. Il est provisoire et donc réductible en puissance, contrairement à l'atome de Démocrite. Les particules sub-atomiques traduisent cette réduction de l'atome, mais de plus, elles deviennent des "façons de parler", des modes d'exister et elles ont perdu leur substance :
- universelles, en petit nombre, elles expliquent encore moins que les atomes, la variété des systèmes et des objets par leur propre variété.
- elles traduisent le résultat d'expériences physiques et n'ont pas de signification par elles mêmes.
- elles caractérisent indifféremment une énergie immatérielle ou une matière mais en ce cas, elles n'ont pas la prétention de marquer les limites d'une réduction.
- modes d'exister autant qu'éléments discrets, certaines "particules" se voient attribuées une valeur d'objet de relation comme le quarck et d'autres essayent de traduire la relation entre objets, comme le gluon.
Ainsi, la description physique est conduite à évacuer la substance, pourtant indispensable pour justifier l'existence de structures irréductibles. La relation prend la place de la substance et cela sous un triple aspect: - l'objet de connaissance traduit une rencontre entre un sujet connaissant et un objet connu, - l'objet connu lui-même est réductible à un ensemble de relations hiérarchisées. Portant sur les relations plus que sur les structures, ce réductionnisme* comme nous le verrons ne se réduit pas à la juxtaposition d'éléments simples mais inclut des interactions complexes, autre façon d'exprimer la relation. Par ailleurs, "l'objet" décrit aux niveaux ultimes de la réduction traduit seulement un mode d'être qualifiant le résultat de nos expériences et marque la limite provisoire de la recherche et de l'analyse.
- la relation doit expliquer tout ce qui était antérieurement rapporté à une différence de substance, la vie par rapport à l'anorganique, le mental par rapport au biologique. C'est toute l'hétérogénéité* de l'Univers, ce sont toutes les émergences fonctionnelles qui doivent être expliquées par le seul jeu de relations.
La structure se trouve donc réduite à un arrangement d'éléments dont la nature devient indifférente et relative, à un groupement cristallisé de relations, un arrangement hiérarchisé et variable dans le temps : - il peut être attribué à l'arrangement une naissance et cette naissance, autant que les propriétés, est objet de connaissance.
- l'arrangement peut renouveler un à un la totalité de ses constituants sans aucunement perdre son identité.
- l'arrangement est plastique, déformable. Il peut subir des modifications ponctuelles dans la nature de ses relations internes, en conservant une identité en quelque sorte statistique.
Ce qui vaut pour les objets physiques vaut à fortiori pour la connaissance qu'on peut en avoir. Les structures cognitives ont nécessairement une histoire. Elles ont donc une naissance qu'il importe de préciser pour passer à un plan supérieur de connaissance. Elles sont provisoires, mais également plastiques. Elles sont réductibles à un jeu de relations. Toutes ces propriétés sont évidemment à l'opposé des structures cognitives conçues par le réalisme traditionnel.
CONCLUSIONS
Bien qu'ayant conscience d'un survol beaucoup trop rapide et sélectif de nombreux travaux épistémologiques, nous nous sommes autorisé à définir des repères historiques dans l'évolution de l'épistémologie, permettant malgré tout de proposer un certain nombre de conclusions :
- le réalisme traditionnel n'est pas pleinement cohérent, bien qu'il doive continuer à constituer une étape initiale, pratiquement indispensable dans l'évolution cognitive ontogénétique. Après plus de deux millénaires de réflexion, il apparaît possible d'émettre une condamnation motivée du réalisme traditionnel, tout en reconnaissant la validité de positions réalistes dérivées. Alors que, selon le réalisme, l'environnement se présente initialement comme une référence "en soi" indiscutable, l'exercice même de la pensée réaliste a provoqué sa propre invalidation. A cette remise en cause du réalisme, il n'y a qu'une alternative : le réel tel que nous le percevons dépend obligatoirement de notre regard et résulte d'une construction de notre part. Le prix à payer est l'abandon de toute référence de vérité, son remplacement par un substitut plus pauvre de cohérence.
- la condamnation du réalisme traditionnel s'accompagne du primat de la relation sur la matière ou la substance. La philosophie aristotélicienne a vainement couru après la découverte de substances premières; celles-ci se sont toujours montrées ultérieurement réductibles. Parallèlement, la description des relations a peu à peu envahi tous les domaines de la connaissance. Cela valorise a priori le réductionnisme* et conduit à n'attribuer qu'une valeur provisoire aux structures apparemment premières. Cela conduit également, comme nous le verrons à ne plus définir l'information comme une caractéristique ontologique et descriptive des objets.
- la condamnation du réalisme traditionnel entraîne celle d'un discours premier. Platon et Saint Thomas d'Acquin situaient en Dieu l'origine des idées. Ainsi se trouvait défini un métasystème S2 contenant les règles de vérité et de fausseté permettant le déroulement du système SI constituant le langage. L'abandon du métasystème divin S2 remet tout en question puisque le système S 1 ne peut assurer sa propre validation. Les mots se définissent uniquement avec d'autres mots et le discours replié sur lui-même ne peut émettre que des tautologies. Pour parvenir à un dépassement, il est indispensable qu'un certain nombre de mots au moins soient les étiquettes de données sensibles recueillies par observation ou expérimentation. Le discours devient alors second par rapport à ces étiquettes.
- l'affirmation du sujet. Du "Cogito" de Descartes à l'homme acteur de N. Bohr, l'importance du sujet connaisseur va croissante et cela est normal puisque cette prééminence du sujet est l'alternative cohérente du réalisme. Cependant, cette affirmation du sujet est encore trop souvent conduite dans la perspective de l'anthropologie aristotélicienne marquant une différence de nature entre le corps et l'esprit.
- la réduction biologique de l'intelligence. Deux notions sont apparues, qui devraient aisément permettre d'atténuer, sinon de combler le fossé qui sépare le corps de l'esprit -.
a) le postulat d'Helmholtz d'un écran neurologique subjectif entre le récepteur passif des données sensibles et la conscience.
b) le postulat de Claparède situant l'intelligence dans le prolongement des adaptations biologiques.
- l'orthogenèse constatée après coup. Entre le refus d'une véritable genèse et la croyance en une finalité transcendantale réglant la ligne du progrès, est venu s'intercaler le concept d'un progrès écrit par et pour un organisme, au fur et à mesure qu'il se joue. Cette forme de progrès correspond à la philosophie de l'inexact mais permet de plus d'envisager qu'un organisme très simple puisse avec le temps se hausser lui-même à la hauteur de l'esprit.
Toutes ces notions ne vont pas sans une transformation profonde du sens de la connaissance. " La connaissance ne peut plus prétendre à aucune autre objectivité que celle qui consiste à être inter-subjectivement valable, c'est-à-dire valable pour tous les esprits humains placés dans les mêmes conditions d'observation et se servant du même langage. Elle ne fait appel à aucun mode transcendant, à aucune vision angélique, à aucune illumination surnaturelle, à aucune réalité nouménale. Cessant d'être faite pour les dieux, elle est à la mesure de l'homme et à son seul usage (L. Rougier, op. cit.)."
Face à cette révolution épistémologique, la théorie de l'autonomie biologique nous paraît d'un intérêt considérable:
- elle permet d'accorder à l'organisme biologique les propriétés de libre-arbitre, de réflexion sur les conduite propres que Descartes pensait être le privilège d'êtres dotés d'une pensée surnaturelle. Elle prend donc le contre-pied de l'animal-machine en rehaussant cet animal au rang de la res cogitans.
- s'appuyant d'un coté sur un réductionnisme physique, mais ouverte aux activités opératoires les plus complexes, elle supprime l'obligation de sauts inexplicables et irréductibles entre le physique le plus élémentaire et le mental le plus complexe.
- elle donne satisfaction à la philosophie qui se nourrit de normes et ne se contente pas de l'analyse des faits, en définissant l'autonomie et les conditions d'exercice de cette autonomie, offrant une alternative à l'appel aux structures mentales sans genèse pour établir une épistémologie.
A ces multiples titres, il apparaît bien difficile de continuer à considérer l'épistémologie indépendamment d'une analyse approfondie du concept d'autonomie biologique.