Du Cerveau à la Pensée:
Théorie de la Connaissance et Autonomie Biologique
par Jean-Claude Tabary
Retour: Accueil/Home - Précédent: Chapitre 12 - Suite: Conclusion

CHAPITRE XIII : THEORIE AUTONOMIQUE DE LA CONNAISSANCE


"La conception de la réalité objective des particules élémentaires s'est étrangement dissoute, non pas dans le brouillard d'une nouvelle conception de la réalité, obscure ou mal comprise, mais dans la clarté transparente d'une mathématique qui ne représente plus le comportement de la particule élémentaire mais la connaissance que nous en avons."

Werner Heisenberg


"Retrouver le savoir est en fait pouvoir, donc savoir-faire. La distinction de l'épistémologie et de la praxeologie est une erreur.

Paul Valéry



Résumé : Six points se présentent comme des conclusions au cœur de notre analyse.

1. L'épistémé de la substance est terminée, l'épistémé actuelle est celle de la relation, et au premier chef, de la relation entre le sujet et l'objet de connaissance.

2. Il n'y a pas de vérités premières. La cohérence* multicruciale* entre les données portant sur un point est la seule méthode possible de validation cognitive. Le sujet appréciant lui-même le degré de cohérence* exigé, la démarche cognitive devient un pari probabiliste.

3. Les significations et l'implication qui gère leurs rapports résument le mode mental et intérieur du fonctionnement cérébral. Ces significations sont apprises et sont des façons d'exister* du cerveau, actualisées par l'expérience.

4. La dégénérescence des significations et le bénéfice néguentropique* de la conjonction des significations dégénérées sont au cœur d'un progrès cognitif, qui ne peut être qu'une orthogenèse constatée après coup.

5. La connaissance est relative au sujet qui connaît, et utilitaire. Une utilité commune aux individus, génère une objectivité sociale relative.

6. La conscience traduit le résultat d'une abstraction réfléchissante* qui permet au sujet d'examiner le fonctionnement cérébral régissant l'activité qu'il exécute, en même temps que son résultat.

----------


A) La nature de la Connaissance


La connaissance traduit une information qui conduit au choix d'une réponse adaptative avec une probabilité de réussite supérieure à une réponse qui résulterait d'un choix aléatoire. On peut distinguer plusieurs niveaux de connaissance.


Les connaissances constitutionnelles : ce sont les seules indispensables. Elles sont très limitées chez l'homme par rapport aux connaissances apprises, mais il existe en revanche des mécanismes constitutionnels sur le plan de la perception, de la curiosité, de l'imitation, beaucoup plus performants que ne le pensait Piaget, permettent des acquisitions cognitives très rapides. La différence entre "réflexes" et schèmes appris est ainsi amoindrie et on peut parler de stratégies constitutionnelles présentant les possibilités de généralisation que Piaget réservait aux schèmes.


Les connaissances apprises : elles sont toujours issues des connaissances constitutionnelles par exercice, révision et constructions opératoires.

~ L'adaptation des stratégies constitutionnelles est précoce et élémentaire. S'y associe très vite la combinaison des stratégies.

~ Les évolutions ultérieures sont marquées par la mobilisation interne des stratégies qui génère la représentation cognitive. Celle-ci, en s'enrichissant, sépare les données propres au moi et les données d'environnement. Une évolution tout aussi essentielle est l'effacement progressif des données perceptives ou d'interface derrière les corrections opératoires. Chemin faisant, il y a élimination de toute notion de substance.


Description dynamique des mécanismes d'acquisition des connaissances.


Au départ, est la rencontre entre un sujet défini biologiquement et son environnement. Il faut entendre par sujet, un organisme autonome. L'environnement est nécessairement caractérisé par l'association de régularités et de variations aléatoires.

Ensuite, vient la réaction circulaire* qui traduit la correction des conduites successives essayées en fonction des résultats qu'elles ont obtenus.

Puis vient l'équilibration spontanée corrigeant partiellement les imperfections. Selon le schéma de la structuration dissipative, l'imperfection des corrections entretient une instabilité qui finit par provoquer spontanément une réorganisation si le système est suffisamment complexe.


Le domaine de la Connaissance.


Le domaine de la connaissance est la relation de contact en surface entre l'objet à connaître et le sujet connaissant. Mais pour tirer parti des connaissances premières, le sujet doit dissocier ce qui vient des propriétés de l'objet et ce qui vient des particularités de sa propre constitution. Du fait de l'existence obligatoire des structures d'interface, la connaissance devient connaissance des données d'interface.


La Connaissance, conduite subjective.


Contrairement aux thèses réalistes traditionnelles, la subjectivité de la connaissance est première, c'est la similitude entre les systèmes cognitifs des différents individus qui doit être expliquée.

~ Une connaissance est une façon d'exister* définie dans une enveloppe potentielle au sein de la constitution. La connaissance apprise est une sélection dans le cadre d'un processus autonome, non une assimilation d'une instruction venue de l'extérieur.

~ Le sujet doit construire la totalité de ses connaissances. Les connaissances en provenance de l'environnement social doivent être réanalysées avant d'être assimilées et intégrées dans le système cognitif antérieurement établi.

~ Par ailleurs, de nombreux points demeurent obligatoirement ouverts et indéterminés durant la démarche cognitive, ce qui nécessite une intervention subjective continue pour combler les indéterminations.


Conclusions.


Combinaison d'éléments du fonctionnement cérébral, la connaissance, tout au moins la connaissance subjective, n'est pas présente dans le monde de la réalité physique. La connaissance est donc nécessairement un modèle interne de la réalité extérieure. Il ne peut y avoir une concordance totale entre le déroulement d'une activité cérébrale au cours de l'actualisation d'une connaissance, et l'événement décrit par la connaissance. La relation entre "la carte et le territoire" est donc obligatoirement dégénérée. De plus en plus opératoire, de moins en moins perceptive, la connaissance devient conscience de relations et le contenu de conscience ne peut plus être représenté perceptivement.


-------------


B) Rationalité restreinte* et Connaissance


Les analyses d'H. Simon soulignent les limites des capacités cérébrales, imposant des artifices pour élargir le champ de conscience.

1. Le mécanisme le plus essentiel est celui qui consiste à mobiliser un algorithme entier sous forme d'une étiquette.

2. Un autre mécanisme essentiel est une approche simultanée d'une même situation par une multiplication des points de vue distincts qui sont analysés séparément et seulement coordonnés ultérieurement.

3. De signification assez voisine est l'approche simultanée et superposée sur plusieurs niveaux de définition.

4. L'appel aux stratégies remplace les explorations tactiques en arborescence. La dégénérescence est obligatoire dans l'utilisation des stratégies.

L'analyse de la rationalité restreinte* conjointement à la théorie de l'autonomie biologique, conduit à dévaloriser le concept, par rejet du réalisme de natures, mais à le revaloriser comme point d'ancrage provisoire mais obligatoire pour compenser les effets de la rationalité restreinte*, ce qui définit la connaissance objective de K. Popper.


-------------


C) Les Connaissances stabilisées ou le Troisième Monde* de K. Popper


L'étude de l'information génétique contenue dans l'A.D.N. est une excellente introduction à la compréhension des connaissances cristallisées ou stabilisées, y compris pour discuter ce qu'il peut y avoir d'excessif dans la conception de K. Popper d'une connaissance objective autonome. L'objet cognitif, préalablement construit, à partir d'un découpage et de l'expérience, est au cœur des connaissances cristallisées, car c'est sous cette forme seulement que la connaissance peut être extériorisée et passer du second monde* de Popper au troisième monde*.


1. Les perceptions au contact de l'environnement.


Exigeant la présence effective de l'environnement, ce ne sont pas à proprement parler des connaissances stabilisées mais elles constituent la base de toutes les constructions cognitives.


2. Les images de la représentation perceptive hors la présence de l'objet.


Elles sont indispensables mais très pauvres, ce qui les rend incapables de traduire les connaissances apprises un tant soit peu complexes, notamment celles qui sont dérivées d'une confrontation entre perceptions distantes dans l'espace ou le temps. Cela impose la construction de séquences perceptives, mais surtout la dissociation signifiant-signifié où une image perceptive peut être reliée arbitrairement à un signifié quelconque.


3. Le sens des catégories extérieures au Moi.


Ces catégories, au sens d'Aristote, sont indispensables à la connaissance mais elles ne répondent pas à une organisation classifiable de l'environnement. Les catégories sont obligatoirement perceptives ou opératoires. Les catégories perceptives renvoient à des mécanismes perceptifs unitaires du cerveau, isolés par la neurophysiologie.


4. L'Objet cognitif.


On peut qualifier d'objet, tout point de centration de l'activité cognitive. Le réalisme maximal, notamment le réalisme platonicien, considère comme premiers, l'objet physique et l'idée générale. Le réalisme minimal considère comme premier, l'objet cognitif et l'objet réel ne peut être qu'inféré. Il est possible d'opposer point par point l'objet physique et l'idée du réalisme maximal, avec l'objet cognitif du réalisme minimal.


5. Le Discours.


Seule une organisation séquentielle peut traduire les connaissances apprises complexes. En ce domaine, l'image auditive est plus opérationnelle que l'image visuelle. Le discours est un vécu mobilisant les connaissances stabilisées que sont les mots.


Le Mot et le Symbole : ils sont envisagés dans le cadre du conceptualisme, et non dans celui du réalisme des idées. Le concept selon Piaget et Korzybski traduit une activité d'abstraction et de généralisation à partir des images perceptives ou de concepts plus concrets.

~ Concepts et symboles : Les définitions très variables rendent difficiles une opposition entre le concept et le symbole. Il peut y avoir un contexte "symbolique" qui enrichit subjectivement le concept et en accentue la prégnance. Inversement, le symbole peut être un concept réduit à l'existence.

~ Le mot est l'interface de la relation sociale. La dégénérescence qu'il comporte dans la traduction d'une information impose les conditions d'une transmission avec bruit, valorisant le dialogue.


La situation de la Logique : la logique ne décrit pas une "réalité" mais constitue une règle d'usage. Les mots étant dégénérés, les conclusions logiques le sont aussi. La logique bivalente, plus simple, est alors préférable. La logique est d'une certaine façon tautologique, mais également créatrice en traduisant le passage de la puissance à l'acte.


6. Les Systèmes cognitifs.


Une connaissance isolée a peu de valeur, d'où la nécessité d'une mise en relation des connaissances qui traduit le système cognitif.

L'opposition apprise entre le moi, l'autre et l'environnement physique traduit le premier système cognitif. La théorie est le système cognitif le plus élaboré. Sa structure est holographique puisque d'une part, elle est l'équilibre entre les faits mais d'autre part elle inspire la nature et le recueil des faits.


-----------


D) Les bases de la Validité cognitive


Le rejet du réalisme supprime toute vérité de référence. C'est la cohérence* existant entre connaissances qui traduit leur validité.

- cohérence* interne marquée par le respect des implications formelles et plus encore par le contrôle de l'accord existant entre toutes les connaissances du système cognitif global.

- cohérence* externe de la vérification, incluant la prégnance perceptive mais surtout la prédictibilité et la répétabilité des expériences.

- concordance entre individus, très importante pour le début des constructions cognitives, mais beaucoup plus aléatoire ensuite, lorsqu'entrent en jeu, idéologies, croyances, engagements métaphysiques..

Il faut souligner par ailleurs, que la cohérence* n'est jamais parfaite et qu'elle est appréciée par le sujet connaissant lui-même. Toute démarche cognitive devient alors un pari soumis aux règles de la probabilité subjective.


La Cohérence* et le Solipsisme.


L'acceptation du constructivisme ne doit pas devenir solipsisme. Le solipsisme consisterait à affirmer que la cohérence* externe est un cas particulier de cohérence* interne entre ce que le sujet "décide" venir d'un environnement qu'il a construit, et l'ensemble de son système cognitif. Le constructivisme admet un réel, semant des obstacles qui heurtent le déroulement interne de l'activité mentale. Il y a affirmation que le réel existe et qu'il est doté de particularités ontologiques permettant l'expression de régularités, mais ces particularités sont inaccessibles en tant que telles, et la connaissance se réduit à prévoir des comportements qui conviennent. Le réel ne se manifeste qu'à partir des obstacles imprévus qui interrompent le déroulement de l'activité cérébrale.

Nous n'avons donc pas à douter de l'existence de l'environnement mais un effort permanent est indispensable pour mieux qualifier cet environnement que ne le fait l'image qui nous en est donné par les mécanismes perceptifs constitutionnels. Les rencontres occasionnelles nous permettent de valoriser des relations. Une association minimale de relations définit un cadre cognitif. L'adjonction supplémentaire de relations apporte le bénéfice d'une cohérence* constatée. Cette cohérence* valorise le choix du cadre cognitif et s'ajoute aux obstacles imprévus pour construire la prégnance du réel.


-------------



Dans la suite d'une évolution des conceptions épistémologiques (I), et à partir des analyses de Claude Bernard, une théorie de l'autonomie biologique s'est progressivement dégagée (II). Elle a manifestement obtenue ses règles de noblesses en aidant à la compréhension de nombreux faits biologiques et psychologiques (III). Il nous a donc semblé légitime de souligner ce que cette théorie pouvait apporter à l'épistémologie. Nous avons commencé notre travail en énumérant quelques principes ou points de départ qui nous paraissaient à la fois essentiels et bien établis. Avant de préciser une théorie autonomique de la connaissance, nous voudrions souligner six points qui se présentent comme des conclusions essentielles au cœur de notre analyse.


1. L'âge de la substance est terminé, l'âge actuel de la connaissance est celui de la relation.


Il y a accord entre la physique et l'analyse épistémologique ou neuropsychologique pour affirmer que la connaissance n'intègre pas fondamentalement une qualification de substance mais une relation entre éléments. Nous prenons à la lettre l'affirmation de Hering qui voit la mémoire comme l'explication générale de la matière organisée. La connaissance première sur lesquelles sont établies toutes les connaissances apprises n'est une connaissance ni de soi, ni de l'environnement physique, ni des autres; c'est une connaissance d'une rencontre entre un moi, l'environnement physique et les autres. Le moi, parfaitement identifiable sur le plan biologique, est au contraire initialement indifférencié sur le plan de la réflexion. C'est seulement secondairement que la connaissance de la rencontre se fractionne entre une connaissance réfléchie du moi, de l'environnement physique et des autres. Ces connaissances, organisées de façon indépendante, sont seulement des modèles construits. Par ailleurs, la relation significative du sujet avec son environnement se fait uniquement par des structures d'interface qui sont stables au cours de la vie. Les connaissances premières sont les données d'interface, la révision des connaissances premières par l'expérience n'est qu'opératoire. Le passage de la substance à la relation traduit une révolution épistémique essentielle. En effet, la substance appartient à l'objet conçu indépendamment de tout observateur. On pourrait même dire que la substance est ce qui est propre à l'objet en indépendance de l'observateur. Au contraire la relation implique l'observateur pour la vivre et la constater, même lorsque cette relation porte sur les éléments constitutifs de l'objet.


2. Il n'y a pas de vérités premières et la cohérence* multicruciale* entre toutes les données portant sur un même point est la seule méthode possible de validation cognitive.


Il n'existe aucune référence première de la connaissance autre que la structure des interfaces et l'analyse des résultats du vécu. Or les propriétés d'interface ne sont analysées de façon réfléchie, qu'à titre de modèle, et cela implique les particularités du cerveau humain, connues également uniquement comme modèle. Il n'y a donc place pour aucune vérité première à quoi rattacher la connaissance. De ce fait, la validité cognitive est réduite à la cohérence* entre le maximum possible de données portant sur un même sujet, aux "relevés croisés" de K. Popper. Un minimum de données établit la définition relationnelle du concept et les données complémentaires cohérentes avec les premières, valident cette définition. Il y évidemment un rapport étroit entre l'abandon de la notion de substance et celui de vérité première. Une connaissance réduite à la relation se prête bien davantage à une validation par cohérence* . L'organisation hiérarchique des données d'interface et des constructions cognitives donne des opportunités toutes particulières de validité par cohérence*. En revanche, il n'est jamais possible d'espérer une cohérence* totale, si ce n'est en limitant délibérément et subjectivement le champ des analyses. La démarche cognitive apparaît ainsi comme un véritable pari.


Il nous semble que ces deux premiers points sont au cœur de la révolution épistémologique introduite par les théoriciens de la mécanique quantique, N. Bohr, W. Heisenberg et plus récemment M. Mugur-Schachter. A ce titre, l'épistémologie quantique est de signification universelle.


3. Les significations et l'implication qui gère leurs rapports résument le mode mental et intérieur du fonctionnement cérébral. Ces significations sont toutes apprises et sont réductibles à des façons d'exister* constitutionnelles du cerveau, actualisées opératoirement par l'expérience.


Les significations manipulées par le fonctionnement mental sont toutes construites. Inversement le fonctionnement mental est réductible à la manipulation de ces significations dans le cadre de l'implication. Les connaissances conceptuelles traduisent une organisation neurologique apprise et apprise au contact du milieu. Le premier temps de l'apprentissage est la dérivation de schèmes à partir de l'exercice des conduites innées. Ces schèmes demeurent fondamentalement des façons d'exister* définies potentiellement dans la constitution et actualisés par la rencontre avec l'environnement. Les schèmes initiaux sont perceptifs et fournissent une signification pour tout objet, pour tout événement. Le développement cognitif est donc nécessairement une correction des connaissances existantes et les significations nouvellement apprises portent la marque de cette correction. Cette correction ne peut être qu'opératoire, la qualification perceptive n'évoluant pas. Durant l'évolution opératoire des significations, l'implication concrète se substitue à la causalité observée, puis l'implication logique se substitue à l'implication concrète.


4. La dégénérescence des significations et le bénéfice de la restriction de variété liée à la conjonction des significations dégénérées, sont au cœur d'un progrès cognitif, qui ne peut être qu'une orthogenèse constatée après coup.


Les significations appartiennent au monde du fonctionnement cérébral et ne peuvent correspondre parfaitement aux données extérieures. Toute signification est donc dégénérée (X-A) par rapport à l'objet ou l'événement qu'elle décrit. Le rapprochement de deux ou plusieurs significations dégénérées est créateur d'un complément de sens par restriction de l'indétermination et donc source par lui-même de connaissance nouvelle. Ainsi s'explique le progrès cognitif, ontogénétique et culturel qui se fait et ne peut se faire que par approximations successives. La connaissance est donc obligatoirement approchée mais perfectible.


5. La connaissance est totalement relative au sujet qui connaît et n'a de signification qu'utilitaire. Mais la régulation de la subjectivité par l'utilité, en grande partie commune aux individus, génère une objectivité sociale relative qui explique l'importance du fait social sur le comportement cognitif individuel.


"Une réalité indépendante de l'esprit qui la conçoit est une impossibilité (H. Poincaré)". Un monde si extérieur que cela, si même il existait, nous serait à jamais inaccessible. Mais la relativité de la connaissance au sujet qui connaît est peut-être encore plus importante que ne le pensaient Henri Poincaré, Jean Piaget ou Niels Bohr. L'homme n'est pas seulement acteur dans le théâtre de la nature mais il est également un auteur rédigeant et contrôlant les scénarios qu'il écrit. L'universalité, d'ailleurs relative, des connaissances humaines ne s'impose pas d'elle-même et doit être expliquée. Elle est liée d'abord à la similitude des constitutions humaines et tout spécialement à la similitude des structures d'interface. L'universalité est renforcée par la structure sociale commune et l'hologrammorphisme* qui préside aux liens existant entre le groupe social et chaque individu. Mais par ailleurs, la subjectivité de la connaissance ne signifie pas une fantaisie qui serait suicidaire. Les nécessités adaptatives permanentes imposent une gestion de la subjectivité. Les nécessités adaptatives étant voisines pour tous les humains, il peut se construire une réalité objective qui résume ce qui est commun à plusieurs êtres pensants et pourrait être commun à tous. Cette communauté traduit le fait social et l'enrichissement de l'individu par le contact social. En un mot, l'objectivité n'est pas extraite par dialectique, mais authentiquement construite. L'objet lui-même, tout objet et pas seulement l'objet quantique est le résultat pérennisé de démarches cognitives antérieures ayant assuré un découpage au sein du continuum d'environnement.


6. la conscience est le résultat d'une abstraction réfléchissante* qui permet au sujet d'examiner les activités qu'il exécute et leur résultat.


Pour le réalisme, l'idéalisme, la phénoménologie, la conscience est donnée avant toute démarche cognitive. Pour l'empirisme, la conscience est un épiphénomène mis entre parenthèse. Nous pensons personnellement que la conscience traduit un aspect essentiel du fonctionnement cérébral et mental :

a) dans son mécanisme constitutionnel, la conscience est la capacité de contrôler au cours de sa réalisation, l'activité cérébrale globale non consciente qui est spontanée et automatique. Ce contrôle permet d'"isoler" une tranche particulière d'activité, d'en faire une représentation distincte et de la confronter avec le résultat qu'elle vient d'obtenir, essentiellement lorsqu'un obstacle au déroulement mental spontané est pressenti ou constaté.

b) dans son contenu, la conscience entretient les activités ainsi isolées en raison d'une abstraction et ensuite pérennisées.

La conscience ne préexiste au vécu qu'au niveau des mécanismes neurologiques qui la permettent. Si elle dirige effectivement les activités cognitives réfléchies, elle s'est enrichie antérieurement et progressivement à partir d'activités cognitives antérieures.


----------


A) La Nature de la Connaissance.



S'il est un domaine d'application immédiate de la notion de conceptualisation relativisée (XII-A), c'est bien celui de l'épistémologie. Toute définition portant sur la connaissance est profondément marquée par une conception implicite de la nature de la connaissance. Ainsi, A. Lalande définit la connaissance comme "un acte de la pensée qui pose légitimement un objet en tant qu'objet, cet acte pénétrant et définissant l'objet considéré". Le renvoi au réalisme philosophique est manifeste, mais on pourrait en outre multiplier les références implicites d'une telle définition.



1. Définition de la Connaissance.



Nous tenterons donc de donner une définition plus universelle de la connaissance en sachant bien qu'il nous faudra utiliser les mots définis dans le cadre du réalisme platonicien des idées, pour préciser une notion qui voudrait échapper à la nécessité de ce réalisme. Nous pourrions alors dire que la connaissance d'un événement par un sujet, traduit une information qui oriente ce sujet vers une réponse adaptative vis à vis de l'événement, réponse qui n'est pas choisie de façon aléatoire ou qui a une probabilité de réussite supérieure à une réponse qui résulterait d'un choix aléatoire. L'avantage d'une telle définition est de ne présupposer que le sujet de connaissance, sans référence obligatoire à une pensée et sans tenir compte du fait que l'information traduit ou non une rencontre antérieur avec un événement comparable. Cette définition évoque évidemment une conception probabiliste de l'information et de la connaissance mais elle nous semble s'adapter aisément à toute conception épistémologique, depuis le réalisme le plus traditionnel jusqu'à l'empirisme le plus radical.



2. Les Niveaux de la Connaissance.


Il est alors fondamental de considérer qu'il existe des connaissances constitutionnelles et des connaissances apprises, seules les premières étant nécessairement présentes chez tout sujet de connaissance.


2.1. Les Connaissances constitutionnelles.


Tout système autonome doit, dès sa formation, disposer de lois internes lui permettant d'adapter son équilibre aux conditions d'environnement. Faute de quoi, le système serait obligatoirement altéré avant qu'il ait pu effectuer la moindre réponse adaptative. Par ailleurs, le mécanisme même des connaissances apprises ne saurait se comprendre car il n'y aurait aucune référence pour ces dernières connaissances, qui traduisent essentiellement une modification de connaissances antérieures.


Les connaissances constitutionnelles portent d'une part sur une assimilation des fluctuations de l'environnement: un certain nombre d'excitations provenant de l'environnement provoquent spontanément une réponse adaptée. Mais les connaissances constitutionnelles portent également sur une partie de l'organisme par rapport à une autre. Le nouveau-né à terme "connaît" sa température interne, ce qui lui permet une mise en jeu immédiatement adaptée de la thermorégulation.


Ces connaissances constitutionnelles renvoient à une excitation spécifique des systèmes d'interface, correspondant à une configuration innée. La reconnaissance de l'image parentale chez le jeune oisillon en est un bon exemple. Ce ne sont pas seulement les neurones sensoriels qui sont impliqués mais aussi tous les systèmes d'intégration perceptive immédiate(V-C). Cependant, une distinction fondamentale doit être faite entre les stratégies comportementales fournissant une réponse adaptative immédiate et les stratégies essentiellement cognitives.


Dans les analyses de J. Piaget, le nouveau-né humain ne paraît disposer que d'un répertoire de conduites innées particulièrement pauvre, conduites que l'auteur qualifie de réflexes. Quant à H. Simon, il affirme que chez le nouveau-né, le monde de la perception et celui de la motricité sont deux mondes qui s'ignorent totalement, ce qui laisserait supposer qu'aucune conduite adaptative immédiate n'est possible. L'analyse systémique, comme les données récentes de l'observation du nouveau-né humain conduisent à nuancer fortement ces deux affirmations.


- il existe certainement des stratégies innées reliant une analyse perceptive et une réponse motrice. Ces stratégies sont indispensables à l'autonomie du nouveau-né mais celles qui répondent à la vie relationnelle avec l'environnement sont peu nombreuses et ne sauraient constituer la base unique des exercices comportementaux du nouveau-né. Il s'agit de liaisons compulsives expliquant par exemple l'aisance de la succion-déglutition à la suite d'une stimulation cutanée du bord des lèvres. Il faut y adjoindre notamment les efforts de tenue verticale de la tête, l'orientation du regard vers tout objet mobile, la marche automatique, la reproduction compulsive des attitudes faciales de l'observateur, etc....


- le terme de "réflexe" utilisé par J. Piaget pour définir ces comportement est ambigu. Il est correct si l'auteur voulait préciser l'indissociation du perceptif et du moteur qui marque ces comportements. Le terme est abusif s'il voulait décrire des conduites dites "archaïques" ou témoigner que les comportements initiaux sont hors du contrôle du nouveau-né. Le suivi de l'enfant montre que dès l'âge de quelques semaines, certaines de ces conduites, notamment la marche automatique, sont beaucoup plus difficiles à obtenir car l'enfant a appris à les inhiber du fait de leur faible valeur comportementale immédiate.


L'approche de J. Piaget intégrait l'opinion implicite d'une construction secondaire pour expliquer toute stratégie d'assimilation perceptive. Il fallait donc que ces stratégies soient dérivées de l'exercice de conduites perceptivo-motrices par fractionnement. Il devenait alors logique que Piaget accorde une importance essentielle à ces conduites, notamment à la succion. Un tel point de vue ne peut plus être accepté aujourd'hui. Il est souvent contredit par l'observation renouvelée du jeune nourrisson et les travaux de Hubel et Wiesel ouvre à des perspectives très différentes. L'organisation neurologique innée peut permettre des stratégies purement perceptives très élaborées. Leur mise en jeu suppose évidemment une motivation pour que la théorie de l'autonomie soit respectée mais cette motivation peut être aisément découverte. Elle résulte d'une orientation innée vers la curiosité pour expliquer la mise en jeu de stratégies d'assimilation sans accommodation résultante. L'orientation innée vers l'imitation explique la mise en jeu de stratégies d'accommodation sans qu'il soit besoin de l'assimilation d'une exigence de réponse comportementale.


L'observation animale conforte cette thèse en soulignant l'importance de la curiosité comme celle de l'imitation. Il est en particulier manifeste que la phylogenèse des oiseaux et des primates est marqué par un développement conjoint de la socialisation, de la curiosité et de l'imitation. Dès lors le point de vue de H. Simon, de l'ignorance réciproque des mondes perceptifs et moteurs chez le nouveau-né s'affirme davantage. Les stratégies perceptives répondant à la simple curiosité sont cependant beaucoup plus importantes à prendre en compte car elles enrichissent le corpus des connaissances, bien mieux que les conduites motrices d'imitation.


En définitive, la distinction que faisait Piaget entre "réflexes" et schèmes appris est très amoindrie et il nous paraît préférable de parler de stratégies dans les deux cas, d'appliquer aux stratégies innées ou apprises, ce que Piaget appliquait aux seuls schèmes et qui a été formalisé par L. Apostel :


a) toute stratégie a une tendance spontanée à s'appliquer à tout objet, en fait à tout événement, en toutes circonstances. Inversement, tout événement appelle a priori toutes les stratégies. Nous remarquons personnellement que de ce fait, il y a spontanément et dès la naissance, une qualification cognitive, erronée ou non ce n'est pas la question, pour tout objet, tout événement, toute situation.


b) le degré d'assimilation et d'accommodation dans une stratégie est fonction de l'intensité du besoin. Mais il faut inclure dans ces besoins la curiosité et probablement la compulsion d'imitation. Cette extension de la donnée de besoin permet d'insister sur les aspects de l'initiative individuelle dans l'utilisation des stratégies.


c) toute stratégie, innée ou apprise, est une totalité organisée. Il faut retenir de ce fait :

- que la stratégie comporte nécessairement une part d'indétermination, de dégénérescence permettant des modifications internes ponctuelles pour l'adaptation aux différents objets, aux différentes circonstances.

- que faites d'éléments, la stratégie peut être fractionnée en portions utilisables de façon indépendante

- que la stratégie en partie indéterminée, peut s'assimiler avec d'autres stratégies et s'intégrer dans une totalité élargie; elle conserve alors ses propriétés mais elle est également plus spécifiée, moins indéterminée, du fait des influences de voisinage.

Toutes ces particularités sont essentielles pour comprendre la dynamique de la connaissance apprise.


2.2. Les Connaissances apprises.


Ce que nous venons de préciser conduit à affirmer qu'une connaissance apprise peut toujours être ramenée à une modification de connaissances existantes, constitutionnelles ou apprises antérieurement, en fonction des "leçons" tirées de l'usage. Ainsi, connaissances apprises et mécanismes d'acquisition des connaissances sont indissociables. Cela conduit à définir de façon un peu arbitraires :

- une adaptation des stratégies au réel, c'est à dire une modification des stratégies existantes qui peuvent devenir de mieux en mieux adaptées aux particularités de l'environnement effectivement rencontré. Mais simultanément, et du fait de ces transformations adaptatives, les stratégies sont de mieux en mieux analysées par le sujet qui les utilise, de mieux en mieux connues dans leur structure et leurs éléments, et de ce fait, de plus en plus mobiles

- la représentation cognitive qui est une reconstruction intérieure, modélisant un comportement pour en apprécier le résultat avant de le mettre en oeuvre.


2.2.1. L'adaptation des Stratégies constitutionnelles.


C'est un premier temps obligatoire et le seul présent chez les organismes les plus simples. Il traduit l'évolution des stratégies sous l'influence de l'usage.


2.2.1.1. L'actualisation des stratégies constitutionnelles immédiatement opérationnelles. Un insecte prédateur, le sphex languedocien est immédiatement capable de paralyser un autre insecte par une piqûre dans le ganglion nerveux; il est cependant manifeste qu'il y a imperfection au premier essai et amélioration à l'usage. Un autre exemple est celui de l'empreinte chez les oiseaux coureurs où il y a une prédisposition innée évidente à valoriser le premier objet mouvant aperçu après la naissance; l'objet effectivement perçu définit la conduite. De même, la reconnaissance parentale chez l'oiseau, basée sur une configuration perceptive, ne permet pas initialement la différenciation entre parents et leurres; le leurre perd tout attrait en quelques jours. On pourrait également citer l'amélioration en quelques jours, des conduites d'alimentation lactée chez le chaton, démontrée par par Rosenblatt.


2.2.1.2. La combinaison et la décomposition des stratégies. L'adaptation des stratégies suppose des modifications qui ont deux effets :


a) une modification efficace d'une stratégie implique une connaissance du contenu de cette stratégie. La modification stratégique implique une meilleure connaissance de la stratégie par le sujet, et cette meilleure connaissance est la conséquence obligatoire de l'usage.


b) une modification efficace d'une stratégie qui conserve sa propre référence ne peut être qu'une modification ponctuelle, portant sur un élément. La modification des stratégies favorise donc une décomposition en éléments, d'application plus générale et plus mobilisables


Il résulte de ces données, que le simple usage des stratégies favorise leur découpage en éléments isolés, les combinaisons de stratégies et leur confrontation.

- ce sont surtout les stratégies les plus fondamentales qui peuvent être découpées en éléments indépendants. Piaget insiste ainsi sur la dissociation de la succion-déglutition, la succion devenant une conduite indépendante de toute déglutition ultérieure.

- la combinaison de stratégies génère de nouvelles stratégies, efficaces là où les stratégies isolées échouaient.

- la confrontation des stratégies permet une analyse des points communs et des différences, conduisant à une classification et une hiérarchisation.

- découpage, combinaison et confrontation permettent et traduisent une grande mobilité des stratégies. Le résultat en est la possibilité d'auto-assimiler des stratégies pour traduire intérieurement le modèle complet d'une relation avec l'environnement. C'est le principe du fonctionnement mental.


Le découpage, la combinaison et la confrontation des stratégies aboutissent spontanément à une organisation hiérarchique et holographique.

- hiérarchique puisqu'apparaissent des éléments de stratégie devenant autonomes, de nouvelles stratégies réductibles à une combinaison de stratégies préalables, selon un processus qui comporte un nombre indéfini de niveau (IX-B).

- holographique puisque chaque élément et chaque stratégie sont appréciés par rapport aux autres et reflète le corpus global des stratégies (IX-B).


2.2.2 Les évolutions ultérieures.


La mobilisation des stratégies donne naissance à la représentation cognitive. Appliquées à de nombreux objets différents, les stratégies deviennent indépendantes de l'état des systèmes d'interface et donc mobilisables indépendamment des conditions d'environnement. Plusieurs stratégies peuvent alors être confrontées les une aux autres, ce qui traduit la représentation cognitive. Celle-ci s'enrichit progressivement, mais de plus, s'effectue en isolant d'une part les données propres au moi et d'autre part, les données d'environnement. A la conscience adualistique* purement vécue, des premiers mois, fait suite une conscience dualistique* réfléchie, opposant le moi au reste de l'Univers.


Une évolution tout aussi essentielle est l'effacement progressif des données perceptives ou d'interface derrière les corrections opératoires. Notre organisation perceptive, comme notre organisation sensorielle est essentiellement stable au cours de la vie. Cela explique notamment la permanence des illusions perceptives qui traduisent la stabilité des perceptions en dépit de l'évolution du jugement. Mais les données perceptives sont fortement biaisées par les particularités de l'organisme humain et doivent être corrigées, correction qui traduit une grande part de la connaissance apprise. Or, les corrections des données cognitives premières ne peuvent être et ne sont qu'opératoires. De corrections en corrections, les significations apprises ont tendance à se détacher de tout support perceptif et ne plus traduire qu'un algorithme associant de façon définie des opérations logico-mathématiques élémentaires. Seule, l'étiquette de l'algorithme, pour des raisons évidentes d'activité neurologique interne ou des besoins de la communication interindividuelle, conserve un caractère perceptif, ce qui du reste porte souvent à confusion sur le sens fonctionnel de l'algorithme.


Une évolution strictement comparable a lieu dans l'autre domaine fondamental de la connaissance apprise, qui est le rapprochement entre des perceptions distantes dans le temps et/ou l'espace. Les singularités de chaque perception tendent à s'effacer durant ce rapprochement tandis que s'affirment les points communs plus généraux, les aspects structurels. Les données opératoires se trouvent donc privilégiées.


Inversement, plus l'évolution se fait vers l'opératoire, et plus il est possible de faire appel au pur symbole. Celui-ci n'est plus seulement une étiquette désignant une configuration perceptive ou un algorithme. Il devient le "x" ou le "y" dont le seul rôle est de permettre la mise en jeu d'algorithme. Une telle évolution ouvre à la représentation interne de tous les imaginaires, indépendamment de toute réalité. Les règles logiques formelles deviennent alors indispensables pour distinguer le possible de l'aberrant.


Chemin faisant, il y a élimination de toute notion de substance. Cette notion de substance est une première explication, indispensable tant que la représentation est encore marquée de données perceptives. Le progrès de la réflexion sur la connaissance permet d'en apprécier le sens réel, d'éliminer la substance en conservant les seuls aspects de relation.


2.3. Géographie et Histoire des Connaissances apprises.


Au travers de cette analyse diachronique de la connaissance apprise, s'est dessinée spontanément une organisation structurelle de cette connaissance. Cela ne doit pas étonner puisque la connaissance se résume à une construction individuelle au contact des environnements physiques et sociaux, construction dont on peut affirmer qu'elle n'est nullement terminée. Cette identité entre l'histoire et la structure ou géographie du corpus cognitif est un point essentiel en épistémologie. J Piaget a doublement démontré l'intérêt d'une épistémologie génétique, en montrant combien l'épistémologie génétique est le meilleur moyen d'atteindre l'épistémologie tout court. G. Bachelard n'a pas dit autre chose sur le plan de la science.


Cette conjugaison de la géographie et de l'histoire est le meilleur moyen pour comprendre que la connaissance progresse, mais ne progresse que de façon partiellement anarchique. La connaissance acquise traduit l'ensemble des corrections qui ont pu être effectuées par expérience depuis les débuts de l'humanité. Les corrections étant elles-mêmes entachées d'erreur et de subjectivité, il ne peut y avoir une ligne régulière de progrès, même si le progrès en fin de compte est continu à une échelle de temps suffisamment grande. L'orthogenèse cognitive est une réalité, mais à condition de comprendre qu'elle ne peut être perçue qu'après coup. Il devient alors facile de comprendre comment un M. Foucault ou un P. Feyrabend ont pu facilement trouver des arguments pour démontrer des aspects anarchiques de la science, et comment pourtant il est facile de rejeter les conclusions dogmatiques de ces auteurs.


Il est enfin évident que la similitude de l'histoire et de la géographie des connaissance présente l'immense intérêt d'approcher l'épistémologie de deux façons différentes, l'une historique et l'autre structurelle ou géographique, et d'établir une validité complémentaire à partir des cohérences* soulignées entre les deux approches. Ainsi réapparaît une connaissance indissociable du sujet qui l'a généré, un corpus cognitif indissociable de la dynamique cognitive.



3. Description dynamique des Mécanismes d'acquisition de connaissances.


Trois points résument cette dynamique :


3.1. Au départ, était la rencontre entre un Sujet défini biologiquement et son environnement.


A l'origine de toute connaissance apprise, il y a une rencontre dynamique entre un organisme sujet et un environnement fluctuant, et la nécessité pour le sujet de s'adapter à ces fluctuations. Il essentiel de préciser ce qu'on doit entendre par organisme sujet et par environnement fluctuant.


- parler de sujet implique à notre avis que l'organisme est autonome, donc capable de gérer lui-même ses réactions adaptatives. En ce sens la théorie de l'autonomie s'oppose à l'empirisme qui néglige cette capacité de gestion. Mais inversement la notion de sujet n'implique pas nécessairement un organisme à son plein développement comme le supposait implicitement l'idéalisme kantien, encore moins un appel nécessaire à une transcendance inexplicable sur le seul plan biologique, qui marquerait un dualisme* que nous nous efforçons de réduire.

Un sujet autonome, comme le nouveau-né humain peut être décrit par comparaison avec les jeunes animaux nidifuges et relativement matures à la naissance, dont il est facile d'observer le comportement. La gestion de l'autonomie suppose seulement une capacité minimale d'évaluation des situations et de choix de conduite. Ce choix s'exerce au sein d'un corpus de réactions adaptatives comportant conjointement une capacité d'assimilation des données d'environnement et une capacité de réponses accommodatrices.

Un sujet ainsi défini est donc à mi-chemin entre l'être passif que décrit l'empirisme et le sujet achevé de l'idéalisme kantien. Ce sujet possède un minimum d'autonomie mais tout ce qui est nécessaire pour évoluer lui-même à partir des connaissances qu'il est capable d'acquérir.


- l'environnement doit présenter un mélange d'aléatoire et de régularités. Aucune évolution des connaissances ne présenterait d'intérêt ou ne serait concevable dans un environnement totalement aléatoire, ou de même dans un environnement totalement régulier dont les fluctuations deviendraient prévisibles et auraient été assimilées depuis longtemps dans l'évolution phylogénétique.


3.2. Ensuite était la Réaction Circulaire*.


La constitution autonome suppose un minimum de capacités adaptatives immédiates qui permettent d'envisager une réponse comportementale devant toute fluctuation de l'environnement. Ainsi se trouve défini un postulat à la fois nécessaire et observable: toute connaissance apprise est une correction d'une connaissance existante, constitutionnelle ou apprise. Une connaissance apprise n'est pas une invention mais plutôt une découverte et une découverte qui porte sur les qualités et défauts des connaissances existantes. Apparaît alors le mécanisme unique initial du développement cognitif qui est la réaction circulaire* (II-6). Toute fluctuation d'environnement oriente, après assimilation, vers une réponse adaptative définie. Si le sujet juge que la correction de la fluctuation est nulle ou médiocre, il renouvelle sa réponse avec une modification ponctuelle dont il apprécie à nouveau le résultat. Le processus circulaire est ouvert sur le progrès puisque chaque échec est source d'une information complémentaire.


On pourrait douter de la capacité d'un sujet naïf à apprécier la correction d'une fluctuation. Ce serait oublié que le sujet n'a réagi qu'en fonction de l'assimilation d'une fluctuation. S'il a détecté la fluctuation, il doit pouvoir au moins approximativement juger de sa correction.


Il faut encore remarquer que toute connaissance apprise, portant sur la rencontre entre le sujet et l'environnement, présente un versant de connaissance du fonctionnement subjectif et un versant de connaissance de l'environnement. Les réactions adaptatives d'une part, le sens des informations extérieures vis à vis de ces réactions d'autre part, sont simultanément mieux connues(VII-C-2).


3.3. Puis vint l'Equilibration spontanée ou la Structuration dissipative.


Toute correction ponctuelle du corpus des connaissances préalable retentit par mécanisme holographique sur l'ensemble du corpus. L'équilibre qui s'était établi entre les connaissances existantes, se trouve rompu et il s'établit donc une instabilité. Cette instabilité est elle-même source de fluctuations aléatoires qui peuvent générer par elles-mêmes une réorganisation. C'est le principe de la structuration dissipative (VII-A-2) qui postule que la seule instabilité au sein d'un système suffisamment complexe suscite un complément ou une révision dans l'organisation.


En pratique et au niveau de la réflexion, ce processus associe des démarches conscientes et des processus automatiques. Le sujet peut, faisant appel à l'indétermination présente dans tout système cognitif, assurer des corrections ponctuelles. Mais les conditions de l'instabilité persistent et la répétition des expériences accroit les fluctuations. Il se dessine alors spontanément des schémas de réorganisation et l'un d'entre eux qui paraît plus plausible au sujet est entériné. Ainsi s'établit spontanément un progrès et un progrès par étapes discontinues.


Deux de ces étapes, atteintes très précocement, marquent profondément l'activité cognitive :


- l'adaptation de stratégies à des objets différents initie une distinction entre le noyau commun de la stratégie et les variations particulières. Ce noyau commun est actualisé en tant que tel et peut alors être mobilisé pour lui-même dans l'activité cérébrale, comme nous l'avons vu plus haut. Cette mobilisation peut aboutir à une confrontation de plusieurs noyaux stratégiques qui se déroule pour elle-même, indépendamment de l'environnement physique. Ainsi naît spontanément la représentation cognitive intériorisée.


- comme nous venons de le voir, les données acquises par les réactions circulaires concernent à la fois la constitution interne des stratégies et les informations extérieures. Toutes les données de constitution sont confrontées et décrivent peu à peu une connaissance globale de soi. De même, la confrontation des informations extérieures dessinent un tableau de l'environnement. Ainsi naît une conscience dualistique*, opposant le moi et l'environnement. "L'autre", personne sociale qui n'est ni le moi, ni un objet physique quelconque au sein de l'environnement, se trouve également identifié.



4. Le Domaine de la Connaissance.


Ces considérations sur la nature des connaissances au travers de la théorie de l'autonomie souligne que pour cette théorie, le domaine de la connaissance est la relation de contact en surface entre l'objet à connaître et le sujet connaissant. Il y a refus conjoint du primat de l'objet propre au réalisme et du primat du sujet, propre à l'idéalisme kantien. La relation sujet/objet, point de départ de toute connaissance apprise, est marquée à la fois par les propriétés de l'objet à connaître et du sujet connaissant. La rencontre entre les deux est la donnée stable et première.


Cependant pour pleinement tirer parti de ces connaissances premières, le sujet doit dissocier ce qui vient des propriétés de l'objet et ce qui vient des particularités de sa propre constitution. C'est en effet la connaissance du moi qui favorise celle du non-moi à partir des données de rencontre et réciproquement. Il n'y a pas cercle vicieux mais obligatoirement un aspect constructif ou développemental. C'est un progrès dans la connaissance de l'environnement qui permet une meilleure connaissance du moi, laquelle à son tour favorise l'analyse objective de l'environnement.


J. Piaget fut le premier à souligner le primat de la rencontre sujet/objet en matière de connaissance mais de nombreux points, acquis après les analyses de l'auteur, permettent d'être aujourd'hui beaucoup plus précis dans la définition du domaine de la connaissance:


a) une donnée extérieure n'est assimilable par un sujet ou système autonome qu'au travers d'une structure d'interface (V-A). Toute connaissance est donc réductible en fin de compte, à une donnée d'interface. L'élément unitaire de la structure d'interface de l'organisme humain est globalement une structure bi-stable qui ne donne, par unité de temps, qu'une seule unité d'information devant un événement quel qu'il soit. Cette information est monotone quel que soit l'événement et il serait plus juste de dire que l'organisme est informé d'une activité d'un neurone sensoriel, plutôt que d'un événement.


b) puisqu'un événement quel qu'il soit ne donne qu'un bit d'information par neurone et par unité de temps, un nombre considérable d'événements différents fournit une information identique. On dit alors que la liaison entre l'événement et le message reçu est fortement dégénérée.


c) le seul moyen de spécifier un événement est alors de multiplier les éléments d'interface en variant qualitativement leur sensibilité aux différents agents physiques et en les répartissant différemment à la surface de l'organisme. Il en résulte des configurations d'excitations qui peuvent caractériser un événement unique mais dont la structure interne n'a aucune raison de refléter la structure interne de l'événement. Les configurations que nous percevons sont le reflet de notre organisation, non de celle du "réel". Quels que soient les traitements ultérieurs de l'information reçue, le monde des messages tels que l'organisme les assimile, est un monde subjectif, marqué par les particularités de cet organisme et donc fondamentalement distinct des fluctuations "réelles" du monde environnant qui ne peuvent être que supposées.


d) le nombre d'interfaces unitaires est extrêmement grand par rapport aux capacités de traitement en temps réel de notre réflexion. Ce sont des mécanismes constitutionnels qui gèrent les données élémentaires d'interface pour les comprimer en un nombre raisonnable d'unités d'information. Ces mécanismes ne sont évidemment pas quelconques et marquent les intégrations perceptives de leurs propres propriétés. Ils biaisent notamment les données sensorielles brutes pour favoriser les contrastes spatiaux ou temporaux, accentuer artificiellement le fractionnement de l'environnement, dans l'espace et le temps, ou plus exactement dans l'espace/temps.


Se constituent ainsi des facteurs supplémentaires de dégénérescence. La connaissance constitutionnelle renvoie aux données brutes fournies par les systèmes sensoriels et perceptifs. La connaissance apprise revient en partie à une "désubjectivation" de ces données par la découverte des particularités des structures d'interface. C'est donc une fois de plus une meilleure connaissance du moi qui permet de construire une meilleure connaissance de l'environnement, et réciproquement. Par ailleurs, il faut remarquer que "c'est en méditant l'objet que le sujet a le plus de chance de s'approfondir". Paraphrasant G. Bachelard, on pourrait dire que la méditation de l'objet est le seul moyen d'accroître la connaissance de soi.



5. La Connaissance, conduite subjective.


E. Schrödinger a, l'un des premier, généralisé les données de la mécanique quantique en affirmant que "l'objectivation* du réel" était une illusion. Une théorie de l'autonomie le rejoint totalement sur ce point en affirmant que toute connaissance est une façon d'exister*, il serait encore plus juste de dire "une façon de vivre" de l'organisme connaissant. Il faudrait ajouter qu'un système cognitif est une organisation fonctionnelle au sein d'un organisme. A elle seule, l'intervention des interfaces soulignent combien les données de connaissance appartiennent au sujet et "ne sont plus ni thym, ni marjolaine".


Dans sa nature fondamentale, toute connaissance est un algorithme de relations qui réunit de façon originale par des opérations, un certain nombre de données. Ces opérations, logiques ou mathématiques, définissent des relations élémentaires qui pourraient être réduites à un constat d'équivalence ou une action topologiques (et, ou, non). Ces opérations sont universelles et n'ont rien d'original mais elles doivent être vécues ou agies par le sujet qui évoque une connaissance. Quant aux données, ce sont des façons d'exister* définies dans la constitution du sujet qui connaît. Ce sont notamment des configurations d'excitations d'interfaces élémentaires.


Dans ses aspects particuliers, la connaissance est relative, subjective et strictement utilitaire. Elle est particulière au sujet connaissant et n'a de sens que pour lui puisqu'elle porte, sur sa propre rencontre avec un objet. Primitivement, la connaissance concerne une conduite globale reliant le sujet à un objet particulier. Ce n'est que très ultérieurement que le sujet peut dériver d'événements connus et répétés, une connaissance individualisée du moi et du non-moi, une connaissance qui peut paraître identique à celle des autres. Particulière aux événements vécus par le sujet, la connaissance manipulée par le sujet ne peut donc que lui être particulière, et du même coup, utilitaire. L'universalité des connaissances ou des systèmes cognitifs permettent de définir une "connaissance objective" qui ne va pas de soi et qui doit être expliquée. Elle s'établit sur plusieurs critères :

- la similitude des constitutions, la similitude des organisations neurologiques, aux variances génétiques et accidentelles près

- la similitude des environnements, communs pour une large part à tous les membres d'un groupe social

- la part des interactions sociales dans les connaissances apprises.

Concrètement, cette connaissance objective se traduit par l'accumulation d'écrits qui ont la même signification pour tous et constituent de ce fait, le troisième monde* de K. Popper.


5.1. Connaissance et Façon d'exister*.


Un Abélard moderne dirait avec raison qu'une connaissance n'existe que dans le système neurologique. Mais il faudrait ajouter qu'une connaissance est indissociable d'un vécu cérébral dans le temps. Toute connaissance est un scénario intérieur qui déroule en séquences et groupements originaux, un certain nombre de façons d'être, définies dans la constitution innée de l'observateur. La connaissance apprise traduit une sélection dans un corpus constitutionnel préexistant, non une instruction allonomique*. C'est peut être là le point le plus déterminant d'une théorie autonomique de la connaissance. Il est certainement le plus en contradiction avec les visions habituelles de la connaissance. Il est pourtant imposé par la clôture organisationnelle* de Varela et n'est pas éloigné des descriptions de modèles cognitifs faites par Piaget. La difficulté posée par un tel schéma ne concerne pas les "actions" du scénario, qui sont tout simplement des activités intériorisées de l'observateur. En revanche, il est plus difficile d'envisager que l'image mentale d'un objet extérieur soit une façon d'exister* de l'observateur, et une façon dynamique d'exister. Il ne faut pourtant pas oublier que ce que perçoit l'observateur n'est pas l'objet d'environnement mais une configuration particulière de ses propres structures d'interface au contact de cet objet. L'image mentale formée dans un second temps est une abstraction effectuée par l'observateur à l'aide de ses propres systèmes d'abstraction perceptive.


La connaissance traduit donc doublement un comportement puisqu'elle est initialement dérivée d'une rencontre concrète avec l'objet à connaître et cela, en fonction des exigences adaptatives, directes ou indirectes. De plus, la connaissance exige de la part du sujet une réflexion pour dissocier dans cette rencontre ce qui vient des particularités du moi et ce qui est propre à un événement extérieur. Le résultat fait de toute connaissance un vécu intérieur propre au sujet et dont ce dernier décide qu'il est suffisamment approché du vécu au contact de l'environnement.


Il est même nécessaire d'aller plus loin et d'affirmer que la connaissance n'a de réalité qu'au moment même où elle est actualisée par le fonctionnement cérébral. Les cristallisations statiques qui permettent l'activité cognitive, ce qu'on pourrait appeler des données, ont en elles mêmes un contenu significatif très pauvre et n'ont pas, par elles-mêmes, valeur de connaissance. Ces traces ont la seule signification d'être un arrangement neuronal. C'est en reliant activement, dynamiquement ces traces que la connaissance se forme à nouveau. Les mots isolés sont reconstruits séquentiellement à partir des phonèmes chaque fois qu'ils sont évoqués et ils sont bien plus pauvres de contenu que le discours en situation qui les relie (XII-A).


5.2. Le Sujet et l'acquisition des connaissances.


La connaissance, façon de vivre ou d'exister, est au sens stricte, particulière à chaque individu connaissant. Tout individu doit édifier lui-même la totalité de ses connaissances. L'illusion qu'il pourrait en être autrement vient, pour l'organisme humain de l'importance primordiale des connaissances empruntées au groupe social mais il n'y a là effectivement qu'une illusion. Toute connaissance est dérivée d'une expérience individuelle mais le nombre d'événements qu'un individu peut rencontrer dans sa propre vie est limité. Par ailleurs, la découverte d'une "bonne solution" peut demander du temps. En s'assimilant à "l'autre", un individu peut justement penser que ce qui est efficace pour "l'autre" peut l'être aussi pour lui, que ce qui a valeur d'explication pour l'autre, peut valoir pour lui. Il y a alors un temps gagné considérable en assimilant directement des solutions élaborées par l'autre. Mais il n'empêche que cette assimilation des connaissances d'autrui exige exactement la même activité, les mêmes démarches de réaction circulaire*, d'évaluation, de jugement qu'exige toute connaissance au contact de l'environnement physique. Comme l'a fait remarquer Piaget, le concept et le mot, entendus en tant que tels et pour la première fois dans le groupe social, sont d'abord appliqués par l'individu aux stratégies qu'il a lui-même et antérieurement élaboré


5.3. L'Activité subjective durant l'Evocation cognitive.


La connaissance est un pari qui implique une décision d'acceptation du sujet connaissant puisqu'il n'y a pas isomorphisme stricte entre objet et connaissance. Le sujet doit choisir dans son propre organisme, une façon d'être, un "mode of itself" selon l'expression de Gerald Edelman, dont il "décide" qu'ils sont la meilleure approximation possible de l'événement à connaître. Dans le déroulement même de l'activité cognitive qui va au delà d'une simple remémoration, l'intervention subjective est constante.


L'activité et la décision du sujet apparaissent encore dans la formation de systèmes de connaissances à partir de connaissances isolées. Le sujet ne peut se contenter d'accumuler des connaissances indépendantes car en ce cas, tout nouvel événement exigerait une démarche totalement originale d'analyse. Le sujet dérive donc spontanément des systèmes généraux à partir des similitudes entre événements ou connaissances ponctuelles. La construction est le fait de l'activité intérieure du sujet qui "réfléchit" l'ensemble de ses expériences et "décide" du bien fondé de ses comparaisons. Si les systèmes de connaissances sont souvent présentés tout montés plutôt que construits par le sujet connaissant, c'est parce qu'ils résultent de démarches subjectives des générations antérieures. Mais pour devenir opérationnels dans un fonctionnement individuel, ces systèmes doivent être auparavant "digérés" et complètement réédifiés par l'organisme qui les utilise. Perpétuellement, sous le contrôle de la conscience, toute démarche cognitive, toute "méditation de l'objet" prennent, comme nous l'avons vu, la forme du projet.



6. Conclusions.


Ainsi s'est dessinée une connaissance qui contraste par de nombreux points avec la connaissance telle que l'analysent les conceptions réalistes ou plus traditionnelles.


Pour la théorie de l'autonomie biologique, une connaissance est nécessairement une façon d'exister* de l'organisme puisque l'autonomie est l'affirmation d'une obéissance aux seules lois internes à l'organisme. La connaissance apprise traduit la "sélection" d'une façon d'exister* de l'organisme, et non l'assimilation d'une "instruction" venue de l'extérieur (VI-A-1). Les façons d'exister* traduisant les connaissances sont présentes dans l'organisation initiale en ce qui concerne les connaissances innées. Les façons d'exister* traduisant les connaissances apprises sont actualisées par l'expérience mais sont potentiellement présentes dans l'organisation initiale.


La connaissance est un algorithme vécu réunissant des opérations et des données (VIII-5) statiques, servant de base à la pratique des opérations et modulant l'algorithme. La connaissance banale reproduit donc en fait la dichotomie variables/opérations devenue évidente dans la pratique informatique. Les opérations, logico-mathématiques, sont universelles et réductibles à des relations topologiques. Les données sont initialement des configurations perceptives définies par les systèmes d'interface et appartiennent donc en propre à l'organisme connaissant. Les données évoluent ensuite en s'enrichissant mais cela ne remet pas en cause l'élément perceptif, immuable au cours de la vie.


- combinaison d'éléments du fonctionnement cérébral, la connaissance n'est pas incluse dans le monde de la réalité. La connaissance est donc nécessairement un modèle interne de la réalité extérieure. Ce modèle est nécessairement vécu car la donnée, statique et globale, est par elle-même peu significative. Elle ne fait que moduler le déroulement d'un algorithme défini de façon indépendante. Ce modèle n'est pas seulement subjectif par la nature des données. Il l'est encore car le sujet doit compléter par intervention personnelle les données statiques et il doit décider lui-même, au besoin après vérification expérimentale, que le modèle est conforme.


- il ne peut y avoir une concordance totale entre le déroulement d'une activité cérébrale au cours de l'actualisation d'une connaissance, et l'événement décrit par la connaissance. La relation entre "la carte et le territoire" est donc obligatoirement dégénérée (X-A).


- l'évolution cognitive est marquée par une correction des biais subjectifs liés aux particularités du fonctionnement cérébral. Il en résulte que les connaissances apprises "décrochent" progressivement par rapport à leur structure perceptive initiale. Le substitut au perceptif ne peut être qu'opératoire car il y a une stabilité des images perceptives au cours de la vie. Cette affirmation ne devrait nullement être considérée comme révolutionnaire puisqu'une connaissance ne traduit en fait que des relations. Malheureusement, il est impossible de mettre en jeu des opérations sans support et cela provoque un appel presque obligatoire à un perceptif pour illustrer le jeu des opérations. Il en résulte un biais fréquent des modèles purement opératoires, particuliers aux phénomènes qui ne sont pas à notre échelle perceptive, le très petit comme le très grand. Mais le biais est finalement moins grand que celui qui se produit à notre échelle lorsque nous attribuons aux perceptions, la possibilité de décrire ontologiquement les phénomènes à notre échelle.


Ce contraste entre la connaissance perçue au travers d'une théorie de l'autonomie biologique et les conceptions traditionnelles, conduit évidemment à s'interroger sur le bien fondé d'une révolution épistémologique. Les modes du fonctionnement cérébral nous paraissent pouvoir expliquer à la fois la nature profonde de la connaissance et comment il était obligatoire que s'inscrive la déformation réaliste.


-------------



B) Rationalité Restreinte* et Connaissance.



Si la connaissance est une façon d'exister* du cerveau, il est bien évident que sa structure doit être largement dépendante des particularités et des limites du fonctionnement cérébral. H. Simon a réuni nombre de données psychologiques concernant les caractéristiques spatio-temporelles du fonctionnement cérébral, ce qui lui a permis par comparaison avec les ordinateurs et la vitesse du déroulement des événements, de souligner la médiocrité des performances cérébrales, notamment dans l'étroitesse du champ de conscience et la lenteur des opérations (VI-B-2). Mais cela rendait possible d'apprécier la qualité du fonctionnement cérébral qui se révélait face à de nombreux problèmes, finalement plus rapide et plus efficace que des ordinateurs effectuant une opération unitaire en un temps beaucoup plus court et avec un champ immédiat de traitement de l'information, nettement plus large. La façon dont sont stabilisées ou "cristallisées" les connaissances expliquent ce paradoxe apparent.


Le nombre d'informations élémentaires que le cerveau peut traiter conjointement est extrêmement limité. C'est là une conséquence obligatoire des points notés par H. Simon. Des artifices sont donc nécessaires pour étendre l'étendue de la réflexion aux exigences cognitives.


1. Le mécanisme le plus essentiel est celui qui consiste à mobiliser un algorithme entier, aussi complexe qu'il soit, sous forme d'une étiquette, d'un label, chaque fois que cela est possible. Il est bien évident que l'algorithme doit être si possible exploré également dans ses éléments en d'autres occasions. Ainsi s'opposent des structures globales et des éléments indiquant entre autre que la connaissance est obligatoirement hiérarchisée (IX-B). La hiérarchie s'établit évidemment sur plusieurs niveaux, l'élément d'un algorithme étant généralement lui-même un algorithme de rang inférieur. Cependant l'appel au label a d'étroites limites et d'autres mécanismes doivent intervenir.


2. Un autre mécanisme essentiel est une approche simultanée d'une même situation par une multiplication des points de vue distincts qui sont analysés séparément et seulement coordonnés ultérieurement. C'est donc le deuxième principe de la méthode cartésienne qui se trouve ainsi expliqué et justifié. Il est intéressant de constater que ce fractionnement des données est bien établi sur le plan perceptif. Ce n'est pas seulement les excitants visuels, auditifs, olfactifs qui sont initialement traités de façon indépendante. A l'intérieur du champ perceptif visuel, la forme, la couleur, la taille, le mouvement au niveau d'un même objet sont analysés séparément avant d'être ensuite confrontés pour mieux qualifier l'objet.


3. De signification assez voisine est l'approche simultanée et superposée sur plusieurs niveaux de définition. Une définition grossière exige peu de données à traiter et peut recouvrir un champ perceptif large. Un champ réduit, quasi ponctuel, permet une définition bien meilleure pour un nombre de données équivalents. Si ce champ réduit est ramené à la définition d'un point indissocié, il est possible de le situé lui-même dans un champ très large. La superposition de deux approches à des niveaux de définition différents permet d'associer étendue du champ et précision. L'étude de la vision démontre que là encore, la superposition des champs existe déjà au niveau de la perception. Sept niveaux de définition au moins, chacun avec sa propre fréquence spatiale*, ont pu être décrits (V-C).


4. Une autre approche se traduit en termes négatifs. Elle consiste à ne pas recourir principalement à des explorations tactiques en arborescence. Il ne s'agit pas d'un abandon véritable puisque deux mille ans de réflexion logique ont été nécessaires pour établir la théorie des arborescences et que l'esprit humain n'a pratiquement jamais fait appel aux arborescences intensives. En fait H. Simon explique le pourquoi de cette négligence. Les limites spatio-temporelles de la réflexion, imposées par les caractères du fonctionnement cérébral, conduisent spontanément à réduire au minimum les explorations tactiques et à faire la plus grande place à l'heuristique. Sous ce nom se trouve décrit un appel aux stratégies. Ce sont des comportements considérés simultanément comme des globalités mobilisables en tant qu'unité indissociée et pourtant suffisamment plastiques pour être appliquées à des situations différentes. La stratégie de Simon est évidemment très proche du schème de Piaget. Qu'on parle de stratégies ou de schèmes, plusieurs conséquences doivent être soulignées.


- l'application de la stratégie à une situation donnée est marquée par une forte dégénérescence. En faisant appel à une stratégie, le sujet "pense" qu'elle sera efficace mais "ne le sait pas", sinon l'économie de l'appel à la stratégie serait nul et cet appel résulterait d'une exploration tactique préalable. Par ailleurs, la stratégie doit être en partie indéterminée pour être déformée en vue d'une application à chaque situation particulière. L'importance de la dégénérescence se retrouve.


- le principe qui s'applique à l'utilisation des stratégies est celui de la transmission d'une voie avec bruit. L'important n'est pas d'atteindre immédiatement à la précision optimale mais de débuter facilement une relation cognitive. Or plus la dégénérescence est élevée, plus grande est la chance que soit découverte puis poursuivie une relation entre une stratégie et un objet de connaissance. La relation une fois établie, constitue un tremplin qui permet ensuite toutes les précisions ultérieures. La dégénérescence explique et permet le progrès cognitif. Toute connaissance est approchée et perfectible.


L'analyse de la rationalité restreinte* conjointement à la théorie de l'autonomie biologique, conduit donc à un paradoxe apparent :

- tenir compte des particularités cérébrales pour expliquer le fonctionnement cognitif, conduit à dévaloriser la signification ontologique du concept, du mot et d'une façon générale de toute donnée cognitive statique, en leur refusant une valeur ontologique.

- mais inversement, le concept, le mot se trouvent fortement valorisés comme repères provisoires, pour permettre l'évocation d'une connaissance, un déroulement d'une activité logique intérieure modélisant une traduction possible de l'environnement, et générant de nouvelles données statiques plus efficaces. C'est au travers de cette réalité qu'il faut percevoir l'intérêt des connaissances stabilisées.


Ces connaissances ne sont pas directement des images de l'environnement ou du moi mais des données statiques ou plutôt des points d'arrêt du fonctionnement cérébral, dont la finalité est de moduler le fonctionnement d'un algorithme. Pour le réalisme, il y a un savoir qui est une accumulation de données permettant une représentation de la réalité extérieure et du moi ; iI y a par ailleurs, un savoir-faire qui est un ensemble de comportements appris, conçus en relative indépendance des conditions d'environnement. Pour une épistémologie de l'autonomie, le jeu dynamique de la connaissance des conditions actuelles d'environnement, demande l'appel à des constantes stabilisées, dérivées des activités cognitives antérieures, et pouvant moduler efficacement les mécanismes comportementaux internes. La connaissance apprise est totalement relative à ces mécanismes et rejoint donc le savoir-faire.


-------------



C) Les Connaissances Stabilisées et le Troisième Monde* de K. Popper.



Les connaissances stabilisées, points d'arrêt ou de centration durables du fonctionnement cérébral et inscrits structuralement, peuvent être reproduites de façon isomorphe en dehors du cerveau, à la façon dont Praxitèle sculptait les Aphrodites qu'il concevait. Ainsi reproduites, les connaissances stabilisées acquièrent une existence propre et une indépendance "comme la toile vis à vis de l'araignée (K. Popper)". Ces connaissances deviennent accessibles à tout un chacun. Ainsi se constitue la "connaissance objective" et le troisième monde* décrits par K. Popper.


Il nous parait cependant important de souligner, que contrairement à la toile d'araignée qui a une signification certaine pour la mouche, le troisième monde* de Popper associe un aspect concret et matériel propre, et une signification qui ne vaut que pour le cerveau qui manipule ces connaissances. Le terme d'autonomie caractérisant le troisième monde* doit donc être utilisé avec prudence.


Avec raison, Popper a souligné la richesse des connaissances cristallisées en montrant que leur contenu n'est pas défini une fois pour toute et qu'il peut suggérer à son tour de nouvelles données (X). Popper utilise, pour décrire ces propriétés, le terme de connaissances autonomes. Nous nous permettons de penser que cette appelation n'est guère correcte, et en tous cas, diffère du sens que nous accordons à l'autonomie. Nous reconnaissons bien volontiers que ces connaissances sont plastiques, évolutives, qu'elles peuvent provoquer des développements imprévisibles mais elles ne sont pas organisées en système autonome selon le schéma que nous avons donné (II). D'une part, ces connaissances n'ont de signification que vis à vis d'un cerveau comparable à celui qui les a généré. D'autre part, c'est un cerveau qui, en reprenant ces connaissances et en les confrontant entre elles, fait naître une nouveauté. Il s'agit donc bien là d'un processus "instructif" et allonomique*, non d'un processus autonome.


Cette réserve faite, nous adhérons totalement au schéma poperrien de la connaissance objective, superposable à la notion de connaissances stabilisées, intérieures ou extérieures au cerveau. Il est donc essentiel de préciser la nature de ces connaissances. L'étude de l'information génétique nous parait une excellente introduction à la compréhension des connaissances cristallisées ou stabilisées (VIII-4). Dans une conception réaliste, la chaine d'A.D.N. de l'œuf apparaîtrait comme un schéma raccourci de l'individu futur. Cela d'autant plus facilement que la structure linéaire autorise une duplication point par point et fait disparaître l'une des difficultés du préformisme. Dans une conception autonomiste en revanche, la chaine d'A.D.N. est un ensemble de données statiques et permanentes, qui résument, qui cristallisent selon l'expression de P. Wintrebert, tous les efforts adaptatifs du phylum antérieur. Cette connaissance cristallisée va permettre à son tour aux mécanismes de l'œuf d'élaborer par étapes l'individu futur, et n'a de sens que vis à vis de ces mécanismes.


On retrouve dans l'opposition entre réalisme et théorie de l'autonomie, la distinction que faisaient les auteurs grecs entre la création et l'action. L'homme de création est Praxitèle qui traduit dans la pierre le schéma pré-existant qu'il avait de l'Aphrodite de Cnide. L'homme d'action est Jason qui tire de sa formation antérieure à Athènes, les éléments de réponses adaptées vis à vis des événements imprévisibles qu'il rencontre sur le chemin de la Colchide. Les connaissances cristallisées ne prennent leur pleine signification que dans l'utilitaire comportemental.


En fait, l'explication réaliste du fonctionnement de la chaîne d'A.D.N. est impossible (VIII- 4). Il n'y a aucune correspondance point à point entre un élément de forme de l'individu achevé et un segment A.D.N.; la correspondance entre génotype et phénotype existe seulement pour les mécanismes enzymatiques communs à l'œuf et à l'individu achevé. C'est par ailleurs strictement la même chaîne d'A.D.N. qui est présente dans l'œuf initial et dans chaque cellule de l'organisme achevé. La même information devrait donc assurer une référence morphologique et une référence métabolique, ce qui est difficilement concevable s'il s'agissait d'information descriptive.


Au total, la chaîne d'A.D.N. apparaît bien comme une donnée cristallisée, destinée à moduler des algorithmes. Un même algorithme donnera des résultats différents selon les données qu'il intègre, une même donnée donnera des résultats différents selon l'algorithme qu'elle module. Plusieurs conséquences en découlent :

- la donnée locale d'A.D.N. elle-même est partiellement plastique vis à vis des effets d'autres régions de l'A.D.N. et de l'environnement (VIII-4); sa signification n'est donc pas univoque. C'est le principe de la dégénérescence (X-A).

- l'algorithme modulé par l'A.D.N. est lui-même également soumis à d'autres données. Chaque donnée locale peut ainsi avoir un effet différent en fonction des autres données intégrées par l'algorithme. C'est le principe de l'hologrammorphisme* (IX).

- la mise en jeu des algorithmes sous l'effet des informations initiales fait très vite apparaître des structures nouvelles porteuses d'informations transmissibles. L'information transmise à l'organisme entier et nouvellement générée, peut encore être reconnaissable après une ou deux étapes d'évolution mais elle est complètement transformée après plusieurs étapes, à la fois enrichie et qualitativement très modifiée. En fin d'évolution, les chaînes d'A.D.N. de chaque cellule, toutes identiques, ne représentent qu'une part négligeable de l'information globale de l'organisme.


Il est très souhaitable d'avoir à l'esprit toutes ces particularités lorsque sont analysées les connaissances stabilisées plus directement en rapport avec le fonctionnement mental.



1. Les Perceptions au contact de l'Environnement.


Exigeant la présence effective de l'environnement, ces perceptions ne sont pas à proprement parler des connaissances stabilisées mais elles constituent la base, historique sinon structurelle, de toutes les constructions cognitives dont elles marquent profondément les caractères. Chez le sujet voyant, les perceptions visuelles sont largement prédominantes.


Ces perceptions sont construites par les mécanismes neurologiques innés sur de nombreux étages, correspondant à la fois à une succession d'étapes et des représentations de l'information dans des aires différenciées (V-C). Les étages ne se succèdent pas selon un processus strictement linéaire, les circuits bouclés, les retour d'information, les ré-entrées selon l'expression d'Edelman, jouent un rôle essentiel. Les perceptions résultantes sont bien construites sur des données élémentaires d'interface mais elles traduisent dans leur propriété l'activité des mécanismes perceptifs tout autant que les données d'interface. Il y a une perte considérable de signification entre l'événement et les données d'interface puis l'introduction de significations nouvelles traduisant les mécanismes mis en jeu. Les "formes" dégagées sont celles du vécu des mécanismes perceptifs.


Il faut remarquer que les perceptions, notamment les perceptions visuelles ne sont habituellement pas statiques même si elles se rapportent par exemple à un paysage immuable. Le recueil de détail impose un balayage perceptif notamment visuel, et il est facile d'en prendre conscience, par exemple dans la lecture d'une plaque minéralogique d'automobile où l'oeil se fixe pratiquement successivement sur chaque lettre ou chiffre.


Par ailleurs, ces perceptions, statiques ou dynamiques ne sont signifiées qu'en fonction d'une comparaison avec des formes internes, qui sont elles, d'authentiques connaissances cristallisées. L'aveugle de naissance qui recouvre la vue par intervention chirurgicale à l'âge adulte, voit immédiatement comme nous mais ne sait pas ce qu'il voit, même lorsqu'il s'agit d'une forme géométrique très simple comme un rond ou un triangle. Lecture perceptive et lecture tout court se confondent dans la perception de la plaque minéralogique citée plus haut.


Mais le problème est justement que la lecture d'une perception n'est pas univoque. La plaque minéralogique n' a pas le même sens pour un enfant de trois ans qui ne sait pas lire et pour un adulte, pour un chinois et pour un occidental. A une même configuration d'interface correspondent de très nombreuses significations; c'est ce que nous avons appelé le principe Richalet* (VII-C-2). Il faut donc que la perception soit doublée d'un système d'interprétation. Mais la position originale du constructivisme psychologique est d'affirmer que le système d'interprétation est construit à partir de perceptions antérieures dont la signification a été déterminée par le succès ou l'échec des réponses adaptatives qu'elles ont provoquées. La perception est donc simultanément la source de toutes les formes qui servent à son interprétation et n'est signifiée qu'à partir de ces formes. Seul un arrêt sur des données, leur cristallisation, permet l'activité perceptive élaborée, normalement ouverte à un progrès continu qui remet continuellement en cause les formes établies antérieurement.



2. Les Images de la Représentation perceptive en dehors de l'objet.




Nous pouvons les évoquer à tout moment et elles sont donc bien permanentes; ce sont effectivement des connaissances cristallisées sur lesquelles peuvent s'appuyer l'analyse perceptive ou l'évaluation opératoire. Elles sont dérivées des perceptions au contact des objets par réduction aux indices significatifs et une pérennisation qui assure une indépendance par rapport à l'état actuel des interfaces sensorielles. Ces images ne sont pas qualifiées seulement par leur permanence mais également par le fait qu'elles sont apprises et n'apparaissent qu'avec retard dans le développement. La seule exception réside dans les réponses positives aux leurres dès la naissance, réponses qui semblent justement très pauvres ou même absentes chez l'organisme humain.


Les images internes permanentes sont absolument indispensables, non seulement au fonctionnement mental qu'elles traduisent, mais aussi à l'interprétation des données perceptives. En revanche, ces images sont très pauvres en raison de l'étroitesse du champ de conscience qui doit les contenir dans leur entier. L'introspection révèle aisément par exemple qu'il est impossible d'avoir une vision interne d'un mot complet. Encore plus nettement, l'image auditive de ce mot est obligatoirement le fait d'une séquence de phonèmes élémentaires. Un facteur dynamique associant plusieurs images successives est presque toujours indispensable. Sur ce plan, images visuelles et auditives se rejoignent. Le champ instantané de représentation auditive ne dépasse pas le phonème. La signification ne s'enrichit qu'avec un "scénario", qu'il s'agisse d'une succession "filmée" d'images visuelles élémentaires ou, plus souvent du "discours" organisant la succession d'images auditives.



3. Le Sens des Catégories apparemment extérieures au Moi.




Aristote a fort bien vu que l'interprétation d'un événement était dynamique, séquentielle et qu'elle exigeait une réponse à de nombreuses questions. Il a tenté de définir les différentes "catégories" qui peuvent regrouper ces questions. Ce faisant, il a mis sur le même plan des catégories logiques comme celles qui correspondent à la question SYMBOLpros ti (et qui sont de nature opératoire, et les questions sur la SYMBOLmorfh,(le SYMBOLpou(ou le SYMBOLkeisqai(qui sont de nature perceptive. Comme nous l'avons vu (XII-A), les catégories sont nécessairement perceptives, opératoires ou mixtes. A s'en tenir aux catégories perceptives, Aristote et tous les réalistes après lui en ont fait des propriétés de l'objet. Kant, en revanche, y a vu des mécanismes de l'entendement. Il serait plus juste d'y voir la traduction d'une relation entre l'organisme et l'environnement, mais aussi l'indication d'un mécanisme neurologique particulier, sspécifique de tout ce que nous regroupons sous le nom d'une catégorie particulière.


Ainsi, la couleur n'est pas réductible à un rayonnement physique d'une longueur d'onde définie. La catégorie "couleur" serait plus justement réductible aux fonctions de l'aire corticale V4 du macaque ou son équivalent chez l'homme, et qui extrait le renseignement que nous appelons couleur. Une couleur définie traduit quant à elle, l'état de l'aire V4 en présence d'un objet coloré particulier. Mais Descartes et Newton avaient déjà pressenti que la couleur relevait plus des propriétés d'analyse du cerveau que des objets eux-mêmes. En revanche, les catégories d'espace leur paraissaient bien davantage attachés aux objets. Il demeure très difficile aujourd'hui de nous représenter les catégories d'espace comme des mécanismes cérébraux, ce qui pourtant semble la bonne approche.


- il est néanmoins manifeste que l'espace euclidien traduit une assimilation des données d'espace selon une construction particulière au cerveau. Nous "voyons" donc l'environnement à notre échelle selon l'espace euclidien et nous "savons" que cet espace est inadapté pour décrire les phénomènes de l'infiniment petit ou de l'infiniment grand.


- plus encore, nous devons concevoir que les divers éléments d'une forme, l'insertion d'un contenant dans un contenu n'ont de sens que pour un observateur qui a effectué auparavant lui-même les opérations de rapprochement entre données élémentaires distinctes. Le voisinage entre deux objets n'existe qu'en fonction d'un observateur qui a "perçu" ce voisinage; les deux objets s'ignorent physiquement et ne peuvent donc être voisins par eux mêmes. Quand on y réfléchit, ce qui vaut pour le voisinage vaut également pour le contour: les différentes composantes du contour ne sont reliées dans une structure globale que dans l'activité perceptive de l'observateur. Les mêmes réflexions s'appliquent à la forme, la taille, le mouvement. Il est donc tout à fait légitime de considérer que les données d'espace traduisent une construction de l'observateur.


- Jean Piaget avait correctement noté que le processus d'abstraction qui définit l'objet consiste à ajouter des relations aux données perceptives autant qu'à en tirer. Il ne savait pas que les données perceptives elles-mêmes sont presque exclusivement réductibles aux relations ajoutées par les mécanismes perceptifs constitutionnels, à des données sensorielles qui par elles-mêmes sont de simples points isolés.


- il est par ailleurs devenu évident que les différentes catégories perceptives sont effectivement établies séparément avant d'être reliés entre elles dans une synthèse globale, ce qui à la fois justifie le recours aux catégories, mais en même temps montre combien notre vision de l'environnement est une construction personnelle.


En définitive, il faut considérer les catégories de description perceptive comme des mécanismes cérébraux relativement unitaires, fonctionnant pour une part de façon indépendante bien que fortement couplés entre eux. Les caractéristiques particulières d'un événement ou d'un objet traduisent une synthèse synchrone entre des états particuliers des aires perceptives à l'instant t, précisant la forme, le contour, la taille, la couleur, le mouvement...Il faut considérer ces états dans une approche dynamique, interactive et il serait sans doute plus juste de parler de façons perceptives de vivre que de façons d'être. Mais les catégories qu'envisageaient Aristote demeurent une approche intéressante si on y trouve une unité fonctionnelle cérébrale dans l'approche de l'objet et non une systématique des propriétés ontologiques des objets.



4. L'Objet cognitif.


Paul Valéry indique très justement que les mots s'obscurcissent lorsqu'ils sont isolés. Cela est particulièrement vrai pour les mots que Korzybski qualifie de multiordinaux car leur sens est pratiquement totalement défini par le contexte. Ce sont des mots seulement en acte et qui n'ont point de puissance. Tel est le cas du mot "objet". Nous nous permettrons donc d'utiliser ce mot en le définissant de façon très générale comme un point de centration de l'activité cognitive. Nous avons insisté (VI-B-2) sur le fait que l'activité consciente ne pouvait porter que sur des données bien délimitée et aisément mobilisables. Nous regrouperons sous le nom d'objets, aussi bien des zones découpées de l'environnement, que la conaissance ou la représentation qu'on peut en avoir, ou encore n'importe quelle représentation algorithmique bien délimitée. Nous utilserons l'objet ainsi défini de façon très large pour opposer point par point la théorie fonctionnelle et autonomique de la connaissance, et le réalisme. Puis nous verrons ce qui distingue l'objet perçu de l'objet abstrait dans la même théorie fonctionnelle de la connaissance


4.1. L'objet réaliste et l'objet cognitif.


4.1.1. Les rapports entre l'objet et le concept.


a) le réalisme classique est dualiste et sépare nettement l'objet physique es propriété, et le concept, l'idée générale ou même la représentation de l'objet physique.


b) le réalisme minimal qui correspond aux théories que nous défendons est plus unitaire et considère seulement l'objet cognitif, qui peut évoquer selon les cas, un entité de l'environnement physique ou une activité mentale d'abstraction. L'objet physique ne peut alors être qu'inféré, du moins dans ses propriétés.


4.1.2. Le rapport d'antériorité entre l'objet et la connaissance.


a) l'objet physique et le concept réalistes préexistent à la connaissance qu'on peut en avoir, et sont créés hors de la volonté du sujet. La connaissance est construite secondairement sur la rencontre avec l'objet, par appel aux concepts.


b) l'objet cognitif du réalisme minimal précède l'objet physique qui n'est qu'une inférence secondaire. Le concept est une étiquette appliquée secondairement à une activité d'abstraction antérieure. L'objet cognitif est construit progressivement dans les deux cas par l'activité d'abstraction réfléchissante* du sujet au contact de l'environnement.


4.1.3. La situation de l'objet.


a) dans leur nature, l'objet physique et le concept réalistes sont extérieurs au sujet qui connait. L'objet physique est placé dans un continuum absolu d'espace/temps euclidien constituant l'Univers. Le concept est quant à lui, une partie du monde des idées, rejoignant pour Platon comme pour Saint Thomas d'Acquin l'unité divine.


b) à l'inverse, l'objet cognitif appartient au sujet, traduit une façon d'exister* du sujet. L'objet cognitif est localisé dans la partie plastique de l'organisme, qui peut enregistrer "une intervention, c'est à dire une transformation interne permise par une modification externe, une variation dans l'état d'un système clos qui forme relais par rapport à un système séparé (P. Valéry)." Cette région plastique est le milieu intérieur de Claude Bernard, un "own world" selon les analyses de G. Lerbet, mais un own world qui respecterait le principe de clôture organisationnelle*.


4.1.4. La délimitation de l'objet et du concept.


a) l'objet et le concept réalistes sont délimités d'emblée, indépendamment d'une action du sujet. De ce fait, ils sont mobilisables d'emblée.


b) l'objet cognitif est le résultat d'un découpage subjectif au sein d'un continuum. La réflexion sur l'objet cognitif qui suppose une confrontation entre un sujet et un objet distincts l'un de l'autre, suppose une mobilisation de l'objet, un détachement de son contexte, que le sujet doit réaliser dans un temps préalable à la réflexion.


4.1.5. La stabilité de l'objet et du concept.


a) l'objet et le concept réalistes sont normalement stables et cette stabilité peut être plus importante encore au niveau de la "substance" que ne laisseraient supposer les "accidents".


b) l'objet cognitif est normalement et triplement instable:

- il doit être reconstitué lors de chaque usage et se dissocie entre ses éléments dès qu'il échappe à la conscience.

- c'est une structure dissipative* qui ne doit sa stabilité qu'à son efficacité à réduire des contradictions, des oppositions. C'est du reste la signification même de l'objet cognitif que de constituer un point d'équilibre. Cet équilibre instable se trouve rompu par la moindre modification de l'un des éléments constitutifs.

- l'objet cognitif est ainsi spontanément ouvert à toutes les évolutions et les enrichissements successifs. Ces enrichissements sont le résultat de l'accumulation de toutes les traces laissées par les tâtonnements adaptatifs. Ces tâtonnements ne sont pas aléatoires mais organisés, liés à la structure déjà existante de l'objet. Les évolutions de l'objet cognitif dessinent une suite peu markovienne en ce sens qu'après plusieurs transformations, l'objet cognitif final peut se détacher complètement de l'objet cognitif initial.


4.1.6. Les rapports du sujet et de l'objet.


a) le réalisme platonicien, le réalisme aristotélicien, l'idéalisme kantien considèrent chacun à leur manière les rapports de l'objet, du concept et du sujet.


b) l'objet cognitif de la théorie autonomique doit être considéré comme le "symbole", au sens éthymologique du terme, qui permettait aux initiés d'être introduit aux Mystères de Cybèle. L'objet cognitif est un passeport qui présente deux versants complémentaires qui relient de façon bijective un élément du moi et un élément du non-moi.


- un des versants est un reflet d'une donnée "extérieure". L'objet cognitif traduit une zone découpée de par la volonté de l'utilisateur, au sein d'un environnement extérieur hétérogène. Un "passeport" est nécessaire pour prendre connaissance de cette zone découpée car elle ne peut être concrètement extraite de son environnement et assimilée directement par le moi.


- l'autre versant de l'objet cognitif traduit une structure du moi admise comme équivalence de la donnée précédente et la signifiant. C'est également une zone découpée, un point fixe local, dans l'organisation interne de l'utilisateur.


L'équivalence entre les deux aspects permet au sujet de vivre une réalité extérieure sans avoir à l'assimiler physiquement, respectant le principe de clôture*.


4.1.7. La transmission interindividuelle de l'objet


C'est le seul aspect de l'objet qui corresponde pleinement aux connaissances cristallisées et au troisième monde* de Popper mais il est important de situer la transmission de l'objet par rapport à sa nature.


a) selon le point de vue réaliste, l'objet physique est perçu dans ses qualités par tout un chacun et chaque sujet construit sa propre connaissance de l'objet physique. Il n'y a donc pas véritablement transmission d'information.

La question est plus complexe pour le concept mais ce n'est pas gratuitement que Platon a envisagé la thèse de la maïeutique qui correspond tout à fait au réalisme: le concept est présent chez chacun ou dans l'objet et il est actualisé par chacun. Le discours peut donc être conçu pour lui-même et premier.


b) l'objet cognitif tel qu'il se forme chez le sujet est instable nous l'avons vu et il est intransmissible. La conversion arbitraire en signifiant permet seule la communication. Le signifiant verbal est aisément transmissible par une correspondance bijective entre la forme motrice efferente et la forme perceptive afférente.

La conservation cristallisée peut exister dans la "tradition orale" au sens très large du terme et cette conservation est suffisante pour les données de la vie courante. Une nouvelle correspondance bijective entre le mot oral et le mot écrit assure considérablement la conservation.

Le mot et le concept n'ont pas de sens par eux mêmes et sont seulement des véhicules qui transmettent les objets cognitifs, que ceux-ci renvoient à une réalité physique inférée ou à une activité d'abstraction.


4.2. L'objet "perçu" et l'objet abstrait.


Par certains côtés, il est souhaitable de considérer l'unicité de l'objet cognitif, qu'il porte sur un aspect de l'environnement ou sur une activité d'abstraction. Mais par d'autres côtés, des confusions apparaitraient si cette unicité était conduite trop loin. Deux dangers sont omniprésents au cours de toute démarche cognitive. Le premier est de confondre "phénomène" et "noumène", de confondre l'assimilation des données de la rencontre avec un objet, et l'objet lui-même. En pratique, les conséquences ne sont pas dramatiques lorsque la connaissance porte sur ce qui pourrait être effectivement une réalité de l'environnement, ce que nous appelons un objet concret et que l'on pourrait également qualifié d'objet perçu. Mais une telle attitude favorise une confusion beaucoup plus dangereuse lorsqu'elle est spontanément transférée sur les "objets" abstraits.


Le second danger en effet est de confondre une activité d'abstraction avec un être abstrait et donc de réifier l'activité d'abstraction, en en faisant un objet en soi, peu différent d'un objet concret: c'est la démarche du réalisme des espèces naturelles. En pratique, il faut bien reconnaître que cette confusion a été longtemps plus bénéfique que nuisible, permettant une simplification, déformante certes mais ayant permis les acquisitions considérables de la pratique durant vingt cinq siècles, d'un réalisme triomphant. Il nous semble qu'aujourd'hui, les dangers de confusion deviennent plus redoutables parce que ce sont des "objets" statistiques ou probabilistes qui sont considérés comme des objets concrets et c'est alors qu'une profonde révision épistémologique parait indispensable. Un aspect fondamental d'une nouvelle théorie de la connaissance est celui de manipuler correctement cet élément nouveau d'un système cognitif, que constitue l'objet cognitif statistique ou probabiliste.


Nous avons vu que tous les points de centration de l'activité cognitive peuvent être qualifiés d'objets. Tous les objets cognitifs sont construits par le sujet, dérivé de son vécu par abstraction réfléchissante*; cela même lorsqu'une partie de la construction a été assimilée directement par emprunt au groupe social. Mais les objets cognitifs diffèrent entre eux selon trois critères :

- leur degré de proximité avec une représentation perceptive,

- la nature des processus opératoires ayant assuré la construction cognitive,

- le degré de conscience du caractère construit de l'objet cognitif.


L'objet concret ou objet perçu, est le premier à apparaître au cours du développement cognitif. Il est réductible à une configuration perceptive, ce qui permet de l'évoquer facilement sous forme schématique par une représentation mentale ou de le reproduire avec plus de précision par le dessin ou la sculpture. Cette proximité d'avec une représentation perceptive explique que l'objet cognitif concret soit le plus souvent confondu avec un objet "réel" et qu'il y ait peu de conscience du caractère construit. Cela n'a guère de conséquences graves mais le stéréotype de cette confusion, ancré très tôt et profondément, est facilement transposé sur les objets abstraits, avec des effets beaucoup plus nocifs.


Dans l'objet perçu, le versant externe de l'objet symbole est une zone hétérogène de l'univers, zone stable donc équilibrée vis à vis de tous les facteurs de déformation. Le fait que cette zone corresponde à une hétérogénéité* de l'environnement est manifeste mais toutes les qualités doivent être inférées par l'interprétation perceptive des modifications d'interface au contact de cette zone hétérogène.


La face interne traduit un point fixe endogène des aires perceptives qui stabilise les circuits entrants et réentrants, selon l'expression d'Edelman, provenant des récepteurs périphériques d'interface. C'est en quelque sorte une mise en ordre holoscopique des informations venues de la périphérie. C'est également une structure dont la permanence traduit une stabilité et donc une équilibration interne. Cependant cette structure interne est ouverte, elle peut s'enrichir, ce qui explique le passage de la perception simple à la reconnaisance.


L'objet abstrait est nécessairement dérivé d'une collection d'objets concrets ou d'objets abstraits de rang inférieur, par abstraction des seuls points communs. Il comporte nécessairement une activité créatrice opératoire et il est donc le résultat de l'application d'un algorithme. Il n'est pas rapportable à une configuration perceptive unique mais peut être souvent relié à différentes organisations perceptives, à titre d'exemple. Tous les degrés d'abstraction existent, depuis l'espèce de la taxinomie des êtres vivants jusqu'aux notions morales ou philosophiques. Le caractère construit de l'objet abstrait n'est pas toujours évident aux yeux de son manipulateur, ce qui explique le réalisme des espèces naturelles.


A cette distinction faite notamment par A. Korzybski, il nous semble nécessaire d'ajouter une catégorie particulière d'objets abstraits particulièrement élaborés et que nous serions tentés de qualifier d'objet statistique ou probabiliste, sous-entendant un objet explicitement probabiliste:

- un tel objet est dépourvu par les abstractions successives qui lui donnent naissance, de toute référence perceptive. Des modèles perceptifs peuvent être seulement mis en "correspondance" avec certains aspects partiels et particuliers de l'objet statistique.

- la construction de cet objet relève d'un long projet, si bien que le caractère construit est évident même si l'objet statistique inclut souvent un objet abstrait très approximatif qui a été au départ du projet.

- pour les mêmes raisons, le caractère construit est manifeste.

- l'aspect probabiliste est tout aussi évident car toute conclusion dans l'édification de l'objet est marquée d'indéterminations. Aucune certitude ne peut donc rattacher l'objet statistique à une "réalité" nouménale bien circonscrite.


Dans l'objet abstrait algorithmique, les deux versants symboliques se retrouvent. Le versant externe traduit un découpage au sein de l'ensemble des traces laissées dans le cerveau par le vécu antérieur. Les différentes traces sont reliées entre elles dans l'instant par un algorithme en une structure provisoire qui reconstitue l'objet cognitif abstrait. Le versant interne de l'objet symbole est la transposition mobilisée et mobilisable de la zone découpée dans l'entendement. La mobilisation est permise par une mise en ordre holoscopique d'une structure de traces, une équilibration interne assurant la stabilité de l'objet cognitif.



5. Le Discours.


Ces réflexions sur l'objet cognitif permettent de préciser la valeur du mot et du discours. La pauvreté de contenu de l'image perceptive élémentaire, sa mobilité réduite dans le cerveau et nulle en dehors de lui, explique l'importance de la substitution précoce des images auditives arbitraires à toute image perceptive pour supporter l'activité cérébrale intériorisée et la communication interindividuelle. Deux particularités expliquent l'importance du mot par rapport aux images perceptives, notamment visuelles, du moins pour l'individu sans troubles auditifs de naissance :

- le mot est beaucoup plus aisément mobilisable, intégrable dans une séquence, que l'image visuelle. Or, les significations apprises sont pratiquement toujours complexes, traduisibles seulement par des séquences.

- le mot se prête donc particulièrement bien à la dissociation entre signifiant et signifié, qui résume l'essentiel de la fonction symbolique.


L'image auditive qui traduit le signifiant a facilement une valeur d'étiquette. Son peu de valeur significative intrinsèque n'a aucun inconvénient, bien au contraire puisqu'on lui demande seulement d'éviter une confusion avec une autre étiquette. La simplicité de la structure auditive, sa concordance probable avec l'organisation des aires corticales auditives, permet une mobilisation aisée qui est un avantage sans réserve. Chez l'homme en tout cas, les informations auditives sur l'environnement indépendamment de la communication verbale, ne sont pas très importantes. L'utilisation du champ perceptif auditif pour une activité symbolique ne présente pas grand risque de confusion avec une information auditive directe. Inversement, chaque fois que l'image auditive symbolise une image visuelle, situation très fréquente, la symbolisation auditive permet une réflexion, un miroir de l'activité visuelle laissée libre pour l'analyse de l'environnement. Nous pensons que la double capacité représentative, auditive et visuelle, absente ou pauvre chez les anthropoïdes, est une des grandes explications de la richesse de la réflexion chez l'homo sapiens.


Ainsi libéré des exigences du signifiant, le signifié peut être un algorithme aussi complexe qu'il est souhaitable puisqu'il peut être mobilisé comme une totalité indissociée au travers de l'étiquette signifiante auditive.


Cela dit, il est évident qu'un assemblage linéaire de mots ne résume pas le discours. Platon, très prudent, refusait de porter par écrit des opinions sur les politiciens de son temps et la politique qu'ils menaient. Platon estimait avec raison que l'écrivain perd le contrôle du texte qu'il a écrit. Implicitement, il considérait le texte écrit comme un assemblage figé mais il suggérait du même coup que ce texte reprenait vie dans les nombreuses interprétations de ses lecteurs. Il opposait donc une dynamique de pensée utilisant des mots ou un texte figé, à ces mots ou à ce texte. L. Aragon a repris la même idée lorsqu'il a comparé les mots à des oiseaux sans tête que le moindre vent entraîne, mais qui reprennent vie grâce au poète qui les organise dans son poème. Il en est donc de même du discours que de toute activité autopoiétique* qui déroule dynamiquement des comportements en effectuant une succession d'activités, d'algorithmes qui sont modulés et signifiés par des données cristallisées.


Le discours oral ou écrit, lors de sa composition, est donc essentiellement dynamique. Il est notamment créateur de significations nouvelles par un processus bisociatif* de réduction de l'indétermination, en assemblant les mots, les stabilisant dans une acception particulière qui à son tour signifie le discours. Ce discours d'apparence séquentiel, est en fait de nature holographique.


Les liens entre les mots sont des opérations syntaxiques ou logiques qui par elles-mêmes n'ont rien d'original, renvoient en partie du reste à des règles d'usage plus ou moins arbitraires. Ce sont des relations topologiques qui donnent en quelque sorte une structure spatio-temporelle au discours. C'est en fait la nature des mots qui spécifie le discours, c'est le rapprochement volontaire des mots qui est créateur de sens. Le seul rapprochement de mots, sans logique ni syntaxe, est du reste souvent fortement créateur de sens, par exemple dans l'association d'un nom et d'un adjectif (XII-A) : "meuble anglais" est bien davantage défini que "meuble" et "anglais" considérés isolément.

5.1. Le Mot et le Symbole.


La démarche qui nous paraît la plus positive dans l'étude du mot ou du symbole est de récuser totalement le réalisme des espèces naturelles, le réalisme de natures des auteurs anglo-saxons. Ce refus de "la structure sans genèse" est la seule façon de relier totalement l'activité mentale au fonctionnement biologique antérieur et actuel. Dès lors qu'il est admis qu'il faut préciser l'histoire des concepts pour mieux en définir le sens, les solutions de facilité disparaissent mais inversement, les explications cohérentes apparaissent en nombre beaucoup plus réduit.


5.1.1. Le Concept selon J. Piaget et A. Korzybski.


Il est évident que les analyses de J. Piaget et de A. Korzybski qui nous paraissent les plus convaincantes, se rejoignent fortement. Le signifié du mot, le concept, le symbole traduisent la forme stabilisée ou cristallisée d'un ensemble d'actions.


5.1.1.1. Pour A. Korzybski, le concept est le résultat d'une succession d'activités d'abstraction. Une image interne d'un objet est formée par abstraction à partir des multiples perceptions de cet objet, ne retenant que ce qui est significatif et commun à toutes ces perceptions. Une étape suivante d'abstraction consiste à utiliser une étiquette arbitraire pour désigner une entité qui retient les particularités les plus importantes de l'objet et se prête de ce fait à une certaine généralisation. Une abstraction ultérieure peut ne retenir que quelques unes des caractéristiques de l'abstraction précédente, sous entendu nous semble-t-il pour réunir dans une même classe des objets ayant des propriétés communes. Une nouvelle étiquette est attribuée au résultat de l'abstraction. Le processus d'abstraction sur abstractions peut se poursuivre indéfiniment, avec à chaque fois appel à une étiquette. Ainsi se forment une hiérarchie de concepts, les plus immédiats étant les plus concrets, les plus abstraits étant dérivés par abstraction de concepts plus concrets.


L'opération d'abstraction qui génère le concept n'est pas définie par Korzybski et se présente comme une propriété obligatoire du sujet connaissant. Les particularités sur lesquelles portent les abstractions sont celles dont le sujet constate l'existence. La position de Korzybski semble donc inspirée par une conception idéaliste d'un entendement humain considéré comme premier et qui analyse les apparences d'un objet ayant une existence indépendamment d'un découpage effectué par l'observateur.


5.1.1.2. Pour J. Piaget, le concept est un schème désigné par une étiquette signifiante. Comme chez Korzybski, les concepts les plus simples sont les plus concrets et sont comparables à des schèmes vécus sur le plan sensori-moteurs. La mobilité acquise par ces schèmes permet une dynamique totalement intériorisée. Les concepts plus évolués traduisent des schèmes opératoires portant sur les schèmes plus concrets. A l'activité d'abstraction de Korzybski, se substituent l'action ou la combinaison d'actions intériorisées, qui ne s'opposent pas fondamentalement aux actions ou combinaisons d'actions portant sur des objets extérieurs. Cependant, l'évolution de schèmes par dérivation de schèmes préalables accentue de plus en plus le côté purement opératoire aux dépens des caractères perceptivo-moteurs.


Pour Piaget, les schèmes conceptuels les plus élémentaires sont donc ancrées sur les schèmes perceptivo-moteurs. Ces derniers schèmes ont été dérivés de l'exercice des réflexes innés au contact de l'environnement, lors des corrections adaptatives. C'est encore l'exercice des schèmes perceptivo-moteurs sur l'environnement qui expliquent l'évolution vers les schèmes conceptuels, sous la même exigence de l'adaptation. Piaget ancre donc la formation des concepts sur l'activité biologique innée et sur l'exercice de cette activité sur l'environnement. Il fait appel à une abstraction réfléchissante* pour dériver des résultats obtenus par la mise en jeu des schèmes, une dynamique évolutive. L'entendement du sujet n'est donc pas accepté a priori mais relié à une dynamique adaptative plus élémentaire. C'est le principe du constructivisme psychologique.


5.1.1.3. Les points communs entre ces deux descriptions sont plus importants que les différences. Dans les deux cas, le concept s'inscrit dans une histoire, y compris à l'échelle individuelle. Le concept a un passé et doit être construit par chaque individu, même si cette construction peut être guidée par les contacts sociaux. Le concept a aussi un futur puisqu'il peut donner lieu à des transformations ponctuelles et permettre la genèse de concepts nouveaux. R. Thom (206) fait remarquer que l'évolution peut porter sur le signifiant ou bien sur le signifié. Le signifiant supporte des distorsions phonétiques lorsqu'il est très bien défini. Inversement, des mots phonétiquement stables peuvent présenter une forte évolution de signification au cours du temps.


Dans les deux cas, le concept stabilise une réaction du sujet vis à vis d'une rencontre avec l'environnement. Toute la partie dynamique, active du concept appartient au sujet et décrit ses actions. Les données sont en revanche celles de l'environnement, mais élaborées antérieurement par le sujet. Plus encore pour Piaget, c'est l'application des schèmes à l'environnement qui permet au sujet d'isoler ces données en tant qu'actions propres.


Le concept apparaît donc comme un lien entre le sujet et l'environnement, participant du sujet et de l'environnement, donnant une connaissance stabilisée de la rencontre entre le sujet et l'environnement. En quelques sortes, l'ensemble des concepts constituent peu à peu un équivalent du milieu interne de Claude Bernard, un tampon obligé entre le moi et l'extérieur, participant de l'un et de l'autre. C'est donc un véritable système d'interface qui vient s'ajouter aux interfaces sensori-perceptives.


Il est cependant essentiel de souligner que le lien qui est établi entre l'objet concret et le concept qui le désigne est assymétrique. "Médor est un chien" mais un chien n'est pas Médor. Cette assymétrie est liée à l'abstraction qui définit une relation d'appartenance, non d'équivalence. Le code qui relie le concept à l'objet est donc dégénéré (X-A, XII-A). Dans une approche réaliste, cette dégénérescence est une imperfection, celle de l'espèce par rapport au genre. Dans une approche constructiviste en revanche, la même dégénérescence, prise dans un sens dynamique, révèle le mécanisme de formation du concept mais surtout, constitue un avantage fonctionnel. La dégénérescence se traduit par une approximation qui favorise la découverte de la relation concept/objet. Le vécu ultérieur de cette relation est un tremplin qui permet toutes les précisions ultérieures.


5.1.1.4. Le découpage perceptif préalable. Les descriptions du concept par Korzybski ou Piaget peuvent être aisément rattachées à une approche neurophysiologique ou à une théorie probabiliste de la connaissance. Il suffit de considérer que "l'objet", point de départ de la conceptualisation, n'a pas d'existence propre mais qu'il est le résultat d'un découpage/assemblage effectué préalablement par le sujet au sein du continuun d'environnement. Nous revoyons plus loin cette notion.


5.1.1.5. Les relations du signifié et du signifiant. Le mécanisme de la formation des concepts indique une création du signifié qui précède celle du signifiant, une création "décidée" et comprise du lien entre signifié et signifiant. Il s'agit pour nous d'une règle universelle et qui du reste s'accorde avec de très nombreuses approches du concept, y compris le réalisme. Seuls se sont nettement opposés à cet aspect des choses, Staline dans la grande encyclopédie soviétique antérieure à 1950, et Lacan. Leurs arguments ne nous ont jamais paru très convaincants.


Ce qui tend à faire accroire que le signifiant pourrait précédé le signifié vient de ce que le signifiant est presque toujours appris en tant que tel par l'enfant, à partir de l'entourage social. Piaget lui-même est revenu sur l'importance qu'il avait accordé initialement à un langage "subjectif". Mais lorsque l'enfant adopte un nouveau signifiant, il le fait cadrer avec un signifié qu'il a lui-même construit. Il en résulte les "bons mots" des enfants et surtout l'évolution du signifié qui se transforme avec le développement cognitif de l'enfant, alors même que le signifiant demeure.


On serait alors en droit de se demander comment il peut se faire que tous les membres d'un groupe social placent finalement un même signifié approximatif derrière un signifiant donné. Il faut tout d'abord remarquer que la concordance n'est que relative, souvent source de confusion. Mais même si les écarts de sens étaient négligés, la concordance demeurerait explicable. Elle est tout simplement construite par l'ensemble des individus du groupe, au lieu d'être donnée comme le voudrait le réalisme de nature. L'utilisateur peut contrôler par la redondance habituelle du discours avec l'autre, si l'usage qu'il fait d'un signifiant est identique ou non à celle de cet autre. G. Miller explique par cette seule dynamique qu'un adolescent de 17 ans ait pu apprendre à donner à quatre vingt mille entités verbales différentes, le sens que leur attribue le groupe.


5.1.2. Concepts et Symboles.


Nous nous sommes essentiellement intéressé au concept et nous pourrions être interrogés sur la place que nous accordons au symbole non conceptuel. En fait, il nous semble que la différence entre symbole et concept n'est pas essentielle, mais plutôt latérale. Par ailleurs, le terme de symbole peut s'entendre de fort différentes façons.


Le concept est le noyau du signifié, une structure universelle qui a tendance à être partagée par tous, ce qui ne veut dire ni que le signifié est fermé, ni que la structure ne peut évoluer. Habituel, le concept favorise la relation sociale mais introduit fréquemment et quasi automatiquement dans le discours, il perd une grande part de sa prégnance(IV-4). Il en est de même du reste de la froide logique, souvent abandonnée pour des formes plus prégnantes de discours comme l'analogie.


En opposition, le symbole pourrait être considéré comme un concept ou une association d'images, en situation, enrichi par chacun d'attributions particulières subjectives qui renforce leur prégnance, créant un sentiment d'appartenance au moi (IV-4). La correspondance entre la chose et le signifié devient vécue bien plus que simplement posée. Le symbole acquiert ainsi une valeur d'attribut, d'emblème. Par ailleurs, au choix de l'analogie au lieu et place de la logique, répond l'utilisation de l'aspect métaphorique du symbole, également beaucoup plus prégnant. En revanche, nous récusons les conceptions qui voient dans le symbole, la traduction d'un lien constitutionnel contraignant entre deux notions distinctes, dont l'une devient le signifiant de l'autre; ce qui nous semble caractériser les conceptions psychanalytiques, de Freud comme de Jung. Cela nous parait supposer un contenu mental pré-existant à l'activité neurologique au contact de l'environnement. Cela revient donc à un dualisme* implicite, ce que justement nous avons tenté de récuser.


Mais, inversement, le même terme de symbole est souvent utilisé pour une déviation inverse du signifié conceptuel. L'objet mathématique est ainsi souvent désigné comme un symbole. Or il n'est pas une réalité abstraite ontologique comme le voudraient les mathématiciens réalistes, mais il est ou devrait être le résultat d'une définition aussi totale et fermée que possible dans le champ d'utilisation, établie par rapport aux règles d'usage, contrairement donc à l'image de l'objet concret dont certaines propriétés sont retenues, les autres volontairement négligées, beaucoup indéterminées. En pratique, la définition précise s'applique effectivement à certains objets mathématiques comme le nombre naturel dans l'opération numérique, mais pas obligatoirement aux concepts mathématiques complexes comme l'infini, l'ensemble, l'écart différentiel. Les mathématiciens constructivistes, R. Apery notamment, soulignent qu'il s'agit d'un grave défaut lourd de conséquences.


Le terme de symbole est encore très souvent utilisé pour un signifié réduit à la simple existence, le "x" de l'algèbre. Le symbole devient alors le simple support concret qu'exige le déroulement d'algorithmes réduits à une pure succession d'opérations, traduisant purement et simplement le résultat des opérations. En fait tous les intermédiaires sont possibles entre l'utilisation symbolique du schizophrène et celle de l'ordinateur. Dans le premier cas, le mot "cage" peut avoir une telle prégnance qu'il conserve ses propriétés picturales quelle que soit son utilisation, et que la "cage thoracique" est vue avec des barreaux enfermant un oiseau. Nous avouons bien volontiers qu'au cours d'une expérience "scientifique" de prise d'une drogue hallucinogène, nous avons ressenti cette prégnance extraordinaire des mots, comme celles de taches d'encre du test de Rorschach, de dessins ou peintures. Dans le second cas, le symbole est dépouillé au moins provisoirement de toute signification. Cette variation considérable de la tonalité affective des symboles ou signifiés nous parait un gage supplémentaire en faveur des thèses conceptualistes constructivistes qui réduisent tout concept à un vécu cérébral antérieur.


5.1.3. Le Mot Social.


Tout ce que nous venons de dire sur le mot pouvait se rapporter à l'activité cérébrale intériorisée. En fait, l'application au fait social, forme particulière de l'environnement, peut être immédiate. Le mot est une stabilisation de l'activité du sujet qui est le support le plus habituel des échanges d'information avec l'autre. Korzybski fait remarquer que les sentiments ne sont pas discibles et que les mots sont dépourvus d'actions par eux-mêmes. Mais le mot a cette extraordinaire particularité de générer chez le récepteur, un état d'âme, une action instransmissibles par eux-mêmes. Le mot est donc à l'origine habituelle de la "sympathie" ou de tout processus de résonance affective. Le mot est encore à l'origine d'une résonance cognitive entre individus, qui permet à un interlocuteur d'imiter un comportement généré chez son vis à vis, par un événement pour lequel lui-même n'avait pas de réponse adaptative immédiate.


Nous avons vu plus haut que la relation concept/objet était dégénérée. C'est en situation sociale que la dégénérescence du concept apparaît la plus positive. En l'absence de dégénérescence, il ne pourrait pas y avoir un ajustement social du sens des mots. Le petit enfant ne pourrait faire siens les concepts dont il entend prononcer le signifiant. La traduction d'une langue étrangère serait impossible. Par ailleurs, si la dégénérescence est source d'imprécisions et d'erreurs d'interprétation dans la transmission du discours, un vrai dialogue bien conduit et qui vérifie en retour la signification des messages, peut réduire considérablement ces imprécisions ou erreurs; le seul caractère bénéfique de la dégénérescence est alors conservé. A notre sens, c'est ainsi que peut se concevoir la psychothérapie, indépendante de tout présupposé sur la valeur des symboles, mais aidant l'interlocuteur à préciser la valeur des symboles qu'il utilise, à accroitre la prise de conscience de son système cognitif propre; cela ne signifie pas obligatoirement la psychothérapie non directive de C. Rogers (annexe B).


5.2. La situation de la Logique.


L'analyse du discours permet de préciser l'intérêt et les limites de la logique au cours de la pensée naturelle, notamment de la logique bivalente. E.W. Beth et J. Piaget ont bien souligné combien les rapports entre la logique formelle et la pensée "réelle" était ambigus (019). La logique formelle est par elle même essentiellement tautologique en ce sens qu'elle ne fait que mettre en exergue ce qui n'était qu'implicite dans les prémisses. La conclusion logique reporte donc le contenu des prémisses, y compris l'indétermination obligatoire qui empêche les conclusions certaines. Il en résulte que la signification de la logique dans la pensée naturelle est complexe: aucunement source de certitudes, mais pas inutile et même autenthiquement créatrice. Encore faut-il préciser dans quelles conditions.


Les réflexions des logiciens intutitionnistes sont très intéressantes et doivent être élargies au delà de la question des ensembles totalement définis ou infinis sur laquelles ces auteurs ont travaillé surtout:


- les objets mathématiques simples étant totalement définis, les opérations mathématiques sur ces objets sont concluantes et le principe du tiers exclu peut leur être appliqué. Fait essentiel, l'algèbre de Boole est également concluante en elle-même lorsque les objets "quelconques" qu'elle manipule sont réduits à l'étiquette "p" ou "q" qui les caractérise. La situation est fondamentalement différente dans un ensemble infini dont tous les éléments ne sont pas déterminés, disent les intuitionnistes. Or cette situation est très proche de celle que nous avons reconnue à la pensée naturelle; les représentations d'objets, les concepts, les symboles manipulés par la logique ne sont que très partiellement définis, l'activité logique ne peut alors être concluante. Si dans une classe d'équivalence L même totalement définie, deux sous classes M et N ne sont pas totalement définies, le tiers exclu dans L ne peut être affirmé. L'application de la logique formelle traditionnelle à la pensée naturelle ne saurait s'effectuer aisément.


- inversement la rationalité restreinte* explique que l'homme ne peut mobiliser que quelques unités cognitives à la fois. Il est donc contraint à simplifier les suites d'opérations en un résultat condensé. Un sens peut être présent dans les prémisses tout en étant inutilisable parce que masqué, existant seulement en puissance. L'actualisation de ce sens par la logique, traduisant un passage de la puissance à l'acte, est donc authentiquement créateur, et c'est là que l'apport de la logique intervient. André Siegfried a fait remarqué que la transitivité réfléchie, consciente d'elle-même, est une caractéristique de la pensée occidentale, dont le défaut marque cruellement d'autres types de pensée. Du fait de la rationnalité restreinte, l'homme est continuellement contraint dans un premier temps à l'approximation qui ramène un objet x à un modèle conceptuel fermé, à un "p" ou un "q" de la logique formelle, reliant des concepts considérés eux-mêmes comme définis. Dans la confrontation des modèles ainsi définis, la logique est concluante et d'un intérêt essentiel. Il est cependant évident que les conclusions logiques valent alors seulement pour les modèles et non pour les objets eux-mêmes. L'erreur ne vient pas de la logique mais de l'oubli de l'approximation initiale.


La logique doit donc s'inscrire dans un processus utilitaire complexe, d'une activité mentale qui porte par nécessité sur des approximations admises provisoirement; c'est la seule manière de procéder du fait de la rationalité restreinte*. L'important n'est pas de critiquer une méthode qui est la seule possible. L'important est de retenir que la logique n'établit que des projets, des suppositions cohérentes, des hypothèses de travail et qu'elle ne débouche que sur le vraisemblable. Projets ou hypothèses indispensables pour "avancer" dans la connaissance mais qui n'ont de sens que pour pr une vérification expérimentale. C'est le sens même du raisonnement abductif décrit par C.S. Pierce.


Aristote utilisa le terme d'abduction pour qualifier un syllogisme dont la majeure est certaine mais dont la mineure est seulement probable. Pierce a fait de l'abduction la caractéristique de tout raisonnement dont la conclusion est seulement vraisemblable parce qu'il n'y a pas de certitude sur les prémisses. Si nous rapprochons cette définition des précision de Keynes sur les proposition proprement hypothétiques, nous voyons que le propre de la logique est de former des hypothèses cohérentes, non de fournir des certitudes. Le syllogisme et la déduction ne sont pas premiers dans la pensée naturelle mais apparaissent en réponse à une question préalable. "La pensée est activée par l'irritation d'un doute", dit Pierce. Le propre de la logique est de passer de l'irritation du doute à l'acceptation de la croyance. L'inférence déductive se déroule avec l'idée implicite que les conclusions n'auront de valeur que pour autant que les prémisses soient valables. De ce fait, l'invalidation de l'hypothèse déductive par la vérification empirique doit être admise implicitement (annexe C), ce qui soumet toute déduction au contrôle empirique.


On peut alors remarquer que l'abduction de Pierce conduit obligatoirement à une réaction circulaire* : si l'hypothèse vraisemblable est démontrée fausse, il y a lieu de revenir sur les prémisses pour les modifier. Le propre de la pensée naturelle est donc de dérouler un processus complexe et circulaire dont la déduction n'est qu'un maillon. Sous cet aspect, logique formelle et pensée réelle peuvent faire bon ménage. Contrairement à l'opinion courante, la déduction n'est que le caractère local de la démarche dont l'abduction est le caractère global.


Cependant, même dans sa forme abductive, la logique ne peut obtenir que des résultats provisoires, ce qui marque ses limites mais devrait en faire la noblesse dès que ce caractère de provisoire est retenu. Triomphante, la vérification concrète démontrera que le projet ou l'hypothèse ne sont pas faux, non qu'ils sont vrais. L'impossibilité de parvenir à une certitude en fait un résultat certes provisoire mais indispensable à l'activité cognitive actuelle, comme à un progrès cognitif ultérieur.


En définitive, la logique est un outil d'utilité, non de vérité. De ce fait et paradoxalement, la logique bivalente nous parait demeurer la plus utile dans la pensée naturelle, lorsqu'elle est régularisée par des boucles existentielles récursives. Apparaissent alors spontanément toutes les limitations qui marquent les logiques modales ou la logique intuitionniste. Ces logiques sont en quelque sorte simulées ou reproduites par une logique bivalente qui réduit la portée des conclusions au degré de précision et de validité des prémisses. La situation est toute autre en programmation (annexe C).


Un dernier aspect qui doit être étudié est celui de la place exacte que doit occuper le principe de réfutabilité* de Popper dans le discours. Il est manifeste que les déclarations négatives, les conclusions négatives lors de la vérification concrète des hypothèses sont seules capables d'approcher la certitude. Il ne faudrait pas oublier pour autant que l'induction est le seul véritable moteur du progrès cognitif (annexe C). L'important est seulement de retenir que toute induction est hypothétique et ne doit être acceptée que provisoirement. Si nous ajoutions "jusqu'à preuve du contraire", nous constaterions immédiatement que la réfutation est un temps qui fait normalement suite à des inductions antérieures.


6. Les Systèmes cognitifs.


A la base de toute connaissance, il y a la mise en évidence d'une relation. Le schème initial exprime une relation entre une action du sujet et l'environnement. Le concept est une convergence de plusieurs relations. Mais ni le schème, ni le concept ne pourraient avoir de pleine valeur s'ils étaient pris isolément. Ils doivent pouvoir être comparés, confrontés à d'autres schèmes, d'autres concepts avec lesquels ils sont en relation. Ainsi se trouvent constitués des systèmes cognitifs. Ces systèmes présentent les mêmes particularités que les schèmes ou les concepts qui les constituent. Ils ont eu une histoire marquée par la convergence des schèmes ou des concepts. Ils ont une stabilité temporaire qui les justifient et les spécifient. Ils demeurent ouverts à des transformations, ponctuelles ou profondes.


Le premier système cognitif est celui qui oppose le moi et le non-moi. Ce sont des particularités biologiques, notamment l'appétence pour l'imitation, bien développées chez les oiseaux et les primates sociaux, qui expliquent que le non-moi puisse se fractionner ensuite rapidement entre l'environnement physique et "l'autre" que l'on peut imiter car il est à la fois non-moi et comme-moi. Ainsi s'établit le passage de la conscience adualistique* à la conscience dualistique*, construite mais qui demeure permanente tout au long de la vie et autour duquel s'articulent toutes les évolutions cognitives.


Les systèmes cognitifs qui font suite traduisent pour une large part une prise de conscience des mécanismes cérébraux constitutionnels. Ainsi la construction d'un espace, d'abord topologique, puis projectif, enfin euclidien, ne fait que découvrir une organisation cérébrale préalable. P. Maddy pense que la perception simultanée de chaque objet et d'une collection qui les réunit, base de la notion d'ensemble, repose également sur un pré-établi. En ces domaines, l'aspect de construction à partir de "presque rien" qui apparaît dans les analyses piagétiennes pourrait être fortement critiqués.


Nous ne pensons pas qu'on puisse qualifier de systèmes cognitifs propres, les mathématiques et la logique. Les opérations logico-mathématiques réunissent des affirmations d'existence, des constats, de relations essentiellement topologiques et elles montrent comment des séquences de telles opérations peuvent être présentées sous une forme simplifiée. Ces opérations sont au cœur de tout système cognitif plus qu'elles ne constituent un système par elles-mêmes; j'ai "3" d'un côté et j'ai "4" de l'autre, et je simplifie le résultat en exprimant que j'ai "7". Les opérations sont donc indiscutables par elles-mêmes puisque simplement posées et elles sont spécifiées par les objets sur lesquels elle portent. Tout au plus peut-on insister sur un double aspect évolutif :

- les premières relations posées au cours du développement ontogénétique, sont évidemment plus isolées; ce sont des actions "intuitives" plus que des opérations de groupe.

- dans la mise en évidence d'une nécessité, l'implication concrète précède évidemment l'implication logique.


On peut alors considérer que la "théorie" est la forme la plus achevée d'un système cognitif. Nous utilisons ce terme de théorie dans un sens très large, incluant aussi bien une cosmogonie animiste que la mécanique des quanta. Le constructivisme permet de comprendre la nature holographique de la relation entre la théorie et les données cognitives qu'elle inclut. La théorie n'est rien d'autre comme le voulait P. Duhem que l'accord optimal qui équilibre les données cognitives entre elles. Mais ces données n'ont pas seulement un noyau structurel stable. Elles présentent également des éléments indéterminés qui prenent des valeurs variables selon les circonstances et l'environnement, constituant autant d'"états" différents. Les données cognitives sont donc sensibles aux effets de la théorie qui les regroupent. Si donc la théorie est définie par les données cognitives qu'elle réunie, les données cognitives sont précisées par la théorie.


Ainsi définie, la théorie présente une stabilité réelle mais provisoire. C'est la stabilité qui justifie la théorie comme outil cognitif mais l'intérêt fondamental de la théorie exige une fragilité qui permette le progrès. Point fixe d'équilibre temporaire, la théorie peut heureusement être mise en défaut par un seul fait contradictoire. Or ce fait contradictoire est une donnée vue au travers de la théorie. C'est donc bien l'exercice de la théorie qui contient en germe son évolution. Il faut donc parler de théorie féconde et non de théorie vraie : une théorie féconde est une théorie qui se montre prédictive alors qu'elle aurait pu être infirmée par l'expérience, et qui, en cas d'échec, génère une autre théorie, plus prédictive.


A la métaphore holographique, on pourrait adjoindre l'évolution spiralée décrite par Piaget, notamment lorsqu'il considère les interrelations des disciplines scientifiques, et qui prend en compte le facteur temps. C'est une théorie précédente qui a spécifié une donnée cognitive et les révisions apportées par l'appartenance à une nouvelle théorie marquent en même temps un retour sur la donnée et un progrès. Cette forme d'évolution est joliment exprimée par J. Piaget lorsqu'il dit que le fait d'une nouvelle théorie est d'introduire de nouvelles questions vis à vis des mêmes réponses.


Au total, les connaissances stabilisées ne traduisent nullement les données fixées que postule le réalisme de nature. Ce sont des structures dont la stabilité et même la vie, sont provisoires, avec un passé fondateur, un avenir évolutif et une disparition. Ces structures sont des points d'arrêts indispensables au fonctionnement cérébral de la rationalité restreinte* car elles résument en unité globale et étiquetée, un algorithme cognitif aussi complexe qu'il est désirable. Ces points d'arrêts sont tout aussi indispensables pour établir une référence stable dans les communications inter-individuelles. Inversement, ces structures sont temporaires, ne peuvent avoir de valeur fixée et ne peuvent se concevoir sans la dynamique du discours qui les accompagnent, de même que l'A.D.N. de l'œuf est un corps chimique passif lorsqu'il est séparé de la machinerie cellulaire. Platon avait raison de redouter la fixation du discours écrit. Les connaissances stabilisées ne prennent leur pleine signification et leur intérêt qu'incluses dans une dynamique. Le dialogue, interne ou social, sous toutes ses formes, y compris la discussion des théories, des choix métaphysiques, est une première traduction de cette activité dynamique lorsqu'il comprend des aller-retours qui diminuent peu à peu les divergences d'interprétation. Mais il n'empêche que tout discours, tout système cognitif, demeurent l'expression d'un possible dont la portée doit être précisée car s'il peut y avoir un effet de conviction, c'est en raison d'adhésions de croyance, de fidélité vis à vis de l'orateur et non parce qu'il existe des vérités indiscutables.


Dans ses formes élémentaires, la dynamique cognitive manipule des données perceptives et reproduit directement un scénario possible. Cependant ce scénario évolue au niveau d'un modèle, puisque la perception est une version tout à fait subjective de la réalité. Cette traduction a ses limites qui impose très vite une description symbolique qui corrige la subjectivité perceptive et la dépasse par les constructions opératoires neuves qu'elle permet. L'étendue des possibles ainsi définis, impose une gestion par l'implication logique, mais il faut strictement limiter la valeur de démonstration contraignante que présente cette implication puisque les objets sur lesquels elle porte sont provisoires et mal déterminés.


-----------



C) Les bases de la Validité Cognitive.



Le réalisme rattache par la logique toute connaissance à des vérités d'évidence. L'idéalisme repose sur des propriétés subjectives acceptées a priori. Ces références absolues manquent totalement aux conceptions épistémologiques basées sur la seule rencontre sujet/objet et sur les thèses que nous avons défendues. De ce fait, tout critère de vérité disparait, le concept de vérité est vidé de toute signification. Il ne faudrait cependant pas en conclure à l'acceptation nécessaire du relativisme d'un P. Feyerabend ou du conventionnalisme d'un H. Poincaré. Il existe en effet des critères de validité qui peuvent différencier les affirmations cognitives entre elles. Ces critères se résument tous à un constat de cohérence* entre des appréciations faites sous des angles très différents, aux "repères croisés" de K. Popper. Si la confrontation de plusieurs appréciations sur un même événement fait apparaître des contradictions, on peut supposer que certaines appréciations au moins sont fortement entachées d'erreur. Si une concordance est constatée entre un maximum d'appréciations distinctes, il est raisonnable d'accepter au moins provisoirement les conclusions communes. On peut rapprocher cette validité probabiliste des données cognitives de la belle définition de l'objectivité par H. Poincaré, " ce qui est commun à plusieurs êtres pensants et pourrait être commun à tous".


Il est cependant manifeste qu'il faut réunir les notions de cohérence* et d'utilité. Si la connaissance est recherchée en dehors de tout critère d'utilité, le constat de cohérence* et l'aspect de probabilité qui en résulte, peuvent paraître bien pauvres. Si en revanche, le facteur utilitaire prime, le seul fait d'isoler la description cognitive la plus probable devient essentiel. Nous acceptons personnellement totalement le critère d'utilité et nous serions tout à fait tenté de suivre les conclusions de P. Feyerabend s'il s'agissait pour l'auteur de caractériser des connaissances auxquelles certains accordaient un statut de validité ontologique.


Nous sommes confortés dans notre position du caractère fondamentalement utilitaire de la connaissance par l'analyse de la perception. Nous avons vu que les systèmes perceptifs déforment le réel (V-C) pour mieux servir les orientations comportementales. Or l'étude de la perception ne souligne pas seulement ce caractère utilitaire mais de plus, il souligne la part faite à la cohérence*. La perception s'effectue à partir de multiples canaux et c'est la seule concordance entre les données de ces différents canaux qui nous donne le sentiment de réalité. Le nourrisson de quelques jours réagit déjà lorsqu'on réalise artificiellement une discordance entre une localisation auditive et une localisation visuelle (025); c'est donc bien la preuve qu'en temps normal, il assimile la concordance. Pensons à la cohérence* qu'apporte la concordance des images visuelles d'un même objet, effectuées au travers d'au moins sept canaux de définition ou de fréquence spatiale* différente.


L'analyse de la perception démontre donc l'extraordinaire validité du concept de multicrucialité* défini par G. Pinson (IX-C) :

- une concordance entre un nombre limité de catégories permet de définir par intersection,

- une concordance au delà des exigences de la définition confirme en démontrant une cohérence*.


Sur le plan des connaissances apprises, le sujet connaissant dérive normalement à partir des événements rencontrés, des systèmes universels faits de lois prédictives. Il n'y a pas de connaissances isolées. Aucune perception n'est significative par elle-même chez l'individu humain, hormis les très pauvres conduites perceptivo-motrices innées. L'analyse d'une donnée cognitive ou d'une perception à partir de systèmes cognitifs permet alors de faire apparaître aisément concordances et discordances, conduisant à un constat de cohérence*. Ce constat peut traduire des concordances internes et des concordances externes.



1. La Cohérence* interne et l'Implication.


La cohérence* interne d'un système cognitif s'apprécie en étudiant si l'application en de multiples situations, des lois cognitives que le sujet a construites, ne révèle pas de contradictions. Ces contradictions ne viennent ni de l'environnement, ni de la constitution du sujet mais d'une imperfection dans la construction du système de connaissance. Un progrès dans la connaissance est obtenu chaque fois que le sujet révise ses systèmes de connaissance pour obtenir une meilleure concordance entre les lois dérivées de ces systèmes.


On pourrait considérer que la cohérence* interne n'est rien d'autre que le respect des implications concrètes ou logiques. Cela ne serait vrai que si les prémisses ou les concepts pouvaient être considérés comme "vrais". Or nous nous sommes efforcés en permanence de démontrer que la vérité était un concept vide et que les concepts traduisaient un constat provisoire, utile et ouvert aux révisions. La cohérence* interne doit donc respecter au minimum les règles d'implications mais elle doit aller au delà en soumettant les concepts eux-mêmes à critiques. La théorie newtonienne, nous dit Hertz, est "vraie" parce que les concepts qu'utilisent la théorie sont définis dans le cadre de cette théorie. Dès lors qu'il est démontré que les définitions conceptuelles dérivent de l'application de la théorie, la cohérence* interne peut s'effondrer dans le respect des implications logiques. Au total, il est possible de rechercher un maximum de cohérence* interne, mais cette recherche a obligatoirement les limites que Church, Gödel et Tarsky ont reconnu à tout système qui cherche à s'affirmer par lui-même. Inversement, la dégénérescence obligatoire explique l'intérêt d'une cohérence* interne approchée pour mieux établir les conditions d'une validation externe.


La seule façon d'échapper à la contradiction qui se dessine est d'élargir au maximum le champ de confrontation d'une donnée cognitive. J. Piaget a bien montré que l'ensemble des sciences dessine une spirale: la physique et la chimie s'appuient sur les lois logico-mathématiques, la biologie bien comprise s'appuie sur la physique-chimie et conditionne la physiologie, une psychologie bien comprise est conforme aux données de la physiologie et précise le sens des opérations logico-mathématiques. Il s'agit d'une spirale et non d'un cercle car la circulation entre les disciplines s'enrichit de données nouvelles. De proche en proche, toute donnée cognitive est rattachable au système cognitif dans son ensemble, ce qui multiplie les occasions de constater concordances et discordances, d'apprécier une cohérence* interne, au niveau de la donnée isolée comme au niveau du système cognitif global.


L'approche cognitive de l'homme est particulièrement délicate puisqu'alors l'homme est simultanément sujet et objet de connaissance, juge et partie. La recherche d'une cohérence* interne devient particulièrement essentielle. Elle doit se faire en général au travers de la spirale des disciplines scientiques, mais d'un intérêt tout particulier est la confrontation entre les données de l'organisation neurobiologique du cerveau à la naissance, celles de l'observation directe du jeune nourrisson et de l'enfant, celles d'une réflexion psychologique sur le comportement de l'homme mature.



2. La Cohérence* externe et la Vérification.


Compte tenu des réserves concernant la cohérence* interne, la cohérence* externe, accord entre l'hypothèse et le fait, est indispensable. Elle n'est cependant ni plus ni moins importante que la cohérence* interne, car elle s'applique au mieux après un effort de recherche de la cohérence* interne. L'hypothèse dont on recherche la validité doit évidemment présenter une cohérence* interne qui lui assure une certaine probabilité d'intérêt.


Une cohérence* externe élémentaire, à la fois fondamentale et dont nous n'avons même pas conscience est l'accord maintenu entre les schémas représentatifs d'un objet, que nous avons pu construire et les données perceptives que fournit cet objet lorsque nous le retrouvons ultérieurement. Cette cohérence* essentielle qui entretient la continuité de la vie psychique, ne devient manifeste qu'en cas de désaccord, lorsque l'objet n'apparaît pas semblable à l'image que nous en avions construit. L'importance psychologique de ce désaccord est souligné par le fait qu'il constitue un obstacle contraignant dans le déroulement de l'activité mentale et qu'il conduit à un appel obligatoire à une réflexion consciente. C'est donc bien qu'en temps normal, ce contrôle de cohérence* se produit régulièrement de façon automatique.


Mais d'une façon plus générale, la cohérence* externe se juge sur la "convenance" comportementale des systèmes de connaissance vis à vis d'un événement nouveau qui comporte à la fois des différences et des points communs avec des événements anciens, et qui a constitué de ce fait, un "obstacle" dans le déroulement de l'activité mentale. Les événéments anciens ont servi à établir le système de connaissance, l'événement nouveau juge du bien fondé de l'extrapolation que traduit tout système cognitif. Il y a passage d'une probabilité à une adéquation au moins provisoire.


Dans la pratique, les événements extérieurs survenant de façon stochastique, il peut être difficile d'affirmer rapidement la convenance des systèmes de connaissance. C'est ce qui explique l'importance considérable de l'expérimentation qui renouvelle des événements aussi identiques que possible entre eux et permet au mieux de juger cette cohérence* externe. Ainsi apparaissent les deux critères essentiels de validité que sont la prédiction et la répétabilité.


On peut remarquer à ce propos que les discussions de validité se posent très différemment selon que la connaissance analysée se prête ou ne se prête pas au contrôle expérimental. On voit mal un partisan engagé du relativisme comme P. Feyerabend discuter de la portée de découvertes biologiques récentes que des centaines d'expérimentations confirment tous les jours. Il est évident que toutes les discussions épistémologiques portent sur les données cognitives où la vérification expérimentale est difficile. Or l'expérience invoquée n'est pas du tout un substitut comme l'indiquait Claude Bernard car l'anecdote isolée, même parfaitement bien décrite, peut recevoir de multiples explications cohérentes (X-B). Lorsque manque la vérification par expérience provoquée, il devient justifié de rechercher toutes les formes de cohérence* externe, même si elles sont de valeur très relative.



3. La Concordance entre Individus.


Dès le plus jeune âge, "l'autre" est reconnu pour lui-même. Cet autre est au centre des conduites d'imitation et de dialogue qui sont essentielles. Faut-il alors aller plus loin et accorder une valeur de cohérence* externe aux concordances d'opinion ?


Il est de fait que par de nombreux côtés, l'autre est en quelque sorte un équivalent fonctionnel du moi. On peut considérer qu'aux erreurs pathologiques près, les constitutions sont identiques et notamment que les données d'interfaces sont recueillies extérieurement de façon identique et signifiées intérieurement de la même façon. Mais cette similitude de constitution ne valide véritablement que les données les plus concrètes, celles justement qui se prêtent le mieux à une démonstration de cohérence*.


La situation est en revanche très différente pour les opinions complexes qui font l'objet d'acceptation par les uns, de refus par les autres. L'expérience historique montre que des précurseurs dont l'opinion a été acceptée ultérieurement, se sont vus critiqués initialement de façon quasi universelle. Le cas "Wegener" n'est qu'un exemple. Inversemment, l'opinion qui avait été adoptée par la plupart se révèle ultérieurement fausse vis à vis de ces précurseurs. Le poids de l'histoire personnelle, des options métaphysiques expliquent bien cette situation et souligne que l'acceptation par le plus grand nombre a une valeur de cohérence* très relative.


En définitive, il est manifeste que G. Bachelard a répondu par avance à tout ce qu'il y a d'excessif chez T. Kuhn, P. Feyerabend ou même M. Foucault. Lorsqu'il s'agit d'émettre des opinions qui ne se prêtent pas à la vérification expérimentale, y compris les extrapolations de théories scientifiques, le relativisme cognitif peut être légitimement avancé parce que par définition, aucun point de vue ne peut prévaloir. En revanche, l'expérience scientifique authentique et bien conduite s'impose d'elle-même, tout spécialement vis à vis de l'expérience commune. Malgré tout, de nombreux points s'appuient sur des inductions non contrôlées et de ce fait, il y a simultanément un aspect anarchique dans l'évolution et la pratique scientifique. Mais il existe parallèlement une orthogenèse cognitive, dessinant un progrès régulier. Imprévisible par avance, cette orthogenèse, selon l'expression de L. Brunschvicg est constatée "après coup", ce qui est le credo du constructivisme et de la théorie de l'autonomie.



4. La Cohérence* et le Solipsisme.


La distinction affirmée entre cohérence* interne et cohérence* externe est fondamentale car elle revient à affirmer l'existence du réel, tout en proclamant conjointement l'impossibilité de préciser ses propriétés ontologiques. Cette distinction marque la frontière entre solipsisme et constructivisme génétique, et correspond au réalisme minimal que nous avons défendu.


- le solipsisme consisterait à affirmer que la cohérence* externe est un simple cas particulier de cohérence* interne entre d'une part ce que le sujet "décide" venir d'un environnement qu'il a en fait construit, et d'autre part l'ensemble de son système cognitif.


- le constructivisme admet l'existence d'un réel capable de semer sur notre passage des obstacles qui heurtent le déroulement interne de notre activité mentale. Il y a à la fois l'affirmation que le réel existe et qu'il est doté de particularités permettant l'expression de régularités. Mais ces particularités sont inaccessibles à l'analyse directe et la connaissance se réduit à seulement prévoir des comportements qui conviennent, après analyse de l'événement. De ce fait, le réel en tant que tel ne se manifeste qu'à partir des obstacles imprévus qui interrompent le déroulement de l'activité mentale intérieure : " La conscience commence par être centrée sur les résultats des activités avant d'atteindre les mécanismes de celles-ci ; la conscience part donc de la périphérie et non de mécanismes centraux. Et encore ne surgit-elle qu'à l'occasion de désadaptations, les mécanismes fonctionnant normalement d'eux-mêmes ne fournissant pas de telles occasions " (J. Piaget).


- il nous semble cependant possible d'aller plus loin en partant des "repères croisés" de la perception, et en considérant que le réel construit par la perception est "vraisemblable", comme le dit K. Popper. Il n'est ni le simple imaginaire que semble exprimé le réel inventé de P. Watlawick, ni une réalité certainement isomorphe aux données perceptives corrigées. La conclusion pourrait être que nous n'avons guère de raison de discuter des différences entre la réalité et nos constructions, à la condition de demeurer à notre propre échelle de temps et d'espace, ne pas en faire une base indiscutable d'implications et d'extrapolations. Pour reprendre un exemple de K. Popper, il peut être considéré comme vrai que le soleil se lèvera toutes les 24 heures dans les jours qui viennent, en deça des cercles polaires. Il serait faux de construire une théorie cosmogonique universelle sur ce fait.


En un mot, nous n'avons aucune raison de douter de l'existence de l'environnement mais nous devons reconnaître qu'un effort permanent de notre part est indispensable pour mieux qualifier cet environnement que ne le fait l'image qui nous en est donné par les mécanismes perceptifs constitutionnels ou les connaissances déjà acquises. Les rencontres occasionnelles nous permettent de valoriser des relations pouvant valider ou surtout invalider les systèmes cognitifs existants. Une association minimale de relations définit une hypothèse substitutive. L'adjonction supplémentaire de relations apporte le bénéfice d'une cohérence* constatée qui peut valoriser cette hypothèse. Cette cohérence* valorise le cadre cognitif global accepté et s'ajoute aux obstacles imprévus pour mieux construire la prégnance du réel.



5. La Cohérence* et la probabilité subjective.


Si la cohérence* pouvait apporter une certitude, il y aurait tout simplement un retour aux critères de vérité. La cohérence* ne débouche que sur une probabilité, une vraisemblance, une "vérisimilitude" selon l'anglicanisme tiré de l'oeuvre de Pierce, mais vraisemblance ou vérisimilitude qui relèvent d'une validation après coup.


La probabilité de vraisemblance est vécue comme une probabilité subjective, par et pour le sujet, mais on ne peut parler de probabilité réfléchie qu'en présence d'un observateur extérieur au sujet, car ce dernier n'a que rarement consciente que son activité cognitive est de type probabiliste. Pourtant, pour l'observateur :

- le découpage du monde qui marque le premier temps de toute démarche cognitive est subjectif, que ce découpage soit imposé par la constitution au niveau du système d'interface, ou qu'il soit réfléchi.

- les critères de validation des démarches cognitives sont utilitaires et donc subjectifs.

- le passage du possible au vraisemblable est apprécié par le sujet.


A ces caractères subjectifs, s'associent obligatoirement une possibilité d'évolution. Chaque fois qu'une connaissance possible est mise en jeu, le succès ou l'échec devraient normalement modifiés la probabilité. Le processus "d'immunisation" décrit par K. Popper peut constituer un frein prolongé dans cette modification des probabilités mais il n'a habituellement que des effets temporaires.


La théorie des probabilités subjectives, édifiée notamment par J. Cohen dans la suite des idées de F. P. Ramsey, n'est paradoxalement pas une réponse. Elle ne fait que traduire le biais subjectif que découvre l'observateur dans le comportement du sujet vis à vis d'événements régis par des probabilités accessibles partiellement ou en totalité. De même, la théorie traditionnelle des probabilités n'est pas conforme car les probabilités cognitives ne sont fixées ni dans l'espace ni dans le temps. Seule est adaptée la théorie des probabilités généralisées où tout se passe comme si l'espace de probabilité était continu. De ce fait, un découpage de cet espace doit précéder toute attribution de probabilité. Or les découpages possibles sont multiples et conventionnels. A tout instant, les probabilités existantes peuvent être remises en cause et c'est notamment ce qui se passe durant l'évolution cognitive, individuelle ou collective. A tout moment, on peut définir un aspect de probabilité subjective, qui est l'idée cognitive que se fait chaque sujet de connaissance et un aspect de probabilité objective que pourrait calculer un observateur du sujet de connaissance.


C'est encore dans une optique probabiliste qu'il nous parait souhaitable de confronter la connaissance et la croyance, la Science et la Métaphysique. Par croyance, nous n'entendons pas un système de pensée qui associe intimement une explication totale du monde, une éthique et une invocation de puissances surnaturelles, mais un système établi à côté d'une explication scientifique légitimée, comme par exemple dans l'oeuvre de P. Duhem. Ce qui caractérise la Science est un ensemble de données "vraisemblables", validées par l'expérience et qui en fin de compte doit permettre d'appliquer, au mieux des délais et des tâtonnements, des stratégies efficaces en face de toute situation. Cette connaissance est doublement limitée puisqu'elle ne peut conduire à des certitudes et qu'elle ne peut répondre à toutes les interrogations légitimes. C'est cette limitation qui définit l'approche métaphysique qui porte des hypothèses complémentaires, au delà de toute possibilité de vérification. L'option métaphysique devrait donc être un pari dans un domaine où seul le pari est possible et il ne peut être validé rapidement. Que cette option inclut ou non des points de vue religieux est finalement contingent dans une confrontation avec la Science. L'important, comme le souligne Pierre Duhem est de considérer qu'approche scientifique et approches métaphysiques sont toutes deux respectables, mais à la condition de ne pas se chevaucher et de bien être prises pour ce qu'elles sont :


- la Science ne doit pas prétendre établir des lois expliquant tous les aspects de la réalité, réservant une réalité profonde ou nouménale, inaccessible. La Science ne doit pas penser pouvoir aller au delà de son domaine qui est celui du plus probable, ou du vraisemblable, ce qui est à peu près synonyme.


- la Croyance ou la Métaphysique ne doivent pas prétendre influencer le choix des théories scientifiques et plus encore, elles doivent conserver leur aspect de pari, d'option, ce qui impose la tolérance pour le pari ou l'option des autres. Il n'y a pas de paris ridicules en ce domaine, malgré ce qu'a pu en dire le poète, mais justement parce que et si, le croyant ou le partisan d'une idéologie ont conscience de demeurer dans le cadre du pari.


Pour joindre l'auteur:

Webmaster: Corpet