Du Cerveau à la Pensée:
Théorie de la Connaissance et Autonomie Biologique
par Jean-Claude Tabary
Retour: Accueil/Home - Précédent: Chapitre 8 - Suite: Chapitre 10

CHAPITRE IX : AUTONOMIE ET HIERARCHIE



"L'analyse du biologiste ne réduit pas le complexe à des éléments plus simples mais il découvre à chaque niveau de sa réduction un nouveau monde de complexité auquel il se trouve confronté. Le neurone apparaît comme un système biologique autonome avec sa machinerie interne, ses circuits métaboliques qui relèvent de la même logique d'organisation spécifique propre à toute unité de système vivant. Toute unité systémique vivante doit, en effet être considérée, à quelque niveau d'organisation qu'on l'observe, dans son statut de stationnarité de non équilibre qui, pour se maintenir, doit activement lutter contre la désorganisation thermodynamique qui la menace.


Jacques Paillard


Résumé : A) Emboîtement et Autonomie.


L'emboîtement des structures apparaît un fait général et non artificiel, mais contrairement à ce que semblait penser Claude Bernard, emboîtement et autonomie sont théoriquement et concrètement compatibles pour les éléments de tous niveaux. Cela peut être dénommé principe de subsidiarité.

Le Holon d'A. Koestler est la première en date des formulations systématiques d'emboîtement. On peut lui reprocher un aspect essentiellement géographique, sans grande référence diachronique.

L'Hologrammorphisme invoque la multiplicité simultanée et surtout le fait que chaque point de l'hologramme traduit la rencontre de deux informations. Il en résulte que chaque point de l'hologramme reflète le système entier et en revanche, que le système entier n'est rien d'autre que l'ensemble des points, le tout en interaction permanente.

La Hiérarchie selon P. Auger a l'immense avantage de distinguer l'emboîtement des structures et les interrelations définissant des états.


4. La Structure et les Etats stationnaires.

La structure est le noyau stable d'un système, constant tout au long de l'observation. La notion d'état doit surtout s'appliquer à l'état stationnaire de non équilibre qui marque une stabilité temporaire et mesurable d'un système. Pour une large part, l'observateur décide ce qui est structure et ce qui est état stationnaire. Les effets de l'emboîtement des structures sont simples, (complexité structurale de Linschitz), les effets de l'emboîtement des états sont extrêmement complexes car les interactions entre éléments de tous niveaux sont importants même si le couplage physique est lâche, les finalités se superposent et l'environnement relativement constant d'un élément diminue son entropie. Le système hiérarchisé est quasi-décomposable puisque chaque élément continue à pouvoir fonctionner par lui-même, mais l'émergence de propriétés nouvelles est liée à l'emboîtement.

------------


B) Autonomie, Hiérarchie et Fait Social.

Les principes exposés, notamment l'hologrammorphisme, s'appliquent particulièrement bien aux relations de l'individu et du groupe social auquel il appartient.

-------------


C) Emboitements et Systèmes Cognitifs

2. Hiérarchie et Taxinomie.

Le fait cognitif isolé n'a pratiquement pas de valeur et le système cognitif est donc la règle. La classification emboîtée est une évolution cognitive spontanée, elle s'installe et se précise au cours des âges culturels.

- les classifications implicites d'Aristote traduisent un aspect élémentaire mais qui a permis tous les perfectionnements ultérieures.

- la classification linnéenne est encore d'inspiration très réaliste et Linné refuse notamment la classe vide.

- le passage de "l'essence" a priori aux données d'expérimentation marque l'abandon du réalisme. La classification résume les connaissances et dessine un programme de recherche; elle devient prééminente par rapport à l'élément. Les classes vides se multiplient, l'élément se résume à la case qu'il occupe. C'est la situation actuelle de la mécanique quantique.

- la taxinomie numérique ou statistique a l'avantage d'affirmer que la définition des cases est provisoire.


Hologrammorphisme et Multicrucialité : la multicrucialité de G. Pinson traduit la définition d'une classe par la convergence de plusieurs critères. L'hologrammorphisme et la multicrucialité donnent vie aux classifications qui sont organisées et prˆtes à s'enrichir, détachées des impératifs de vérité ou de certitude. La multicrucialité assure conjointement la définition d'une case et la démonstration de sa cohérence.


3. Systèmes cognitifs et multiplication des canaux perceptifs.

Il y a une multicrucialité vécue et fondamentale qui passe souvent inaperçue et qui est essentielle, c'est la concordance entre plusieurs canaux perceptifs qui fournissent une même conclusion. Cette multicrucialité est sans nul doute l'explication de la prégnance du réel.


4. Faits et Théories.

La thèse de Duhem-Quine affirme que la théorie n'est rien d'autre que le point d'équilibre entre tous les faits qui se rapportent à la théorie. Ce point de vue est très valable mais incomplet car inversement, le fait scientifique traduit l'application implicite de la théorie. L'équilibre réciproque définit la cohérence de la théorie. On comprend que cet équilibre soit très provisoire.


Le principe de Réfutabilité de K. Popper se déduit de l'hologrammorphisme. La théorie scientifique est celle qui se limite à la cohérence holographique. La théorie métaphysique est celle qui inclut les coups de pouce pour privilégier un point de vue choisi a priori. L'analyse popperienne a cependant ses limites.


5. Globalisme et Réductionnisme.

Les analyses précédentes rendent conciliables un réductionnisme au niveau des structures et un globalisme au niveau des états. Globalisme et réductionnisme sont donc plus complémentaires qu'opposés. Cependant, il est extrêmement fréquent que les interactions équilibrées s'installent spontanément entre des éléments qui ont été rapprochés et donc que ce rapprochement suffise à créer une organisation cognitive.


6. Le sens de la Logique.

La logique a pour but unique de favoriser l'analyse de la cohérence interne d'une explication possible. Elle est indispensable pour gérer l'organisation hiérarchique de la connaissance.

------------


A) Emboîtement et Autonomie.

Au début de son livre, "La logique du Vivant", F. Jacob oppose deux attitudes historiques dans l'approche de la biologie :

- la première attitude que l'auteur qualifie d'intégriste ou d'évolutionniste, refuse de considérer qu'un tout soit réductible à la somme de ses parties. A tous les niveaux, l'intégration donne aux systèmes des propriétés que n'ont pas leurs éléments.

- la seconde attitude, qualifiée de tomiste ou réductionniste, tente d'expliquer le tout par les seules propriétés des parties.


S'il y a bien une opposition radicale entre ces deux attitudes, on doit cependant reconnaître que toutes deux décrivent continuellement un tout et des parties. La réalité de l'emboîtement est acceptée unanimement, même si les relations entre tout et parties sont envisagées différemment. En pratique, la moindre approche d'une description biologique démontre l'existence d'emboîtements à plusieurs niveaux. Les cellules des organismes sont décrits à partir de plusieurs constituants et certains de ces constituants peuvent être réduits à une association de quelques protéines. Inversement, les cellules forment des tissus ou des organes qui sont eux mêmes reliés entre eux pour constituer les différents systèmes de l'organisme entier. Enfin la dynamique des populations souligne la nécessité d'intégrer l'individu dans un groupe pour en comprendre le comportement.


En fait, la biologie ne fournit qu'un exemple particulier de la disposition emboîtée à de multiples niveaux, qui a un caractère universel que l'on retrouve dans tous les domaines :

- au niveau physico-chimique, pourtant le plus élémentaire, les molécules apparaissent faites d'atomes, eux-mêmes formés de particules sub-atomiques, électrons, protons ou neutrons. Une structuration interne, combinaison de quarks, est utilisée pour décrire protons et neutrons.

- au niveau des organisations sociales humaines un tant soit peu complexes, on observe très habituellement plusieurs niveaux d'emboîtement. Même les hiérarchies animales révèlent souvent des rangs intermédiaires.


On pourrait se demander s'il n'y a pas parfois un certain biais dans la description généralisée en emboîtements successifs, qui pourrait s'expliquer par des exigences de facilité de description ou encore par projection d'un point de vue anthropomorphique. En fait, l'indépendance habituelle des parties une fois séparées d'un ensemble, témoigne très généralement du bien fondé des descriptions d'emboîtement. De nombreuses expériences valident la réalité d'emboîtements qui pourraient ne pas être évidents à première vue, en démontrant effectivement que l'élément conserve son individualité alors même qu'il est extrait d'un ensemble plus large :

- l'atome peut être extrait d'une molécule et utilisé pour former une nouvelle molécule différente; il conserve toutes ses propriétés durant ce transfert.

- des protéines catalytiques peuvent être prélevées dans un organisme, transposées dans un autre o- elles conservent intégralement leur action.

- des portions d'A.D.N. correspondant à un gène peuvent être prélevées dans la chaîne globale d'un organisme, transposées sur la chaîne d'A.D.N. d'un organisme différent et conserver leurs actions et leur spécificité.

Bien d'autres exemples pourraient être invoqués et la disposition emboîtée apparaît bien réelle et universelle. Il est donc légitime d'en faire le point de départ d'une réflexion épistémologique.


Confronté à l'autonomie, l'emboîtement des structures provoque manifestement une interrogation. Un élément emboîté dans un ensemble peut-il demeurer autonome ? S'il n'en n'est pas ainsi, l'emboîtement étant général, l'autonomie serait reportée à l'Univers et perdrait tout sens concret. Inversement, le fait que tout élément puisse conserver son autonomie au sein d'un ensemble plus large n'apparaît pas évident. Claude Bernard, nous l'avons vu, était très ambigu sur ce point lorsqu'il a créé la notion d'autonomie biologique.


L'exemple de la mitochondrie que nous avons déjà mentionné, illustre cependant de façon tout à fait satisfaisante une conciliation entre emboîtement et autonomie. Il nous révèle que l'élément d'une cellule peut présenter une indépendance comportementale comparable à celle d'organismes beaucoup plus complexes. Un autre exemple est celui de l'atome, élément universel de toute matière. L'autonomie de l'atome n'est pas démontrée uniquement par la permanence des propriétés en cas de transfert d'une molécule à une autre. W. Heisenberg fait remarquer qu'aucun système planétaire ne retournerait à sa configuration initiale après une collision avec un autre système du même genre. C'est pourtant ce que fait régulièrement l'atome. En outre, cet exemple aide à comprendre le fait majeur de l'autonomie: il ne réside pas dans l'originalité des lois mais dans une application de lois éventuellement universelles en indépendance de l'environnement. Le retour de l'atome à un équilibre planétaire s'explique aisément par des principes d'entropie, mais en relative indépendance de l'entropie de l'environnement.


Un dernier exemple que nous avons également déjà cité est celui du lichen. Il est doublement évocateur :

- l'algue, élément chlorophyllien, et le champignon assimilant les minéraux du sol, gardent totalement leur autonomie au sein du lichen, se reproduisant notamment de façon indépendante.

- le lichen montre que toute symbiose est assimilable à un emboîtement, même si un des constituants n'est pas contenu dans l'autre. Si deux systèmes A et B suffisent à constituer une entité, il est possible de décrire A et B comme les éléments de (A+B).


Cependant, tous ces exemples n'ont pas valeur de démonstration et la mise en évidence d'explication est indispensable à une bonne compréhension des rapports entre emboîtement et autonomie.


1. Le Holon d'A. Koestler.

Nous avons déjà évoqué (II) le holon décrit par A. Koestler qui s'inspirait des travaux d'H.A. Simon. Ces auteurs ont inauguré, à notre avis, un courant de pensée qui s'est ensuite largement développé. Nous verrons cependant qu'on peut reprocher une description avant tout "géographique" ou géométrique, laissant quelque peu dans l'obscurité les dimensions "historiques" ou diachroniques.


2. L'Hologrammorphisme.

En 1947, D. Gabor décrivit un mode de reproduction photographique qui enregistrerait non seulement l'intensité du rayon lumineux mais également sa phase, sous forme d'interférences entre deux rayonnements voisins. L'utilisation de la lumière cohérente du laser permit à Leith et Upatnieks de réaliser en 1962 les premiers hologrammes de qualité. Un hologramme ne donne pas une reproduction immédiate de l'objet enregistré et se présente comme un regroupement informe de bandes et de spirales, du reste très fines et visibles seulement au microscope. En revanche, il est possible d'obtenir une reproduction virtuelle en trois dimensions de l'objets lorsque l'hologramme est intercalé sur le chemin d'une émission de lumière identique à celle qui avait été utilisée pour l'enregistrement. L'hologramme présente deux particularités fondamentales, la multiplicité simultanée et la combinaison des informations.


2.1. La Multiplicité simultanée.

C'est une propriété partagée par tous les objets fractals. Si on brise un hologramme en plusieurs morceaux, chaque morceau reconstitue une reproduction complète de l'objet enregistré et non l'une de ses parties. Seule la définition de l'image est modifiée, étant évidemment de moins bonne qualité. Cette propriété a été à l'origine de l'hologrammorphisme, conception retenant que dans un ensemble organisé d'une certaine façon, tout élément "contient la totalité des informations concernant chaque élément de l'ensemble". Cette affirmation ne tient pas compte de la diminution de définition et il serait plus juste de dire que chaque élément porte des informations concernant tous les autres éléments. Il faudrait ajouter que ces informations portent d'une part sur les éléments pris un à un et d'autre part sur l'ensemble dans sa globalité. On pourrait encore dire que l'information fournie par un élément dépend des autres éléments, rapprochant l'hologrammorphisme du principe de non-séparabilité de la mécanique quantique.


Mais il est essentiel de remarquer que l'élément reproduit un aspect du tout parce que le tout est intervenu dans la formation de l'élément. Cela est directement vrai sur le plan physique dans le cas de l'holographie, et doit s'exprimer différemment, comme nous le verrons plus loin, dans les systèmes hiérarchiques en général.


2.2. L'Interférence de deux figures de diffraction.

C'est la cohérence entre deux canaux d'information distincts qui fait toute la valeur informative de l'hologramme. Chaque point est une interférence entre deux diffractions, une rencontre de corrélation entre deux informations sur un même point d'objet.


C'est peu après les réalisations concrètes de Leith et Upatnieks que K. Pribram et C. Longuet-Higgins soulignèrent l'analogie qui pouvait exister entre l'holographie et le fonctionnement cérébral. Il faut bien reconnaître que les résultats obtenus au niveau de l'analyse du fonctionnement cérébral apparaissent aujourd'hui assez maigres. En revanche, l'analogie fut reprise par G. Pinson dans le domaine de la connaissance avec un bénéfice beaucoup plus net. L'auteur reprend le fait que chaque point d'information donné par un hologramme est lié à la rencontre de deux canaux d'information distincts sur un même sujet. La base en est la "multicrucialité", indiquant que les faits isolés n'ont guère de significations et que la validité cognitive repose sur la cohérence existant entre plusieurs points de vue distincts sur une même réalité. Le principe est très proche de ce que les auteurs anglo-saxons appellent la thèse de Duhem-Quine mais G. Pinson en donne ainsi la véritable justification. Cependant, si les conceptions de G. Pinson apparaissent précieuses sur le plan épistémologiques, elles n'apportent pas d'éclaircissement direct sur la dynamique des systèmes emboîtés.


3. La Hiérarchie selon P. Auger

P. Auger présente une théorie des systèmes qu'il dénomme indifféremment hiérarchisés ou à plusieurs niveaux d'organisation. Il aurait pu aussi bien parler de systèmes emboîtés. Il décrit un système hiérarchisé comme un ensemble d'éléments formant des groupes, eux-mêmes rassemblés en groupes de groupes et ainsi de suite :

- chacun des niveaux correspond à des échelles d'espace, de temps et d'énergie différentes.

- les niveaux plus microscopiques correspondent à des échelles d'espace plus petites, à des échelles de temps plus courtes et à des échelles d'énergie plus grandes.

- les éléments ont des tailles plus petites que les groupes auxquels ils appartiennent.

- les phénomènes concernant les groupes sont plus lents que ceux concernant les éléments et les énergies d'interaction entre éléments sont plus grandes que les énergies d'interaction entre groupes.


Cette distribution emboîtée concerne les aspects structuraux et les changements d'état. Chaque élément peut présenter plusieurs états et l'ensemble des états des éléments d'un niveau définit un groupe d'état. Aux groupes de groupes de structures correspondent des groupes de groupes d'état. Par ailleurs, à chaque niveau, le couplage d'états intragroupes est beaucoup plus fort que le couplage intergroupe. Il faut encore considérer que les groupes isolés présentent des trajectoires de changement d'états, convergentes autour d'au moins un point singulier. Cela signifie que pour chaque groupe isolé, il existe au moins un point stationnaire stable, un cycle limite stable, une spirale convergente ou un centre.


Faisant l'analyse thermodynamique d'un tel système où les changements d'états sont d'autant plus rapides et fréquents que le niveau est plus microscopique, P. Auger montre qu'il est possible de décrire des équilibres thermodynamiques globaux où chaque élément ou groupe participe à l'équilibration générale, mais où également l'équilibration générale retentit sur l'état de chaque élément et de chaque groupe aux différents niveaux. Au cours de cette analyse, P. Auger introduit cette notion qui nous parait essentielle : en situation de couplage, les variations d'états d'un groupe sont différentes des variations du groupe en situation isolée. Plus encore, le nombre de complexions correspondant à un groupe isolé est différent du nombre de complexions correspondant au même groupe en situation couplée.

- il nous semble que ce dernier nombre est plus élevé que le précédent si le groupe isolé est effectivement placé dans un environnement défini et constant.

- il nous parait en revanche certain que le nombre de complexions possibles pour un groupe au sein d'un ensemble hiérarchisé est plus faible que le nombre total des complexions définissables en faisant varier systématiquement l'environnement.


P. Auger montre la cohérence de cette analyse sur le plan thermo-dynamique et propose une application à des systèmes réels. Il donne l'exemple écologique d'un écosystème animal, l'exemple d'une cinétique bio-chimique cellulaire, l'exemple économique confrontant les niveaux sectoriel, régional, national et international. Ces analyses de P. Auger nous paraissent extrêmement intéressantes. Elles sont peut-être plus descriptives qu'explicatives sur le plan épistémologique mais elle apportent, nous semble-t-il, une caution thermodynamique à nos propres analyses.


4. La Structure et les états stationnaires.

Nous avons été conduit à une description proche de celle de P. Auger mais en nous concentrant sur les aspects cognitifs, sans trop nous préoccuper des aspects thermodynamiques. Idéalement, négligeant notamment l'irréversibilité du vieillissement, tout système durable qui se prête à une analyse, présente pour un observateur une structure et des états. La structure évoque les éléments stables, les états traduisent les variations. En pratique, la distinction entre structure et états est plus complexe qu'on ne pourrait le penser.


4.1. Définition de l'état stationnaire de non équilibre.

Il existe dans tout système réel des fluctuations réversibles par variation de certains paramètres traduisant une succession de changements d'état. Un état est la traduction de la condition du système à un instant t. Cet état est défini par les valeurs des paramètres variables du système, à ce même instant t. Par définition, tous les changements d'état sont réversibles car autrement, ils finiraient par entraîner des biais structuraux.


Parmi les changements d'état, les plus nombreux traduisent des fluctuations très brèves qui sont peu discernables, mal analysables et donc sans intérêt cognitif. Ils sont le plus souvent postulés pour marquer une continuité dans les transitions entre des états plus identifiables. Il existe inversement des fluctuations beaucoup durables traduisant des points stationnaires de non équilibre ou des équivalents, comme par exemple des variations cycliques de faible amplitude autour d'un point virtuel. Il s'agit de situations réversibles à distance de l'équilibre, marquées non par l'absence de toute variation des paramètres variables macroscopiques mais par une variation quasi-uniforme de ces paramètres dans le temps. A. Katchalsky et P.F. Curran définissent un état stationnaire, de façon un peu trop stricte à notre avis comme un état à distance de l'équilibre o- toutes les propriétés du système sont indépendantes du temps. Le flux d'échanges avec l'environnement est alors constant et équilibré. En pratique, la variation des paramètres n'est jamais uniforme mais oscille entre des limites étroites. Pour simplifier, nous définirons ces différentes situations sous le nom commun d'état stationnaire, ou même d'état, ne faisant référence qu'aux états stationnaires dans la suite de notre étude.


Cette notion d'état stationnaire est à la fois triviale et souvent mal comprise, ce qui nous conduit à préciser quelques exemples :

- le type même de l'état stationnaire, simplifié au maximum, est celui de l'interrupteur qui tout en conservant une même structure, peut présenter l'état ouvert ou l'état fermé, et cela avec une durée indéfinie. L'interrupteur dynamique que constitue le "flip-flop" est beaucoup plus proche de l'état stationnaire défini par la thermodynamique. Un flip-flop est constitué par deux éléments électroniques A et B en série. La tension aux bornes est, de façon durable, maximale pour l'un des éléments et minimale pour l'autre. A la suite d'une impulsion extérieure, la tension aux bornes peut être par exemple minimale pour A et maximale pour B, ou bien l'inverse. Le point de jonction entre les deux unités peut donc demeurer de façon stable à une tension élevée ou à une tension basse. L'ensemble constitue un système métastable ou à bascule, avec deux états stationnaires possibles. L'augmentation d'entropie, liée au passage du courant électrique est constante dans le temps, et elle est sensiblement égale pour les deux états.


Le flip-flop est l'élément unitaire essentiel de tout ordinateur, aussi bien pour l'unité centrale que pour les mémoires. La multiplication de flip-flops au sein d'une même structure conduit à décrire de multiples états stationnaires pour cette structure. Ainsi une unité centrale de traitement d'information constituée par 32 flip-flops disposés en parallèle présente environ 4 milliards d'états stationnaires différents qui peuvent tous recevoir une signification.


- les systèmes métastables sont tout aussi importants dans les organismes vivants. L'enzyme, régulateur biochimique par excellence, présente généralement deux configurations distinctes dans l'espace correspondant à un état stationnaire actif et un état non actif. De même, un segment de chaîne A.D.N. peut se trouver dans l'état stationnaire "lisible" et il est alors à l'origine de synthèses protidiques. Il peut être dans l'état stationnaire "illisible" et demeurer inactif. Comme dans l'ordinateur, la conjonction de nombreux enzymes en état actif ou inactif se traduit par une multiplicité des états stationnaires globaux des ensembles enzymatiques. Le fait vaut tout autant pour la lisibilité d'une chaîne A.D.N. globale.


L'application du principe d'autonomie à une telle analyse de l'état stationnaire conduit à admettre que les systèmes autonomes adoptent spontanément l'état stationnaire global qui minimise les fluctuations internes provoquées par l'action de leur environnement. Il n'y a donc pas comme l'indique P. Auger au moins un point stationnaire à considérer dans une structure hiérarchique, mais de très nombreux points, chacun d'entre eux permettant une relation optimale avec un type d'environnement. Remarquons alors que la durée d'un même point stationnaire n'est pas liée seulement aux particularités du niveau de structure hiérarchique mais également aux conditions d'environnement.


4.2. Définition de la Structure.

L'introduction de la notion d'état stationnaire complique la notion de structure. Des données paramétriques stables peuvent traduire un arrangement permanent non modifiable ou une même stationnarité tout au long de l'observation. En dynamique des systèmes, il est donc préférable de relativiser la notion de structure et de la relier à l'observation. La structure est alors définie par l'ensemble des données paramétriques stables tout au long de l'observation. Cette structure inclut généralement une frontière qui assure son repérage par l'observateur mais assure également une clôture physique et organisationnelle. La frontière physique peut manquer lorsqu'il existe un champ d'attraction maintenant les éléments en voisinage. Les structures présentent une disposition emboîtée, chaque niveau étant défini de façon identique par la stabilité pour un observateur et par une discontinuité repérable. Une telle définition cognitive de la structure est indépendante de tout présupposé réaliste. Elle reste ouverte à une révision ultérieure si des moyens d'observations nouveaux révèlent des fluctuations là où les observateurs antérieurs croyaient noter une stabilité.


4.3. L'influence de la Décision de l'Observateur sur la distinction entre Structure et Etat stationnaire.

Comme nous le voyons, le contour d'une définition de structure est relatif et lié non seulement à l'observation, mais également à l'observateur.

- l'observateur peut se limiter volontairement à l'étude d'un seul état stationnaire et il en fait ainsi une structure.

- inversement, l'observateur peut admettre que ce qu'il a considéré comme une structure, peut devenir un mélange de données de structure et de données d'état pour un champ d'observation différent dans le temps ou l'espace.


4.4. Les effets de la Hiérarchie sur les Structures.

Par définition, les éléments structuraux demeurent bien individualisés, ne serait-ce que par le fait d'une clôture qui permet un fonctionnement autopoiétique. Plusieurs éléments de même rang demeurent juxtaposés. Ils peuvent indifféremment présenter entre eux des relations spatiales stables ou variables. Ainsi les neurones conservent un même emplacement dans les centres nerveux alors que les éléments figurés du sang sont déplacés par la circulation.


Les éléments structuraux demeurent autonomes au sein d'une structure de rang supérieur. Cela suppose donc qu'ils adoptent en permanence l'état stationnaire optimal en regard de leur environnement qui est constitué par l'ensemble des éléments de même rang à l'intérieur de la frontière délimitant la structure de rang supérieur.


4.5. Les effets de la Hiérarchie sur les Etats stationnaires.

Ils sont beaucoup plus complexes puisque chaque élément, à tous les niveaux hiérarchiques, doit se trouver dans l'état stationnaire optimal qui permet la meilleure relation avec l'environnement, c'est à dire avec l'ensemble des éléments de la structure de rang supérieur. Il en résulte trois conséquences fondamentales :

- en dépit d'un couplage physique assez lâche, les interactions entre éléments sont extrêmement importantes.

- chaque niveau d'organisation est marqué par une finalité propre, différente de la finalité du niveau plus microscopique et du niveau plus macroscopique.

- le passage à une organisation hiérarchique d'un ensemble d'éléments disjoints mais rapprochés, se traduit par un accroissement d'entropie et se produit donc spontanément.

- inversement, l'inclusion de nombreux éléments dans une structure est un phénomène peu probable et revient donc à une diminution d'entropie. Tout naturellement cette néguentropie s'accompagne de l'émergence de propriétés.


Il est essentiel de reprendre ces différents points.


4.5.1. Les interactions entre éléments de tous niveaux sont extrêmement importantes. C'est le principe d'autonomie qui explique la forte interaction entre états stationnaires en dépit d'un couplage physique lâche. En permanence, un élément autonome recherche l'état stationnaire optimal en regard de son environnement. Cette optimalité se traduit par une réduction au mieux des oscillations internes et une stabilisation des flux d'échanges avec l'extérieur. Toute modification d'état stationnaire dans un élément provoque une modification des flux d'échanges, donc une modification d'environnement pour tous les éléments proches. L'état stationnaire intrastructural global est fonction de l'état stationnaire de chaque élément intrastructural. Mais l'état de chaque élément dépend de celui de tous les autres éléments, y compris l'état global du système considéré. L'état global de la structure entière est donc la résultante des états de ses éléments et inversement retentit sur l'état de chaque élément. Un état stationnaire pour l'organisme entier exige une stationnarité pour chaque élément, à chaque niveau structural. Le moindre déséquilibre homéostatique exige une réorganisation de la stationnarité à tous les niveaux d'organisation. Alors que les éléments structuraux sont anatomiquement juxtaposés, les différents états stationnaires des éléments et de chaque niveau structural résultent d'influences superposées. Il est par ailleurs évident que cette superposition franchit aisément les frontières qui définissent les différents niveaux hiérarchiques. Cette opposition de la juxtaposition et de la superposition rejoint alors la distinction que faisait Linschitz (121) entre complexité structurale et complexité fonctionnelle, en y adjoignant le caractère holographique.


En définitive et indépendamment du niveau de couplage physique, il existe donc une forte dépendance entre les états des différents éléments d'un système autonome hiérarchisé. A une condition particulière d'environnement, doit répondre un état stationnaire particulier de l'organisme. Mais cet état stationnaire est lui-même un point fixe endogène traduisant une convergence de toutes les interactions d'états entre les éléments de l'organisme à tous les niveaux. Ce point fixe est celui qui optimise les états stationnaires de tous les éléments à tous les niveaux. Le résultat global est que l'état d'un élément est déterminé par l'état du tout, l'état du tout est déterminé par l'état de chaque élément.


Les interactions entre états stationnaires montrent donc le bien fondé de l'hologrammorphisme. Ce dernier processus est difficilement compréhensible sur le plan structural en dehors du cas très particulier de l'hologramme authentique o-, comme nous l'avons dit, la formation de l'élément se fait à partir de l'image du tout. Un processus équivalent s'applique en revanche très aisément dans les systèmes hiérarchiques habituels au niveau des états stationnaires. Chaque élément est dans un état stationnaire qui dépend de l'état stationnaire de tous les éléments structuraux de l'organisme, à tous les niveaux. En ce sens, il peut être dit que l'état stationnaire de tout élément est le reflet de l'état stationnaire du système global. A l'inverse, l'état stationnaire d'une structure est celui qui d'une part constitue un point stationnaire pour toutes les interactions d'état intrastructurales et d'autre part, contribue à former un point stationnaire pour la structure de rang supérieur. Nous voyons plus loin comment la construction du discours illustre bien le processus.


Il faut remarquer qu'une analyse centrée sur les interactions entre états stationnaires s'éloigne quelque peu des descriptions de P. Auger. S'il est bien évident que les transitions doivent s'effectuer d'autant plus rapidement qu'elles se situent à un plan plus microscopique, en revanche le maintien dans un même état stationnaire n'obéit pas à la même règle. Un élément microscopique peut demeurer très longtemps dans le même état stationnaire si son environnement demeure stable. Ainsi, certaines régions de la chaîne d'A.D.N., éléments microscopiques à l'échelle de l'organisme entier, peuvent demeurer un temps indéfini dans un état inactivé.


4.5.2. La superposition des finalités. Claude Bernard a refusé les finalités premières ou transcendantes et il a, au contraire justifié les finalités particulières, démontrant qu'il était bien difficile de s'en passer dans l'explication physiologique. Or les finalités particulières des systèmes autonomes peuvent être toutes rattachées à un principe d'homéostasie. Un système autonome agit avant tout pour optimiser son fonctionnement vis à vis des conditions d'environnements. Il le fait par l'adoption de l'état stationnaire optimal en regard des conditions d'environnement. La distribution emboîtée conduit à des précisions sur la nature des finalités particulières.


En revanche, nous ne sommes guère tenté de suivre le point de vue de Kant, repris récemment par F. Bonsack (023) et qui voit dans la finalité, le fonctionnement d'un élément en réponse à un tout qui constituerait la référence de finalité. Cela revient à effectuer un découpage privilégié dans l'espace continu de l'environnement et à accorder une valeur objective à ce découpage, expliquant par exemple le fonctionnement du neurone par une finalité établie uniquement au niveau du cerveau entier. Une telle description nous parait arbitraire et inutile car il nous semble que le neurone peut très bien n'obéir qu'à sa propre finalité et ce faisant, participer néanmoins à une activité organisée du cerveau entier. Mais considérer une finalité immanente pour le neurone conduit obligatoirement à envisager autant de finalités distinctes qu'il y a de niveaux hiérarchiques dans une entité analysée, et à introduire un principe de superposition des finalités.


Une modification de l'environnement correctement analysée par l'interface d'un système élémentaire est transmise à l'intérieur du système. Cela provoque la recherche d'un nouvel état stationnaire rétablissant un flux d'échanges optimal entre le système et son environnement, en l’occurrence une structure de rang supérieur. Un tel processus permet de définir une finalité interne du système, assurant son homéostasie; cela, que du point de vue de l'observateur, le système soit considéré comme élément d'une entité plus large, ou comme une totalité.


Le même système peut être considéré du dehors. En ce cas, une modification de l'environnement excite le système et le nouveau flux d'échanges qui en résulte peut être considéré comme une réponse à l'excitant. Un comportement spécifique est ainsi déclenché par un signal spécifique, et utilisé par l'environnement, en l'occurrence la structure de rang supérieur. Il en découle une finalité externe par rapport au système et donc, selon le principe du holon d'A. Koestler, tout système présente une finalité interne et une finalité externe qui se superposent.


Si on accepte le principe d'autonomie, la recherche de l'état stationnaire optimal en regard des conditions d'environnement résume comportement et finalités. Or, dans un système emboîté comportant des éléments très disparates, il n'y a aucune raison pour qu'un même état stationnaire soit optimal pour un élément, lorsque des mêmes conditions d'environnement sont situées, soit au contact immédiat de l'élément, soit à l'extérieur de l'une quelconque des frontières structurales :


- dans le premier cas, la relation entre état stationnaire et conditions d'environnement est directe.


- dans le second cas, elle est indirecte, le système élémentaire devant se trouver dans un état qui participe à la stationnarité de l'organisme entier vis à vis de la condition d'environnement considérée. La dynamique d'homéostasie est centrée sur les interactions avec les systèmes élémentaires voisins et non sur la condition de l'environnement extérieur au système global. La fixation de gaz carbonique et d'oxygène sur un globule rouge dans un capillaire est lié à la pression partielle de ces gaz dans les tissus voisins et non dans l'air ambiant. Inversement, la finalité globale de la circulation sanguine est bien réglée par les pressions partielles de l'air ambiant.


Il est donc manifeste qu'à chaque niveau d'organisation, correspond une finalité différente de celle des autres niveaux. Les finalités aux différents niveaux peuvent être en contradiction ou en concordance. Nous avons fait remarquer ailleurs (202) que le facteur temps devait jouer un rôle important sur les relations entre finalités :


- si l'emboîtement est récent, il y a des chances que se dessine un antagonisme entre les éléments autonomes et l'organisme qui contient ces éléments. C'est le cas habituel des emboîtement sociaux o- les antagonismes exigent généralement des manifestations d'autorité. Le fait est particulièrement net dans les hiérarchies animales. La hiérarchie est la stationnarité qui équilibre les forces antagonistes agressives mais le renouvellement constant des individus entretient la nécessité poursuivie d'une affirmation d'autorité de la part des individus qui détiennent cette autorité.


- si l'emboîtement est ancien, il y a des chances pour que se soit dégagée une certaine concordance entre finalités, faisant disparaître les forces antagonistes et l'expression nécessaire d'une autorité. Le principe de subsidiarité est alors pleinement respecté.


Sur le plan cognitif, il est surtout important d'insister sur la différence de finalité lorsqu'on passe d'un niveau d'organisation à un autre. L'idéologie traduit l'excès d'autorité des conceptions globales et de leur finalité, sur les données ponctuelles et leur finalité. Cela ne peut guère se justifier.


4.5.3. La diminution "d'entropie". Il y a un point connexe aux interactions entre états stationnaires dont l'importance est probablement encore plus grande. Un système présente un corpus constitutionnel de complexions ou états stationnaires possibles, permettant une homéostasie vis à vis d'un grand nombre d'environnement différents. Cette enveloppe s'explique par la nature de la structure, et par l'obligation de réversibilité des états stationnaires.


Si le système est isolé et placé dans un grand nombre d'environnements différents variant de façon aléatoire, tous les états stationnaires "possibles" auront une chance de se manifester et le comportement apparaîtra variable ; il sera même indéterminé si l'observateur est incapable d'analyser les causes des variations observées. Si au contraire, le système est placé dans un environnement parfaitement stable, il se placera rapidement dans l'état stationnaire optimum du point de vue de l'homéostasie. Il y restera ensuite indéfiniment. Il apparaîtra doté d'un comportement unique et précis, ce qui supprime tout sens au comportement.


La situation créée par la hiérarchisation est intermédiaire. La structure de rang supérieur représente pour un élément, un environnement fortement particularisé. Le nombre d'états stationnaires différents présentés par cet élément au sein de la structure sera donc fortement réduit par rapport à l'enveloppe des états "possibles" mais une variété persistera. Le comportement sera donc spécifié, ce qui marquera l'apparition de propriétés nouvelles. D'une façon générale et quelle qu'en soit la forme, toute symbiose reliant de façon permanente deux éléments A et B, est une source potentielle de propriétés nouvelles. L'émergence de la matière, de la vie, de la conscience, de l'organisation sociale peuvent ainsi s'expliquer par la simple conjonction durable d'éléments. L'organisation de la conscience notamment peut s'expliquer par le seul exercice d'un système cérébral complexe en symbiose avec des particularités d'environnement physiques et sociales.


Nous nous permettons d'utiliser le terme d'entropie pour qualifier l'enveloppe des états stationnaires ou équivalents possibles même si tous les états stationnaires isolables ne sont pas considérés comme équivalents du point de vue comportemental. Nous voyons alors que l'emboîtement est source de néguentropie et même pourrait-on aller jusqu'à dire que l'emboîtement est la source unique de néguentropie. Il peut paraître à première vue paradoxal d'affirmer que l'apparition de propriétés est liée à une réduction de l'enveloppe comportementale. En fait, une fois le principe admis, on s'aperçoit qu'il est toujours possible de présenter les choses ainsi :


- un gène considéré isolément peut avoir des actions extrêmement variées et même contradictoire. Il a pu être démontré qu'un même gène chez une souris mâle de race A pouvait avoir un rôle facilitateur ou inhibiteur sur l'apparition d'un bec de lièvre dans la descendance selon que l'accouplement se faisait avec une souris femelle de race A ou de race B. Considéré isolément, le gène de la souris mâle A n'a pas d'action définie sur le bec de lièvre. C'est l'association au gène femelle qui crée véritablement une influence sur la survenue d'un bec de lièvre. L'ensemble des gènes d'un organisme spécifie donc l'action de chacun des gènes.


- le collagène, protéine de structure par excellence, présente des conformations très variables selon les conditions physico-chimiques de son environnement. Les propriétés essentielles présentées par le collagène dans un organisme vivant sont donc véritablement "créées" par la particularité et la fixité d'un certain nombre de paramètres physico-chimiques de cet organisme.


les protéines enzymatiques assurent toute la dynamique chimique intra-cellulaire. Or toute protéine enzymatique est totalement réductible à une succession en chaîne d'acides aminés. Il existe une vingtaine d'acides aminés qui acquièrent une action potentielle particulière en s'insérant dans l'une des dizaines de milliers de protéines différentes. C'est donc bien l'insertion d'un acide aminé dans une chaîne protéinique particulière qui explique l'émergence de ses propriétés au sein de la protéine. En interagissant entre eux, les différents acides aminés imposent à la chaîne protéinique globale, une configuration tridimentionnelle qui suffit à faire apparaître la fonction enzymatique.


- la dynamique biochimique intra-cellulaire ne diffère pas des réactions chimiques générales. Elle est pourtant responsable de l'apparition de la vie. L'émergence de la vie s'explique totalement par la mise en relation d'un certain nombre de corps chimiques dont les propriétés sont liées à leur situation dans l'ensemble cellulaire.


- un neurone isolé sait seulement présenter une succession de décharges spontanées anarchiques qui n'ont aucune valeur comportementale. C'est pourtant l'association de 162 tels neurones formant le ganglion d'un ascaris qui expliquent totalement les possibilités neuro-comportementales de l'animal, en régulant les décharges de chaque neurone.

Les analyses neurophysiologiques modernes ont montré que les propriétés de sélectivité orientationnelle de neurones des aires visuelles corticales pouvaient s'expliquer par les influences inhibitrices venus d'autres neurones corticaux et spécifiant donc les propriétés des premiers.


- depuis Gustave Lebon, les psychologues s'interrogent sur le comportement souvent aberrant des individus au sein d'une foule. L'agglomération sociale favorise l'émergence d'un état d'esprit commun qui n'est que l'une des facettes des dispositions mentales de l'individu isolé. La particularité du comportement de foule est bien lié à l'inclusion de l'individu dans un ensemble social. L'individu isolé a un comportement imprévisible et varié. Le regroupement en foule crée la condition déterminante de l'apparition d'une facette comportementale particulière.


- le discours est peut-être le meilleur exemple de l'émergence de propriétés par l'inclusion dans un système hiérarchisé. C'est la combinaison fixée de plusieurs composants acoustiques qui créée le phonème. Isolés, ces composants ne se prêterait pas à l'articulation. C'est donc la combinaison qui crée les conditions de l'articulation. Le phonème pris isolément n'est pratiquement porteur d'aucune information sémantique parce qu'il peut les porter toutes. Pourtant, le mot est totalement réductible à un ensemble de phonèmes. C'est donc bien l'insertion du phonème au sein du mot qui lui confère une propriété sémantique. De même, l'apprentissage d'un langage s'obtient en accordant une signification unique à une combinaison phonétique qui, a priori, pouvait avoir un sens quelconque.


Le mot isolé a très généralement un sens beaucoup moins précis que celui qu'il acquiert au sein d'un discours. C'est donc l'insertion dans le discours qui développe la valeur sémantique d'un mot. Mais inversement, le discours est réductible à un assemblage de mots. Le sens du discours est donc bien créé par le rapprochement de mots dont la valeur sémantique à l'état isolé était réduite. Nous reprendrons longuement ce point essentiel dans l'analyse du discours (XII-A-2).


En définitive, il est très facile de relier l'apparition de propriétés nouvelles aux restrictions comportementales que provoque l'emboîtement, donc à la "néguentropie". Nous verrons du reste plus loin que l'emboîtement ou la symbiose constituent le premier pas vers une amélioration croissante dans le temps de propriétés nouvelles. Par ailleurs, l'émergence de propriétés nouvelles comme conséquence d'une néguentropie est tout à fait en accord avec le point de vue souvent avancé qui fait de tout progrès comportemental, une spécialisation associée à une réduction du potentiel comportemental global.


4.5.4. L'hologrammorphisme temporel. On peut remarquer qu'une plaque holographique est le résultat d'une "histoire". Elle est née de l'enregistrement holographique d'un objet. Au cours de cet enregistrement, chaque point de l'hologramme a été construit à partir de la totalité de l'objet. Il n'y a donc pas à s'étonner si ensuite un point de l'hologramme est une "image" de l'objet entier. Il apparaît donc un fait essentiel, fortement sous-estimé par H. Simon ou A. Koestler, à savoir que dans un ensemble hiérarchisé, la structure même d'un élément peut être déterminée par l'ensemble du système.


On pourrait faire remarquer que le fait est très particulier à l'hologramme mais cela n'est pas absolument exact. L'autopoiŠse est là pour nous rappeler que l'élément, au moins lors de son renouvellement, est une production du système entier. Mais surtout, la pérennisation du vécu, entraînant une modification structurale irréversible de l'élément, constitue une donnée encore plus importante. Comme nous le verrons, la modification structurale de l'élément constitue la mémorisation qui est une propriété fondamentale des systèmes autonomes performants. En ce cas, la structure de l'élément reflète bien en partie le vécu du système global. Mais inversement, cette modification structurale de l'élément modifie la structure et le fonctionnement du système global. Si le processus de mémorisation est contrôlé et que seules les transformations intéressantes sont pérennisées, le bénéfice peut être considérable.


5. Le Bénéfice de l'Emboîtement.

Dans les nombreux exemples que nous venons de citer, apparaissent conjointement l'universalité, et de l'emboîtement et de ses avantages. Il nous paraît important de revenir sur ces avantages en distinguant le bénéfice de l'hétérogénéité, celui du couplage, pour préciser ensuite ce qu'apporte l'emboîtement hiérarchique proprement dit.


5.1. Le Bénéfice de l'Hétérogénéité.

Le bénéfice de l'hétérogénéité est considérable. Un élément organique n'assure généralement qu'une régulation. Les perturbations d'environnement sont extrêmement complexes. Seule une combinaison d'éléments assurant chacun une régulation particulière peut assurer une bonne homéostasie. Il est cependant évident que l'accumulation d'éléments assurant chacun une fonction propre complique très vite la gestion interne. Nous verrons plus loin que la disposition hiérarchique permet de tirer partie de la multiplicité des sous-systèmes sans en payer les inconvénients.

5.2. Le Bénéfice du Couplage.

Il nous semble cependant que le bénéfice de l'hétérogénéité ne s'arrête pas à la simple additivité de fonctions élémentaires. Dans un article demeuré célŠbre à très juste titre, A. Rosenbluth, N. Wiener et J. Bigelow ont proposé une théorie des objets "intentionnels". Ils ont fondé la cybernétique en reliant l'intentionnalité aux boucles de rétroaction négative. Ce point de vue, rappelons-le, nous parait criticable. La moindre oscillation, y compris celle du proton, traduit une rétroaction négative. L'univers n'existe qu'en fonction de rétroactions négatives. Un Univers dépourvu de rétroactions négatives mais avec rétroactions positives exploserait immédiatement. Un Univers sans rétroactions serait ou totalement stable, ou totalement anarchique, sans aucune loi physique descriptible. La notion de rétroaction négative n'est donc pas aussi spécifique qu'il parait des comportements intentionnels, et ceux-ci doivent donc être caractérisés autrement.


Considérons maintenant un pendule constitué par une boule de plomb de cinquante kilos fixée à un fil et trouée de part en part sur un diamètre de cinq centimŠtres. Tout déplacement de la boule par rapport à son point d'équilibre fait apparaître une rétroaction négative et le comportement du pendule est non intentionnel. Considérons également un petit bateau sans barreur et dont la voilure est établie de telle façon que toute modification de vent entraîne un changement de cap en rétroaction positive, tout au moins dans un petit secteur angulaire. Le comportement du bateau est également fortuit. Plaçons maintenant le pendule sur le bateau en enfilant l'extrémité de la barre dans la boule de plomb. Nous avons créé un objet à comportement "intentionnel". En effet tout déplacement angulaire du bateau fait naître temporairement une déviation de la boule qui agit sur le gouvernail en rétroaction négative. Dans la pratique de cet exemple, l'effet de rétroaction négative serait faible mais il y a là un modèle qui a été effectivement utilisé. Pour les besoins de l'acrobatie et du combat aérien, on cherchait à construire des avions très maniables mais ils étaient malheureusement profondément instables. Pour les besoins de confort de passagers, on cherchait à construire des avions très stables mais ils étaient malheureusement peu maniables. La solution a été de partir d'un avion très instable et très maniable, donc à forte rétroaction positive sur le plan aérodynamique, couplé à un enregistreur de l'instabilité permettant rétroaction négative vis à vis des comportements déviants de l'avion.


Le cas du petit bateau et de l'avion sont certainement généralisables. Il nous semble que l'organisation physico-chimique du vivant abonde d'exemples d'une "intentionnalité" à rétroaction, par simple couplage d'objets sans intentionnalité. Il y a là ce qu'on peut appeler création d'un complément d'ordre. C'est donc le couplage entre deux objets antérieurement indépendants, forme minimale de la hiérarchie, qui crée l'intentionnalité. Il est facile de montrer qu'un couplage supplémentaire suffit à faire gagner un cran dans la qualité d'intentionnalité. On arrive donc à la remarque de Pierre de Latil, faite avec trente ans de retard sur ses premières analyses : la base de l'organisation interne d'un système doté d'intention n'est pas la rétroaction négative mais une boucle de rétroaction ouverte à des effets négatifs ou positifs variables, provenant habituellement d'une autre boucle de rétroaction.


Faisons maintenant l'analyse de l'ensemble petit bateau/pendule. Cet ensemble traduit un système hiérarchisé car il forme une totalité et qu'il comporte deux sous-systèmes qui sont couplés mais qui peuvent être conçus indépendamment de l'ensemble. Par ailleurs, ni le pendule, ni le bateau ne peuvent être qualifiés eux-mêmes de structures irréductibles et au contraire, apparaissent comme des combinaisons d'éléments. Nous voyons donc que l'analyse du bénéfice de l'hétérogénéité comme celui du couplage orientent vers la hiérarchie.


5.3. L'approche de H.A. Simon

C'est ainsi, qu'en 1962, H.A. Simon a pu souligné le bénéfice considérable de l'emboîtement hiérarchique. Il l'a fait dans un article intitulé "The architecture of Complexity", notamment au travers d'une parabole, reprise ensuite et quelque peu modifiée par A. Koestler dans "The Ghost in the Machine":


" Il était une fois en Suisse deux horlogers, nommés Bios et Mekhos, qui fabriquaient des montres très précieuses. Leurs noms paraissent peut-être bizarres : c'est que leurs papas savaient un peu de grec et aimaient beaucoup les devinettes. L'un et l'autre vendaient fort aisément leurs montres et pourtant, alors que Bios s'enrichissait, Mekhos besognait péniblement : un beau jour il dut fermer boutique et chercher un emploi chez son concurrent. On s'interrogea longtemps sur cette histoire et pour finir, on en trouva l'explication qui est surprenante et très simple.

Les montres de nos deux Suisses comportaient environ mille pièces chacune, mais pour les assembler, ils avaient des méthodes très différentes. Mekhos les montait une à une, comme s'il faisait une mosaïque, si bien qu'à chaque fois qu'on le dérangeait dans son travail, la montre qu'il avait commencée se défaisait entièrement et ensuite il fallait tout reprendre au début. Bios, au contraire, avait imaginé de fabriquer ses montres en construisant d'abord des sous-ensembles d'une dizaine de pièces solidement arrangées en unités indépendantes. Dix sous-ensembles pouvaient se monter en un sous-système supérieur, et dix sous-systèmes faisaient une montre. Cette méthode avait deux immenses avantages.


En premier lieu, en cas d'interruption, quand Bios devait reposer la montre commencée, celle-ci ne se décomposait nullement en parcelles ; au lieu de tout recommencer, l'horloger n'avait qu'à rassembler le sous-ensemble sur lequel il travaillait avant ; de sorte qu'au pire (si on le dérangeait au moment où il avait presque fini le montage du sous-ensemble) il lui fallait recommencer neuf opérations de montage et, au mieux, aucune. Et il serait facile de montrer mathématiquement que si une montre comporte un millier de pièces et qu'en moyenne il se produit une interruption sur cent opérations de montage il faudra à Mekhos quatre mille fois plus de temps qu'à Bios pour fabriquer la montre : onze ans au lieu d'un jour. Or, si à des pièces mécaniques nous substituons des amino-acides, des molécules de protéine, des organites et ainsi de suite, le rapport devient astronomique ; certains calculs montrent que toute la durée de la planète ne suffirait pas à produire une amibe, à moins que la Terre ne se convertisse à la méthode Bios en procédant hiérarchiquement de sous-ensembles simples en sous-ensembles complexes. H. Simon conclut : "Des systèmes complexes évolueront beaucoup plus rapidement à partir de systèmes simples s'il y a des formes intermédiaires stables. Les formes complexes qui en résulteront alors seront hiérarchiques. Il suffit de retourner le raisonnement pour expliquer la prédominance des hiérarchies dans les systèmes complexes que la nature nous présente. Parmi les formes complexes possibles, ce sont les hiérarchies qui ont le temps d'évoluer."


Un autre avantage de la méthode de Bios c'est, bien sûr, que le produit fini sera incomparablement plus résistant et beaucoup plus facile à entretenir, à réparer, que la fragile mécanique de Mekhos. Nous ignorons quelles formes de vie ont pu évoluer sur d'autres planètes, mais nous pouvons être assurés que partout la vie doit être organisée hiérarchiquement."


Nous avons cité ce passage entier en raison de sa richesse explicite et sa valeur fondatrice sur l'importance de la hiérarchie. Les exigences de la gestion interne de l'hétérogénéité rendent la hiérarchie nécessaire. Le bénéfice de l'hétérogénéité est implicite dans le texte, celui du couplage beaucoup moins évident et la notion de l'autonomie des "formes intermédiaires stables" au sein de la totalité n'est même pas évoquée. Il nous semble qu'H.A. Simon a été principalement inspiré par les hiérarchies des programmes informatiques et qu'il a de ce fait passer sous silence quelques points essentiels de la hiérarchie des organismes vivants. Nous ne savons pas s'il nous faut critiquer l'architecture de complexité d'H.A. Simon et en proposer une autre ou s'il nous suffit d'extrapoler. Tout tient à la valeur de ce que l'auteur appelle, selon la traduction de J.L. Le Moigne, une "quasi-décomposabilité". Si cela signifie que l'idéal du système hiérarchique est la "décomposabilité" totale, nous nous portons complètement en faux contre cette affirmation, car nous pensons que les liaisons lâches entre éléments font toute la qualité des systèmes hiérarchisés vivants.


5.3.1. Les rapports de la Hiérarchie et de l'Autonomie. Nous sommes tentés de reprocher à H.A. Simon d'avoir négligé les rapports de la hiérarchie et de l'autonomie. L'autopoièse par exemple est une raison supplémentaire de privilégier l'emboîtement. Ce qui vaut pour Bios créant une montre vaudrait évidemment encore plus pour un horloger reconstituant en permanence des éléments de montre ayant un espoir de vie court par rapport à la survie de la montre. Dans le cas de l'organisme vivant, il est de plus indispensable que l'architecture du système global tolère que le nombre d'éléments de même type ne soit pas critique ; ainsi la destruction d'un élément ne paralyse pas le fonctionnement de l'organisme. Il faut de même que l'organisme tolère un nombre d'éléments très supérieur au nécessaire pour préparer toute duplication.


5.3.2. L'apparition et l'intégration des Formes intermédiaires. La parabole d'H.A. Simon souligne bien que les sous-ensembles doivent être "arrangés en unités indépendantes". Cela ne traduit pas seulement une identité structurale mais aussi un fonctionnement propre. La survie des "formes intermédiaires stables" à l'état isolé s'impose puisque ces formes ont historiquement précédé les formes complexes dont elles constituent un élément. H.A. Simon ne semble pas avoir perçu que les formes intermédiaires devaient avoir une finalité propre pour survivre indépendamment des formes complexes ultérieures.


Dans le cas de la montre de la parabole, il n'apparaît explicitement aucune finalité pour les sous-ensembles, autre que la finalité d'être une partie de montre. Chronologiquement, la finalité de la montre devrait donc être première par rapport à la finalité des sous-ensembles et on ne voit pas comment ces sous-ensembles pourraient apparaître indépendamment du projet de montre. Il peut en être dit tout autant des relations entre une sous-routine et un programme informatique complet. Il en est tout autrement si on se rapporte à l'évolution de la vie, comme le fait H.A. Simon. En affirmant l'existence de formes intermédiaires stables, l'auteur ne paraît pas se soucier d'expliquer pourquoi et comment ces formes ont pu apparaître, et apparaître le plus souvent avant l'organisme dont elles formeront par la suite un élément. H. Simon n'aborde même pas la possibilité d'une finalité propre des sous-ensembles, ce que fait davantage A. Koestler dans sa description du holon à tête de Janus.

Le schéma trop simplifié d'H.A. Simon ne cadre donc ni avec l'ontogenèse, ni la phylogenèse des systèmes vivants.

- si un sous-ensemble n'a pas de finalité propre, il ne peut apparaître que dans le projet de l'organisme global. Ce qui reviendrait à dire que la conception de l'organisme complexe et sa finalité précède celle du sous-ensemble. H.A. Simon lui-même trouverait cette explication d'une finalité transcendante et prédictive inacceptable.


- une autre hypothèse, proposée du reste par G. Chauvet, est celle d'une organisation hiérarchique qui s'établit secondairement au sein d'un organisme pré-existant non hiérarchisé. Si une telle éventualité n'est pas impossible et peut expliquer certaines hiérarchies, elle ne nous semble pas généralisable car il faudrait expliquer comment et pourquoi s'est réalisé l'organisme non hiérarchisé pré-existant. Nous avons vu que le rapprochement des éléments d'un organisme vivant est le temps le plus fortement néguentropique et le moins probable.


La seule solution raisonnable, peut-être présentée implicitement par A. Koestler, est celle d'une finalité propre pour chaque holon. Celui-ci est une totalité ayant sa propre finalité, lui permettant à un moment donné, une existence indépendante. Mais le holon constitue également un sous-ensemble d'une structure plus large qui présente elle-même sa propre finalité. L'emboîtement reproduit donc à la fois "l'ontogenèse embryologique" et "la phylogenèse de l'évolution", qui se sont effectuées par des étapes successives dérivées des étapes précédentes mais en indépendance des étapes ultérieures.


Il nous semble que l'exigence d'une finalité propre pour toute forme intermédiaire stable explique beaucoup mieux qu'un appel au hasard, la différence de durée entre l'ontogenèse et la phylogenèse d'un même organisme. Trois milliards d'années ont été nécessaires pour réaliser l'emboîtement des formes intermédiaires du poussin durant la phylogenèse alors que le même emboîtement pouvait se réaliser en trois semaines comme en témoigne l'ontogenèse. Il n'y a pas plus de fil directeur préalable dans l'ontogenèse que dans la phylogenèse mais l'ontogenèse n'exige pas que les formes intermédiaires aient une finalité propre.


En définitive, il est beaucoup plus facile d'expliquer l'emboîtement si on considère qu'une forme complexe résulte d'une émergence par réunion de formes intermédiaires ayant eu un vécu propre, justifié ou permis par une finalité particulière. En fait, cette émergence s'effectue en plusieurs temps et l'emboîtement se confond avec la symbiose :


- le premier temps de l'émergence est la rencontre, initialement réversible, entre deux systèmes ; rencontre qui peut présenter les aspects topologiques d'inclusion ou de voisinage.


- le second temps est l'évolution comportementales des deux systèmes qui s'adaptent progressivement de mieux en mieux l'un à l'autre. Selon la terminologie d'E. Bernard-Weil, les relations entre les deux systèmes comportent des éléments agonistes et des éléments antagonistes. La promiscuité vécue se traduit par un renforcement des états stationnaires agonistes et une extinction des états stationnaires antagonistes. La variété comportementale des deux systèmes est alors réduite, entraînant une spécialisation qui est source de propriétés nouvelles.


- le troisième temps est marqué par l'irréversibilité de l'emboîtement ou de la symbiose.


5.3.3. Les propriétés nouvelles au delà de l'additivité. H.A. Simon ne précise même pas si les propriétés de la montre se résument à la simple somme des propriétés des sous-ensembles ou si l'assemblage des sous-ensembles a fait apparaître des propriétés complémentaires. Or, nous l'avons vu plus haut, c'est une caractéristique très habituelle du couplage de faire apparaître de nouvelles propriétés qui ne pouvaient être déduite de l'examen des systèmes isolés. Il est donc indispensable de prendre en compte dans le bénéfice de l'emboîtement, cette apparition de propriétés liées au couplage. Aussi faibles soient-elles, les liaisons entre sous-ensembles sont donc l'un des faits essentiels de l'emboîtement. H.A. Simon paraît pourtant négliger l'importance de ces liaisons lorsqu'il écrit " Le couplage horizontal lâche entre les éléments d'un système hiérarchique permet à chacun d'opérer dynamiquement en indépendance du détail des autres ; seules les entrées qu'il exige et les sorties qu'il produit sont significatives pour les aspects plus globaux du comportement du système. En termes de programmation, il est permis d'améliorer le système en modifiant une des sous-routines à condition que les entrées et les sorties de la sous-routine ne soient pas modifiées." Dans ce texte, H.A. Simon, inspiré par la seule programmation hiérarchisée, néglige complètement les aspects hologrammorphiques et ce que nous décrirons plus loin sous le terme de dégénérescence, pourtant essentiels au vécu de tous les organismes vivants, à tous les niveaux d'organisation : les sous-routines sont normalement plastiques et les opérations qu'elles effectuent peuvent être modifiées par le fonctionnement global du système ou des influences de voisinage. Il aurait été donc plus juste de dire :

- l'élément d'un système hiérarchique peut fonctionner par lui-même, quels que soient les autres éléments.

- le fonctionnement d'un élément est normalement modulé à chaque instant par le fonctionnement des autres éléments.


Le système hiérarchisé doit donc être quasi décomposable puisque les liaisons lâches entre éléments sont l'explication de propriétés que n'avaient pas les parties considérées isolément. C'est donc bien l'emboîtement, mais un emboîtement vécu, qui permet l'émergence de propriétés nouvelles et la hiérarchie est une dimension essentielle des systèmes complexes. Encore faut-il prendre systématiquement en compte tous les effets de couplage entre sous-systèmes et constater que hiérarchie, hologrammorphisme et dégénérescence sont indissociables. Le phénomène est très général, il est le cri d'Archimède du savant et tout naturellement, il marque profondément l'organisation des connaissances apprises. D'une façon générale, toutes les particularités ou propriétés de l'emboîtement se retrouvent dans les systèmes cognitifs.


5.3.4. L'ouverture vers les réajustements structuraux. Un autre facteur et non des moindres, du bénéfice de l'emboîtement est lié aux effets de la mémorisation. Le vécu du système global peut conduire à une modification structurale contrôlée des éléments, qui apporte un bénéfice aux capacités comportementales du système global. Au cours de ce processus, l'identité ou le référentiel du système global sont conservés lorsque la modification structurale est "décidée" par ce système, et que la transformation ne rompt pas l'autonomie de l'élément au sein du système. L'emboîtement permet donc des modifications locales plus facilement assimilables par l'organisation interne générale. La hiérarchie permet donc d'associer le bénéfice des transformations à celui du maintien de l'identité.


5.3.5. Le renouvellement des éléments. La transformation ponctuelle d'un élément peut aller jusqu'à son remplacement complet. Si le nombre des éléments d'un type donné au sein d'une structure globale, n'est pas critique, chaque élément peut naître, vivre et mourir sans que l'organisation interne soit par trop perturbée. De proche en proche et à leur propre rythme, ce sont tous les éléments d'une structure globale qui peuvent être renouvelés, sans grande perturbation de l'organisation interne. L'emboîtement permet donc l'autopoièse.

----------


B) Autonomie, Hiérarchie et Fait Social.

S'il est un domaine où cette analyse conjointe de l'autonomie et de la hiérarchie est absolument essentiel, c'est bien celui des relations entre l'individu et le groupe social. Par simplification, nous n'envisagerons même pas le fait, essentiel mais sociologique plus qu'épistémologique, de l'emboîtement des structures sociales de différents niveaux, mais seulement l'homme au sein du groupe.


L'idéologie totalitaire a tenté de définir une réalité sociale en quelque sorte première par rapport à l'individu, ce qui conduit inéluctablement à une forte limitation de l'autonomie individuelle. Inversement, les tendances individualistes tendent à limiter en pratique et/ou en théorie, l'apport de la réalité sociale à l'individu. Il nous semble que l'approche hologrammorphique est le meilleur moyen de situer correctement l'individu en face du groupe social:


- à un instant donné, la société n'a pas d'autre réalité que celle du rassemblement des individus qui la composent. Mais le rapprochement des individus a fait naître un système de relations interindividuelles qui sont créatrices de propriétés nouvelles, dépassant l'individu. Certaines de ces relations sont plus durables que les individus et peuvent leur survivre, soit sous forme concrète comme le monument ou le livre, soit sous forme abstraite par transmission d'information d'un individu instruit à un individu naïf.


- l'individu conserve son autonomie totale au sein du groupe social et pourtant en très grande partie, il n'est ce qu'il est qu'en raison de son système de relations sociales.


- par sa pérennité et par sa diversité, l'organisation sociale dépasse les limitations qui seraient le fait obligatoire de l'individu isolé. L'individu en société acquiert donc une dimension nouvelle par rapport à sa réalité biologique, et cela se traduit par une plus grande autonomie individuelle.


Il y a là un point de départ que nous avons eu l'occasion de développer ailleurs (204), qui porte simultanément sur les plans cognitifs et moraux et que nous ne pouvons pas développer ici. Il nous paraissait cependant essentiel de souligner que l'homme demeure au sein de la société, le sujet biologique qu'il est constitutionnellement mais que seul l'intégration dans le groupe social permet la réalisation complémentaire du fonctionnement mental. Descartes n'aurait jamais pu dire "Cogito" si son environnement social ne lui avait pas appris ce mot. Il peut bien sembler y avoir à première vue une opposition entre la finalité interne de l'individu (affirmation du moi) et sa finalité externe (comme membre du groupe social) mais l'individu lui-même conserve la possibilité d'harmoniser au mieux ces deux finalités et il est le seul à pouvoir le faire; comme nous le disons ailleurs (204), cela nous parait la base même de la morale.


Ce rappel des rapports de l'individu et du groupe social n'a dans cette thèse, qu'une valeur d'aparté. Elle nous parait hors de l'analyse épistémologique, mais il nous semblait impossible d'analyser les emboîtements de systèmes sans y faire référence.

-------------


C) Emboîtements et Systèmes Cognitifs.

Dans "The Ghost in the Machine", A. Koestler fait précéder le chapitre où il définit l'emboîtement et le holon par un chapitre où il traite de la chaîne des mots et de l'arbre du langage. Il témoigne ainsi d'une application directe de sa conception des emboîtements au domaine cognitif. Effectivement, nombreux sont les domaines de l'Epistémologie o- la notion d'emboîtement tient une place essentielle.


1. Le Fait cognitif isolé et les Systèmes cognitifs.

Si on demande à un non-spécialiste de l'épistémologie d'exprimer un fait cognitif isolé et irréductible, il pensera certainement pouvoir le faire aisément. Il pourra par exemple désigner un livre sur la table et dira "Ce livre est rouge". Moyennant quoi, il définira en fait un point arbitrairement découpé dans un graphe extrêmement complexe, et il effectuera implicitement des groupements d'éléments.


a) sur le plan de l'analyse grammaticale, la phrase fait référence à une organisation hiérarchisée définissant l'adjectif démonstratif, le nom commun et l'adjectif qualificatif.


b) l'emboîtement est moins évident mais tout aussi réel sur le plan sémantique.

- le démonstratif "Ce" indique un objet identifié, contenu dans un contenant. Il exprime que l'objet est unique, en opposition à une collection.

- l'adjectif "rouge" traduit l'appel à une description qualitative, au choix de la couleur parmi les qualités utilisables, à une définition du rouge qui est essentiellement relative à la définition des autres couleurs.

- le nom commun "livre" traduit une classe d'objets concrets dans le système fortement hiérarchisé et en grande partie arbitraire, qui classe les objets concrets.

- le livre considéré comme une entité globale, est défini par le groupement de plusieurs caractéristiques : couverture, pages, écriture, etc


Il est en fait difficile de définir un fait cognitif isolé irréductible. Il ne peut que traduire une configuration particulière d'interface. Cette configuration ne peut être décrite car sa description ferait appel à un système descriptif emboîté, opposant par exemple l'ouïe et la vision, fractionnant les différentes données auditives ou visuelles. La configuration ne peut donc être que vécue et identifiée par le lien avec une réponse d'accommodation. Le véritable fait cognitif isolé est donc très rare :

- il correspond aux déterminants perceptifs innés du comportement.

- il correspond également aux quelques reconnaissances apprises d'objets ou de situations chez le tout jeune nourrisson, lorsque celui-ci reconnaît un objet, sans conscience des raisons qui lui permettent de reconnaître.


La manipulation de faits cognitifs isolés présentent de très grands inconvénients :

- dès que le nombre d'objets ou de situations identifiés dépasse quelques dizaines, une manipulation directe du répertoire devient très lourde. Or, à titre d'exemple, et il ne s'agit que d'une faible partie du répertoire cognitif global, G. Miller indique qu'un adolescent de dix sept ans identifie sans trop de difficultés plusieurs dizaines de milliers d'entités verbales différentes (130).

- chaque objet ou situation identifiés nécessitent une analyse particulière. Devant un objet ou une situation nouvelles, aucun bénéfice ne peut être tiré des analyses cognitives antérieures. Or nous avons souligné l'importance essentielle du dépistage de l'insolite, association de connu et d'inconnu.


Tout spécialement dans l'espèce humaine, il y a donc construction d'un système cognitif appris, lié à l'exercice des connaissances innées ou apprises une à une, mais se substituant rapidement et totalement aux modes initiaux de connaissance. J. Piaget a montré que cette évolution s'effectue chez le jeune enfant et inclut presque immédiatement des emboîtements résultant de découpages et groupements :


- il y a fractionnement du champ perceptif global dont le premier temps est l'identification de l'objet indépendant et permanent au sein d'un continuum. Le fractionnement est subjectif et utilitaire. Le continuum d'environnement est ultérieurement fractionné en dimensions d'espace et de temps.


- le repérage d'un objet ou d'une situation se font très vite par la réunion d'un certain nombre d'indices. Le groupement des indices est subjectif et utilitaire. Les indices traduisent l'application à l'objet de schèmes perceptifs universels. Ce qui est vrai pour les objets l'est aussi pour ces schèmes. Au fur et à mesure qu'ils se multiplient, leur gestion nécessite une organisation emboîtée à plusieurs niveaux.


- la pratique des indices permet de les grouper en fonction de la catégorie à laquelle ils appartiennent. Il y a là encore le début d'une organisation emboîtée.


2. Hiérarchie et Taxinomie.

S. Körner (110) souligne que les hommes utilisent constamment trois méthodes d'organisation lorsqu'ils appréhendent le monde :

- la différentiation de l'expérience en objets particuliers avec leurs qualités.

- la distinction entre les objets globaux et leurs parties.

- la formation et la distinction entre classes d'objets.

Comme nous venons de le voir, la première méthode citée conditionne les deux suivantes et S. Körner rejoint ainsi J. Piaget. L'expérience montre que la seconde et la troisième méthode évoluent très rapidement vers des emboîtements à plusieurs niveaux :

- la description des parties d'un objet se fait par une subdivision complémentaire.

- la confrontation des différentes classes d'objets oriente vers des groupements partiels dessinant des arborescences.


La classification emboîtée traduit donc une évolution spontanée de la connaissance apprise. Si la taxinomie parait marquée plus particulièrement le XVIIIème siècle, ce n'est pas à notre avis par une prédominance de la classification à cette époque mais par un aspect particulier de cette classification au cours d'une évolution historique. M. Foucault (068) repousse les débuts de la taxinomie au XVIIème siècle mais il relie la classification à l'approche particulière de l'Histoire Naturelle. Nous penserions personnellement que la taxinomie de l'histoire naturelle traduit un aspect un peu particulier du phénomène très général, indispensable, de la classification. Ce que dégage l'histoire des classifications est une prise de conscience que la classification porte au moins autant sur les connaissances que sur les choses, et qu'elle traduit des opérations subjectives de découpage et de groupement au sein du continuum environnemental.


2.1. Les Classifications implicites d'Aristote.

A.J. Cain (034) fait remonter les premières classifications scientifiques à Aristote, soulignant le lien avec l'invention de la logique. Il y a effectivement des préoccupations scientifiques chez Aristote qui insiste sur la nécessité d'examiner de nombreux spécimens pour rejeter les caractéristiques individuelles sans intérêt. Cependant, la classification d'Aristote est marquée par deux points essentiels :

- l'emboîtement est seulement implicite et doit être recherché dans l'ensemble de l'oeuvre. Le pigeon est bien un vertébré à sang rouge opposé aux invertébrés, ovipare opposé aux vivipares, à œuf parfait opposé aux œufs imparfaits des poissons, oiseau opposé aux serpents et amphibien, du groupe pigeons/colombes opposé aux autres groupes d'oiseaux. Mais ces constations sont dispersées, Aristote n'ayant pas établi une classification à proprement parler.

- le but d'Aristote est de définir les essences existantes. C'est pourquoi le genre est l'élément de désignation essentiel, l'espèce comme son nom l'indique traduisant déjà une particularité entre individus de même essence.

Aux classifications d'Aristote répond l'intérêt très relatif que les auteurs grecs attribuaient à un découpage de l'environnement.


Les données d'Aristote furent seules utilisées jusqu'au XVIIème siècle. Cependant, Aldovrandi au XVIème siècle marque un véritable tournant. L'esprit de systématique est beaucoup plus accentué que chez Aristote bien qu'il soit excessif de faire d'Aldovrandi le père de la taxinomie. F. Jacob (093) remarque que les animaux fabuleux décrits par Aldovrandi associent des caractères empruntés à des genres différents, par exemple le poulain à face d'homme ou l'enfant à tête de grenouille. Cela suppose une organisation taxinomique des critères de description. A la suite de Césalpin, la préoccupation de rester attaché aux essences, utilisant les seuls critères en rapport avec "l'âme végétative" et la "génération", n'en demeure pas moins essentielle à l'époque.


2.2. La Classification linnéenne.

C'est sans doute l'accumulation considérable de nouvelles données qui devait inciter à une révision profonde du principe des classifications. Léonard de Vinci ouvrit les portes de l'homologie en soulignant une comparaison de distribution des os entre l'homme et le cheval. L'exploration de terres nouvelles révélait de multiples espèces nouvelles et diminuait l'intérêt pour les êtres monstrueux. Le microscope, notamment sous l'oeil de Malpighi et de Hooke, fournissait une dimension nouvelle d'observation. M. Foucault (068) fait remonter les principes modernes de classification à l'Histoire Naturelle des Quadrupèdes, publiée par Jonson en 1657. En fait, nombreux furent les auteurs qui préparèrent et permirent les travaux de Linné, et l'apparition d'une classification renouvelée :

- le contexte anecdotique est progressivement supprimé ainsi que tout l'environnement historique, ce qui renforce l'aspect explicite de la classification.

- l'observation permet de dépasser les critères de "structure visible".

- l'emboîtement est systématiquement introduit et prend le pas sur l'objet à classer, lorsque les différents genres sont eux-mêmes classés.


Linné est l'héritier de ce mouvement. Sa rigueur d'esprit le conduit à un changement de plan dans la taxinomie lorsque pour la première fois, il fait apparaître des "cases vides". Sa classification des genres le conduit à créer 5776 cases théoriques de genres dont certaines ne correspondent pas à des genres connus. Par ailleurs, Linné se dégage de l'obligation d'être "naturel" pour définir l'ordre ou la classe.


La classification linéenne marque donc une véritable transition. Dessinant des cases a priori, vides ou pleines, construites à partir de principes généraux, véritables lois cognitives générales, la classification linéenne porte davantage sur la connaissance des objets que sur les objets eux-mêmes. Par ailleurs, cette classification traduit véritablement un découpage emboîté du continuum d'environnement, découpage associé au regroupement d'éléments caractéristiques pour définir les classes. En revanche, Linnée demeure profondément réaliste, pensant retrouver un principe de découpage divin dans le meilleur des mondes possibles postulé par Leibnitz.


2.3. Le passage de l'Essence aux données d'expérimentation.

Linné était persuadé d'avoir reconstitué un "ordre divin". Cette préoccupation disparaît totalement un demi siècle plus tard dans la théorie des classifications effectuée par Candolle. Il n'y a plus chez cet auteur d'appel à ce qui pourrait être une "essence", mais en revanche, une insistance sur les caractères utilitaires des classifications qui permettent :

- de résumer des données de plus en plus nombreuses et complexes,

- de faire apparaître des similitudes, permettant notamment des remplacements d'une substance extraite par une autre.


A l'analyse théorique de Candolle, répond en 1869 la réalisation pratique de la classification des éléments chimiques par Mendeleev. Contrairement à ses affirmations, Mendeleev n'est pas le premier à avoir défini des classes vides dans une classification. Linné l'avait fait avant lui dans la classification des espèces vivantes, Newlands, Odling et J.L. Meyer dans la classification des éléments chimiques. En revanche, Mendeleev est probablement le premier à avoir perçu la valeur conceptuelle de ces cases vides pour l'épistémologie et la recherche. Pour Mendeleev lui-même, sa classification a un double intérêt :


2.3.1. La Classification récapitule les Connaissances. Elle met de l'ordre dans des données qui se multiplient très rapidement.

a) le nombre d'éléments chimiques connus est passé de 12 avant 1700, à 33 en 1800 et plus de 70 à l'époque de Mendeleev. A moins d'être purement descriptive, la chimie doit établir une classification emboîtée des propriétés des divers éléments.


b) il faut rajouter toutes les données d'expérimentation dont Mendeleev a pu profiter, sans l'avouer. En 1808, J. Dalton a introduit la notion de poids atomique ou équivalent pour désigner la masse d'un élément qui peut se combiner à une même quantité d'hydrogène. L'hypothèse de Prout voyant dans tout corps simple un multiple de l'hydrogène a joué un grand rôle dans l'évolution de la chimie théorique. Döbereiner établit qu'un certain nombre d'éléments ont un poids "équivalent" qui est la moyenne arithmétique de deux éléments dotés de propriétés comparables. Newlands en 1865 énonce la loi des octaves en montrant que les poids atomiques d'éléments de même propriétés sont séparés par huit points ou par un multiple de huit. Toutes ces données se retrouvent implicitement dans la table de Mendeleev.


2.3.2. La Classification dessine un programme de recherche. Elle doit permettre de développer les connaissances, devant servir de tremplin pour expliquer le pourquoi de la classification elle-même. Mendeleev a été capable de définir précisément par avance et par le seul usage de sa table, les propriétés du gallium ; le gallium fut découvert six ans plus tard, mais il faut bien le reconnaître, en toute indépendance de la table de Mendeleev. En revanche, il est très vraisemblable que l'analyse de Mendeleev a favorisé la distinction ultérieure entre le numéro atomique d'un élément et son poids atomique, retrouvant l'hypothèse de Prout.


Il manque cependant un point crucial aux analyses épistémologiques de Mendeleev. Celui-ci n'a pas perçu que les corps simples tels qu'il les concevait, traduisaient des "objets" de connaissance créés par l'analyse scientifique et qui ne se trouvaient pas dans les découpages de l'environnement effectués avant le développement de la théorie atomique. C'était en quelque sorte par hasard que "l'or" ou "le cuivre" de pépites natives correspondaient totalement à certains corps simples de la table. Ainsi était déjà ébauchée la révolution épistémologique qui se précisera dans la mécanique quantique.


En définitive, on peut affirmer que la table de Mendeleev est une systématisation des connaissances de l'époque, au moins autant qu'une classification d'éléments concrets. Mendeleev marque donc un temps essentiel dans cette prise de conscience progressive qui transforme un ordre des "essences" en une organisation cognitive.


2.4. La prééminence de la Classification sur l'élément.

Nombre des corps simples de la classification de Mendeleev ne sont pas présents dans la nature sous forme native. Ils peuvent cependant être isolés par réaction chimique et apparaître alors comme une réalité concrète. Cela est vrai tout autant pour les corps connus avant la classification que pour les corps ignorés. Avec la classification des particules sub-atomiques, un pas de plus est franchi vers le primat de la classe sur l'objet :


- une "particule" sub-atomique traduit avant tout le résultat d'une expérience, et même d'une expérience qui est une interaction entre l'environnement et "un observateur", lui-même partie de la situation expérimentale. En tant que telle, la particule n'est pas pré-conçue et retrouvée par l'expérimentation. Ce sont les résultats d'expériences antérieures qui suggèrent un découpage particulier de l'environnement et qui conduisent à envisager l'existence de cette particule, qualifiée conjointement par le "regard" des expérimentateurs dirait M. Mugur-Schachter. C'est donc l'expérimentation qui isole la particule comme objet possible, et qui la qualifie.


- nombre d'expériences exigent deux images complémentaires et exclusives l'une de l'autre, corpusculaire ou ondulatoire. L'image ondulatoire est décrite par une fonction de probabilité qui, selon l'expression d'Heisenberg, "introduit quelque chose se situant au milieu entre l'idée d'un phénomène et ce phénomène lui-même, une étrange sorte de réalité physique à égale distance entre la possibilité et la réalité".


Or, de très nombreuses variétés de particules sub-atomiques ont été décrites, plus de 200 types durant les dernières décennies. Ces particules se confondent avec des cases de classification. Des tables peuvent être formées, dessinant des cases à l'intersection de plusieurs critères, par exemple le spin, la charge et la nature des quarks ou antiquarks constitutifs. De telles tables en dessinant des cases vides, ont permis de prévoir la possibilité d'apparition au cours d'expériences de ce qui fut appelé avant leur mise en évidence, méson ou baryon . Des expériences ultérieures confirmèrent l'existence de ces "particules".


Il est bien évident qu'au cours des expériences, la case de la table de classification a une "réalité" plus accessible que celle des particules elles- mêmes.


2.5. La Taxinomie numérique ou statistique.

Dès le XVIIIème siècle apparut un conflit entre les partisans de classifications traduisant un ordre "naturel" et ceux qui favorisaient les systèmes "artificiels", choisissant librement les critères de classification. En 1763, la publication de "Famille des Plantes" par le botaniste français M. Adanson, est manifestement un système artificiel mais l'auteur introduit une innovation complémentaire, associant une appréciation quantitative aux critères choisis. Adanson était peut-être influencé par les critiques de la causalité faites par Hume, "Les essais philosophiques sur l'entendement humains" ayant été traduit dix ans plus tôt. Quoiqu'il en soit, Adanson s'efforce d'évaluer quantitativement les ressemblances et différences, substituant des nombres confrontables aux évaluations subjectives d'appartenance.


Adanson ne fut pas suivi et il est de fait que son mode de classification ne présentait guère d'intérêt pratique ou théorique en taxinomie botanique. Aujourd'hui, la persistance de difficultés de classification insolubles avec les taxinomies habituelles, la possibilité d'effectuer beaucoup plus facilement de nombreux calculs par ordinateur, provoque un regain d'intérêt pour les taxinomies numériques comme en font preuve de nombreuses publications dans la revue "Taxon".


Mais la classification numérique ne se limite pas aux espèces vivantes. Elle a pris notamment un grand développement dans l'étude des aptitudes mentales humaines et dans la classification des traits de personnalités. Le principe en est de confronter de multiples données de façon différentes pour établir des similitudes quantifiées, très généralement exprimées sous forme de corrélations. Ces corrélations sont confrontées entre elles pour tenter de les expliquer à l'aide de variations sur un nombre très limité d'axes différents. Ces axes constituent une dimension descriptive et plusieurs dimensions peuvent être utilisées pour former une table de classification. Ainsi R.B. Cattell décrit la variance des personnalités dans la population générale, à partir d'une vingtaine de traits d'origines qui sont des axes définis par des corrélations observées entre des regroupements portant sur les 3000 à 5000 mots servant à décrire une personnalité. C'est donc une étude préalable des relations entre données qui définit les critères permettant le classement (annexe D).


Cette évolution de la taxinomie est fondamentale. Elle suggère implicitement que la classification quelle qu'elle soit, traduit un découpage voulu par l'expérimentateur, non seulement utilitaire mais contingent puisque d'autres découpages pourraient être proposés. La classification reflète une "manière de voir" l'environnement de la part du chercheur. Cette manière de voir crée véritablement les objets de connaissance par un découpage subjectif, conçu dans un but strictement utilitaire, recherchant le plus probable.


2.6. Hologrammorphisme et Multicrucialité.

Il devient évident au cours de l'analyse factorielle que l'observation des faits y est antérieure à la définition des dimensions permettant le classement. Mais ce qui apparaît alors explicitement, est implicite et omniprésent dans toute classification. Aristote pensait que l'opposition entre vivipare et ovipare traduisait un ordre divin. En fait, elle constituait une donnée d'observation, recueillie indépendamment de toute idée classificatrice, mais dans un passé culturel tellement lointain qu'Aristote ne pouvait pas en percevoir le caractère empirique. Cette opposition empirique du vivipare et de l'ovipare avait été le résultat d'une démarche culturelle complexe, isolant une différence dans le mode de reproduction entre deux êtres vivants parce qu'une certaine homologie avait été reconnue antérieurement entre tous les animaux. Comme l'a dit C.F. von Weizsäcker, "La Nature a précédé l'homme mais l'homme a précédé les sciences de la Nature". L'observation naïve de la Nature conduit à isoler des traits de description qui permettent les premières classifications, elles-mêmes sources des perfectionnement ultérieurs.


Ce constat doit nous permettre de préciser les liens très particuliers qui unissent un système hiérarchique de classification et les objets du classement, cela en accord avec les analyses de G. Pinson :


2.6.1. La Structure et l'état stationnaire dans une classification. Il est possible de retrouver dans une classification, l'équivalent de la distinction entre structure et état stationnaire qui marque tout système :

- la structure globale correspond à la distribution spatiale de la classification, organisant l'emplacement des cases. La structure d'une case est l'ensemble des éléments de définition qui ne font l'objet d'aucun désaccord entre différents observateurs et qui paraissent nécessaires à tous. Cette structure est fondamentalement relative aux manières de voir des observateurs, découpant l'espace continu de l'environnement.


- l'état stationnaire d'une case traduit le complément de définition produit par la classification. Il est lié à l'introduction d'éléments de définition qui pouvaient paraître contingents à certains observateurs au moins. L'état de la classification globale traduit les principes qu'établissent la conjonction des cases.


On peut donc prévoir que toute classification va présenter une organisation holographique o- le sens d'une case est spécifié en partie par son appartenance à la table complète, par les différences avec les autres cases et o- la table elle-même a un sens dicté par la conjonction des cases. La table est le point fixe qui traduit l'équilibre le plus probable entre les principes généraux qui ont présidé au découpage et les données empiriques recueillies sur les éléments contenus dans toutes les cases.


2.6.2. Les relations entre un élément d'une classification et une table taxinomique entière sont de nature holographique. Création utilitaire de l'esprit humain, la classification cognitive est construite pour favoriser une utilisation optimale. Chaque élément d'une classification, qu'il s'agisse de la case contenante ou de l'objet concret contenu, participe à l'élaboration du système de classification. Chaque élément exprime donc, pour l'information qui le caractérise, la structure de l'ensemble auquel il appartient : chaque élément reflète implicitement ou explicitement l'existence des autres. Le reflet est seulement implicite dans l'opposition entre "Vivipare" et "Ovipare" car celle-ci existe seulement dans l'esprit d'Aristote et de ses contemporains. Le reflet est explicite lorsque la définition du méson est avant tout une référence à la définition du méson dans un octuplet de mésons.


Cette relation traduit l'hologrammorphisme où, au travers d'une hiérarchie à un nombre de niveaux indéterminé, chaque élément doit être considéré comme un reflet de la totalité, mais où la totalité est définie entièrement par les éléments qui la composent. Le lien qui existe entre le méson et l'octuplet des mésons appartient à un ensemble qui définit également le lien existant entre l'octuplet des mésons et la table des particules sub-atomiques, mais également aussi le lien qui existe entre le méson et la table des particules sub-atomiques, entre le méson et les conceptions générales de la mécanique quantique.


Dans tout système cognitif, à l'organisation hiérarchique structurale et en arborescence qui "juxtapose" des cases différentes, s'associent des interactions provenant de tous les éléments ou structures hiérarchiques du système cognitif dans son entier. Ces interactions ont des effets qui se "superposent". Elles stabilisent en quelque sorte chaque case, dans un "état" particulier parmi tous les états possibles de la case considérée. Ce faisant, la signification de la case est précisée. Inversement, ce sont les significations de chaque case qui spécifient le système cognitif et le processus de classification.


2.6.3. Les Classifications ne traduisent pas nécessairement des discontinuités du Réel. Les dimensions qui définissent les différents niveaux d'organisation cognitive sont subjectives et utilitaires. Elles ne reflètent pas nécessairement des discontinuités du réel. Elles sont inspirées par les discontinuités des systèmes neurologiques impliqués dans la connaissance, mais probablement plus encore par les activités cognitives antérieures, notamment les discontinuités établies antérieurement et dont l'expérience a justifié la révision. Que les partitions de la connaissance relèvent d'une définition de domaines scientifiques distincts ou de hiérarchies taxinomiques, elles traduisent des abstractions subjectives et ne correspondent pas nécessairement à une partition justifiée du réel(). Au mieux, on peut considérer que le réel, fondamentalement discontinu, se prête à de multiples partitions et que l'activité cognitive traduit un choix subjectif de partitions qui paraissent utiles. Les systèmes de partition doivent donc être considérés comme ouverts, relatifs et provisoires. La dégénérescence que nous étudions plus loin, marque fondamentalement toutes les données cognitives. Si cette dégénérescence condamne l'espoir de certitude et relativise toute connaissance, elle peut cependant être en partie corrigée grâce à la souplesse même des systèmes cognitifs, permettant aisément toutes les révisions de classification souhaitables.


La hiérarchisation des données cognitives trouve sa finalité dans les modes du fonctionnement mental. Le caractère "borné" de la rationalité humaine, lié aux contraintes du fonctionnement cérébral, explique qu'il ne soit pas possible de relier directement et de façon optimale, chaque fait élémentaire de connaissance et le système cognitif global qui donne sa signification à ce fait. Le cerveau ne peut confronter simultanément tous les détails du système cognitif qu'il a construit, et tirer parti de cette confrontation. Il est donc indispensable que se superposent et s'emboîtent des organisations caractérisées chacune par un niveau particulier de définition, du plus précis au plus général. A un niveau de définition donné, chaque regroupement de données plus élémentaires constitue une unité et peut être manipulé comme telle. Inversement, en cas de besoin, le même regroupement demeure dissociable en données élémentaires, traitable elles-mêmes comme des unités. C'est cette dynamique à mailles de différentes tailles que l'informatique a redécouvert récemment en décrivant les "réseaux neuronaux".

2.6.4. La Multicrucialité est la seule source de validité scientifique. C'est dans la superposition des significations élémentaires ou "multicrucialité" qu'il faut rechercher simultanément la définition d'un élément et tous les critères de validité scientifique. Un critère physique descriptif et un nombre limité de superpositions sur une même case classificatrice sont très généralement suffisants pour permettre de préciser la signification des objets ou événements qu'elle contient. Lorsqu'un beaucoup plus grand nombre de superpositions a lieu et qu'il y a concordance entre les significations, apparaît une "cohérence" d'ensemble qui valide chaque signification particulière. Cette cohérence, conforme aux analyses de K. Popper que nous voyons plus loin, est le seul critère de validité possible si le réalisme et ses critères formels de vérité sont niés ou, pour le moins, "mis entre parenthèse".


Ainsi, l'organisation hiérarchique subjective est bien la condition de tout système cognitif mais cette organisation ne se limite pas au dessin d'arborescence. Elle est le siège d'un très riche tissu d'interactions spécifiant chaque point de diagramme, selon la dynamique de l'hologrammorphisme. Chaque point devient le reflet implicite de tous les autres et du diagramme dans son entier. Nous retrouverons plus loin les mêmes interactions reliant faits et théories mais nous voudrions insister auparavant sur le caractère "naturel" de la multicrucialité.


2.7. Les catégorisations normatives.

Tout au long de cette analyse des classifications, nous n'avons envisagé que des classifications empiriques, résultats d'expériences antérieures. Nous avons complètement négligé les catégorisations normatives, effectuées par rapport à des principes normatifs établis indépendamment des expériences. En fait, c'est le problème même de la nature des normes qui se trouvent posées. Si ces normes sont définies comme des structures premières, il y a un retour au réalisme des idées, les normes ne nous paraissant qu'un cas particulier d'idées; nous avons tenté de montrer que ce réalisme des idées ne s'imposait pas. Si en revanche, les normes sont élaborées à partir d'expériences individuelles, le processus est en fait voisin de l'élaboration des classifications empiriques et ne mérite pas une approche particulière. Tout au plus doit-on envisager une catégorisation qui s'effectue par la confrontation de deux ou plusieurs séries d'expériences établies indépendamment.


3. Système Cognitif et multiplication des canaux perceptifs.

Nous n'en prenons pas toujours conscience mais nous utilisons très fréquemment plusieurs canaux perceptifs sur un même objet ou un même événement pour valider notre analyse. Nous avons insisté à plusieurs reprises sur la conjonction de la vision des deux yeux pour générer le sens de la profondeur. Dans le même ordre d'idées, J.G. Wishart a démontré qu'un nourrisson localisait la source d'un son dans le noir par conjonction binaurale (025). Mais le fait des conjonctions perceptives est très général Une grande valise de cinq kilos paraît habituellement plus légère qu'un bloc de métal de trois kilos. L'appréciation empirique d'une densité est plus immédiate que celle du poids. L'utilisation des données perceptives superposées, kinesthésiques, tactiles et visuelles, est plus spontanée que l'utilisation isolée des données kinesthésiques. M. Bekoff et M. C. Wells (011) ont pu mesurer le bénéfice d'une superposition des informations perceptives dans une observation du coyote à la recherche d'une proie. Dans les mêmes conditions expérimentales, l'animal met en moyenne 30,1 secondes pour atteindre sa proie s'il dispose de la vue, de l'ouie et de l'odorat, 34,5 secondes s'il dispose de la vue et de l'odorat, 43,7 secondes s'il dispose de la vue et de l'ouïe, 46 secondes avec la vue uniquement, 72,7 secondes avec l'odorat seulement et 208,8 secondes avec la seule ouïe.


Bien que non quantifiée, l'expérience d'Aronson et Rosenbloom, relatée par T.G.R. Bower, est également très suggestive. Les auteurs ont placé un nourrisson de trois semaines, enfermé dans une enceinte transparente isolée acoustiquement et qui permet à l'enfant de regarder sa mère au travers des parois. Une retransmission stéréophonique localise la source apparente de la voix de la mère loin de son lieu normal d'émission. Les auteurs notent que le nourrisson est très perturbé, ce qui suggère qu'en temps normal, il associe la voix de sa mère à la vision qu'il en a et qu'il utilise cette concordance pour construire l'image maternelle.


Mais les analyses neurophysiologiques modernes ont révélé une superposition des informations à l'intérieur d'un même champ perceptif. Comme nous l'avons vu (V-B-3) la couleur, la taille, la forme, le déplacement sont analysés séparément et coordonnés dans un deuxième temps. Mieux encore, la forme est analysée simultanément par six ou sept canaux ayant chacun une définition ou fréquence spatiale propre. Un canal de faible fréquence spatiale et de champ large fournit une perception globale qui permet de localiser les données d'un canal à fréquence spatiale élevée et à champ étroit. Mais il est hautement probable qu'il y a également superposition d'informations et que la concordance entre les données des différents canaux joue un rôle déterminant pour affirmer la "réalité" des objets perçus. S'il en est bien ainsi, la multicrucialité devient un aspect fondamental de l'analyse perceptive. La confrontation de canaux qualitativement différent permet une multicrucialité qualitative. La confrontation de canaux de différentes définitions, réalisant des maillages de différentes ouvertures, introduit une multicrucialité hiérarchique, peut-être encore plus significative.


Le principe de la multicrucialité est peut-être alors le résultat de "l'abstraction réfléchissante" du sujet sur ses propres mécanismes perceptivo-cognitifs. Il serait difficile de trouver une meilleure validation du principe de multicrucialité.


4. Faits et Théories.

Un bel exemple de validité par multicrucialité réside dans la similitude de l'organisation qui relie les cases d'une classification à un ensemble taxinomique, et l'organisation qui relie les fait d'observation ou d'expérience à la théorie. Cela ne devrait pas trop étonner car une classification traduit généralement l'application d'une théorie et toute théorie est décrite en partie par des classifications.


4.1. L'Hologrammorphisme de la Théorie.

4.1.1. La Thèse de Duhem-Quine. P. Duhem avait fort bien compris certains rapports existant entre le fait et la théorie, postulant que la théorie n'est autre que l'équilibre de non contradiction entre tous les faits qui relèvent du champ d'application de cette théorie. Il y avait là pour le moins une attitude prudente, tout à fait satisfaisante pour les adversaires du réalisme mais également acceptable comme hypothèse minimale dans le cadre d'une doctrine réaliste. En France, la réputation de Duhem, chrétien militant et conservateur sur le plan politique, a presque complètement occulté son oeuvre théorique. Dans les pays anglo-saxons au contraire, les analyses de P. Duhem ont reçu une pleine consécration. Le nom de thèse de Duhem-Quine est attribué à l'attitude qui considère qu'un fait isolé n'a aucune portée théorique, qu'il en acquiert seulement lorsqu'il est inséré au sein d'un large système d'affirmations et d'hypothèses. Toute révision de cet ensemble, quel que soit la zone du système concerné, entraîne des effets sur chaque fait et sur l'ensemble. Il y a manifestement description holographique avant la lettre.


4.1.2. La relation inverse entre la Théorie et le Fait. Cependant, Duhem n'avait pas perçu que le fait scientifique est lui-même déterminé par l'application implicite de la théorie. L'observation et à plus forte raison l'expérimentation, ne sont pas immédiates. Ce sont des interprétations de données d'interface ou d'observations antérieures, à la lumière d'une théorie. Ainsi, le même mouvement apparent du soleil peut être analysé comme un déplacement autour de la terre ou comme l'effet apparent d'une rotation de la terre. Les conflits persistants entre théories opposées sont liés à la possibilité d'expliquer les mêmes événements de multiples façons, chacune conforme à une théorie différente.


Dans le même ordre d'idée d'une relation entre le tout et les parties au sein d'une théorie, Hertz avait bien perçu que la cohérence de la théorie newtonienne venait d'une description à partir de concepts, d'espace, de temps, de force, eux-mêmes définis à partir de la théorie. Au total, toute théorie entre encore plus aisément dans le schéma de l'hologrammorphisme que ne le prévoyaient Duhem et Quine :


- les faits qui permettent d'établir la théorie sont des données d'observation ou d'expérimentation décrites dans le cadre de cette même théorie ou pour le moins à partir d'une théorie proche.


- chaque fait isolé se prête à une grande fluctuation de significations, ou, ce qui revient au même, à un grand nombre d'interprétation. Guillaume de Baskerville, dans "Le nom de la Rose", remarque avec à propos que le seul rapprochement de quelques faits suffit à réduire le nombre d'interprétations cohérentes pouvant expliquer chacun des faits. Une théorie est le point d'équilibre qui permet d'attribuer à chaque donnée connue une interprétation commune et conforme.


- cet accord entre tous les faits appartenant au champ d'une théorie, constitue le seul critère de validité pour cette théorie. C'est donc bien l'ensemble des faits conformes qui définit la théorie. Une théorie est donc provisoire et ouverte puisqu'elle doit pouvoir expliquer toute donnée nouvelle dans le champ de la théorie, mais elle peut à tout moment rencontrer une donnée qui l'infirme et détruit donc sa raison d'être. Le principe de multicrucialité explique que toute prévision conforme à la théorie, renforce sa validité et ce succès de la prévision est le seul moyen de validation. Toute donnée non conforme aux prévisions déséquilibre la théorie et doit conduire à la recherche d'un nouveau point stationnaire, expliquant simultanément toutes les anciennes données et la donnée nouvelle. Ce nouveau point stationnaire peut être précisé par la seule réflexion mais le principe de multicrucialité bien compris impose une confirmation ultérieure par la conformité de nouvelles prévisions.


4.1.3. Théorie et Système cognitif global. La théorie est elle-même incluse dans le contexte de son application et l'ensemble forme également un système holographique. Une théorie ne peut donc a priori être valide dans un contexte qui n'existait pas au moment de l'élaboration de la théorie. Les changements profonds entraînés par les découvertes de terres nouvelles au XVIème siècle ont eu un impact profond sur les systèmes théoriques existant antérieurement.


Une comparaison peut être faite avec le point de vue des mathématiciens constructivistes qui estiment qu'une loi mathématique ne vaut que pour le domaine d'application dans lequel elle a été définie. Une loi ne peut alors être considérée comme valable a priori pour des objets extérieurs qui ne lui ont pas été confrontés, notamment parce qu'ils sont insuffisamment définis. A. Korzybski et R. Apéry se rejoignent pour montrer les inutiles contradictions et paradoxes qui peuvent apparaître dans le maniement du concept d'infini ou d'ensemble infini, appliqué à des collections d'éléments qui ne sont pas tous identifiés.


La théorie précise la rencontre de l'homme et de l'environnement. Son niveau de correspondance avec le réel demeure hypothétique et ouvert car il dépend constamment de la vérification des prévisions concernant de nouvelles rencontres. En ce sens, le contenu d'une théorie est donc bien relié à la réalité. Cette liaison est absolument essentielle puisque, par ailleurs, l'action humaine réfléchie sur elle-même est déterminante dans la mise en place d'une théorie. La cohérence qui fait tout l'intérêt d'une théorie doit être établie et ne s'impose pas d'elle-même. C'est l'homme qui choisit les expériences cruciales pouvant confirmer ou infirmer la théorie. C'est l'homme qui rapproche les résultats de faits expérimentaux ou d'observation pour définir le domaine d'une théorie. C'est un traitement logico-mathématique humain qui dégage la cohérence interne de la théorie. C'est l'homme qui décide, ce qui n'est pas toujours évident, s'il y a correspondance suffisante entre prévision et résultat expérimental. On peut remarquer à ce propos, le rôle récent du traitement statistique des résultats expérimentaux. Jusqu'au XXème siècle, le savant était obligé de faire un choix, conservant les vérifications qui validaient une théorie proposée, éliminant les expériences contradictoires. L'analyse des travaux de Ptolémée ou de Mendel est très suggestive sur ce point. Aujourd'hui, l'analyse statistique des résultats permet plus d'objectivité dans le choix.


4.1.4. La Structure et l'état stationnaire au niveau de la Théorie. La distinction entre structure et état stationnaire présente donc également une équivalence au niveau de la théorie et on pourrait la proposer ainsi, de façon peut-être caricaturale :


Les données structurales sont celles qui permettent une description de la théorie indépendamment des faits, et une description des faits indépendamment de la théorie.

- la structure globale d'une théorie est le graphe qui relie entre elles les différentes conséquences de la théorie, décrites indépendamment des faits.

- localement, la structure des faits expliqués par la théorie traduit les données de ces faits qui ne prêtent à aucune contestation de la part de différents observateurs ayant éventuellement des conceptions théoriques différentes.


Les données d'état sont celles qui relèvent des interactions entre théorie et faits.

- localement, l'état stationnaire d'un fait correspond au complément de sens apporté aux données structurales par la théorie.

- globalement, l'état de la théorie marque les interactions obligatoires entre cette théorie et le système cognitif général auquel elle appartient.


4.2. Le principe de Réfutabilité de K. Popper.

Avant même les analyses de G. Bachelard ou de T. Kuhn, K. Popper a été le premier à proposer une inversion des valeurs qui résoud les problŠmes posés par l'induction, base essentielle de toute théorie scientifique. Avant K. Popper, les auteurs concevaient la difficulté d'affirmer la vérité d'une théorie puisque tous les domaines d'application de la théorie n'avaient pas été vérifiés. K. Popper a suggéré que cette vérification complète était non seulement impossible mais de plus inutile. L'important n'est pas de démontrer la vérité d'une théorie ; du fait même de l'impossibilité pratique, cela devient un non sens. L'intérêt d'une théorie est d'être une proposition accessible à l'expérimentation et qui rend compte de façon satisfaisante des résultats observés. Une multiplication minimale des expériences est indispensable mais l'important n'est pas de répéter à l'infini les expériences dans des circonstances variées pour démontrer la vérité ou même l'universalité de la théorie. Il est bien plus aisé et intéressant de définir à partir de la théorie, des conditions expérimentales dont le résultat pourrait invalider la théorie s'il n'était pas conforme à la prévision. Une théorie est intéressante lorsqu'elle est construite de telle façon qu'elle définit des expériences pouvant permettre de la réfuter. C'est le principe de réfutabilité.


Un tel schéma présente des conséquences épistémologiques essentielles :

- toute notion de vérité disparaît puisqu'aucune vérité ne peut être démontrée telle.

- l'intérêt d'une théorie est dans sa cohérence, comme optimum provisoire d'explication des faits colligés.

- toute théorie peut être rattachée à une probabilité de donner satisfaction, dans la répétabilité des expériences ou la prédiction d'une application.

- toute théorie est condamnée à être un jour invalidée mais cette invalidation conduit à définir une nouvelle théorie expliquant "un peu mieux" les faits, étant donc "un peu plus" probable.


Il nous semble qu'il y a une très bonne concordance entre la description hologrammorphique d'une théorie et le principe de réfutabilité de K. Popper. C'est, nous semble-t-il, l'organisation holographique qui explique que les interactions entre les faits et la théorie puissent conduire à opposer une théorie scientifique réfutable et une théorie métaphysique non réfutable.


4.2.1. La Théorie scientifique. La théorie scientifique réfutable résulte d'un état stationnaire traduisant un niveau optimal de cohérence, à la fois interne et externe. La cohérence interne traduit la conformité de tous les faits impliqués directement dans l'élaboration de la théorie ou qui lui sont soumis ultérieurement. La cohérence externe est double :


- elle traduit tout d'abord l'accord de la théorie vis à vis d'autres théories ayant normalement des domaines différents mais permettant des recoupements. Il faut insister à ce propos sur l'interdépendance circulaire des diverses disciplines scientifiques, telle que la souligne Piaget. A priori, le contrôle de cohérence d'une théorie suppose par extension un accord constaté avec tous les domaines de la connaissance.


- elle traduit ensuite un mode de relation avec le domaine d'application, tel qu'il soit possible de définir les expériences ayant un pouvoir de confirmation complémentaire ou de réfutation. En ce sens, les théories de la nature de la lumière qui ont conduit à l'expérience de Michelson-Morley étaient bien des théories scientifiques utiles, même si le résultat a démontré qu'elles étaient fausses. De même, les expériences récentes de non-séparabilité auraient pu révéler que les théories de la mécanique quantique devaient être révisées, ce qui démontre le caractère scientifique de la théorie quantique. Par principe, la théorie demeure ouverte à tous les faits quels qu'il soient et l'accent premier porte sur la concordance entre ces multiples faits. Par là même, n'importe quel fait nouveau contradictoire, même dans une discipline scientifique apparemment éloignée, suffit à rompre une stationnarité et à réfuter la théorie. Une théorie bien construite et de constitution holographique, est donc à tout moment réfutable par une donnée d'observation contradictoire. La réfutabilité traduit une théorie holographique.


4.2.2. La Théorie métaphysique. La théorie métaphysique organise les faits autour d'un principe privilégié a priori. La plupart du temps, les faits invoqués à l'appui de la théorie sont délibérément choisis par le théoricien, anecdotiques et limités ; le contact avec la plupart des disciplines scientifiques est réduit ou contrôlé. La plasticité des faits, leur caractère dégénéré, permettent assez aisément une cohérence interne restreinte, au sein de la théorie. En cas de contradiction, il est possible d'immuniser la théorie contre la réfutation par l'adjonction de conventions supplémentaires ou plus simplement, en redéfinissant quelques données pour retrouver une cohérence générale. La théorie est donc indépendante des faits qu'elle explique et des théories formulées dans d'autres domaines. La résistance de la théorie est donc beaucoup plus forte vis à vis de faits apparemment contradictoires. Elle est "immunisée" vis à vis des contradictions. Inversement, l'adhésion à la théorie ne peut être que de principe. K. Popper présentait les théories psychanalytiques et marxistes comme exemple de théories non scientifiques car non réfutables. L'avenir lui a largement donné raison.


4.2.3. Les limites de l'analyse popperienne. Nous pensons cependant que les analyses de K. Popper ne peuvent que gagner à considérer qu'il n'est pas toujours facile de différencier une théorie réfutable et une théorie métaphysique. Une révision des faits peut se révéler indispensable dans l'établissement d'une théorie. L'application du principe poperrien à la lettre conduirait à considérer Mendeleev comme un métaphysicien lorsqu'il a fait passer le poids atomique de l'uranium, de 119 à 238 parce que la case 119 n'était pas disponible sur sa table. En fait, une telle correction n'est pas interdite a priori. Il faut reconnaître que cette correction purement conceptuelle n'apportait aucune validation complémentaire aux hypothèses de Mendeleev et même en amoindrissait temporairement la cohérence. De nouveaux critères superposés aux critères existants et cohérents avec eux, ont été indispensables pour gommer l'effet néfaste d'un stratagème sur l'élément uranium, pour confirmer la valeur de la table entière et la place 238 de l'uranium. Les ajustements internes ultérieurs ne sont donc pas forcément condamnables mais à la condition de reconnaître que loin de renforcer la validité de cohérence, ils la diminuent dans un premier temps.


5. Globalisme et Réductionnisme.

Deux attitudes opposées, nous l'avons vu, ont marqué l'analyse de tout objet de connaissance :

- l'attitude réductionniste ou tomiste qui a un double aspect, concret et épistémologique. D'une part, les entités sont décrites par leurs constituants, selon une progression de divisions de plus en plus fines. D'autre part, le fait de connaissance isolé ou la théorie restreinte et appliquée sont privilégiés par rapport aux théories générales.


- l'attitude globaliste ou structuraliste qui présente également un double aspect. D'une part les structures primaires, irréductibles a priori, sont privilégiées. D'autre part, les théories très générales sont favorisées par rapport aux faits isolés qui apparaissent comme des anecdotes et simples cas d'application particulière des théories.


D'une façon générale, l'attitude réductionniste a été plus positive dans l'accumulation des connaissances mais sans nulle doute parce qu'elle s'accompagne toujours d'un minimum de point de vue globaliste. Il n'empêche qu'une théorie de la connaissance se doit de chercher l'origine du conflit entre globalisme et réductionnisme, et tenter de le résoudre.


A. Koestler affirme la supériorité des arborescences à multiples niveaux, et en fait un tertium par rapport à l'attitude globaliste ou holiste et à la simple opposition entre tout et parties. En fait, il ne justifie pas pleinement son jugement et on pourrait lui rétorquer qu'une opposition entre tout et parties revient à isoler une bifurcation d'arborescence. Les analyses de Koestler et de Simon peuvent être conduites, nous l'avons vu, bien au delà d'une simple multiplication des bifurcations et peuvent permettre de résoudre le conflit du réductionnisme et du globalisme. Il faut considérer pour cela que l'état de "quasi-décomposabilité" décrit par Simon, loin d'être péjoratif par rapport à un état de décomposabilité totale, explique la véritable richesse des systèmes hiérarchiques.


Si le conflit entre réductionnisme et globalisme a pu s'éterniser, c'est bien parce que les deux parties défendaient des thèses associant qualités et défauts:

- la description d'un organisme par division en éléments est aisée, précise et ne porte guère à discussion. Le réductionnisme est donc commode. Il est indispensable pour expliquer qu'un élément conserve ses propriétés lorsqu'il est extrait d'un système et replacé dans un autre. Le réductionnisme intègre aisément l'autonomie des éléments et notamment leur renouvellement autopoiétique ou toute autre genèse. Le réductionnsme est en revanche incapable d'expliquer pourquoi les propriétés des éléments ne peuvent suffire à préciser les propriétés des systèmes globaux.


- le globalisme rend difficile et conjecturale la description des systèmes globaux, ne propose aucun mécanisme créateur des structures irréductibles qu'il postule. En revanche, il est le seul à intégrer l'émergence dans un tout, de propriétés qui n'étaient pas mises en évidence dans les parties.


5.1. La juxtaposition des structures et la superposition des états.


La distinction entre structure et états stationnaires permet de résoudre le conflit :

- le réductionnisme correspond au point de vue structural. Les éléments d'un système sont structurellement juxtaposés. Ils sont donc réellement isolables et autonomes. Cependant ces éléments présentent des propriétés qui peuvent être dépendantes d'un état, variées avec lui et qui n'apparaissent donc pas aisément dans une description structurale ou une description qui néglige les interactions avec l'environnement.


- le globalisme correspond au point de vue des états. Les interactions de tous les éléments et de toutes les sous-structures se superposent pour définir l'état stationnaire de chaque élément et de chaque groupement d'éléments. L'environnement d'un élément étant relativement constant au sein du système, la variation des états est contrôlée et surtout limitée, ce qui fait émerger des propriétés nouvelles.


Ainsi, la conjonction d'une juxtaposition anatomique ou structurale et d'une superposition fonctionnelle des interactions permet d'expliquer l'émergence de propriétés dans les systèmes complexes, alors même que ces propriétés ne sont observées ni dans les éléments ni dans des sous-systèmes. Il devient possible d'accepter une contradiction apparente :


- le fonctionnement des éléments ne peut expliquer les propriétés émergentes comme l'autopoiŠse, la nature de la vie, la nature de l'esprit lorsque ces éléments sont étudiés en situation isolée ou dans des systèmes simples.


- néanmoins, ces mêmes propriétés émergentes sont explicables par ces seuls éléments lorsque ceux-ci sont effectivement regroupés dans un système complexe emboité, et que ce système a eu le temps d'une histoire individuelle autonome pour que s'atténuent d'éventuels antagonismes internes.


5.2. Sujet, Globalisme et Réductionnisme.

Au tout début de notre travail, nous avons affirmé l'authenticité des sujets et il est bien évident que cela correspond pleinement à la théorie de l'autonomie. Mais nous avons parallèlement rejeté la notion de substance, globaliste et irréductible, qui pour Aristote, spécifie et explique le sujet. On pourrait en conclure que le sujet est irréductible. La résolution du conflit entre réductionnisme et globalisme permet de revoir ce qui explique et caractérise le sujet, acceptant sa réductibilité et rejetant définitivement la notion de substance.


Ce sont les particularités d'autonomie qui définissent un sujet et les notions de systèmes autonomes et de sujets se superposent complètement. Le système autonome étant réductible au rassemblement de ses éléments, cela vaut tout autant pour le sujet. Ce qui caractérise la dynamique et les propriétés du sujet est donc l'organisation interne, l'ensemble des interactions entre éléments lorsque ceux-ci sont rapprochés les uns des autres. Les propriétés comportementales d'un système autonome et donc d'un sujet ne sont rien d'autres que des boucles de fonctionnement dont une partie est extérieure au système. En ce sens, le sujet apparaît également comme une totalité puisque l'organisation interne est un processus éminemment global, et que l'éloignement, la séparation des éléments font disparaître les propriétés de sujet.


En définitive, le sujet représente bien les aspects associés de réductionnisme et de globalisme. La notion de substance perd alors toute nécessité et n'apporte aucun élément supplémentaire de description. La relation, entre éléments ou entre système et environnement, occupe la place laissée libre par la carence de la substance.


6. La Logique et l'organisation hiérarchique des connaissances.

Le platonisme, surtout celui de l'Eglise au Moyen-Age, voyait dans la pratique logique, la seule source d'émergence de vérités nouvelles. Comme Aristote l'avait fait après Platon, Saint Thomas d'Acquin combattit cette tendance et soumit partiellement le raisonnement aux données sensibles. Implicitement, Descartes substitua une "méthode" de jugement au formalisme. Il fallut cependant attendre le XXème siècle pour que soit proposé un caractère purement tautologique du raisonnement. Il nous semble que le refus de toute norme ou essence ontologiques que nous assumons pleinement revient à une affirmation du caractère tautologique de la logique. Mais si le raisonnement est purement tautologique, on peut s'interroger sur sa nécessité. L'existence d'une organisation hiérarchique complexe serait à elle seule, une justification de la logique, même tautologique.


Le nombre des données incluses dans le moindre système cognitif, la nécessité de prendre en compte les interactions entre données, rend impossible au fonctionnement cérébral une vue à la fois globale et ponctuelle du système. L'organisation fortement emboîtée est le seul moyen qui permette une exploitation. Mais si des règles d'emboîtement sont mémorisées, elles doivent réactualiser constamment l'organisation cognitive. Ce que nous savons des processus de mémorisation permet d'affirmer que les prémisses ne sont pas mémorisées en tant que telles et doivent être reconstruites à chaque utilisation à partir de traces mnésiques. Il en est évidemment de même des conclusions. Pour toutes ces raisons, dès que la complexité s'accroît, des règles d'usage deviennent indispensables; elles correspondent à la logique. La logique devient un mode d'emploi, un guide touristique indispensable pour trouver ou retrouver son chemin dans un système cognitif hiérarchisé et construit empiriquement. La logique d'Aristote n'a pas créé de connaissances nouvelles mais a permis de tirer plus facilement les généralisations des connaissances acquises et déjà incluses dans les prémisses. La logique ne fournit pas immédiatement tous les théorèmes qui peuvent être déduits d'un axiome mais elle permet de préciser si un théorŠme est relié correctement à un axiome. On comprend alors que la logique puisse être à la fois tautologique et très efficace. Par ailleurs, la logique, outil d'exploration d'un système cognitif, prend les caractères propres à ce système. La logique est ainsi normalement bivalente dans une approche strictement réaliste. Elle pourrait être bivalente ou multivalente dans une conception épistémologique plus fonctionnelle.


Descartes avait sans doute perçu ces véritables significations de la logique comme en fait foi la citation suivante, retrouvée par J.B. Grize : " La logique, ses syllogismes et la plupart de ses autres instruments servent plutôt à expliquer à autrui les choses que l'on sait, ou même, comme Lulle, à parler sans jugement de celles que l'on ignore, qu'à les apprendre."


En fait, nous ne pensons pas que la logique se réduise à un usage tautologique. Un autre aspect positif de la logique, déjà décrit par Saint Thomas d'Acquin est de "proposer" des liaisons nouvelles entre concepts, dont le caractère cohérent ou contradictoire sur le plan de la logique est connu. La logique ne permet aucunement d'affirmer qu'une liaison logiquement correcte correspond à des données d'environnement, qu'une liaison illogique est irréelle, mais elle permet de créer l'hypothèse, d'en préciser la validité logique et d'en faire le point de départ de la vérification ultérieure. Le véritable usage de la logique devrait sans doute être celui que décrit Peirce au travers de la rétroduction et de l'abduction, c'est à dire l'élaboration et l'évaluation d'une hypothèse "vraisemblable" pour expliquer un "fait surprenant". Mais même ainsi, c'est encore l'organisation hiérarchisée et complexe de la connaissance qui permet et nécessite une logique pour mettre en place une hypothèse.


7. Connaissance individuelle et connaissance collective.

La théorie de l'autonomie biologique et le constructivisme se rejoignent pour faire de la connaissance apprise, un processus parfaitement concevable à l'échelon individuel. Cela est largement démontré par les apprentissages animaux sans modèle ni pédagogue. Le développement cognitif ontogénétique de l'enfant durant le premier semestre de vie traduit une dynamique strictement individuel, l'environnement social n'étant guère différencié de l'environnement physique pour le tout jeune nourrisson.


Théoriquement, on pourrait tenter de concevoir ce qui adviendrait si l'individu survivait isolément de tout contact social. Au minimum, on observerait l'évolution constatée par Harlow chez les jeunes singes isolés (III-7). Mais il faut bien percevoir que dans cette dernière expérience, le développement social demeure dans le domaine de l'initiative individuelle. L'absence de pairs se traduit avant tout par l'absence d'occasions d'exercices. La présence de pairs agit essentiellement comme une donnée d'environnement permettant le jeu de réactions circulaires, certes sociales, mais néanmoins entièrement vécues à titre individuel par chacun des jeunes singes.


En fait, chez un individu humain, le déficit par rapport à un développement normal irait beaucoup plus loin. C'est tout le système cognitif de cet individu isolé qui ne pourrait pas dépasser ce qui parviendrait du champ de ses propres expériences, des réactions circulaires qu'il aurait pu lui-même réaliser. Le résultat serait extrêmement faible par rapport au système cognitif normalement acquis par l'individu socialisé. La pérennité du groupe social et de la culture au delà du renouvellement des individus entretient un système cognitif qui dérive des expériences accumulées de tous les membres du groupe, mais aussi celles des générations successives. L'enfant se voit ainsi proposé une manière de voir l'environnement beaucoup plus "vraisemblable". Le résultat est évidemment sans commune mesure avec ce que pourrait construire un individu maintenu en isolement. Les enfants-loup sont un exemple très approché car ces enfants ont certainement bénéficié d'une relation sociale initiale dans leur petite enfance, et oubliée par la suite.


Mais la dynamique de l'acquisition des connaissances étant individuelle, il se pose donc le problème d'intégrer un système de connaissance "étrangères" dans un système personnel. La théorie de l'autonomie donne un sens particulier à cette intégration active en affirmant la double réalité des systèmes cognitifs individuels et d'un système cognitif collectif. Ce dernier système n'est rien d'autre que le résultat des confrontations entre systèmes cognitifs individuel, la noosphŠre de Theihard de Chardin, le troisième monde de K. Popper, mais il dépasse dans sa réalité et sa richesse, chaque système individuel. Inversement, chaque système individuel ne peut s'enrichir au contact de ce système collectif qu'en conservant son fonctionnement autonome. Les effets cognitifs sociaux doivent donc être considérés comme des modulations de systèmes individuels. La leçon à tirer de ce schéma sur le plan pédagogique est essentielle (annexe A).

-----------


CONCLUSION: Multicrucialité perceptive et objet cognitif.

L'emboîtement et la hiérarchie, même acceptés dans leur réalité et leur importance pourraient paraître relativement éloignés de notre recherche, tant du constructivisme que des conséquences de mécanismes perceptifs constitutionnels. En fait, il n'en est rien et notamment la multicrucialité est une notion essentielle pour comprendre l'organisation perceptive et comment celle-ci génère les objets cognitifs.


Remarquons tout d'abord que le concept de multicrucialité renvoie obligatoirement à l'emboîtement et à la hiérarchie. La combinaison significative de "critères" supposent que ceux-ci appartiennent à un ensemble qui les contient à titre d'élément et qui puisse assurer leur confrontation. Qu'il s'agisse d'une relation directe ou au travers de la multicrucialité, la disposition emboîtée apparaît alors au cœur de l'activité perceptive qui génère la connaissance.


Sur le plan neurophysiologique, la donnée perceptive est un arrangement construit à partir des éléments que constituent les états de chaque neurone sensoriel. La neuro-anatomie des voies visuelles par exemple confirme que cet arrangement se fait en étages hiérarchisés depuis la rétine jusqu'aux aires corticales spécialisées, au travers des relais dans le tronc cérébral et l'aire striée. Le fait qu'il y ait des circuits ré-entrants n'empêche pas cette hiérarchisation et son rôle déterminant dans une intégration perceptive qui s'effectue par étapes, à plusieurs niveaux.


C'est par ailleurs la confrontation multicruciale des données perceptives des deux yeux ou des deux oreilles qui définit presque totalement la troisième dimension de l'espace. Cette confrontation existentielle nécessite l'organisation constitutionnelle hiérarchisée des mécanismes perceptifs au niveau de chaque oeil ou de chaque oreille. Cette organisation permet seule de passer du fonctionnement initial indépendant, à l'intégration d'une activité synchrone générant le sens de la profondeur, d'abord dans une construction propre à chaque expérience perceptive, puis de façon permanente par une transformation structurale. Dans les cas pathologiques o- cette organisation hiérarchisée est altérée, sujet monophtalme par exemple, c'est encore la confrontation multicruciale d'objets paraissant de déplacer selon des règles propres à chacun d'eux, qui peut donner un certain sens de la profondeur.


Mais c'est de loin le point de vue épistémologique qui est le plus important. Si un objet supposé réel est qualifié par un certain nombre de particularités perceptives, c'est qu'en fait il traduit une corrélation originale multicruciale entre les configurations fournies individuellement par chacun des canaux perceptifs. Plaçons nous successivement pour mieux le comprendre, sur le plan de l'identification et reconnaissance perceptive, puis sur celui d'une signification comportementale.


- sur le plan de l'identification, l'objet réel supposé est totalement réductible à une corrélation multicruciale originale de configurations de tous les canaux perceptifs concernés. Ces canaux perceptifs sont construits avant la naissance, en indépendance d'une relation avec l'environnement, même s'ils sont perfectionnés épigénétiquement par l'usage. Les configurations des canaux ne reproduisent pas l'objet supposé mais traduisent l'état des différents neurones sensoriels en présence d'une hétérogénéité locale de l'environnement. Ce qui est perçu est donc uniquement un ensemble de points générés par des différences de phase à la manière d'un hologramme, mais dans une situation o- aucun technicien ne pourrait reprendre l'hologramme pour reconstituer à volonté l'objet source. La perception est donc totalement construite sur des corrélations, comme le point irrégulier de l'hologramme. La connaissance authentique de l'environnement se réduit à l'existence certaine d'une hétérogénéité locale et sa capacité à générer les corrélations perceptives.


La comparaison avec l'hologramme doit être poussée très loin. Il y a ni plus ni moins de correspondance entre l'objet perçu et l'accident d'environnement qui lui donne naissance, qu'entre la plaque d'hologramme vue à nu et l'objet extérieur qui y est inscrit.


Il est par ailleurs pratiquement certain que la corrélation entre canaux perceptifs va au delà de ce qui est nécessaire pour définir pleinement l'accident d'espace temps et sa représentation perceptive. Le supplément, par sa cohérence, produit une surdétermination qui nous donne l'impression d'un réel ayant une signification en soi, indépendante de notre activité perceptive. C'est cette forte prégnance qui explique que nous ayons tant de réticence à admettre que la forme géométrique de l'objet perçu puisse être une projection subjective, au même titre que la couleur par exemple.


- sur le plan de la signification comportementale, l'objet perçu n'est signifié qu'à partir de la conduite comportementale qui permet une réponse adaptative efficace au même titre que la signification d'un anticorps est réductible à l'antigène qu'il neutralise.


Au total, l'objet perçu et sa signification sont bien provoqués par un événement extérieur mais pour le reste, ils sont totalement qualifiés en termes de "façons particulières d'exister" de l'organisme, elles-mêmes définies par l'état instantané de sous systèmes subjectifs relativement indépendants les uns des autres. La situation est donc strictement identique à celles des classifications de la mécanique quantique : l'objet perçu et supposé réel est totalement réductible à une case d'intersection dans un système de classification conjuguant les états possibles des canaux perceptifs.


Par rapport au schéma piagétien, l'activité cérébrale dès le plus jeune âge, comme tout au long de la vie, est donc immédiatement beaucoup plus significative mais en raison de sa propre nature constitutionnelle, de son vécu autopoiétique en face de l'environnement, et non par un enregistrement passif ou une imitation de propriétés extérieures. Le reproche voilé de réalisme qu'Ernst von Glaserfeld adresse à Piaget (221), nous parait alors assez justifié.


Les conséquences épistémologiques de cette situation, ne se limitent pas à l'activité perceptive elle-même mais envahissent tout le système cognitif.


- c'est en termes de confrontations entre "façons d'exister" que se fait la reconnaissance d'un objet inféré, c'est à dire l'équivalence probabiliste entre une façon d'exister schématisée et pérennisée, et l'ensemble des cohérences provoquées par le retour supposé d'un accident d'environnement.


- c'est en termes de confrontations entre "façons d'exister élémentaires" communes à plusieurs perceptions que s'édifient les ressemblances partielles qui sont à l'origine de toutes les classifications conceptuelles par abstractions sélectives.


- c'est une abstraction réfléchissante sur le fonctionnement des différents canaux perceptifs qui permet de définir les principales catégories permettant la description et la classification des objets cognitifs, et leur report sur la classification et la description des objets extérieurs inférés.


En définitive, c'est l'application d'une définition implicite par multicrucialité et l'existence des canaux constitutionnels d'organisation perceptive qui forment l'épine dorsale des systèmes cognitifs premiers o- la référence perceptive est essentielle. C'est l'appel explicite à la multicrucialité et le dépassement des canaux perceptifs qui marquent les aspects les plus évolués des systèmes cognitifs strictement opératoires et détachés de la perception.

-------------


) Inversement, il est très difficile d'éliminer une correspondance possible d'une taxinomie avec des discontinuités plus "réelles" que ne l'aurait voulu l'analyse épistémologique. L'histoire des sciences peut mettre en évidence de soi-disant "intuitions géniales", l'avenir ayant accordé à une classification, plus de signification qu'elle n'aurait dû en avoir sur le seul plan cognitif. La précision de la phylogenèse a valorisé certains points au moins de la classification que Linné avait établi tout en s'opposant au transformisme. La table de Mendeleev révélait à l'insu de son auteur, le nombre atomique des éléments.



Pour joindre l'auteur:
Webmaster: Corpet