Raison en révolte : Le matérialisme dialectique

Qu’est-ce que la dialectique ?

“Panta cwrei, oudei menei”
« Tout s’écoule et rien ne reste » (Héraclite)

La dialectique est une méthode de pensée et d’interprétation du monde – du monde naturel comme de la société humaine. C’est une façon d’observer l’univers qui part du principe que tout est dans un état constant de flux et de changement. Mais ce n’est pas tout. La dialectique explique que le changement et le mouvement impliquent des contradictions et ne peuvent exister qu’à travers des contradictions. Les choses n’évoluent pas suivant une ligne régulière et ininterrompue, mais suivant une ligne qui est ponctuée par des périodes de changement soudain et explosif. Pendant de telles périodes, les changements lents et cumulatifs (changements quantitatifs) subissent une rapide accélération au cours de laquelle la quantité se transforme en qualité. La dialectique est la logique de la contradiction.

Hegel avait déjà élaboré dans leur détail les lois de la dialectique. Dans ses écrits, cependant, elles apparaissent sous une forme idéaliste et mystifiée. C’est Marx et Engels qui, les premiers, ont donné à la dialectique une base scientifique, c’est-à-dire matérialiste. « Hegel a écrit avant Darwin et avant Marx », soulignait Trotsky. « Grâce au puissant élan donné à la pensée par la Révolution française, Hegel a anticipé le mouvement général de la science. Mais, précisément parce qu’il ne s’agissait que d’une anticipation, bien que géniale, elle avait chez Hegel un caractère idéaliste. Hegel opérait avec des ombres idéologiques comme réalité suprême. Marx a démontré que le mouvement de ces ombres idéologiques ne faisaient que refléter le mouvement des corps matériels » [1]

Les écrits de Hegel contiennent de nombreuses et frappantes illustrations, tirées de l’histoire et de la nature, des lois de la dialectique. Mais l’idéalisme hégélien donnait à sa dialectique un caractère hautement abstrait et arbitraire. Pour que la dialectique serve l’ « Idée Absolue », Hegel était obligé de plaquer un schéma sur la nature et la société, en complète contradiction avec la méthode dialectique elle-même, qui exige qu’on dégage les lois d’un phénomène donné à partir d’une étude scrupuleuse du phénomène lui-même, comme l’a fait Marx dans le Capital. Par conséquent, loin d’être, comme ses critiques l’affirment souvent, une simple régurgitation de la dialectique hégélienne arbitrairement plaquée sur l’histoire et la société, la méthode de Marx est précisément le contraire de cela. Comme lui-même l’expliquait : « Ma méthode dialectique, non seulement diffère de la méthode hégélienne, mais elle en est même l’exact opposé. Pour Hegel, le mouvement de la pensée, qu’il personnifie sous le nom de « l’Idée », est le démiurge de la réalité, laquelle n’est que la forme phénoménale de l’Idée. Pour moi, au contraire, le mouvement de la pensée n’est que le reflet du mouvement réel, transporté et transposé dans le cerveau de l’homme. » [2]

Lorsque nous contemplons le monde qui nous entoure, il nous apparaît au premier abord comme un immense et étonnamment complexe enchaînement de phénomènes, un enchevêtrement apparemment infini de changements, de cause et d’effets, d’actions et de réactions. La force motrice de l’investigation scientifique est précisément la volonté de jeter une lumière rationnelle sur ce labyrinthe déroutant, de le comprendre pour le conquérir. On cherche des lois qui nous permettent de séparer le particulier du général, l’accidentel du nécessaire, et de comprendre les forces qui donnent naissance aux phénomènes auxquels nous sommes confrontés. Comme l’écrit le physicien et philosophe anglais David Bohm :

« Dans la nature, rien n’est constant. Tout est dans un état de transformation permanente, de mouvement et de changement. Cependant, nous découvrons que rien ne surgit de nulle part, sans rapport avec ce qui existait préalablement. De la même façon, rien ne disparaît sans laisser de traces, c’est-à-dire sans contribuer à des phénomènes existant ultérieurement. Cette caractéristique générale du monde peut être exprimée par un principe qui résume les conclusions d’un vaste domaine d’expériences diverses et qui n’a jamais été contredit par quelque observation ou expérience – scientifiques ou non – que ce soit, à savoir que toute chose dérive d’autre chose et donne lieu à encore autre chose. » [3]

La thèse fondamentale de la dialectique est que tout est dans un processus permanent de transformation, de mouvement et de changement. Même lorsqu’il nous semble que rien ne se passe, la matière est sans cesse en train de changer. Les molécules, les atomes et les particules subatomiques sont constamment en mouvement. La dialectique est donc essentiellement une interprétation dynamique des phénomènes et des processus qui se déroulent à tous les niveaux de la matière organique et inorganique.
« A nos simples yeux, rien ne change », écrit le physicien américain Richard P. Feyman, « mais si nous pouvions voir la matière grossie un milliard de fois, nous verrions qu’elle change en permanence : des molécules quittent la surface et d’autres y reviennent. » [4]
Cette idée est tellement essentielle à la dialectique que Marx et Engels considéraient le mouvement comme la caractéristique la plus fondamentale de la matière. Comme c’est souvent le cas, Aristote avait déjà anticipé sur cette notion dialectique. Il écrivait : « Par conséquent […] la première et véritable signification de la ” nature ” est l’essence des choses qui contiennent en elles-mêmes […] le principe de mouvement. » [5] Il ne s’agit pas de la conception mécanique d’après laquelle le mouvement serait communiqué à une masse inerte par un force « externe », mais d’une conception complètement différente de la matière comme étant elle-même en état de mouvement permanent. Ici, la matière et le mouvement (l’énergie) sont une seule et même chose, une même idée formulée de deux manières différentes. La théorie d’Einstein sur l’équivalence de la masse et de l’énergie a brillamment confirmé cette idée. Engels l’exprimait de la manière suivante :

« Le mouvement, au sens le plus général, conçu comme mode d’existence de la matière, comme son attribut inhérent, embrasse tous les changements et tous les processus qui se produisent dans l’univers, du simple changement de lieu jusqu’à la pensée. L’étude de la nature du mouvement devait, cela va sans dire, partir des formes les plus basses, les plus simples de ce mouvement et apprendre à les saisir, avant de pouvoir arriver à quelque résultat dans l’explication des formes supérieures et complexes. » [6]

« Tout coule »

Tout est dans un état de mouvement permanent, des neutrons jusqu’aux superamas galactiques. La terre elle-même se meut constamment : elle fait chaque année le tour du soleil et, tous les jours, le tour de son propre axe. Le soleil, lui aussi, tourne sur son axe en 26 jours, et, en même temps que les autres étoiles de notre galaxie, fait un voyage complet autour de la galaxie en 230 millions d’années. Il est probable que des structures encore plus vastes (des superamas galactiques) effectuent aussi un genre de mouvement rotatif général. Il semble qu’il s’agisse là d’une caractéristique de la matière, y compris au niveau atomique : les atomes qui constituent les molécules se tournent autour à des vitesses variables. A l’intérieur de l’atome, les électrons tournent autour du noyau à d’énormes vitesses.

L’électron possède une qualité connue sous le nom de « moment cinétique intrinsèque », ou encore « spin ». C’est comme s’il tournait autour de son propre axe à une vitesse fixe et ne pouvait être stoppé ou modifié que par la destruction de l’électron en tant que tel. Lorsqu’on accroît le spin d’un électron, cela altère si profondément ses propriétés qu’il en résulte un changement qualitatif et la production d’une particule complètement différente. La quantité connue sous le nom de « moment angulaire » – la mesure combinée de la masse, de la taille et de la vitesse du système de rotation – est utilisée pour mesurer le spin des particules élémentaires. Le principe d’une quantification du spin est fondamental au niveau subatomique, mais il existe aussi pour le monde macroscopique. Cependant, son effet est si infinitésimal qu’on peut en faire abstraction. Le monde subatomique est dans un état permanent de mouvement et d’agitation où rien ne demeure identique à soi-même. Les particules se changent sans cesse en leur contraire, de sorte qu’il est n’est jamais possible d’en déterminer l’identité exacte à un moment donné. Les neutrons se transforment en protons et les protons en neutrons dans un processus incessant d’échange d’identité.

Engels définit la dialectique comme « la science des lois générales du mouvement et du développement de la nature, de la société humaine et de la pensée. » Dans l’Anti-Dühring et La Dialectique de la Nature, Engels fait l’exposé des lois de la dialectique, en commençant par les plus fondamentales :

  1. La loi de la transformation de la quantité en qualité – et vice versa
  2. La loi de l’interpénétration des opposés
  3. La loi de la négation de la négation

A première vue, cela peut sembler excessivement ambitieux. Est-il vraiment possible de formuler des lois dont l’application est aussi générale ? Est-ce qu’il peut exister un ordre sous-jacent qui se répète dans les processus, non seulement de la société et de la pensée, mais aussi de la nature elle-même ? En dépit de toutes les objections de ce type, il devient de plus en plus clair que de tels ordres existent effectivement et réapparaissent constamment à tous les niveaux et de toutes sortes de manières. Il y a un nombre croissant d’exemples, tirés de domaines aussi divers que les particules subatomiques et les études de population, qui donnent toujours plus de poids à la théorie du matérialisme dialectique.

Le point essentiel de la pensée dialectique n’est pas le fait qu’elle se fonde sur l’idée du changement et du mouvement, mais plutôt le fait qu’elle conçoit le mouvement et le changement comme des phénomènes qui reposent sur des contradictions. Alors que la logique formelle traditionnelle s’efforce de bannir les contradictions, la pensée dialectique les reconnaît comme une caractéristique essentielle de la réalité. Elle est au cœur même de la matière. Elle est la source de tout mouvement, de tout changement, de toute vie et de tout développement. La loi dialectique qui exprime cette idée est la loi de l’unité et de l’interpénétration des opposés. La troisième loi de la dialectique, la négation de la négation, exprime la notion de développement. Contre l’idée d’un cercle fermé dans lequel les phénomènes se répètent constamment à l’identique, cette loi souligne que le mouvement à travers des contradictions successives se traduit par un développement du simple vers le complexe, de l’inférieur vers le supérieur. En dépit des apparences, les processus ne se répètent pas exactement à l’identique. Telles sont, définies de façon très schématique, les trois lois les plus fondamentales de la dialectique. De celles-ci dérive toute une série d’autres propositions sur les rapports entre le tout et la partie, la forme et le contenu, l’infini et le fini, l’attraction et la répulsion, et ainsi de suite. Nous essayerons de les expliquer. Mais commençons par la quantité et la qualité.

Quantité et qualité

La loi de la transformation de la quantité en qualité a un champ d’application extrêmement large – des plus petites particules subatomiques jusqu’au phénomènes les plus vastes connus de l’homme. On la retrouve dans toutes sortes de phénomènes et à de nombreux niveaux différents. Cependant, cette loi très importante n’a pas encore reçu toute l’attention qu’elle mérite. Cette loi dialectique se manifeste à tout moment. La transformation de la quantité en qualité était déjà connue des Grecs mégariens, qui l’utilisaient pour démontrer certains paradoxes, parfois sous la forme de blagues. Par exemple, celle de la « tête chauve » et du « tas de grains » : est-ce qu’un cheveux en moins fait une tête chauve ou un grain un tas de grains ? La réponse est non. Et si on enlève encore un cheveu ou qu’on ajoute encore un grain ? Toujours pas. Mais en répétant toujours la même question, on en arrive au moment où la tête est chauve et où les grains forment un tas. Nous faisons face à cette contradiction que des petits changements individuels, incapables en eux-mêmes de provoquer un changement qualitatif, finissent, à un certain point, par faire exactement cela : la quantité se change en qualité.

Toutes sortes de dictons et proverbes expriment l’idée que, sous certaines conditions, même des petites choses peuvent causer de gros changements. Par exemple : « la goutte d’eau qui fait déborder le vase », « le détail qui fait la différence », et ainsi de suite. La loi de la transformation de la quantité en qualité a dans une large mesure pénétré la conscience populaire, comme le soulignait avec humour Trotsky :

« Tout individu est un dialecticien jusqu’à un certain point, la plupart du temps inconsciemment. Une ménagère sait qu’une certaine quantité de sel donne bon goût au potage mais qu’une poignée supplémentaire le rend immangeable. Par conséquent, une paysanne illettrée s’oriente dans la préparation de sa soupe selon la loi hégélienne de la transformation de la quantité en qualité. On pourrait citer indéfiniment de tels exemples empruntés à la vie quotidienne. Les animaux eux-mêmes en arrivent à des conclusions pratiques, non seulement sur la base du syllogisme aristotélicien, mais également sur la base de la dialectique hégélienne. En effet, un renard sait que les quadrupèdes et les oiseaux sont nourrissants et bons à manger. Quand il aperçoit un lièvre, un lapin ou une poule, le renard en conclut que cette créature particulière appartient à une catégorie savoureuse et nourrissante – et se lance à la poursuite de sa proie. Nous avons là un syllogisme complet, bien qu’on puisse supposer que le renard n’ait jamais lu Aristote. Quand, cependant, le même renard rencontre pour la première fois un animal plus grand que lui, un loup par exemple, il conclut rapidement que la quantité se transforme en qualité – et prend la fuite. Il est clair que les jambes du renard sont pourvues de tendances hégéliennes, même si elles ne sont pas complètement conscientes.

Tout ceci démontre, par conséquent, que nos méthodes de pensée, la logique formelle comme la dialectique, ne sont pas des constructions arbitraires de notre intellect, mais expriment en fait les rapports réels existant au sein de la nature elle-même. En ce sens, l’univers tout entier est imprégné d’une dialectique ” inconsciente “. Mais la nature ne s’en tient pas là. Une bien longue évolution était nécessaire avant que les rapports internes de la nature se convertissent dans le langage de la conscience des renards et des hommes ; et l’homme a ainsi été en mesure de généraliser ces formes de conscience et de les transformer en catégories logiques (dialectiques), créant ainsi la possibilité d’explorer plus profondément le monde qui nous entoure. » [7]

Malgré le caractère apparemment trivial de ces exemples, ils révèlent une profonde vérité sur la façon dont fonctionne le monde. Prenons l’exemple du tas de grains. Des recherches récentes sur la théorie du chaos se sont concentrées sur le point critique où une série de petites altérations produisent un changement d’état massif. (Dans la terminologie moderne, cela s’appelle « le seuil du chaos »). Les travaux du physicien d’origine danoise Per Bak – et d’autres – sur la « criticalité auto-organisée » recourent justement à l’exemple du tas de grains pour illustrer les profonds processus qui se déroulent à de nombreux niveaux de la nature et qui correspondent précisément à la loi de la transformation de la qualité en quantité.

Un exemple de ces processus est celui du tas de sable – exemple précisément analogue à celui du tas de grains des Mégariens. On laisse tomber des grains de sable sur une surface plane, un par un. Cette expérience a été réalisée à de nombreuses reprises, aussi bien avec de vrais grains de sable que par simulation informatique. Pendant un certain temps, les grains ne font que s’empiler jusqu’à former une petite pyramide. A ce stade, tout grain supplémentaire, soit trouve une place où se poser sur la pile, soit déséquilibre l’un des cotés de la pile de façon suffisante pour provoquer la chute d’autres grains en une sorte d’avalanche. Selon la façon dont les autres grains sont disposés, l’avalanche peut être petite – ou dévastatrice, entraînant avec elle un grand nombre de grains. Lorsque le tas atteint un seuil critique, l’ajout d’un seul grain peut profondément affecter l’ensemble de la structure. Cet exemple apparemment trivial est un excellent modèle de « seuil du chaos », dont le champ d’application est très large, allant des tremblements de terre à l’évolution des espèces en passant par les crises boursières et les guerres.

La pile de sable grossit, les grains de sable en excès glissant sur les côtés. Quant tous les grains en trop ont glissé, le tas de sable qui en résulte est dit « auto-organisé ». En d’autres termes, personne ne lui a intentionnellement donné cette forme. Il s’« auto-organise » suivant des lois qui lui sont inhérentes, jusqu’à ce qu’il atteigne un état de criticalité, dans lequel les grains de sable à sa surface sont à peine stables. Dans ces conditions critiques, la simple addition d’un seul grain de sable peut produire des résultats imprévisibles. Cela peut juste causer une petite modification de plus, ou bien déclencher une réaction en chaîne provoquant un éboulement catastrophique et la destruction de la pile.

Selon Per Bak, on peut donner à ce phénomène une expression mathématique, d’après laquelle la fréquence moyenne des avalanches d’une taille déterminée est inversement proportionnelle à une puissance donnée de cette taille. Il souligne en outre que ce comportement selon une « loi de la puissance » est extrêmement commun dans la nature : ainsi en est-il de la « masse critique » du plutonium, lorsque la réaction en chaîne est sur le point de déclencher une explosion nucléaire. Au stade sub-critique, la réaction en chaîne dans le plutonium s’éteindra, alors qu’une masse super-critique explosera. On observe le même phénomène dans les tremblements de terre, lorsque les roches des deux côtés d’une faille dans la croûte terrestre sont sur le point de glisser l’une par rapport à l’autre. La faille subit une série de petits et grands glissements, qui maintiennent la tension au point critique pendant un certain temps, jusqu’à ce qu’elle déclenche finalement un tremblement de terre.

Bien que les partisans de la théorie du chaos n’en semblent pas conscients, ces exemples sont tous des cas particuliers de la loi de la transformation de la quantité en qualité. Hegel a inventé la ligne nodale des rapports de mesure, dans laquelle de petites modifications qualitatives finissent, à un moment donné, par provoquer un saut qualitatif. On cite souvent l’exemple de l’eau qui bout à 100°C lorsque la pression atmosphérique est normale. Tant que la température s’approche du point d’ébullition, l’augmentation de la chaleur ne cause pas immédiatement l’éloignement physique des molécules d’eau. Le volume d’eau reste inchangé jusqu’au point critique. Cela reste de l’eau, du fait de l’attraction réciproque des molécules. Cependant, l’augmentation graduelle de la température a pour effet d’accélérer le mouvement des molécules. La distance entre les atomes croît régulièrement, jusqu’à ce que la force d’attraction soit insuffisante pour rapprocher les molécules. A précisément 100°C, toute augmentation de l’énergie calorifique causera la dispersion des molécules, ce qui produit de la vapeur.

On peut observer le même processus dans l’autre sens. Lorsqu’on fait passer l’eau de 100°C à 0°C, elle ne se congèle pas graduellement, en passant par des phases progressives d’agglutination avant de devenir solide. La réduction de l’énergie calorifique entraîne une diminution de la vitesse des atomes, jusqu’au point critique de 0°C, les molécules se figeant alors dans une structure déterminée – à savoir celle de la glace. Tout le monde comprend facilement la différence qualitative entre un solide et un liquide. Pour se laver ou se désaltérer, il faut de l’eau, et non de la glace. En termes techniques, la différence réside dans le fait que, dans un solide, les molécules sont organisées suivant un ordre cristallin. Leur mouvement est restreint. La position des atomes de l’un des côtés du cristal est déterminée par les atomes situés sur l’autre côté. C’est pour cela que nous pouvons librement plonger nos mains dans l’eau, alors que la glace est rigide est offre une résistance. Ce que nous décrivons là, c’est une transformation qualitative, un changement d’état qui provient d’une accumulation de changements quantitatifs. Une molécule d’eau est quelque chose de relativement simple. Il s’agit d’un atome d’oxygène auquel deux atomes d’hydrogènes sont attachés, le tout étant gouverné par des équations de physique atomique bien établies. Cependant, lorsqu’un très grand nombre de ces molécules sont combinées, elles acquièrent une propriété qu’aucune d’entre elles ne possède isolément : la liquidité. Les équations n’impliquent pas une telle qualité. Selon la terminologie de la théorie de la complexité, le liquide est un « phénomène émergent ».

« Refroidissez quelque peu ces molécules d’eau, par exemple, et à 0°C elles cesseront de se croiser et de se heurter au hasard. Elles entreront plutôt dans une ” transition de phase “, se fixant dans le positionnement cristallin ordonné que l’on appelle la glace. Par contre, si vous procédez de la manière inverse en chauffant l’eau, ces mêmes molécules d’eau s’éloigneront subitement les unes des autres et entreront dans une transition de phase vers la vapeur. Aucune de ces deux transitions de phase n’auraient une signification quelconque pour une molécule individuelle donnée. » [8]

Les mots « transition de phase » ne désignent rien d’autre qu’un saut qualitatif. Des processus similaires peuvent être observés dans des phénomènes aussi variés que le temps, les molécules d’ADN et même l’esprit. Du fait de notre expérience quotidienne, la qualité des liquides nous est bien connue. En physique, également, le comportement des liquides est bien compris et parfaitement prévisible – jusqu’à un certain point. Les lois du mouvement des fluides (gaz et liquides) font une distinction claire entre le calme flux laminaire, qui est bien défini et prévisible, et le flux turbulent, que l’on peut tout au mieux exprimer approximativement. Le mouvement de l’eau autour d’un obstacle, dans une rivière, peut être prédit avec précision au moyen des équations des fluides, à condition que le courant soit lent. Même si l’on accélère la vitesse du flux, et que cela provoque des tourbillons, on peut toujours en prévoir le comportement. Mais si la vitesse augmente au-delà d’un certain seuil, il devient impossible de prédire où les tourbillons vont se former, ni d’ailleurs de dire quoi que ce soit sur le comportement de l’eau. Il est devenu chaotique.

La table périodique de Mendeleïev

L’existence de changements qualitatifs dans la matière était connue avant même que les hommes ne songent à se préoccuper de science, mais ils ne furent pas réellement compris avant l’avènement de la théorie atomique. Avant celle-ci, les physiciens reconnaissaient le fait de la transformation du solide en liquide, et du liquide en gaz, sans pouvoir l’expliquer de manière satisfaisante. Ce n’est qu’aujourd’hui que ces phénomènes sont vraiment compris.

La chimie avait fait de grands pas en avant au cours du XIXe siècle. De nombreux éléments ont été découverts. Mais le chaos régnait alors dans cette science, un peu comme aujourd’hui dans la physique des particules. L’ordre y fut établi par le grand scientifique russe Dimitri Ivanovich Mendeleïev, qui, en 1869, en collaboration avec le chimiste allemand Julius Meyer, a élaboré la table périodique de éléments, ainsi dénommée parce qu’elle montrait la récurrence périodique de propriétés chimiques similaires.

L’existence du poids atomique fut découverte en 1862 par Cannizzaro. Mais le génie de Mendeleïev consistait dans le fait de ne pas appréhender les éléments d’un point de vue purement quantitatif. Autrement dit, il ne considérait pas les relations entre les différents atomes sous le seul angle de leur poids. S’il s’en était tenu au poids, il n’aurait jamais fait ses grandes découvertes. Ainsi, par exemple, d’un point de vue strictement quantitatif, l’élément tellure (poids atomique = 127,61) aurait du être classé après l’iode (poids atomique = 126,91) dans la table périodique. Mendeleïev cependant l’a placé avant l’iode, sous le sélénium, auquel il ressemble davantage, et a placé l’iode sous son élément apparenté, le brome. La méthode de Mendeleïev fut confirmée, au XXe, lorsque les rayons X ont prouvé que sa classification était la bonne. Le nouveau numéro atomique du tellure fut le 52, et l’iode reçut le 53.

Toute la table périodique de Mendeleïev est fondée sur la loi de la quantité et de la qualité, c’est-à-dire sur la déduction de différences qualitatives entre les éléments à partir des différences quantitatives des poids atomiques. Engels l’a reconnu à son époque :

« Enfin la loi de Hegel n’est plus valable seulement pour les corps composés, mais aussi pour les éléments chimiques eux-mêmes. Nous savons maintenant ” que les propriétés chimiques des éléments sont une fonction périodique de leur poids atomique “, et que leur qualité est donc déterminée par la quantité de leur poids atomique. Et la confirmation en a été fournie d’une façon éclatante. Mendeleïev a démontré que dans les séries, rangées par poids atomiques croissants, des éléments apparentés, on rencontre diverses lacunes, qui indiquent qu’il y a là de nouveaux éléments restant à découvrir. Il a décrit à l’avance les propriétés chimiques générales d’un de ces éléments inconnus qu’il appela l’Ekaaluminium, parce qu’il suit l’aluminium dans la série qui commence par ce corps, et il a prédit approximativement son poids spécifique et atomique ainsi que son volume atomique. Quelques années plus tard, Lecoq de Boisbaudran découvrait effectivement cet élément, et les prédictions de Mendeleïev se trouvèrent exactes à de très légers écarts près. L’Ekaaluminium était réalisé dans le gallium. Grâce à l’application – inconsciente – de la loi hégélienne du passage de la quantité en qualité, Mendeleïev avait réalisé un exploit scientifique qu’il n’est pas trop téméraire de comparer à celui de Leverrier, lequel a calculé l’orbite de la planète Neptune lorsqu’elle était encore inconnue. » [9]

La chimie comporte des changements de caractère tant quantitatifs que qualitatifs ; des changements aussi bien de degré que d’état. Cela apparaît clairement dans le passage de l’état gazeux à l’état de liquide ou de solide, qui dépend généralement des variations de température. Dans l’Anti-Dhüring, donne une série d’exemple illustrant le fait qu’en chimie, la simple addition quantitative d’éléments crée des corps qualitativement différents. Depuis l’époque d’Engels, la terminologie utilisée en chimie a changé ; cependant, la transformation de la quantité en qualité est précisément exprimée dans l’exemple suivant :

CH2O2 acide formique point d’ébullition : 100° point de fusion : 1°
C2H4O2 acide acétique point d’ébullition : 118° point de fusion : 17°
C3H6O2 acide propionique point d’ébullition : 140° point de fusion : _
C4H8O2 acide butyrique point d’ébullition : 162° point de fusion : _
C5H10O2 acide valérianique point d’ébullition : 175° point de fusion : _

et ainsi de suite jusqu’au C30H60O2, l’acide mélissique, qui fond à 80°C et n’a pas de point d’ébullition, car il ne peut s’évaporer sans se désintégrer. » [10]

L’étude des gaz et des vapeurs constitue une branche spéciale de la chimie. Le grand pionnier anglais de la chimie, M. Faraday, pensait qu’il était impossible de liquéfier six gaz – l’hydrogène, l’oxygène, le nitrogène, le monoxyde de carbone, l’oxyde nitrique et le méthane – qu’il a appelés des « gaz permanents ». Mais en 1877, le chimiste suisse R. Pictet est parvenu à liquéfier l’oxygène à la température de – 140°C et sous une pression de 500 atmosphères. Par la suite, le nitrogène, l’oxygène et le monoxyde de carbone furent tous liquéfiés à des températures toujours plus basses. En 1900, l’hydrogène fut liquéfié à – 240C et, à plus basse température, il fut même solidifié. Enfin, la plus difficile des liquéfactions – celle de l’hélium – fut réalisée à la température de – 255°C. Ces découvertes avaient d’importantes applications pratiques. De grandes quantités d’hydrogène et d’oxygène liquides sont utilisées dans les fusées. La transformation de la quantité en qualité apparaît dans le fait que des changements de température entraînent d’importants changements de propriétés. C’est la clef du phénomène de la supraconductivité. A température extrêmement basse, certaines substances, à commencer par le mercure, n’offrent aucune résistance au courant électrique.

L’étude des températures extrêmement basses a été développée au milieu du XIXe par le britannique William (plus tard, Lord) Kelvin, qui a créé le concept de zéro absolu, c’est-à-dire la température la plus basse possible. Il la situait à – 273°C. Il pensait qu’à cette température, l’énergie des molécules tomberait jusqu’à zéro. Cette température, parfois appelée le « zéro Kelvin », est utilisée comme la base d’une échelle de mesure de très basses températures. Ceci dit, même au zéro absolu, le mouvement ne disparaît pas complètement. Il y a toujours de un peu d’énergie qui ne peut être enlevée. On dit, à des fins pratiques, que l’énergie est de zéro, mais ce n’est pas réellement le cas. Comme le soulignait Engels, la matière et le mouvement sont absolument inséparables – même au « zéro absolu ».

Aujourd’hui, des températures incroyablement basses sont facilement atteintes, et jouent un rôle important dans la fabrication de supraconducteurs. Le mercure devient supraconducteur à exactement 4,2° Kelvin (K°) ; le plomb à 7,22°K ; l’étain à 3,73°K ; l’aluminium à 1,20°K ; l’uranium à 0,8°K ; le titane à 0,53°K. Quelques 1400 éléments et alliages possèdent cette caractéristique. L’hydrogène liquide boue à 20,4°K. L’hélium est la seule substance connue qui ne peut être gelée, même au zéro absolu. C’est la seule qui possède la propriété connue sous le nom de superfluidité. Ici aussi, cependant, des changements de températures entraînent des sauts qualitatifs. A 2,2°K, le comportement de l’hélium subit un tel changement qu’on lui a attribué le nom d’« hélium-2 », pour le différencier de l’hélium liquide, ou « hélium-1 », au dessus de cette température. De nouvelles techniques ont permis d’atteindre des températures aussi basses que 0,0000001°K. On pense cependant qu’il est impossible d’atteindre le zéro absolu.

Jusqu’à présent, nous nous sommes concentrés sur les transformations chimiques réalisées dans les laboratoires et l’industrie. Mais il ne faudrait pas oublier que ces transformations s’effectuent dans la nature à une échelle beaucoup plus vaste. Le composition chimique du charbon et des diamants – les impuretés mises à part – est la même : c’est du carbone. La différence consiste dans la pression colossale qui, à un certain stade, transforme le contenu d’un tas de charbon en un collier de duchesse. Pour transformer du graphite simple en diamants, il faudrait le soumettre à une pression d’au moins 10 000 atmosphères sur une très longue période de temps. Ce processus se réalise naturellement sous la surface de la terre. En 1955, la grande multinationale GEC est parvenue à transformer du graphite en diamant à la température de 2 500°C et sous une pression de 100 000 atmosphères. Le même résultat a été obtenu en 1962 à une température de 5000°C et sous une pression de 200 000 atmosphères, ce qui a transformé directement le graphite en diamant, sans l’aide d’un catalyseur. Il s’agit de diamants synthétiques, qui sont utilisés, non pour orner le cou des duchesses, mais à des fins plus productives – comme par exemple les outils de découpe industriels.

Les transitions de phase

Il est un domaine de recherche très important : celui qui concerne ce qui est connu sous le nom de transitions de phase, lesquelles désignent le point critique où la matière passe du solide au liquide, ou du liquide à la vapeur, ou du non magnétique au magnétique, ou encpore du conducteur au superconducteur. Tous ces processus sont différents, mais il est désormais établi avec certitude qu’ils sont similaires dans la mesure où les lois mathématiques s’appliquant à l’une de ces expériences s’appliquent à bien d’autres. C’est un exemple limpide de saut qualitatif, comme James Gleick le montre dans le passage suivant :

« Comme tant d’autres manifestations du chaos, les transitions de phase impliquent un comportement de type macroscopique qui est difficilement prévisible à partir de l’observation des détails microscopiques. Lorsque que l’on chauffe une substance solide, ses molécules se mettent à vibrer en raison de l’énergie supplémentaire. Elles forcent leurs liens, entraînant l’expansion de la substance. Plus il y de chaleur, plus il y a d’expansion. Et pourtant, à une température et à une pression données, le changement devient irrégulier et intempestif. Une corde s’étire. Et soudain elle rompt. Une forme cristalline se dissout, et ses molécules se disloquent. Elles obéissent à des lois se rapportant aux fluides que l’on ne saurait aucunement discerner à partir de la nature du solide. L’énergie atomique moyenne ne change guère, mais la substance – désormais un fluide, un aimant ou un superconducteur – est entré dans un nouveau domaine. » [11]

La dynamique de Newton était suffisante lorsqu’il s’agissait d’expliquer des phénomènes de grande échelle, mais elle s’est révélée inopérante dans le cas des systèmes aux dimensions atomiques. En effet, la mécanique classique est toujours valide pour la plupart des opérations où n’interviennent ni grandes vitesses ni processus se déroulant au niveau subatomique. Dans une autre partie de ce livre, nous parlerons en détail de la mécanique quantique. Elle a constitué un saut qualitatif dans l’histoire de la science. Ses rapports à la mécanique classique sont analogues aux rapports entre mathématiques supérieures et mathématiques classiques, ou encore entre la dialectique et la logique formelle. Elle permet d’expliquer des choses que la mécanique classique ne peut expliquer, comme la transformation radioactive et la transformation de la matière en énergie. Elle a donné naissance à de nouvelles disciplines scientifiques telle que la chimie théorique, qui a permis de résoudre des problèmes jusqu’alors insolubles. La théorie du magnétisme métallique a subi de profondes modifications, ce qui a permis de faire des brillantes découvertes concernant le courant électrique dans les métaux. Une fois le nouveau point de vue accepté, toute une série de difficultés théoriques ont été éliminées. Mais il a longtemps rencontré une résistance acharnée, justement parce que ses résultats heurtaient de front les modes de pensée traditionnels et la logique formelle.

La physique moderne fournit un très grand nombre d’illustrations des lois de la dialectique, à commencer par la loi de la quantité et de la qualité. Prenons, par exemple, la relation entre les différents types d’ondes électromagnétiques et leur fréquence, c’est-à-dire leur vitesse de pulsation. Les travaux de Maxwell, qui intéressaient vivement Engels, démontraient que les ondes électromagnétiques et les ondes lumineuses sont de même nature. Plus tard, la mécanique quantique a prouvé que les choses étaient en réalité plus complexes et contradictoires, mais aussi que la théorie des ondes de Maxwell demeurait juste pour les plus basses fréquences.

Les propriétés des différentes ondes sont déterminées par le nombre d’oscillations à la seconde. Leur différence réside dans la fréquence des ondes, la vitesse de pulsation, le nombre de vibrations par seconde. Autrement dit, des différences quantitatives déterminent différents types de signaux d’ondes. Exprimés en couleurs, la lumière rouge indique des ondes lumineuses de basse fréquence. Une augmentation de la fréquence lumineuse donne la couleur jaune-orangé, puis le violet, puis les invisibles ultra-violets et rayons X, puis finalement les rayons gamma. Si l’on procède dans le sens inverse, à partir des fréquences basses, on passe des infrarouges et rayons calorifiques aux ondes radio. Ainsi, le même phénomène se manifeste différemment selon que la fréquence est plus ou moins grande. La quantité se transforme en qualité.

Le spectre électromagnétique :

Fréquence en pulsations/seconde Nom Type de comportement
10² Perturbation électrique Champ
5 X 105- 106 Emission de radio Ondes
108 FM Télévision
1010 Radar
5 X 1010 – 1015 Lumière
1018 Rayons X Particules
1021 Rayons Y, nucléaire
1024 RayonsY « artificiels »
1027 Rayons Y, cosmiques

Source : R. P. Feynman, Lectures on Physics, chapitre 2, p. 7, Table 2-1.

L’organique et l’inorganique

La loi de la quantité et de la qualité permet également d’éclairer l’un des aspects les plus controversés de la physique moderne, à savoir le soi-disant « principe d’incertitude », que nous examinerons plus en détail dans une autre partie de ce livre. Alors qu’il est impossible de connaître la position et la vitesse exactes d’une particule atomique individuelle, il est possible de prévoir avec une grande précision le comportement d’un grand nombre de particules. Un autre exemple : les atomes radioactifs se désintègrent d’une manière qui rend impossible toute prévision précise les concernant. Par contre, la désintégration d’un grand nombre d’atomes s’effectue à un rythme statistiquement très fiable, si bien que les scientifiques les utilisent comme « horloges naturelles » pour calculer l’âge de la terre, du soleil et des étoiles. Le simple fait que les lois gouvernant le comportement des particules subatomiques sont différentes des celles qui opèrent au niveau « normal » est en lui-même un exemple de transformation de la quantité en qualité. Le point précis à partir duquel les lois des « phénomènes de petite échelle » cessent de s’appliquer a été établi, en 1900, par le quantum d’action de Max Planck.

L’enchaînement des circonstances, à un stade déterminé, provoque un saut qualitatif par lequel la matière organique émerge de la matière inorganique. La différence entre matière inorganique et matière organique n’est que relative. La science moderne s’est clairement engagée sur la voie qui permettra de comprendre exactement comment l’une émerge à partir de l’autre. La vie elle-même consiste en une organisation particulière d’atomes. Nous sommes tous un assemblage d’atomes, mais pas « seulement » un assemblage d’atomes. Dans l’organisation incroyablement complexe de nos gènes réside un nombre infini de possibilités. Et la véritable tâche du socialisme, c’est de permettre à chaque individu de développer le plus largement ces possibilités.

Les biologistes moléculaires connaissent à présent la séquence complète de l’ADN, mais ils ne peuvent pas en déduire la façon dont l’organisme va se structurer au cours de son développement, pas plus que la connaissance de la structure de la molécule d’eau (H2O) ne permet de comprendre les caractéristiques de la liquidité. Une analyse des composants chimiques et des cellules du corps ne nous donne pas une formule de la vie. Cela s’applique aussi à l’esprit lui-même. Les neuroscientifiques possèdent un très grand nombre de données sur l’activité du cerveau. Le cerveau humain est constitué de 10 milliards de neurones, dont chacune est reliée à d’autres par mille liens (en moyenne). L’ordinateur le plus rapide est capable de réaliser environ un milliard d’opérations à la seconde. Dans le même temps, le cerveau d’une mouche posée sur un mur peut en effectuer 100 milliards. Cette comparaison donne une idée de la différence qui existe entre le cerveau humain et le plus moderne des ordinateurs.

L’énorme complexité du cerveau humain est l’une des raisons pour lesquelles les idéalistes ont essayé d’entourer le phénomène de l’esprit d’une aura mystique. La connaissance du détail des neurones, des axones et des synapses individuels est insuffisante lorsqu’il s’agit d’expliquer des phénomènes comme la pensée et l’émotion. Ceci dit, ils n’ont rien de mystique. Dans le langage de la théorie de la complexité, la vie comme l’esprit sont des phénomènes émergents. Dans le langage de la dialectique, le saut de la quantité vers la qualité signifie que le tout a des propriétés qui ne peuvent être déduites de la somme des parties, ni être réduites à celle-ci. Aucune des neurones n’est en elle-même consciente. Et pourtant, l’ensemble des neurones et de leurs connexions le sont. Les réseaux neuronaux sont des systèmes dynamiques non-linéaires. C’est l’action et l’interaction complexes des neurones qui produisent le phénomène que nous appelons la conscience.

Le même genre de choses peut être observé dans de nombreux systèmes « multi-agents » et ce dans les domaines les plus divers. Les études qui ont été menées à l’Université de Bath, en Grande-Bretagne, sur les colonies de fourmis, ont montré comment ces colonies font apparaître des comportements inconnus chez une fourmi individuelle. Isolée de la colonie, une fourmi individuelle erre sans but, au hasard, cherchant de la nourriture et se reposant à intervalles irréguliers. Par contre, lorsque l’observation se porte sur toute une colonie de fourmis, il apparaît clairement que les fourmis s’activent à des intervalles parfaitement réguliers. On pense qu’elles maximisent ainsi l’efficacité de leur travail : si elles travaillent toutes en même temps, il est improbable qu’une fourmi répète le travail qu’une autre vient juste d’effectuer. Le degré de coordination au sein d’une colonie est tel que certains la considèrent comme un organisme individuel plutôt que comme une colonie. Mais c’est là encore une présentation mystique d’un phénomène qui existe à de nombreux niveaux de la nature, du monde animal et de la société humaine – et qui ne peut être compris que sous l’angle de la relation dialectique entre le tout et la partie.

La loi de la transformation de la quantité en qualité est également à l’œuvre dans l’évolution des espèces. En termes biologiques, une « race » ou une « espèce » est définie par la capacité de ses membres à se reproduire entre eux. Mais comme le processus évolutionnaire entraîne l’éloignement d’un groupe de l’espèce par rapport à un autre groupe, un stade finit par être atteint où les membres d’un groupe ne peuvent plus se reproduire avec ceux de l’autre groupe. A ce stade, une nouvelle espèce s’est donc formée. Les paléontologues Stephen Jay Gould et Niles Eldredge ont démontré que ces processus peuvent être très lents et prolongés, ou bien à l’inverse extrêmement rapides. Dans tous les cas, ils montrent comment une accumulation graduelle de petites modifications quantitatives provoque, à un certain stade, une modification qualitative. L’« équilibre ponctuel » est le terme qu’utilisent les biologistes pour décrire ces longues périodes de stabilité ponctuées par des irruptions soudaines de changements radicaux. Lorsqu’en 1972 Gould et Eldredge, du Musée Américain d’Histoire Naturelle, on avancé cette idée, ils ont suscité de violents débats parmi les biologistes, pour lesquels, jusqu’alors, l’évolutionnisme darwinien était synonyme de gradualisme.

On a longtemps pensé que l’évolution excluait des changements aussi radicaux. Elle était décrite comme un processus lent et graduel. Cependant, le « registre fossile », bien incomplet, fait état de longues périodes d’évolution graduelle ponctuées par de violents bouleversements, lesquels coïncident avec l’extinction massive de certaines espèces et l’apparition de nouvelles. Quelle que soit la validité de l’hypothèse sur la disparition des dinosaures à la suite d’une collision entre la terre et un météorite, il semble hautement improbable que la plupart des grandes extinctions d’espèces aient eu le même type de cause. Des phénomènes externes, comme des collisions avec des météorites ou de comètes, peuvent jouer le rôle d’« accidents » dans le processus de l’évolution, mais il est néanmoins nécessaire de découvrir l’explication de celui-ci à partir de ses lois internes. La théorie des « équilibres ponctuels », que défendent désormais la plupart des paléontologues, représente un progrès décisif par rapport à l’interprétation gradualiste du darwinisme, et constitue une conception authentiquement dialectique de l’évolution, dans laquelle de longues périodes de stabilité sont interrompues par des sauts brusques et des changements catastrophiques de toutes sortes.

Il existe d’innombrables manifestations de cette loi, qui couvre un champ d’application très large. Est-il encore possible de douter de la validité de cette loi extrêmement importante ? Est-il vraiment justifié de continue à l’ignorer, ou de l’écarter parce qu’il s’agirait d’une invention subjective que l’on appliquerait arbitrairement à des phénomènes différents et qui n’ont aucun rapport entre eux ? Nous avons vu comment, en physique, l’étude des transitions de phase mène à la conclusion que des changements apparemment sans rapport – l’ébullition des liquides et la magnétisation des métaux – obéissent à la même loi. La découverte d’autres manifestations de cette loi n’est qu’une question de temps, et ces manifestations révèleront sans l’ombre d’un doute que la loi de la transformation de la quantité en qualité est effectivement l’une des plus fondamentales de la nature.

Le tout et la partie

D’après la logique formelle, le tout est égal à la somme de ses parties. Cependant, un examen plus approfondi réfute cette idée. Dans le cas des organismes vivants, ce n’est manifestement pas le cas. Un lapin qu’on a découpé dans un laboratoire et réduit à ses parties constituantes n’est plus un lapin. C’est ce qu’ont compris les défenseurs des théories du chaos et de la complexité. Alors que la physique classique, avec ses systèmes linéaires, soutient que le tout est précisément la somme des parties, la logique non-linéaire de la complexité adopte la position inverse, en complet accord avec la dialectique :

« Le tout est presque toujours égal à bien plus que la somme de ses parties » écrit Waldrop. « Et l’expression mathématique de ce phénomène – si toutefois de tels systèmes peuvent être exprimés en termes mathématiques – est une équation non linéaire, dont la représentation graphique est constituée de courbes. » [12]

Nous avons cité les exemples de changements qualitatifs en chimie dont Engels s’est servi dans sonAnti-Dühring. Bien que ces exemples demeurent valables, ils n’épuisent en aucun cas le sujet. Engels était évidement limité par l’état des connaissances scientifiques de son époque. Aujourd’hui, il est possible d’aller beaucoup plus loin. La théorie classique de la chimie atomique reposait sur l’idée que toute combinaison d’atomes dans une unité plus grande ne peut être qu’un agrégat de ces atomes, c’est-à-dire une relation purement quantitative. Le regroupement d’atomes en molécules était considéré comme une simple juxtaposition. Les formules chimiques comme H2O, H2SO4, etc., présupposent que chacun des atomes reste fondamentalement inchangé lorsqu’il entre dans une nouvelle combinaison pour former une molécule.

Cela reflétait précisément le mode de pensée de la logique formelle, pour laquelle le tout n’est que la somme des parties. Ainsi, dans la mesure où le poids moléculaire est égal à la somme des poids des atomes respectifs, on supposait que les atomes n’étaient pas modifiés, qu’ils entraient dans des rapports purement quantitatifs. Cependant, cette manière de voir les choses ne permettait pas d’expliquer bon nombre de propriétés des composés. En effet, la plupart des propriétés chimiques des composés diffèrent considérablement de celles des éléments qui les constituent. Le soi-disant « principe de juxtaposition » n’explique pas ces différences. Il est unilatéral, inadéquat – en un mot : faux.

La théorie atomique moderne a démontré l’inexactitude de cette idée. Tout en reconnaissant que les structures complexes doivent être comprises comme des agrégats d’entités plus simples, elle a montré que les rapports entre ces entités ne sont pas statiques et quantitatifs, mais plutôt dynamiques et dialectiques. Les particules élémentaires qui constituent les atomes interagissent et s’interpénètrent constamment. Elles ne sont pas des entités fixes, mais sont à tout moment à la fois elles-mêmes et autre chose. C’est précisément cette relation dynamique qui donne aux molécules qui en résultent leur nature, leurs propriétés et leur identité particulières.

Dans cette nouvelle combinaison, les atomes sont et ne sont pas eux-mêmes. Ils se combinent de façon dynamique pour produire une entité entièrement différente, une relation différente qui, à son tour, détermine le comportement de ses composants. Ainsi, on n’a pas simplement à faire avec une « juxtaposition » inanimée, un agrégat mécanique, mais avec un processus. Par conséquent, pour comprendre la nature d’une entité donnée, il est totalement insuffisant de la réduire à ses composants atomiques individuels. Il faut en saisir les interrelations dynamiques, autrement dit en faire une analyse, non pas formelle, mais dialectique.

David Bohm fut l’un des rares à proposer une alternative théorique élaborée à l’interprétation subjectiviste – dite « de Copenhague » – de la mécanique quantique. L’analyse de Bohm, qui est clairement influencée par la méthode dialectique, défend une interprétation radicalement différente de la mécanique quantique et une nouvelle manière de concevoir les rapports entre le tout et les parties. Il souligne que l’interprétation courante de la théorie quantique ne donne pas une idée adéquate des implications révolutionnaires de la théorie quantique.

« A vrai dire, » explique Bohm, « lorsque cette interprétation est appliquée aux théories des champs, non seulement les rapports entre les parties, mais leur existence même découlent des lois du tout. Il ne reste donc plus rien du schéma classique, dans lequel le tout est dérivé de parties pré-existantes, dont les rapports réciproques sont prédéterminés. Ce que nous avons rappelle plutôt le rapport entre le tout et les parties d’un organisme, dans lequel chaque organe se développe et se maintien d’une façon qui dépend étroitement de l’ensemble. » [13]

Une molécule de sucre peut être divisée en ses atomes individuels constituants, mais alors ce n’est plus du sucre. Une molécule ne peut être réduite à ses parties constituantes sans perdre son identité. C’est justement le problème qui se pose lorsqu’on essaye d’étudier un phénomène complexe d’un point de vue strictement quantitatif. Dans la mesure où l’on ne tient nullement compte de l’aspect qualitatif, la simplification qui en résulte débouche sur une conception biaisée et unilatérale du monde naturel. C’est précisément à travers la qualité que nous pouvons distinguer les choses entre elles. La qualité est au fondement de notre connaissance du monde ; c’est elle, en effet, qui exprime la réalité fondamentale de toute chose et marque les frontières critiques qui existent à tous les niveaux de la réalité matérielle. Le point précis où des petits changements de degré provoquent un changement d’état est l’un des problèmes les plus fondamentaux de la science. Cette question occupe également une place centrale dans le matérialisme dialectique.

Les organismes complexes

La vie elle-même résulte du bond qualitatif de la matière inorganique vers la matière organique. L’explication du processus par lequel ce phénomène se réalise est l’un des plus importants et plus passionnants problèmes de la science actuelle. En analysant dans le détail la structure des molécules complexes, en prédisant leur comportement avec une grande précision et en identifiant le rôle des molécules individuelles dans des systèmes vivants, les progrès de la chimie ont ouvert la voie à l’émergence de nouvelles sciences, la biochimie et la biophysique, qui portent respectivement sur les réactions chimiques à l’œuvre dans les organismes vivants et sur les phénomènes physiques impliqués dans les processus vivants. Ces deux sciences se sont à leur tour fondues dans la biologie moléculaire , qui a enregistré les progrès les plus étonnants au cours de ces dernières années.

Ce faisant, la vieille séparation fixe entre la matière organique et la matière inorganique a été complètement abolie. Les premiers chimistes les distinguaient de façon rigide. Par la suite, on a peu à peu compris que les mêmes lois chimiques s’appliquaient aux molécules inorganiques et organiques. Toutes les substances qui contiennent du carbone (à l’exception possible de composés simples comme le dioxyde de carbone) sont caractérisées comme organiques. Les autres sont inorganiques. Seul les atomes de carbone sont capables de former de très longues chaînes, ce qui ouvre la possibilité d’une variété infinie de molécules.

Au XIXe siècle, des chimistes ont analysé les propriétés de substances « albumineuses » (du mot latin signifiant : « blanc d’œuf »). Ce faisant, ils ont découvert que la vie dépendait des protéines, ces larges molécules constituées d’acides aminés. Au début du XXe siècle, pendant que Planck réalisait une percée dans le domaine de la physique, Emil Fisher essayait d’assembler des acides aminés sous forme de chaînes, faisant en sorte que le groupe carboxyle d’un acide aminé soit toujours lié au groupe aminé du suivant. En 1907, il est parvenu à synthétiser une chaîne de dix-huit acides aminés. Fisher a appelé ces chaînes des peptides, du verbe grec « digérer », parce qu’il pensait que les protéines se brisaient en de telles chaînes dans le processus de la digestion. Cette théorie a finalement été prouvée par Max Bergmann en 1932.

Ces chaînes étaient encore trop simples pour produire les chaînes de polypeptides nécessaires pour créer des protéines. En outre, le déchiffrage de la structure de molécules de protéine était extrêmement difficile. Les propriétés de chaque protéine dépendent de la disposition exacte de chaque acide aminé sur la chaîne moléculaire. Ici aussi, la quantité détermine la qualité . Dans la mesure où le nombre d’arrangements possibles suivant lesquels peuvent s’organiser 19 acides aminés sur une chaîne s’élève à près de 120 million de milliards, cela constituait pour les biochimistes un problème apparemment insurmontable. Pour une protéine de la taille du serum albumine, constituée de plus de 500 acides aminés, compte un nombre d’arrangements possibles d’environ 10 600, autrement dit 1 suivi de 600 zéros. La structure complexe d’une molécule protéine importante – l’insuline – fut établie pour la première fois, en 1953, par le biochimiste britannique Fredrich Sanger. A l’aide de la même méthode, d’autres scientifiques sont parvenus à déchiffrer la structure de toute une série de molécules de protéines. Plus tard, ils sont parvenus à synthétiser des protéines en laboratoire. Il est désormais possible de synthétiser de nombreuses protéines y compris la très complexe hormone de croissance de l’homme, dont la chaîne compte 188 acides aminés.

La vie est un système d’interaction complexe, auquel concourent un nombre immense de réactions chimiques se produisant de façon rapide et continue. Chaque réaction dans le cœur, le sang, le système nerveux, les os et le cerveau interagit avec toutes les autres parties du corps. Le fonctionnement du corps vivant le plus simple est beaucoup plus complexe que celui de l’ordinateur le plus moderne : il permet des mouvements rapides, des réactions immédiates à la plus petite modification de l’environnement, de constants ajustements aux changements des conditions internes et externes. Il est particulièrement clair, ici, que le tout est plus que la somme des parties. Chaque partie du corps, chaque réaction musculaire et nerveuse dépend de tout le reste. Nous avons là une interrelation dynamique, complexe – en un mot, dialectique -, qui seule peut produire et entretenir ce phénomène que nous appelons la vie.

Le processus du métabolisme signifie que l’organisme change en permanence, absorbant de l’oxygène, de l’eau et de la nourriture (hydrates de carbone, graisses, protéines, minéraux et d’autres matières premières), les transformant en matières requises pour entretenir la vie, et rejetant les déchets. La relation dialectique entre le tout et les parties se manifeste aux différents niveaux de complexité de la nature, lesquels se reflètent dans les différentes disciplines scientifiques.

 (a) Les interactions atomiques et les lois de la chimie déterminent les lois de la biochimie, mais la vie elle-même est qualitativement différente.
 (b) Les lois de la biochimie « expliquent » tous les processus d’interaction humaine avec l’environnement. Cependant, l’activité et la pensée humaines sont qualitativement différentes des processus biologiques qui les constituent.
 (c) Chaque personne individuelle est le produit de son développement physique et de son environnement. Cependant, les interactions complexes de l’ensemble des individus qui constituent une société sont aussi qualitativement différentes. Dans chacun de ces cas, le tout est plus grand que la somme de ses parties et obéit à des lois différentes.

En dernière analyse, toute existence et activité humaines reposent sur les lois du mouvement des atomes. Nous faisons partie d’un univers matériel, qui est une totalité continue et qui fonctionne suivant ses lois inhérentes. Et pourtant, lorsqu’on passe de (a) à (c), on fait une série de sauts qualitatifs, et on doit tenir compte de différentes lois à des « niveaux » différents. (c) est basé sur (b) et (b) sur (a), mais personne de sensé ne chercherait à expliquer les mouvements complexes de la société humaine en termes de forces atomiques. Pour la même raison, il est absolument vain de réduire le problème de la criminalité aux lois de la génétique.

Une armée n’est pas réductible à la somme totale des soldats individuels. Le simple fait d’intégrer les soldats individuels dans une force massive, organisée sur des lignes militaires, les transforme aussi bien physiquement que moralement. Tant que la cohésion de l’armée est maintenue, elle constitue une formidable force. Ce n’est pas qu’une question de nombre. Napoléon connaissait parfaitement l’importance du moral dans la guerre. Comme élément d’une force nombreuse et disciplinée, le soldat individuel peut, dans des situations extrêmement dangereuses, accomplir des actes de bravoure et de sacrifice dont il ne se serait jamais cru capable dans des conditions normales, comme individu isolé. Il s’agit pourtant, dans les deux cas, d’une seule et même personne. Lorsque la cohésion de l’armée se brise sous l’impact de la défaite, le tout se décompose en ses « atomes » individuels, et l’armée devient une cohue démoralisée.

Engels s’intéressait beaucoup à la tactique militaire, si bien que la fille de Marx l’appelait « le Général ». Il a suivi de près le déroulement de la guerre civile américaine et de la guerre de Crimée, sur lesquels il a écrit beaucoup d’articles. Dans l’Anti-Dühring, il montre comment la loi de la quantité et de la qualité s’applique à la tactique militaire, et par exemple dans la capacité combative relative des soldats hautement disciplinés de Napoléon et de la cavalerie égyptienne (les « Mameluks ») :

« Pour finir, nous invoquerons encore un témoin en faveur de la transformation de la quantité en qualité : Napoléon. Voici comment il décrit le combat de la cavalerie française, mal montée mais disciplinée, contre les Mameluks, qui étaient incontestablement les meilleurs cavaliers de leurs temps mais qui manquaient de discipline :

” Deux Mameluks étaient absolument supérieurs à trois Français ; 100 Mameluks et 100 Français se valaient ; 300 Français étaient généralement supérieurs à 300 Mameluks ; 1000 Français battaient invariablement 1000 Mameluks.? Exactement comme, chez Marx, une grandeur minimum déterminée – quoique variable – de valeur d’échange était nécessaire pour que fût possible sa transformation en capital, de même, chez Napoléon, un détachement de cavalerie d’une grandeur minimum déterminée était nécessaire pour que la force de la discipline, qui reposait sur des rangs serrés et un déploiement coordonné, pût se manifester et grandir jusqu’à triompher même sur des masses plus grandes de cavaliers irréguliers mieux montés, plus habiles à cheval et au combat, et tout aussi courageux. » [14]

Le processus moléculaire de la révolution

Le processus d’une réaction chimique implique le franchissement de la barrière décisive connue sous le nom d’ état de transition. A ce stade, avant que les éléments réagissants ne deviennent le produit, ils ne sont ni l’un ni l’autre. Certaines anciennes liaisons se brisent et de nouvelles se forment. L’énergie requise pour passer ce point critique est appelée énergie de Gibbs. Avant qu’une molécule ne réagisse, elle a besoin d’une certaine quantité d’énergie, qui à un certain point la porte à l’état de transition. A température normale, seule une fraction minime des molécules réagissant possède une quantité d’énergie suffisante à la réaction chimique. A température plus élevée, une plus grande quantité de molécules aura cette énergie. Ainsi, le chauffage est l’un des moyens d’accélérer une réaction chimique. On peut aussi utiliser des catalyseurs, ce qui est largement le cas dans l’industrie. Sans catalyseurs, de nombreux processus se réaliseraient, certes, mais si lentement que ce ne serait pas économique. Le catalyseur ne peut ni changer la composition des substances en présence, ni altérer l’énergie de Gibbs des réactants, mais il peut faciliter la mise en contact de ces substances.

Il y a une certaine analogie entre ce phénomène et le rôle de l’individu dans l’histoire. Selon un préjugé classique, le marxisme ne ferait aucune place au rôle des individus dans la maîtrise de leur propre destinée. D’après cette caricature, la conception matérialiste de l’histoire réduit tout au « forces productives ». Les êtres humains ne seraient plus que des agents aveugles des forces économiques, ou encore des marionnettes dansant sous les fils de l’inéluctabilité historique. Cette conception mécanique du processus historique (déterminisme économique) n’a rien à voir avec la philosophie dialectique du marxisme.

Le matérialisme historique part de l’idée élémentaire que les hommes et les femmes font leur propre histoire. Cependant, contre la conception idéaliste qui fait des êtres humains des agents absolumentlibres, le marxisme explique qu’ils sont limités par les conditions matérielles de la société dans laquelle ils sont nés. Ces conditions sont fondamentalement déterminées par le niveau de développement des forces productives, sur lequel reposent, en dernière instance, toute culture, politique et religion humaines. Ceci dit, ces dernières ne sont pas directement formées par le développement économique ; elles peuvent avoir et ont effectivement une certaine indépendance. Les rapports extrêmement complexes entre tous ces facteurs ont un caractère dialectique et non mécanique. Les individus ne choisissent pas les conditions dans lesquelles ils sont nés. Ces conditions sont « données ». Et contrairement à ce que s’imaginent les idéalistes, les individus ne peuvent pas davantage imposer leur volonté à la société, fussent-ils doués d’une intelligence ou d’une force de caractère hors du commun. La théorie selon laquelle l’histoire est l’œuvre de « grands hommes » est un conte de fée grâce auquel on peut amuser des enfants de cinq ans. Elle a à peu près la même valeur scientifique que la théorie de la « conspiration », selon laquelle les révolutions sont le résultat de l’influence maligne d’« agitateurs ».

Tous les travailleurs savent que les grèves éclatent, non du fait d’agitateurs, mais à cause de mauvais salaires et de mauvaises conditions de travail. Contrairement à l’impression qui se dégage d’une certaine presse à sensation, les grèves ne sont pas des événements fréquents. Une usine ou un lieu de travail peut rester apparemment calme pendant des années. Même lorsque les salaires et les conditions de travail son attaquées, les travailleurs peuvent ne pas réagir. C’est tout particulièrement vrai dans le contexte d’un chômage de masse ou lorsque les sommets des organisations syndicales restent passives. Souvent, cette apparente indifférence de la majorité démoralise la minorité des activistes. Ils finissent, à tort, par penser que les autres salariés sont « arriérés » et qu’ils ne lutteront jamais. Mais en réalité, sous le calme apparent de la surface, des modifications ont lieu. Des centaines de petits incidents, d’irritations, d’injustices et d’injures s’accumulent graduellement dans la conscience des salariés. Trotsky a pertinemment décrit ce processus comme « le processus moléculaire de la révolution ». C’est l’équivalent de l’énergie de Gibbs dans les réactions chimiques.

Dans la vie réelle comme en chimie, les processus moléculaires prennent du temps. Aucun chimiste ne se plaindra du fait qu’une réaction chimique attendue mette longtemps à se produire, en particulier si les conditions d’une réaction rapide (haute température, etc.) font défaut. Finalement, l’état de transition chimique est atteint. A ce stade, la présence d’un catalyseur est d’aide précieuse pour faire aboutir le processus avec succès et de la façon la plus rapide et économique. De la même manière, sur un lieu de travail, il arrive un point où le mécontentement qui s’est accumulé déborde. Toute la situation est alors transformée en l’espace de 24 heures. Si les activistes n’y sont pas préparés, s’ils se sont laissés démoraliser par le calme apparent de la période précédente, ils seront complètement pris au dépourvu.

D’après la dialectique, les choses se transforment tôt ou tard en leur contraire. Comme le dit la Bible, « les premiers seront les derniers et les derniers seront les premiers ». On vu cela à de nombreuses reprises, en particulier dans l’histoire des grandes révolutions. Les couches les plus arriérées et inertes peuvent brusquement rattraper leur retard. Leur conscience se transforme radicalement. On le voit dans toutes les grèves. Et toutes les grèves nous montrent les éléments d’une révolution sous une forme embryonnaire et sous-développée. Dans de telles situations, une minorité consciente et audacieuse peut jouer un rôle assez similaire au catalyseur d’une réaction chimique. Dans certains cas, même un seul individu peut jouer un rôle absolument décisif.

En novembre 1917, le sort de la révolution russe fut en définitive déterminé par deux hommes – Lénine et Trotsky. Sans eux, il ne fait aucun doute que la révolution aurait échoué. Les autres dirigeants, dont Kamenev, Zinoviev et Staline, ont capitulé sous la pression des autres classes sociales. Il n’est pas question ici de « forces historiques » abstraites, mais de la question concrète du niveau de préparation, de prévision, de courage et d’habileté des dirigeants. Après tout, nous parlons d’une lutte entre des forces vivantes, et non d’une simple équation mathématique.

Est-ce à dire que l’interprétation idéaliste de l’histoire est correcte ? Est-ce que tout dépend de l’action de « grands hommes » ? Laissons les faits parler d’eux-mêmes. Au cours du quart de siècle qui a précédé la révolution de 1917, Lénine et Trosky ont passé la plupart de leur vie plus ou moins isolés des masses, ne travaillant souvent qu’avec de tout petits groupes de gens. Pourquoi étaient-ils incapables de jouer un rôle aussi décisif, par exemple, en 1916 ? Ou en 1907 ? Parce que les conditions objectives faisaient défaut. Ainsi, un syndicaliste qui appellerait constamment à la grève, indépendamment de la situation, deviendrait vite la risée de tous. De même, lorsque, dans le contexte d’une extraordinaire arriération du pays, la révolution russe était isolée et que l’équilibre entre les classes sociales se modifiait, ni Lénine ni Trotsky ne pouvaient empêcher la montée de la contre-révolution bureaucratique dirigée par un homme qui ne les valait sur aucun plan – Staline. Cet exemple résume bien la relation dialectique entre les facteurs subjectifs et objectifs de l’histoire humaine.

L’unité et l’interpénétration des contraires

Où que nous regardions dans la nature, nous voyons la co-existence dynamique de tendances opposées. C’est de cette tension créatrice que découlent la vie et le mouvement. Héraclite l’avait déjà compris il y a 2500 ans. Cette idée est même présente de façon embryonnaire dans certaines religions orientales, comme par exemple dans le ying et le yang en Chine, ou encore dans le Boudhisme. La dialectique y apparaît sous une forme mystique, ce qui n’en reflète pas moins une intuition des mécanismes de la nature. Les trois phases que pose par la religion Hindou – la création (Brahma), le maintien ou l’ordre (Vishnu) et la destruction ou le désordre (Shiva) – constituent le germe d’une idée dialectique. Dans son intéressant ouvrage sur les mathématiques du chaos, Ian Stewart souligne que la différence entre le dieu Shiva, « le Sauvage », et Vishnu, n’est pas l’antagonisme entre dieu et le diable,mais signifie que les deux principes de l’harmonie et du désordre sous-tendent toute l’existence.

« De la même manière », écrit-il « les mathématiciens commencent à concevoir l’ordre et le chaos comme deux manifestations d’un déterminisme sous-jacent. Aucun des deux n’existe isolément. Le système typique peut exister dans une variété d’états, certains ordonnés, d’autres chaotiques. Au lieu de deux polarités opposées, nous avons un spectre continu. De même que l’harmonie et l’inharmonie se combinent dans la beauté musicale, l’ordre et le chaos se combinent dans la beauté mathématique. » [15]

Chez Héraclite, ces idées consistaient en une hypothèse bien inspirée. Aujourd’hui, d’innombrables exemples ont confirmé cette hypothèse. L’unité des contraires est au cœur de l’atome, et tout l’univers est constitué de molécules, d’atomes et de particules subatomiques. R. P. Feynman a très bien posé le problème : « Toutes les choses, nous-mêmes y compris, sont faites de parties positives et négatives, étroitement liées dans une interaction puissante, et toutes finement équilibrées. » [16]

La question est : comment se fait-il qu’un plus et un moins soient « parfaitement équilibrés » ? C’est une idée contradictoire ! Dans les mathématiques élémentaires, un plus et un moins ne se « s’équilibrent » pas. Ils s’annulent réciproquement. La physique moderne a découvert les forces énormes qui siègent au cœur de l’atome. Pourquoi les forces contradictoires des électrons et des protons ne s’annulent-elles pas réciproquement ? Pourquoi les atomes ne se dissocient-ils pas, simplement ? L’explication courante se réfère à la « force puissante » qui maintient l’unité de l’atome. Mais le fait est que l’unité des opposés est au cœur de toute réalité.

Le noyau d’un atome abrite deux forces contraires : l’attraction et la répulsion. D’un côté, il y a des répulsions électriques qui, si elles n’étaient pas retenues, feraient éclater violemment le noyau. D’un autre côté, il y a de puissantes forces d’attraction qui relient entre elles les particules nucléaires. Cependant, cette force d’attraction a ses limites, au-delà desquelles elle ne peut plus maintenir la cohésion des particules. A la différence des forces de répulsion, les forces d’attraction sont d’une très faible portée. Dans un petit noyau, elles peuvent contenir les forces de répulsion. Mais dans un grand noyau, elles ne les dominent pas facilement.

Au-delà d’un point critique, le lien se brise et un saut qualitatif a lieu. Le lien est sur le point de se rompre, comme une goutte d’eau qui s’allonge. Lorsqu’on ajoute au noyau un neutron supplémentaire, la tendance disruptive augmente rapidement. Le noyau se brise, formant deux petits noyaux, qui se séparent violemment en libérant une grande quantité d’énergie. C’est ce qui arrive dans la fission nucléaire. Cependant, des processus analogues peuvent être observés à de nombreux et différents niveaux de la nature. De l’eau tombant sur une surface polie se brisera en un ordre complexe de gouttelettes. La raison en est que deux forces opposées sont à l’œuvre : la gravité, qui a tendance à étendre l’eau en une fine pellicule recouvrant toute la surface, et la tension superficielle, c’est-à-dire l’attraction réciproques des molécules d’eau, qui a tendance à maintenir l’unité du liquide, ce qui tend à former des gouttelettes compactes.

La nature semble aller par paires. Au niveau subatomique, nous avons les forces « faibles » et les forces « puissantes » ; l’attraction et la répulsion ; le nord et le sud dans le magnétisme ; le positif et le négatif en électricité ; la matière et l’anti-matière ; le mâle et la femelle en biologie ; le pair et l’impair en mathématiques ; et même le concept de « gauchers et droitiers » en ce qui concerne la « rotation » des particules subatomiques. Il y a une certaine symétrie, dans laquelle des tendances contradictoires, pour citer Feynman, « s’équilibrent », ou encore, comme le dit plus poétiquement Héraclite, « se mettent d’accord en différant comme les tensions opposées des cordes et de l’archet d’un instrument de musique ». Il y a deux types de matières, qui peuvent être appelées positive et négative. Les semblables se repoussent et les différents s’attirent.

Positif et négatif

Le positif n’a aucune signification sans le négatif. Ils sont nécessairement inséparables. Hegel expliquait déjà que l’« être pur » (dénué de contradiction) est la même chose que le pur néant, autrement dit une abstraction vide. Pareillement, si tout était blanc, cela reviendrait au même, pour nous, que si tout était noir. Tout, dans le monde réel, comporte du négatif et du positif, de l’être et du non-être, parce que tout est dans un état permanent de mouvement et de changement. Notons, à ce propos, que les mathématiques montrent que zéro lui-même n’est pas égal à rien. Engels écrivait à ce sujet :

« Du fait qu’il est la négation de toute quantité déterminée, zéro n’est pas pour autant sans contenu. Il a au contraire un contenu tout à fait déterminé. Comme limites entre toutes les grandeurs positives et toutes les grandeurs négatives, comme unique nombre réellement neutre, qui ne peut être ni positif ni négatif, il est non seulement un nombre très déterminé, mais encore plus important par sa nature que tous les autres nombres qu’il limite. En fait zéro est plus riche de contenu que tout autre nombre. Placé à la droite de tout autre nombre dans notre système de numération, il décuple sa valeur. Au lieu de zéro on pourrait utiliser à cette fin tout autre signe, mais seulement à la condition que, pris en soi, ce signe signifie zéro. Il est donc dans la nature du zéro lui-même qu’il soit employé de cette façon et que seul il puisse être utilisé ainsi. Zéro annule tout autre nombre par lequel on le multiplie ; pris comme diviseur ou dividende de tout autre nombre, il rend celui-ci, dans le premier cas infiniment grand, dans le second infiniment petit ; il est le seul nombre qui soit dans un rapport infini avec tout autre nombre. La fraction 0/0 peut exprimer tout nombre entre + 8 et – 8 et représente dans tous les cas une grandeur réelle. » [17]

Les grandeurs négatives de l’algèbre n’ont de signification que par rapport aux grandeurs positives, sans lesquelles elles n’ont aucune espèce de réalité. La relation dialectique entre l’être et le non-être est particulièrement claire dans le calcul différentiel. Hegel aborde longuement ce sujet dans sa Science de la logique. Il s’amusait beaucoup de la perplexité des mathématiciens traditionnels, qui étaient choqués par la méthode utilisant des grandeurs infinitésimales, et « ne peuvent se passer de l’idée qu’une certaine quantité n’est pas égale à zéro, mais est si minime qu’elle peut être considérée comme une quantité négligeable », et permet pourtant d’obtenir toujours un résultat correct. [18]

En outre, tout est en permanence en relation avec d’autres choses. Nous sommes affectés par la lumière, les radiations et la gravité, y compris sur de très grandes distances. Bien que nos sens ne le détectent pas, un processus d’interaction est à l’œuvre qui est la cause d’une série ininterrompue de changements. Les rayons ultraviolets sont capables de faire « s’évaporer » des électrons de surfaces métalliques d’une façon analogue aux rayons de soleil faisant s’évaporer l’eau des océans. Banesh Hoffmann écrit : « Il est toujours étrange et émouvant de penser que, vous et moi, nous nous échangeons régulièrement des particules, et que nous en échangeons aussi avec la terre, les animaux, le soleil, la lune et les étoiles – jusqu’à la plus éloignée des galaxies ». [19]

L’équation de Dirac sur l’énergie d’un électron individuel comporte deux solutions – l’une positive, l’autre négative. Le problème est analogue à la racine carrée d’un nombre, qui peut-être aussi bien négative que positive. Ici, cependant, la solution négative pose une idée contradictoire : l’énergie négative. Du point de vue de la logique formelle, cela paraît être un concept absurde. Dans la mesure où la masse et l’énergie sont équivalentes, une énergie négative implique une masse négative. Dirac lui-même était troublé par les implications de sa propre théorie. Elle le forçait à postuler l’existence de particules qui seraient identiques à l’électron, mais avec une charge électrique positive, c’est-à-dire d’une matière dont on n’avait jamais parlé auparavant.

Le 2 août 1932, Robert Millikan et Carl D. Anderson de l’Institut Californien de Technologie, ont découvert une particule dont la masse était clairement celle d’un électron, mais qui se déplaçait dans la direction opposée à celle d’un électron. Ce n’était ni un électron, ni un proton, ni un neutron. Anderson le caractérisait comme un « électron positif » – ou positron. Il s’agissait d’un nouveau type de matière – de l’anti-matière -, dont les équations de Dirac avaient prévu l’existence. Par la suite, on a découvert que les électrons et les positrons, lorsqu’ils se rencontrent, s’annihilent réciproquement, produisant deux photons (deux éclats de lumière). De même, un photon qui traverse de la matière peut se diviser pour former un électron virtuel et un positron.

Le phénomène des oppositions existe en physique, où, par exemple, chaque particule a son antiparticule (l’électron et le positron, le proton et l’antiproton, etc). Elles ne sont pas simplement différentes, mais opposées au sens littéral du mot, c’est-à-dire identiques sous tous les rapports, sauf un : elles ont des charges électriques opposées – positive et négative. A cet égard, il est d’ailleurs indifférent de savoir laquelle des deux est caractérisée comme négative ou positive. Ce qui compte, c’est la relation qui existe entre elles.

Toute particule possède la qualité connue sous le nom de spin (rotation) et qui, selon sa direction, s’exprime par un plus ou par un moins. Aussi étrange que cela puisse paraître, le phénomène de « gaucher et droitier », qui joue un rôle fondamental en biologie, a aussi son équivalent au niveau subatomique. Les particules et les ondes sont en contradiction les unes par rapport aux autres. D’une façon assez confuse, le physicien danois Niels Bohr les caractérisait comme « concepts complémentaires », par quoi il voulait précisément dire qu’elles s’excluaient mutuellement.

Les recherches les plus récentes de la physique des particules sont en train de dévoiler le niveau de la matière le plus fondamental découvert à ce jour – les quarks. Ces particules ont, elles aussi, des « caractéristiques » opposées qui ne sont pas comparables aux formes connues, ce qui oblige les physiciens à inventer, pour les décrire, des caractéristiques nouvelles et artificielles. Ainsi, nous avons les quarks « up » (« montants »), les quarks « down » (« descendants »), les quarks « de charme », les quarks « étranges », et ainsi de suite. Bien qu’il reste encore à découvrir réellement les propriétés des quarks, une chose est claire : le phénomène de l’opposition existe au niveau le plus fondamental de la matière qui soit connu de la science.

En réalité, le phénomène universel de l’unité des contraires est la force motrice de tout mouvement et de tout développement dans la nature. Voilà pourquoi il n’est pas nécessaire de recourir au concept d’impulsion extérieure pour expliquer le mouvement et les changements – un tel recours constituant la faiblesse fondamentale de toutes les théories mécanistes. Le mouvement, qui en lui-même implique une contradiction, n’est possible que comme résultat des tendances antagoniques et des tensions internes que recèlent toutes les formes de la matière.

Des tendances opposées peuvent exister à l’état d’équilibre instable pendant de très longues périodes de temps, jusqu’à ce qu’un changement – même un petit changement quantitatif – détruise l’équilibre et donne lieu à un état critique dont peut résulter une transformation qualitative. En 1936, Bohr comparait la structure d’un noyau atomique à une goutte de liquide – par exemple une goutte de pluie suspendue à une feuille. Dans ce cas, la force de gravité lutte contre la force de la « tension de surface », qui a tendance à maintenir ensemble les molécules d’eau. L’ajout de quelques molécules supplémentaires suffit à rendre le liquide instable. La goutte, plus grosse, commence à trembler ; la tension de surface n’est plus à même de maintenir l’adhésion de la masse à la feuille – et le tout finit par tomber.

La fission nucléaire

Cet exemple apparemment simple, dont des centaines d’équivalents peuvent être observés au quotidien, est assez analogue au processus à l’œuvre dans la fission nucléaire. Le noyau lui-même n’est pas au repos, mais dans un état de changement constant. Des milliards de collisions aléatoires de particules ont lieu en l’espace d’un mille milliardième de seconde. Des particules entrent dans le noyau et en sortent en permanence. Néanmoins, la cohésion du noyau est maintenue par ce qui est souvent décrit comme une force puissante. Il reste dans un état d’équilibre instable, ou encore « au bord du chaos », pour utiliser le termes de la théorie du chaos.

Comme dans une goutte de liquide que fait trembler le mouvement des molécules qui la composent, les particules sont constamment en train de se déplacer, de se transformer et d’échanger leur énergie. Comme dans une grosse goutte de pluie, les liaisons entre les particules dans les plus gros noyaux atomiques sont les moins stables et les plus susceptibles de se briser. La libération régulière de particules alpha, à la surface du noyau, le rend plus petit et plus stable. Mais on a découvert que l’on peut briser un gros noyau en le bombardant de neutrons, ce qui provoque la libération d’une partie de l’énorme quantité d’énergie retenue dans l’atome. Tel est le procédé de la fission nucléaire. Elle peut aussi se réaliser sans des particules soient introduites de l’extérieur. Le processus de fission spontanée(décomposition radioactive) se réalise sans cesse dans la nature. Dans une livre d’uranium, il se produit quatre fissions spontanées par seconde, et huit millions de noyaux émettent des particules alpha. Les fissions nucléaires sont d’autant plus probables que le noyau est lourd.

L’unité des opposés est au cœur de la vie même. Lorsque les spermatozoïdes ont été découverts, on a d’abord pensé qu’il s’agissait « d’homoncules », c’est-à-dire d’une version miniature d’êtres humains parfaitement formés – qui, comme Flopsy dans La case de l’oncle Tom, « n’faisait qu’pousser ». En réalité, le processus est bien plus complexe et dialectique. La reproduction sexuelle dépend de la combinaison d’un spermatozoïde et d’un ovule, au cours d’un processus qui, tout à la fois, les détruit et les préserve, et transmet toutes les informations génétiques nécessaires à la création d’un embryon. Au terme de toute une série de transformations, qui rappellent d’une façon frappante l’évolution de toute vie à partir de la division d’une cellule unique, le résultat final est un individu entièrement nouveau. En outre, le produit de cette union possède les gènes des deux parents, mais d’une façon telle qu’il se distingue d’eux. Ainsi, il ne s’agit pas d’une simple reproduction, mais d’un véritable développement. La diversité croissante qui en découle est, du point de vue de l’évolution, l’un des grands avantages de la reproduction sexuelle.

On trouve des contradictions à tous les niveaux de la nature – et malheur à la logique qui ne le reconnaît pas. Un électron peut non seulement être en même temps à deux endroits différents (et même plus de deux), mais il peut aussi se déplacer simultanément dans des différentes directions. Nous n’avons malheureusement d’autre choix que d’être d’accord avec Hegel : ils sont et ne sont pas. Les choses se transforment en leur contraire. Les électrons, chargés négativement, se transforment en positrons, chargés positivement. Un électron qui s’unit à un proton n’est pas détruit, comme on pourrait s’y attendre, mais produit une nouvelle particule : le neutron, dont la charge est neutre.

Les lois de la logique formelle ont reçu un cinglant démenti dans le domaine de la physique moderne, où elles se sont révélées définitivement incapables d’expliquer les processus contradictoires qui se déploient au niveau subatomique. Le fait que des particules se désintègrent si rapidement qu’il est difficile de dire si elles existent ou pas – ce fait constitue un problème insurmontable pour un système logique qui s’efforce de purger la nature et la pensée de toute contradiction. La logique formelle mène immédiatement à de nouvelles contradictions insolubles. La pensée formelle se trouve en contradiction avec les faits établis et systématiquement confirmés par l’expérimentation et l’observation. L’unité d’un proton et d’un électron est un neutron. Mais si un positron s’unit à un neutron, le résultat en est la perte d’un électron, cependant que le neutron se transforme en proton. Par le biais de ce processus permanent, l’univers se crée et se recrée constamment. Par conséquent, contrairement à ce qu’affirme la physique classique, il n’y a pas besoin d’une force externe ou encore d’une « première impulsion ». Il n’y a besoin de rien – à l’exception du mouvement infini et incessant de la matière, conformément à ses propres lois objectives.

Des antipodes ?

La polarité est une caractéristique omniprésente de la nature. Elle n’existe pas seulement dans le cas des pôles nord et sud de la terre. On la retrouve sur le soleil, la lune et les autres planètes. Elle existe aussi au niveau subatomique, où les noyaux se comportent exactement comme s’ils avaient non pas une, mais deux paires de pôles.

« La dialectique », écrit Engels, « en s’appuyant sur les résultats acquis à ce jour de notre expérience de la nature, a démontré que toutes les oppositions polaires en général sont déterminées par l’action réciproque des deux pôles opposés ; que la séparation et l’opposition de ces deux pôles ne peut exister que dans les limites de leur connexion réciproque et de leur union ; qu’inversement leur union ne réside que dans leur séparation, et leur connexion réciproque que dans leur opposition. Une fois ceci établi, il ne peut être question, ni d’un équilibre définitif de la répulsion et de l’attraction, ni de la répartition définitive d’une des formes du mouvement sur une moitié de la matière et de l’autre forme sur l’autre moitié, et donc ni d’une interpénétration réciproque, ni d’une séparation absolue des deux pôles. Ce serait exactement la même chose que d’exiger, dans le premier cas, que le pôle nord et le pôle sud d’un aimant se neutralisent réciproquement, et, dans le second cas, qu’en sciant un aimant par le milieu entre les deux pôles, on obtienne d’une part une moitié nord sans pôle sud, et d’autre part une moitié sud sans pôle nord. » [20]

Il est des choses que les gens considèrent comme absolument et immuablement opposées. Par exemple, lorsqu’on veut exprimer la notion d’extrême incompatibilité, on utilise le terme d’« antipode » – le nord et le sud sont considérés comme des réalités absolument fixes et opposées. Pendant plus de mille ans, les marins ont placé leur confiance dans la boussole, qui les guidait à travers des océans inconnus en pointant toujours vers cette chose mystérieuse appelée le pôle nord. Cependant, des analyses plus approfondies montrent que le pôle nord n’est ni fixe ni stable. La terre est entourée d’un puissant champ magnétique (un axe bipolaire géocentrique), comme si un gigantesque aimant se trouvait au centre de la terre, aligné parallèlement à son axe. La cause en est la composition métallique du noyau terrestre, lequel est principalement constitué de fer. Depuis la formation du système solaire, il y a 4,6 milliards d’années, les roches terrestres se sont formées et reformées à de nombreuses reprises. Et non seulement les roches, mais aussi tout le reste. Des mesures et des recherches détaillées ont à présent prouvé avec une parfaite certitude que l’emplacement des pôles magnétiques se déplace en permanence. Actuellement, ils se déplacent très lentement : 0,3 degrés par millions d’années. Ce phénomène est la conséquence des modifications complexes qui affectent la terre, l’atmosphère et le champ magnétique solaire.

Le déplacement des pôles est si lent que, des siècles durant, il est demeuré inaperçu. Ceci dit, même ce processus apparemment imperceptible donne lieu à des modifications soudaines et spectaculaires au cours desquels le nord devient le sud et inversement. L’évolution de l’emplacement des pôles s’accompagne de fluctuations de la force magnétique elle-même. Ce processus graduel, caractérisé par un affaiblissement du champ magnétique, culmine en un saut qualitatif soudain. Les pôles s’inversent, se convertissant littéralement en leur opposé. Après quoi le champ magnétique commence à se reconstituer et monte à nouveau en puissance.

Ces bouleversements se sont produits à de nombreuses reprises au cours de l’histoire de la terre. On estime que plus de 200 inversions polaires ont eu lieu depuis 65 millions d’années, et au moins quatre depuis quatre millions d’années. Il y a environ 700 000 ans, le pôle nord était situé quelque part en Antarctique, l’actuel pôle géographique sud. Nous sommes en ce moment dans une phase d’affaiblissement du champ magnétique terrestre, qui culminera inévitablement en une nouvelle inversion. L’étude de l’histoire magnétique de la terre est le terrain particulier d’une toute nouvelle branche scientifique – le paléomagnétisme – qui essaye d’établir les cartes de toutes les inversions polaires au cours de l’histoire de notre planète.

Les découvertes du paléomagnétisme ont, à leur tour, fourni des preuves concluantes de l’exactitude de la théorie de la dérive continentale. Lorsque des roches (en particulier des roches volcaniques) produisent des minéraux riches en fer, ceux-ci répondent au champ magnétique terrestre qui existe à ce moment, de même que des morceaux de fers réagissent à un aimant, leurs atomes s’alignant sur l’axe du champ magnétique. En comparant les orientations des minéraux dans des roches du même âge et des continents différents, il est possible de retracer les mouvements des continents, y compris ceux de continents qui n’existent plus ou dont il ne reste plus que quelques débris.

L’inversion des pôles constitue un exemple limpide de la loi dialectique de l’unité et de l’interpénétration des contraires. Le nord et le sud – antipodes au sens le plus littéral du terme – ne sont pas juste indissociablement unis, mais se déterminent réciproquement par le biais d’un processus dynamique complexe. Celui-ci culmine en un saut qualitatif soudain au cours duquel des phénomènes prétendument fixes et immuables se transforment en leurs opposés. Et ce processus dialectique n’est pas l’invention arbitraire et fantaisiste de Hegel ou Engels, mais est démontré de façon concluante par les découvertes les plus récentes du paléomagnétisme. Décidément, « quand les hommes se taisent, les pierres poussent un cri ! »

La loi de l’attraction et de la répulsion est un prolongement de la loi de l’unité et de l’interpénétration des contraires. On la retrouve à tous les niveaux de la nature, du plus petit phénomène au plus grand. D’immenses forces d’attraction et de répulsion sont au coeur de l’atome. Par exemple, l’atome d’hydrogène est constitué d’un proton et d’un électron qu’une attraction électrique maintient unis. La charge d’une particule peut-être positive ou négative. Des charges similaires se repoussent, alors que des charges contraires s’attirent. Ainsi, à l’intérieur du noyau, les protons se repoussent, mais l’unité du noyau est assurée par une force nucléaire énorme. Cependant, dans les noyaux très lourds, la force de répulsion électrique peut atteindre une intensité telle qu’elle triomphe de la force nucléaire et que le noyau se désintègre.

Engels soulignait le rôle universel de l’attraction et de la répulsion :

« Tout mouvement consiste en l’action réciproque de l’attraction et de la répulsion. Mais il n’est possible que si chaque attraction particulière est compensée ailleurs par une répulsion équivalente. Sans cela, avec le temps, l’un des côtés l’emporterait sur l’autre, et ce serait en fin de compte la cessation du mouvement. En conséquence, toutes les attractions et toutes les répulsions de l’univers doivent se compenser réciproquement. Par suite, la loi exprimant l’impossibilité de détruire et de créer le mouvement s’énonce de la façon suivante : tout mouvement d’attraction dans l’univers doit être complété par un mouvement de répulsion équivalent, et inversement ; ou bien, ainsi que l’exprimait – bien avant que la science ait établi la loi de la conservation de la force, ou de l’énergie – la philosophie antique : la somme de toutes les attractions dans l’univers est égale à la somme de toutes les répulsions. »

A l’époque d’Engels, la conception du mouvement qui dominait provenait de la mécanique classique, pour laquelle le mouvement est communiqué par une force extérieure qui triomphe de la force d’inertie. Engels critiquait sévèrement l’expression même de « force », qu’il considérait comme unilatérale et insuffisante pour décrire les processus réels de la nature. « Tous les processus naturels sont doubles », écrivait-il, « ils reposent sur le rapport d’au moins deux partie agissantes, l’action et la réaction. Or, la notion de force, du fait qu’elle tire son origine de l’action de l’organisme humain sur le monde extérieur, et ensuite de la mécanique terrestre, implique qu’une seule partie est active, opérante, mais que l’autre est passive, réceptive. » [21]

En critiquant radicalement cette notion, Engels était très en avance sur son temps. Elle avait d’ailleurs été déjà attaquée par Hegel. Dans son Histoire de la philosophie, Hegel remarque qu’« il vaut mieux (dire) que l’aimant à un âme (pour s’expliquer comme Thalès) que dire qu’il a la force d’attirer ; la force est un genre de propriété qu’on se représente comme séparable de la matière, comme un prédicat, alors que l’âme est ce mouvement de soi-même, elle est la même chose que la nature de la matière. » Cette remarque de Hegel, qu’Engels cite en l’approuvant, contient une l’idée profonde que le mouvement et l’énergie sont inhérents à la matière. La matière se meut et s’organise elle-même.

Pour Engels, même le mot « énergie » n’était pas complètement adéquat, bien que largement préférable à celui de « force ». Il lui reprochait de « laisser encore place à l’illusion que l’énergie est quelque chose d’extérieur à la matière, quelque chose qui lui est apporté du dehors. Mais elle est, dans tous les cas, préférable à celle de ” force “. » [22] La véritable relation entre la matière et l’énergie a été démontrée par Einstein avec sa théorie de l’équivalence de la matière et de l’énergie, qui montre que matière et énergie sont une seule et même chose. Comme le montrent les citations ci-dessus, c’était précisément le point de vue du matérialisme dialectique tel que l’a formulé Engels, et que même Hegel avait anticipé.

La négation de la négation

Toute science a son propre vocabulaire, dont les termes, souvent, ne coïncident pas avec le langage courant. Cela peut mener à des difficultés et à des malentendus. Le mot « négation » signifie communément la simple destruction, ou encore la suppression. Il est important de comprendre que, dans la dialectique, la négation a un tout autre contenu. Il signifie nier et préserver en même temps. On peut nier une graine en l’écrasant sous son pied. La graine est alors « niée », mais pas au sens dialectique ! Si, par contre, on laisse la graine dans des conditions favorables, elle va germer. Elle se sera donc niée en tant que graine et développée sous la forme d’une plante, laquelle, à une étape ultérieure, mourra, produisant de nouvelles graines.

Il semble qu’il y ait là un retour au point de départ. Cependant, comme le savent les jardiniers professionnels, des graines d’une espèce donnée varient de génération en génération, aboutissant à l’émergence de nouvelles espèces. Les jardiniers savent aussi que certaines variétés peuvent être créées artificiellement au moyen de la reproduction sélective. C’est précisément cette sélection artificiellequi a fourni à Darwin de précieuses indications quant au processus naturel de sélection qui se déroule spontanément dans toute la nature. C’est elle qui constitue la clé de la compréhension du développement de toutes les plantes et de tous les animaux. Ainsi, il ne s’agit pas simplement d’un changement, mais d’un développement, lequel procède généralement de formes simples aux formes complexes, y compris les molécules complexes de la vie qui, à un certain stade, émergent de la matière inorganique.

Considérons l’exemple de négation suivant, tiré de la mécanique quantique. Que se passe-t-il lorsqu’un électron s’unit à un photon ? L’électron réalise un « saut quantique » et le photon disparaît. Le résultat n’est pas une sorte d’unité mécanique ou un composant. Il en est de même lorsque l’électron s’unit à un proton. L’électron disparaît, cependant que l’état énergétique et la charge du proton se modifient. Le proton est le même qu’auparavant, mais avec un nouvel état énergétique et une nouvelle charge. Il est désormais électriquement neutre : il s’est transformé en neutron. En termes dialectiques, l’électron a été en même temps nié et préservé. Il a disparu, mais n’est pas anéanti. Il entre dans une nouvelle particule et se manifeste en un changement d’énergie et de charge.

Les Grecs anciens connaissaient la dialectique de la discussion. Dans un débat correctement conduit, une idée est avancée (la Thèse), à laquelle est ensuite opposée la conception inverse (l’Antithèse), qui est en est la négation. Finalement, à travers un processus complet de discussion, qui explore le sujet en question de tous les points de vue et en dévoile toutes les contradictions cachées, nous en arrivons à une conclusion (la Synthèse). Que nous parvenions ou non à un accord, par le processus même de la discussion, nous avons approfondi notre connaissance et notre compréhension du problème, et nous avons élevé le débat à un niveau qualitativement supérieur.

Il est assez évident que la grande majorité de ceux qui critiquent le marxisme n’ont jamais pris la peine de lire Marx et Engels. On entend souvent, par exemple, que la dialectique consiste dans la triade « Thèse-Antithèse-Synthèse », que Marx aurait reprise à Hegel (lequel l’avait lui-même reprise de la Sainte Trinité) et appliquée à la société. Des gens prétendument intelligents répètent, aujourd’hui encore, cette enfantine caricature. De fait, non seulement la dialectique matérialiste de Marx est à l’opposé de la dialectique idéaliste de Hegel, mais la dialectique de Hegel est elle-même très différente de celle de la philosophie classique grecque.

Plekhanov a justement ridiculisé la tentative de réduire l’édifice imposant de la dialectique hégélienne au « trépied en bois » de la Thèse-Antithèse-Synthèse. Les rapports entre la dialectique de Hegel et celle des Grecs sont comparables aux rapports entre la chimie moderne et les investigations primitives des alchimistes. Il est vrai que la première a préparé le terrain de la seconde, mais il est simplement ridicule de dire qu’elles sont « fondamentalement identiques ». Hegel en revient à Héraclite, mais à un niveau qualitativement supérieur, enrichi par 2 500 ans de progrès philosophiques et scientifiques. Le développement de la dialectique est lui-même un processus dialectique.

De nos jours, le mot « alchimie » est synonyme de charlatanisme. Il est associé à la sorcellerie et à la magie noire. L’histoire de l’alchimie comportait de tels éléments, mais son activité ne s’y limitait en aucun cas. L’alchimie a joué un rôle de première importance dans l’histoire des sciences. « Alchimie » – ou Al Kimya – est un mot arabe qui signifie les sciences de la matière. Parmi les alchimistes, il y avait des charlatans, mais aussi bon nombre de scientifiques ! Et « chimie » est le mot occidental qui désigne la même chose. Il se trouve que bon nombre des termes de chimie sont d’origine arabes – acide, alcali, alcool, etc.

Les alchimistes partaient du principe qu’il était possible de transmuer un élément en un autre. Pendant des siècles, ils ont essayé de découvrir la « pierre philosophale », dont ils croyaient pouvoir se servir pour transformer du plomb en or. S’ils y étaient arrivés, ils n’y auraient pas gagnés grand-chose, car la valeur de l’or aurait rapidement chuté au niveau de celle du plomb ! Mais c’est là une autre histoire. Etant donné le niveau de développement de la technique, à cette époque, les alchimistes tentaient l’impossible. Finalement, ils furent forcés d’en venir à la conclusion que la transmutation des éléments était impossible. Ceci dit, les efforts des alchimistes ne furent pas vains. En cherchant à vérifier une hypothèse non scientifique – la pierre philosophale -, ils ont réalisé un véritable travail de pionniers : ils ont développé l’art de l’expérimentation, inventé des équipements qui sont toujours utilisés dans nos laboratoires modernes et enfin décrit et analysé une large éventail de réactions chimiques. En ce sens, l’alchimie a préparé le terrain au développement ultérieur de la chimie.

La chimie moderne n’a pu progresser qu’en répudiant l’hypothèse de base de l’alchimie – la transmutation des éléments. A partir de la fin du XVIIIe siècle, la chimie s’est développée sur des bases scientifiques. En renonçant aux objectifs grandioses du passé, elle a fait des pas de géants. Puis, en 1919, le scientifique anglais Rutherford a réalisé une expérience impliquant le bombardement de noyaux de nitrogène avec des particules alpha. Cela a permis, pour la première fois, de briser un noyau atomique. Ce faisant, Rutherford est parvenu à transmuter un élément (le nitrogène) en un autre élément (l’oxygène). La quête ancienne des alchimistes était accomplie – mais pas du tout d’une façon qu’ils auraient pu prévoir !

A présent, considérons ce processus de plus près. On commence par la thèse : a) la transmutation des éléments ; celle-ci est niée par son antithèse : b) l’impossibilité de transmuter des éléments ; celle-ci est à son tour renversée par une deuxième négation : c) la transmutation des éléments. Ici, nous devons noter trois choses. Premièrement, chaque négation marque un progrès déterminé – à savoir un saut qualitatif en avant. Deuxièmement, chaque avancée successive nie l’étape précédente, réagit contre elle, et, en même temps, préserve tout ce qu’elle contient d’utile et de nécessaire. Enfin, la dernière étape – la négation de la négation – ne signifie nullement un retour à l’idée d’origine (en l’occurrence, l’alchimie), mais une réapparition de formes anciennes à un niveau qualitativement supérieur. Soit dit en passant, il est désormais possible de transformer le plomb en or, mais cela coûterait trop cher pour en valoir la peine !

La dialectique envisage les processus fondamentaux à l’œuvre dans l’univers, la société et l’histoire des idées, non comme un cercle fermé où les mêmes processus se répètent dans un cycle mécanique sans fin, mais comme une sorte de spirale de développement ouverte, dans laquelle rien ne se répète exactement de la même manière. Ce processus peut être clairement observé dans l’histoire de la philosophie et de la science. Toute l’histoire de la pensée consiste en un processus sans fin de développement à travers des contradictions.

Une théorie est avancée qui explique certains phénomènes. Petit à petit, elle gagne en influence, à la fois du fait de l’accumulation de preuves qui la corroborent et parce qu’il n’existe aucune théorie alternative satisfaisante. A un certain stade, des failles apparaissent, auxquelles on fait abstraction en les considérant comme des exceptions sans importance. Plus tard, une nouvelle théorie émerge qui contredit l’ancienne théorie et semble mieux expliquer les faits observés. Finalement, après une lutte, l’orthodoxie existante est renversée par la nouvelle théorie. Mais celle-ci soulève de nouvelles questions, qui à leur tour doivent être résolues. Ce faisant, il apparaît souvent que l’on en revient à nouveau à des idées que l’on pensait discréditées. Mais cela ne signifie pas un retour au point de départ. Il s’agit d’un processus dialectique, au cours duquel s’approfondit toujours plus notre compréhension du fonctionnement de la nature, de la société et de nous-mêmes. Telle est la dialectique de l’histoire de la philosophie et de la science.

Joseph Dietzgen, un compagnon de Marx et Engels, a dit une fois qu’un homme âgé qui regarde vers son passé peut le considérer comme une série ininterrompue d’erreurs qu’il choisirait sans doute d’éliminer s’il pouvait remonter le temps. Mais alors, cet homme fait face à la contradiction dialectique suivante : ce n’est qu’à travers ces erreurs qu’il en est arrivé à la sagesse lui permettant les juger comme telles. Comme Hegel l’observait avec profondeur, les mêmes maximes n’ont pas le même poids dans la bouche d’un jeune homme et dans celle d’un homme dont l’expérience les a remplies de sens et de contenu. Ce sont les mêmes maximes et cependant elles sont différentes. Ce qui n’était au début qu’une pensée abstraite, ayant peu ou pas de contenu, est devenu le produit d’une mûre réflexion.

C’était le génie de Hegel que de comprendre que l’histoire des différentes écoles philosophiques était elle-même un processus dialectique. Il le compare à la vie d’une plante parcourant différents stades qui se nient l’un l’autre, mais qui, pris dans leur totalité, représentent la vie même de la plante :

« Plus l’opinion commune envisage l’opposition du vrai et du faux d’une façon rigide, plus elle a coutume d’attendre un accord ou une contradiction d’un système philosophique donné, et de ne voir que l’un ou l’autre dans une explication sur un tel système. Elle ne conçoit pas la diversité des systèmes philosophiques comme le développement progressif de la vérité ; au contraire, elle ne voit dans la diversité que la contradiction. Le bouton disparaît dans l’éclosion de la fleur, et l’on pourrait dire que le bouton est réfuté par la fleur. De même, lorsque le fruit paraît, on peut considérer que la fleur n’est qu’une forme fausse de la plante, et que le fruit prend la place de la fleur comme véritable nature de la plante. Ces étapes ne sont pas simplement différentes ; elles se refoulent comme mutuellement incompatibles. Mais l’activité incessante de leur nature inhérente en fait en même temps des moments d’une unité organique, dans laquelle elles ne s’opposent pas seulement, mais où l’une est aussi nécessaire que l’autre ; et cette égale nécessité de tous les moments constitue seule la vie du Tout. » [23]

La dialectique du Capital

Dans les trois volumes du Capital, Marx a fourni une brillante illustration de la façon dont la méthode dialectique peut être utilisée pour analyser les processus les plus fondamentaux à l’œuvre dans la société. Ce faisant, il a révolutionné la science de l’économie politique – ce qui est reconnu même par les économistes dont les conceptions s’opposent radicalement à celles de Marx. Dans l’ouvrage de Marx, la méthode dialectique est si fondamentale que Lénine est allé jusqu’à dire qu’il n’était pas possible de comprendre le Capital, et en particulier son premier chapitre, tant que l’on n’avait pas lu toute la Logiquede Hegel ! Il s’agissait, sans aucun doute, d’une exagération. Mais là où Lénine voulait en venir, c’est au fait que le Capital de Marx est en lui-même une illustration magistrale de l’application de la méthode dialectique :

« Si Marx n’a pas laissé de ” Logique ” (avec un grand L), il nous a laissé la logique du Capital, et il conviendrait d’en faire pleinement usage pour le problème en question. Dans le Capital, sont appliquées à une science la logique, la dialectique et la théorie de la connaissance [trois mots ne sont pas nécessaires : c’est une seule et même chose] d’un matérialisme qui a pris tout ce qu’il y a de précieux chez Hegel et l’a développé. » [24]

Quelle méthode Marx a-t-il utilisée dans le Capital ? Il n’a pas plaqué les lois de la dialectique sur l’économie, mais il les a déduites d’une longue et douloureuse étude de tous les aspects du processus économique. Il n’a pas élaboré un schéma arbitraire pour, ensuite, y faire entrer des faits taillés sur mesure, mais il a cherché à découvrir les lois du mouvement de la production capitaliste au moyen d’un examen minutieux du phénomène lui-même. Dans sa Préface à la Critique de l’économie politique, Marx explique sa méthode :

« Je supprime une introduction générale que j’avais ébauchée parce que, réflexion faite, il me paraît qu’anticiper sur des résultats qu’il faut d’abord démontrer est problématique. Le lecteur qui voudra bien me suivre devra se décider à s’élever du particulier au général. » [25]
Le Capital constitue une percée, non seulement sur le terrain de l’économie, mais pour les sciences sociales en général. Il est d’une pertinence directe vis-à-vis du débat qui a lieu aujourd’hui entre scientifiques. La discussion avait déjà commencé du vivant de Marx. A cette époque, les scientifiques étaient obsédés par l’idée d’isoler les choses et de les examiner dans leur détail. Cette méthode est aujourd’hui qualifiée de « réductionniste » ; quant à Marx et Engels, qui la critiquaient vivement, ils l’appelaient « méthode métaphysique ». Les mécanistes ont dominé la science pendant 150 ans. Ce n’est qu’aujourd’hui que commence à s’affirmer la réaction contre le réductionnisme. Une nouvelle génération de scientifiques se donne pour tâche de dépasser cet héritage et de remplacer les vieilles approximations par la formulation de nouveaux principes.

Grâce à Marx, la tendance réductionniste en économie fut mise en déroute au milieu du siècle dernier. Après le Capital, une telle approche était impensable. L’explication de l’économie politique au moyen de la méthode dite de « Robinson Crusoé » – « imaginez deux personnes sur une île déserte… » – refait parfois surface dans les mauvais livres scolaires ou dans de tentatives grossières de vulgarisation. Mais elle ne peut être prise au sérieux. Les crises économiques et les révolutions ne se déroulent pas entre deux individus sur une île déserte ! Marx analyse l’économie capitaliste, non comme la somme totale d’actes individuels d’échange, mais comme un système complexe, dominé par des lois qui lui sont propres et qui sont aussi puissantes que les lois de la nature. De la même manière, les physiciens débattent en ce moment de l’idée de complexité, au sens d’un système dans lequel le tout n’est pas une simple collection des parties élémentaires. Bien sûr, il est utile, quand c’est possible, de connaître les lois qui gouvernent chaque partie individuelle, mais le système complexe est gouverné par des lois qui ne sont pas simplement l’extension des premières. Telle est précisément la méthode que Marx utilise dans le Capital – la méthode du matérialisme dialectique.

Marx commence son ouvrage par une analyse de l’unité de base de l’économie capitaliste – la marchandise. A partir de là, il explique comment se produisent toutes les contradictions de l’économie capitaliste. Le réductionnisme considère les choses telles que le tout et la partie, le particulier et l’universel, comme mutuellement incompatibles et exclusives, alors qu’en fait elles sont complètement inséparables, s’interpénètrent et se déterminent réciproquement. Dans le premier volume du capital, Marx explique la double nature des marchandises, qui sont à la fois des valeurs d’usage et des valeurs d’échange. La plupart des gens considèrent les marchandises uniquement comme valeurs d’usage, comme des objets concrets et utiles à la satisfaction des besoins humains. Des valeurs d’usage ont toujours été produites dans tous les types de sociétés humaines.

Cependant, la société capitaliste fait subir des choses étranges aux valeurs d’usage. Elle les convertit en valeur d’échange – c’est-à-dire en biens qui ne sont pas produits pour être directement consommés, mais pour être vendus. Toutes les marchandises ont donc deux faces – celle, habituelle, familière, de valeur d’usage, et celle, cachée, mystérieuse, d’une valeur d’échange. La première est directement liée aux propriétés physiques d’une marchandise particulière (on porte un pull, boit du café, conduit une voiture, etc.). Mais la valeur d’échange ne peut être vue, portée ou conduite. Elle ne possède aucun type de réalité physique. Et pourtant, sous le capitalisme, c’est la nature essentielle d’une marchandise. L’expression ultime de la valeur d’échange est l’argent, l’équivalent universel, dans lequel toutes les marchandises expriment leur valeur. Ces petits bouts de papier coloré n’ont aucun type de rapport avec des pulls, du café ou des voitures en tant que tels. Ils ne peuvent être bus, portés ou conduits. Cependant, leur pouvoir est grand et si universellement reconnu que des gens tuent pour eux.

La double nature de la marchandise exprime la contradiction centrale de la société capitaliste – le conflit entre le travail salarié et le capital. Le travailleur pense qu’il vend son travail à l’employeur, mais, en réalité, ce qu’il vend est sa force de travail, que le capitaliste utilise comme bon lui semble. La plus-value extraite correspond au travail impayé de la classe ouvrière ; c’est la source de l’accumulation du capital. C’est ce travail impayé qui, à travers la rente, les intérêts, les profits et les taxes, entretient tous les membres de la société qui ne travaillent pas. La lutte des classes est au fond la lutte pour le partage de cette plus-value.

Marx n’a pas inventé l’idée de plus-value, que connaissaient des économistes l’ayant précédé, comme Adam Smith et David Ricardo. Cependant, en dévoilant la contradiction centrale qu’elle recèle, il a complètement révolutionné l’économie politique. Cette découverte peut être comparée à un processus similaire dans l’histoire de la chimie. Jusqu’à la fin du XVIIIe, on supposait que la combustion consistait dans la séparation des substances brûlantes d’une chose hypothétique appelé phlogistique. A l’époque, on se servait de cette théorie pour expliquer la plupart des phénomènes chimiques connus. Puis, en 1774, le scientifique anglais Joseph Priestley a découvert quelque chose qu’il a appelé l’« air déphlogistiqué », dont on a plus tard constaté qu’il disparaissait chaque fois qu’on y faisait brûler une substance.

Priestley avait en fait découvert l’oxygène. Mais ni lui ni les autres scientifiques n’étaient capables de saisir les implications révolutionnaires de cette découverte. Longtemps, ils ont continué à penser suivant le vieux modèle. Plus tard, le chimiste français Lavoisier a découvert que le nouveau genre d’air était réellement un élément chimique, qui ne disparaissait pas au cours de la combustion, mais se combinait avec la substance brûlée. Bien que d’autres aient découvert l’oxygène, ils ne savaient pas ce qu’ils avaient découvert. Ce fut la grande découverte de Lavoisier. Marx a joué un rôle similaire en économie politique.

Les prédécesseurs de Marx avaient découvert l’existence de la plus-value, mais sa vraie nature leur demeurait parfaitement obscure. En soumettant toutes les théories précédentes, à commencer par celle de Ricardo, à une analyse rigoureuse, Marx est parvenu à découvrir la nature réelle, contradictoire, de la valeur. Il a étudié toutes les rapports de la société capitaliste, en commençant par les formes les plus simples de production et d’échange de marchandises, et, en appliquant une méthode strictement dialectique, a suivi le processus à travers ses nombreuses transformations.

Marx a montré le rapport entre l’argent et les marchandises ; il fut le premier à fournir une analyse exhaustive de l’argent. Il a expliqué comment l’argent est transformé en capital et a démontré que cette transformation se réalise à travers l’achat et la vente de la force de travail. Cette distinction fondamentale entre travail et force de travail fut la clé permettant de déchiffrer les mystères de la plus-value, ce dont Ricardo n’avait pas été capable. En établissant le différence entre capital constant et capital variable, Marx était capable de suivre minutieusement l’ensemble du processus de formation du capital, et par conséquent de l’expliquer, ce qu’aucun de ses prédécesseurs n’était parvenu à faire.
La méthode de Marx est à tout moment rigoureusement dialectique, et elle suit de près les principales lignes tracées par la Logique de Hegel. Marx l’établit explicitement dans sa Postface à la deuxième édition allemande, dans laquelle il rend un bel hommage à Hegel :

« En décrivant ce qu’il appelle ma méthode d’investigation avec tant de justesse et, en ce qui concerne l’application que j’en ai faite, avec tant de bienveillance, qu’est-ce donc que l’auteur a défini, si ce n’est la méthode dialectique ?

Bien sûr, le procédé d’exposition doit se distinguer formellement du procédé du procédé d’investigation. A l’investigation de s’approprier la matière dans tous ses détails, d’en analyser les diverses formes de développement, et de découvrir leur lien intime. Une fois cette tâche accomplie, mais seulement alors, le mouvement réel peut être exposé dans son ensemble. Si l’on y réussit, si la vie de la matière se réfléchit dans sa reproduction idéale comme dans un miroir, alors il peut sembler qu’on ait affaire à une simple construction a priori…

J’ai critiqué le côté mystique de la dialectique hégélienne il y a près de trente ans, à une époque où elle était encore à la mode. Mais au moment où je rédigeais le premier volume de Das Kapital, les épigones grincheux, prétentieux et médiocres qui font aujourd’hui la loi dans l’Allemagne cultivée, se plaisaient à traiter Hegel comme le brave Moïse Mendelssohn avait, du temps de Lessing, traité Spinoza, c’est-à-dire en « chien crevé ». Aussi me déclarais-je ouvertement disciple de ce grand penseur, et, dans le chapitre sur la théorie de la valeur, j’allais même jusqu’à me trouver ici et là en coquetterie avec sa manière particulière de s’exprimer. Bien que, chez Hegel, la dialectique souffre d’être mystifiée, ce n’en est pas moins lui qui en a le premier exposé le mouvement d’ensemble, et ce d’une manière consciente et détaillée. Chez lui elle marche sur la tête ; il faut la remettre dans le bon sens si l’on veut découvrir le noyau rationnel dans l’enveloppe mystique.

Dans sa forme mystique, la dialectique est devenue une mode en Allemagne, parce qu’elle semble transfigurer et glorifier l’état des choses existantes. Dans sa forme rationnelle, elle est un scandale et une abomination pour les classes dirigeantes et leurs professeurs doctrinaires, parce que dans sa compréhension et sa reconnaissance positive des choses existantes, elle inclut en même temps la reconnaissance de la négation de cet état, de son inévitable destruction ; parce qu’elle considère toute forme sociale historiquement développée comme un mouvement fluide, et par conséquent tient compte aussi bien de son caractère transitoire que de son existence actuelle ; parce que rien ne lui en impose, et qu’elle est essentiellement critique et révolutionnaire. » [26]

>> Chapitre suivant : La logique formelle et la dialectique >>

 

[1] Trotsky, Défense du Marxisme

[2] Marx, Le Capital, Vol.1

[3] David Bohm, Causality and Chance in Modern Physics

[4] R. P. Feynmann, Leçons de Physique

[5] Aristote, Métaphysique

[6] Engels, Dialectique de la Nature

[7] Trotsky, Défense du Marxisme

[8] M. Waldrop, Complexity

[9] Engels, Dialectique de la Nature

[10] Engels, Anti-Dühring

[11] J. Gleick, Chaos, Making a New Science

[12] M. Waldrop, Complexity

[13] David Bohm, Causality and Chance in Modern Physics

[14] Engels, Anti-Dühring

[15] I. Stewart, Dieu joue-t-il aux dés ?

[16] R. P. Feynmann, Leçons de Physique

[17] Engels, Dialectique de la Nature

[18] Hegel, Science de la Logique

[19] B. Hoffmann, The Strange Story of the Quantum

[20] Engels, Dialectique de la Nature

[21] Ibid

[22] Ibid

[23] Hegel, Phénoménologie de l’Esprit

[24] Lénine, Œuvres complètes, Vol. 38

[25] Marx et Engels, Selected Works, Vol. 1

[26] Marx, Le Capital , Vol. 1

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *