Qu’est-ce qu’une vérité scientifique ?

Riche d’erreurs voire d’errements, l’histoire des sciences conduit à interroger la notion de vérité scientifique. Celle-ci n’en reste pas moins le meilleur outil pour saisir le monde.Article publié dans le dossier de TEXTES ET DOCUMENTS POUR LA CLASSE N°961, 1er octobre 2008, dans la rubrique PHILOSOPHIE [P. 22-24]

A priori, tout est simple : la notion de vérité scientifique repose, depuis que Galilée l’a formalisée, sur la démarche expérimentale. Dans leur très grande majorité, les scientifiques partagent le point de vue exprimé, comme toujours de manière claire et forte, par Richard Feynman dans ses célèbres Feynman’s lectures : « Le principe de la science, sa définition presque, sont les suivants : le test de toute connaissance est l’expérience. L’expérience est le seul juge de la vérité scientifique. »

 Les scientifiques ne peuvent donc affirmer que quelque chose est « vrai » que s’ils sont capables de le démontrer expérimentalement, et de montrer que chaque fois qu’ils répètent l’expérience ils retrouvent le même résultat. La logique de la démarche est donc souvent la suivante : un processus, lui-même créatif, conduit à formuler une hypothèse sur un phénomène ou un mécanisme. Sur la base de cette hypothèse, un protocole expérimental est bâti, dont le résultat doit permettre de valider l’hypothèse ou de la réfuter. En ce sens, pour croire à une théorie scientifique, Karl Popper soutenait qu’il faut pouvoir la réfuter, c’est-à-dire montrer qu’il existe des observations potentielles qui, si elles étaient réalisées et avérées, prouveraient rationnellement que la théorie était fausse. C’est ainsi que l’héliocentrisme a permis de réfuter le géocentrisme à partir de l’hypothèse de Copernic, des observations de Tycho Brahé, des lois de Kepler et de leur établissement comme résultat de la force de gravitation par Newton.

 Si ce principe est généralement opérant, il n’est pas toujours directement applicable. Souvent, la validation repose sur la capacité prédictive que l’on acquiert à travers la compréhension d’un premier phénomène, permettant alors d’en prévoir bien d’autres. Par exemple, la théorie quantique et relativiste de l’électron due à Paul Dirac (1928) lui montra la nécessité de l’antimatière que nul n’avait encore observé ; le positron, l’antiélectron, fut effectivement découvert en 1932.

 De la sociologie au relativisme. Mais il se trouve de nombreux esprits pour souligner que la situation est plus complexe. C’est ainsi que si nous croyons que le théorème de Fermat a enfin été démontré en 1994 par Andrew Wiles, c’est que nous faisons confiance à la communauté des mathématiciens car, pour la plupart d’entre nous (c’est mon cas), notre niveau mathématique ne nous permet pas de suivre le raisonnement. De même, nous faisons confiance aux astrophysiciens quand ils affirment qu’ils ont vu des planètes hors du système solaire.

 Cela a conduit certains à défendre l’idée selon laquelle les objets d’étude scientifiques seraient « socialement construits » dans les laboratoires, et n’auraient pas d’existence en dehors des appareils et des spécialistes qui les interprètent. L’activité scientifique est alors vue comme un simple système de croyances et de pratiques, plutôt que comme un discours sur le monde. C’est ainsi que Bruno Latour, dans son étude de la vie et la carrière de Louis Pasteur (Pasteur : guerre et paix des microbes), met en lumière les forces sociales qui interviennent dans la carrière de Pasteur. L’étude de l’accueil du travail de Pasteur en fonction des milieux conduit alors à rejeter l’idée selon laquelle l’acceptation ou le rejet des théories scientifiques serait de l’ordre de la raison. Partant de cette vision, un cours sur les controverses scientifiques destiné aux élèves de l’École des Mines de Paris et de Sciences Po propose de former les étudiants à « préparer leurs employeurs à repérer l’ensemble des solutions et, surtout, les réactions sociales, morales, économiques, organisationnelles différentes qu’elles peuvent entraîner ; pour ce faire, on demande donc à l’élève de cartographier la gamme des positions actuellement soutenues, aussi aberrantes qu’elles soient, sans prendre directement parti ».

 Plus question ici de développer une méthodologie qui permettrait de distinguer le vrai du faux, concepts tenus pour dépassés et inopérants. Il est donc nécessaire d’y regarder d’un peu plus près et de s’interroger sur nos méthodes de validation, tout au moins pour ceux qui ne pensent pas qu’une idée aberrante n’est que l’une des multiples descriptions équivalentes de notre monde.

 Fraudes et erreurs. Certes, il existe de temps à autre des fraudes, ou des erreurs méthodologiques graves. Mais celles-ci sont, en général, vite détectées, et se traduisent par un tel discrédit de leurs auteurs que l’effet dissuasif est presque toujours suffisant pour arrêter ceux qui seraient tentés de franchir la ligne. La science, qualifiée d’« officielle » par ceux qui ont envie d’énoncer tranquillement des âneries, est parfois accusée de conservatisme, d’incapacité à revenir sur ses hypothèses et présupposés. C’est là méconnaître profondément les ressorts psychologiques qui animent les chercheurs. Il faut savoir, en effet, que rien n’est plus grisant que de prendre en défaut une gloire établie, ou un dogme admis de tous. La révérence n’a guère de place dans ce modus operandi.

 Les physiciens ont en mémoire des affirmations importantes énoncées au début des années 2000 par un chercheur des célèbres Bell Labs, dans le New Jersey, sur la réalisation de transistors avec des molécules organiques. Cette découverte annonçait la fin, à brève échéance, de l’électronique à base de silicium qui domine notre paysage technologique depuis plus de quarante ans. De nombreuses équipes s’efforcèrent en vain de reproduire ses résultats, avant que la fraude ne soit révélée, à cause d’un détail qui finit par tout rendre suspect et, in fine, conduisit au retrait de tous les articles. Le chercheur en question passa du statut de nobélisable, déjà salué par plusieurs prix prestigieux, à celui de proscrit des laboratoires.

 Il y a évidemment des erreurs de bonne foi, mais elles ne posent problème que lorsque leurs auteurs s’acharnent contre toute évidence, emportés qu’ils sont par le sentiment d’avoir fait une découverte révolutionnaire (il leur devient alors impossible, trop mortifiant, d’y renoncer). C’est ainsi qu’en 1968 le physicien américain Joseph Weber avait cru découvrir les ondes de gravitation prédites par la théorie d’Einstein, que l’on cherche toujours à observer sur terre, mais sans succès encore tant leur effet attendu est faible. De même, il n’est pas impossible que Jacques Benveniste ait cru initialement, en toute bonne foi, à la mémoire de l’eau, mais il n’était pas permis d’affirmer un fait si contraire à tout ce que nous comprenons sans l’esquisse du moindre mécanisme susceptible de rendre compte de ses affirmations. Comment pouvait-il aussi ne pas voir que faire financer son laboratoire par un fabricant de produits homéopathiques lui retirait beaucoup de crédibilité en la matière ?

 Bien entendu, toutes les théories physiques ont des limites d’applicabilité, mais celles-ci ne doivent pas être analysées comme des erreurs. La relativité ou la mécanique quantique n’ont pas invalidé la dynamique newtonienne. Les concepts nouveaux n’ont fait que montrer que la théorie de Newton était limitée à des vitesses de déplacement petites par rapport à celle de la lumière et ne s’appliquait plus à l’échelle nanométrique des atomes, mais ils ne se sont pas substitués à elle, ils l’ont complétée. En dehors de ces deux limites, rien n’est plus utile que la théorie de Newton.

 À qui revient la nécessité de la preuve ? On entend souvent dire qu’une théorie, pour être juste, doit être capable de passer tous les tests expérimentaux possibles, qu’il suffit d’une seule expérience négative pour infirmer la théorie. Cette affirmation doit pourtant être prise avec un peu de distance.

 Il est intéressant d’examiner les résistances qui accompagnent encore la théorie de la relativité hors du monde de la science. Les expériences où la relativité est mise en jeu, testée en détail avec une précision considérable, sont innombrables. Que l’on songe que si l’on ignorait la relativité restreinte, les horloges atomiques embarquées en satellite marqueraient un retard de sept microsecondes par jour du fait du mouvement de ce satellite par rapport à nous ; si l’on ignorait l’influence du champ de gravitation sur le temps, effet de relativité générale, il y aurait une avance de quarante-cinq microsecondes par jour, au total trente-huit microsecondes ; si l’on ne tenait pas compte de la relativité, le GPS ferait des erreurs de plusieurs kilomètres ! Au cours des années 1920, un physicien américain, Dayton Miller, a repris les expériences d’interférométrie destinées à mesurer le « vent d’éther » et conclu à son existence, contredisant ainsi la théorie de la relativité. Les expériences de Miller ont été ré-analysées : selon certains, la dispersion de ses résultats ne permettait pas d’affirmer le déplacement de franges annoncé ; à l’inverse, le professeur Maurice Allais soutient aujourd’hui les conclusions de Miller. Mais, à ce stade, les résultats expérimentaux en accord avec la relativité sont si nombreux et si précis que les physiciens pensent qu’il appartient à ceux qui croient en l’expérience négative de Miller de comprendre quels sont les artefacts (méthode d’analyse des données ou encore effet de la température ou de l’altitude) susceptibles de rendre compte du résultat négatif qu’ils annoncent. Il y a donc bien un moment où la nécessité de la preuve change de camp.

 Créationnisme et intelligent design. Les enquêtes d’opinion, aux Etats-Unis, révèlent que la théorie de l’évolution, bâtie par Darwin et renforcée par les découvertes de la biologie moléculaire, recueille l’adhésion de moins du quart des Américains. Certains tiennent le récit biblique de la création pour un discours à prendre au pied de la lettre. D’autres, en fait la grande majorité, acceptent l’évolution des espèces, mais ils sont convaincus qu’elle ne peut être le résultat que d’un processus guidé par une puissance supérieure.

 Nous sommes là dans une matière délicate, car la théorie Darwinienne ne peut pas faire l’objet d’une expérience répétée et réfutable, comme dans les exemples simples de la physique. Notre adhésion à Darwin vient, cette fois, d’un immense faisceau de présomptions ; comment expliquer rationnellement la grande similitude de notre génome avec celui d’une levure, un peu comme si l’on découvrait un poème de Victor Hugo au milieu d’un texte en allemand ? Faut-il y voir l’effet du hasard qui a conduit un typographe ivre à mélanger ses caractères, d’un deus ex machina qui a guidé sa main, ou bien faut-il chercher une explication rationnelle ?

 Douter certes, mais… Au total, j’espère que le lecteur ne tirera pas de mes propos des doutes sur l’existence de vérités scientifiques. Si l’exercice de la critique est indispensable, s’il est intéressant d’analyser le processus souvent long et complexe à travers lequel la vérité se fait jour, nier que la science nous fournit un moyen rationnel de comprendre le réel n’est que plonger dans la confusion mentale.

Savoir +

  • DEBRÉ Patrice. Louis Pasteur. Paris : Flammarion, 1999 (coll. Champs).
  • LATOUR Bruno. Pasteur : guerre et paix des microbes. Paris : La Découverte, 2001 (coll. Poche).
  • SOKAL Alain, BRICMONT Jean. Impostures intellectuelles. Paris : Livre de poche, 1999.
  • ARTE Sciences, Paroles de Chercheurs, Interview d'Edouard Brézin