Déterminisme, lois de la nature et libre-arbitre (2/2)

C’est parti pour la suite sur le libre-arbitre et le déterminisme ! On a vu la dernière fois que l’argument de la conséquence de Van Inwagen semblait très convaincant pour montrer une incompatibilité entre libre-arbitre et déterminisme. Eh bien en fait le problème est plus complexe qu’il en a l’air initialement !

Petite introduction

La stratégie classique pour le compatibilisme est de redéfinir le libre-arbitre de telle manière à « échapper aux griffes » du déterminisme. Cette approche me paraît souvent critiquée (voir par exemple deux posts de chaînes Youtube scientifiques sympas : Science Etonnante et Homo Fabulus) car il est considéré que cela ne revient qu’à contourner le problème, en utilisant une définition qui nous arrange mais qui ne correspond pas au sens commun.

Une réponse possible à cet argument est que ce que l’on appelle « sens commun » ou « vision intuitive » n’est pas forcément ce que l‘on croit : la philosophie expérimentale tend en effet à montrer que notre vision intuitive de la responsabilité (intimement liée à celle de liberté) est complètement compatible avec le déterminisme. Pour plus d’explications très intéressantes sur ce point, vous pouvez notamment visionner ce passage d’une vidéo de Monsieur Phi (une interview de Florian Cova, professeur en philosophie à l’Université de Genève).

Aussi intéressant soit-il, je vais laisser ce débat sémantique de côté pour m’attarder sur un point qui est beaucoup moins connu : cela concerne le statut des lois de la nature et de la causalité.

Mon argumentation est en grande partie tirée du dernier livre de Michaël Esfeld « Sciences et liberté », je vous incite à le lire si vous voulez approfondir le sujet, c’est passionnant ! Cet article de l’encyclopédie de Stanford détaille également les différentes approches contemporaines se focalisant sur le statut des lois de la nature.

Rappelons d’abord l’argument de Van Inwagen pour l’incompatibilisme :

1. Personne n’a de pouvoir sur les faits du passé et les lois de la nature.
2. Les événements du passé et les lois de la nature engendrent tous les événements du futur (c’est-à-dire que le déterminisme est vrai).
3. Par conséquent, personne n’a de pouvoir sur les actes du futur.

La stratégie globale de ce billet de blog va être d’abord de clarifier les notions de déterminisme et de lois de la nature. Le but est de montrer que la conclusion de l’argument de Van Inwagen n’est vraie que si l’on adopte une position particulière dans le débat sur la nature des lois. Ce sont des discussions assez techniques et qui couvrent de larges domaines de la philosophie des sciences, alors je vais faire de mon mieux pour être clair et concis. Allez c’est parti !

Comment fonctionne le déterminisme en sciences ?

Prenons le cas d’une expérience basique : je lâche une bille du haut d’un immeuble. Comment calcule t’on le temps qu’elle met pour atteindre le sol ? Plusieurs outils sont requis :

– les lois physiques : la seconde loi de Newton (pour le rapport entre les forces appliquées sur la bille et son accélération) et la loi universelle de la gravitation (pour connaître l’expression de la force de gravitation à la surface de la Terre)
– les conditions initiales : la hauteur et la vitesse de la bille au moment du lancer ; et les valeurs des paramètres qui apparaissent dans les lois, comme la masse de la bille ou la constante universelle de gravitation.

Avec toutes ces informations, on peut calculer la trajectoire de la bille et le temps qu’elle met pour toucher le sol. Le déterminisme en sciences consiste donc à dire : « les conditions initiales sur les différents paramètres et les lois de la nature engendrent les évènements du futur. » Si on compare avec le point 2) de l’argument de Van Inwagen, on s’aperçoit que « les événements du passé » a été remplacé par « les conditions initiales sur les différents paramètres ». On peut penser que c’est équivalent, et en fait… pas forcément !

Pourquoi donc ? Eh bien, on va voir qu’il est possible de penser que les valeurs initiales de certains paramètres dépendent du mouvement futur dans l’univers.

Plus précisément, pour faire l’équivalence entre « les événements du passé » et « les conditions initiales sur les différents paramètres », il faut supposer que ces paramètres sont des propriétés intrinsèques aux objets, de telle sorte que ces propriétés soient des caractéristiques réelles du monde à un instant donné. Dans cette vision, les valeurs initiales des paramètres caractérisent bien les événements passés.

Cela peut paraître tout à fait naturel de considérer que des paramètres comme la masse ou la charge d’une particule soient des propriétés intrinsèques à celle-ci. Néanmoins, il existe des arguments remettant en cause cette vision des choses, et c’est bien là tout le coeur du débat.

Quels arguments ?


Reprenons l’exemple de la loi de la gravitation. Celle-ci permet de résumer de manière simple et informative une régularité stable dans l’univers : celle de l’attraction entre les corps ayant une masse. Mais quel statut précis donner à cette loi ? S’agit-il :

a) d’une simple description d’une régularité stable (l’attraction des corps) ?
b) de la découverte d’une propriété intrinsèque aux objets (la masse) qui cause le fait que les corps s’attirent, qui impose ces mouvements ?

On retrouve ici les deux variantes classiques en philosophie des sciences concernant le statut des lois : d’un côté l’ « Humeanism » (a) et de l’autre l’ « Anti-Humeanism » (b). 

  • L’ « Humeanism » est appelé ainsi car il s’inspire de la position du philosophe David Hume (1711-1776) pour lequel les relations de causalité n’existent pas : elles découlent seulement de notre habitude psychologique à observer des régularités dans la nature. Elles sont pour ainsi dire « dans notre tête ». Pour Hume, il est correct de dire « jusqu’à présent, la pluie a été précédée par des nuages », mais pas « les nuages causent la pluie. ». Tout ce qu’il y a dans le monde est un enchaînement de phénomènes avec certaines régularités ; il n’y a pas de connexions nécessaires dans la nature car celles-ci reflètent juste la psychologie des êtres humains qui aiment bien penser en ces termes. 
    Un petit détail : dans la suite je vais plutôt parler du « Super-Humeanism » (développé récemment par Esfeld et Duckert) au lieu de l’Humeanism. Je vais laisser de côté les différences entre les deux, ce n’est pas d’une grande importance.

  • De l’autre côté, l’« Anti-Humeanism » insiste sur le fait que les lois de la nature ne sont pas de simples descriptions de régularités observées : elles sont également des explications. Les lois mettent en évidence des nécessités réelles qui nous indiquent ce qu’on peut ou ne peut pas faire. Une position courante est alors de situer ces nécessités dans les paramètres des lois physiques comme la masse : celle-ci est une propriété intrinsèque aux objets qui impose les mouvements d’attraction observés. L’existence de cette propriété permet ainsi de fournir une explication aux mouvements, en allant plus loin que la simple description.

    Si cette version de l’Anti-Humeanism est acceptée, il y a bien une équivalence entre « les événements du passé » et « les conditions initiales sur les différents paramètres » comme mentionné plus haut, car ces paramètres caractérisent le monde à un instant donné. Dans ce cas, l’argument de Van Inwagen est tout à fait pertinent et montre bien l’incompatibilité entre déterminisme et libre-arbitre.

Mais on n’est pas forcé d’accepter l’Anti-Humeanism. Quid du Super-Humeanism ? (à ne pas confondre avec Super-Human 😉 )
Apporte t’il vraiment moins d’explications que l’Anti-Humeanism ?
La réponse est en fait… pas forcément.

Pourquoi ? Tout simplement parce que les paramètres comme la masse ou la charge sont précisément définis à partir de régularités de mouvements : ils sont introduits dans les lois physiques pour leur fonction dans l’évolution de la configuration de la matière. Ces paramètres sont d’ailleurs appelés « paramètres dynamiques ». La masse est donc caractérisée par sa fonction pour le mouvement de la matière, à savoir le fait que les objets s’attirent. Comme le dit le physicien Ernst Mach (1818-1916) à propos de la mécanique classique de Newton :

« La véritable définition de la masse ne peut être déduite que des relations dynamiques des corps. »

Ainsi, quand on dit « la masse est la cause du mouvement attractif des corps », on explique le mouvement par une propriété elle-même définie en fonction de ce mouvement ! Autrement dit, le raisonnement est circulaire. Conférer le statut de propriété intrinsèque à la masse n’ajoute rien à l’explication : il suffit de dire que c’est un paramètre mathématique qui permet de représenter de manière optimale le mouvement attractif des objets. Il n’est pas nécessaire d’attribuer une forme d’existence « primitive » aux paramètres dynamiques : ce qui existe est de la matière en mouvement, et le reste (la masse, la charge, le spin…) entre dans les lois seulement en terme de rôle fonctionnel pour l’évolution de la configuration de la matière.

Petit résumé

Bon, ça peut paraître technique et rébarbatif comme discussion mais au final le résumé est assez simple :

1) Si on considère les paramètres dynamiques comme des propriétés intrinsèques ayant une existence propre, le libre-arbitre semble bien incompatible avec le déterminisme.
2) Cette vision des choses pose des problèmes : on suppose l’existence de propriétés supplémentaires qui caractérisent la matière en mouvement, mais cela n’apporte rien en termes d’explications puisque ces propriétés sont précisément définies en fonction de leur rôle pour ce mouvement.

Il peut alors être intéressant de s’intéresser de plus près au Super-Humeanism et au statut qu’il donne aux paramètres dynamiques (masse, charge, spin…). En fait, si cette théorie est vraie, alors l’argument de Van Inwagen ne tient pas et il n’y a pas d’incompatibilité entre déterminisme et libre-arbitre. En effet d’après le Super-Humeanism, si on considère l’état initial de l’univers en entier, les valeurs initiales des paramètres dynamiques dépendent du mouvement futur de la matière. Ces valeurs sont en faites fixées, pour ainsi dire, « à la fin de l’univers ». 

Pour clarifier un peu, l’idée générale du (Super)-Humeanism est très bien résumée dans cette citation d’un article de Michaël Esfeld (page 9, traduction à partir de l’anglais) :

« Pour le (Super)-Humeanism, vient d’abord le mouvement des particules, qui présente un certain nombre de patterns ou de régularités, puis viennent les lois, y compris la géométrie. Par conséquent, les lois, les paramètres qui y figurent et la géométrie ne sont pas une sorte d’agent qui forcent les particules à se déplacer d’une certaine manière. Les lois ne contraignent pas le mouvement des particules. C’est le mouvement des particules qui fixe les lois. Par conséquent, si l’on demande pourquoi il y a des régularités dans le mouvement des particules, le (Super-)Huméanism ne peut pas répondre à cette question. L’affirmation du (Super-)Humeanism est qu’il n’y a pas de réponse scientifique à cette question. Notre compréhension scientifique du monde prend fin lorsque les régularités saillantes dans le mouvement de la matière sont atteintes, comme, par exemple, le mouvement attractif des particules. »

Pour avoir une loi et des conditions initiales qui décrivent parfaitement les régularités saillantes de la nature, il faut donc attendre « la fin de l’univers » car c’est précisément le mouvement des corps qui fixe les bonnes lois et valeurs initiales des paramètres.

On arrive donc au moment tant attendu où l’argument de Van Inwagen pour l’incompatibilisme est remis en question ! On peut formuler l’objection ainsi :

–> Le Super-Humeanism est d’accord sur le fait que personne n’a de pouvoir sur les faits du passé. Mais le déterminisme en sciences se base sur des lois, et ces lois font intervenir des paramètres dont les valeurs initiales ne sont pas intrinsèques à ce moment initial : elles dépendent du mouvement futur dans l’univers, et donc notamment des comportements humains. Le point 2) de l’argument de Van Inwagen est donc incorrect, ce qui rend invalide le raisonnement. En théorie, il n’y a rien qui rende incompatible le déterminisme avec le libre-arbitre : si les humains décident d’agir autrement, cela modifierait légèrement les valeurs initiales des paramètres dynamiques entrant dans les lois.

Pour résumer, bien que les lois fixent un cadre général sur ce qu’on peut ou ne peut pas faire (régularités stables dans la nature), dans des cas concrets rien ne prédétermine nos actions car il faut avoir recours à des paramètres dynamiques dont les valeurs initiales dépendent du mouvement global et futur de la matière dans l’univers

Objection possible et conclusion

Et voilà donc pourquoi le débat était plus complexe qu’il en avait l’air ! C’est je trouve une approche assez originale du compatibilisme. Néanmoins, j’imagine que vous n’êtes pas forcément convaincus. Votre discours ressemblerait peut-être à celui-ci :

 « Même si les valeurs initiales des paramètres dynamiques dépendent du mouvement futur de la matière dans l’univers, jusqu’à présent tout se passe comme si ce n’était pas le cas et que ces paramètres étaient des propriétés intrinsèques aux objets. Pour rendre compte du succès des prédictions en sciences, il faut considérer les régularités du mouvement comme fixes dans le temps. Tout se passe donc comme si l’attraction des particules résultaient de la manifestation d’une propriété intrinsèque, à savoir la masse, et donc tout se passe comme si la masse ne dépendait pas des mouvements futurs dans l’univers. En bref, il est difficile de concevoir que des paramètres qu’on utilise avec succès pour faire des prédictions sur le comportement futur des objets puissent eux-mêmes dépendre du mouvement futur dans l’univers. Tout se passe comme si « on avait pas besoin d’attendre la fin de l’univers pour avoir des valeurs qui nous permettent de faire des prédictions correctes. » »

C’est précisément la question que j’ai posée à Michaël Esfeld, qui m’a indiqué :

« Ma réponse est qu’il faut faire une distinction entre deux choses: (a) l’univers en entier et (b) des situations précises pour lesquelles nous faisons des prédictions. Votre argument vaut pour (b), et la raison pour le succès est que nous préparons et isolons les systèmes sur lesquels nous faisons des prédictions. Pour (a), on ne connaît simplement pas les valeurs initiales, et de toute façon, l’influence des actions humaines est marginale à cette échelle.
Pour l’instant, ma position est purement théorique. Mais en principe, il devrait être possible de construire des expériences qui la mettent à l’épreuve. »

En d’autres termes, les deux théories « le libre-arbitre existe » et « le libre-arbitre n’existe pas » ne sont pas distinguables empiriquement pour l’instant. Cela reste une question ouverte qui pourrait éventuellement être tranchée par de futures expériences.

Voilà vous avez maintenant toutes les informations pour pouvoir vous faire un avis sur ce débat hautement complexe, j’espère que ça vous a plu ! Bien sûr, je n’ai pas couvert tous les aspects de la question : comment définir le libre-arbitre si on accepte le Super-Humeanism, ou encore quelles sont les relations précises entre physique fondamentale, biologie et sciences cognitives.


Mais si on suppose globalement une certaine unité entre les différentes sciences, alors on peut dire que la physique fondamentale n’impose pas forcément un incompatibilisme entre libre-arbitre et déterminisme. Cela dépend du statut que l’on donne aux lois de la nature et à la causalité.

PS : Si ce débat vous intéresse je vous incite à lire le livre de Michaël Esfeld, le sujet est beaucoup plus approfondi et une définition du libre-arbitre y est proposée. Il y a également une longue bibliographie pour poursuivre avec d’autres lectures !

Une autre source très utile pour la philosophie des sciences et notamment les questions autour des lois de la nature :
J. A. Cover, Martin Curd, Christopher Pincock (2012) : Philosophy of Science: The Central Issues, Second International Student Edition

Déterminisme et libre-arbitre (1/2)

Bienvenido in this new Artikel !
Aujourd’hui, je vais aborder un sujet hautement débattu en philosophie : celui de la compatibilité entre déterminisme et libre-arbitre.

Si on faisait un sondage auprès de la population française en posant la question « Pensez-vous avoir un libre-arbitre ? », les résultats seraient probablement « Oui » avec une assez large majorité. Par exemple, ce sondage effectué sur internet donne un résultat de 60% de « Oui ». D’un autre côté, en tant qu’étudiant en sciences, j’ai souvent entendu des discours assez tranchés du type « il est évident que le libre-arbitre n’existe pas, les neurosciences l’ont réfuté ».

Derrière ces positions contrastées se cache en réalité un débat complexe qui jongle entre neurosciences, philosophie de l’esprit, philosophie des sciences et débat sémantique. Je vais essayer de clarifier quelques points ici.

Vision intuitive du libre-arbitre

Reprenons depuis le début. En quoi pense-t-on intuitivement avoir un libre-arbitre ? Un discours typique serait le suivant : « Je suis libre et responsable de mes actes car je prends mes décisions consciemment, avec ma volonté. C’est MOI qui décide consciemment de faire une certaine action ». Cela semble sous-entendre ce qu’on appelle le « principe des possibilités alternatives » : « Jusqu’au dernier moment avant ma décision consciente, j’aurais pu agir autrement ». La liberté semble alors être conçue comme une liberté de la volonté : la volonté détermine les décisions prises, et la volonté est déterminée par un « moi ».

On voit ici très bien le lien avec la dualité entre corps et esprit de Descartes. Le « moi » dans les phrases précédentes semble correspondre à une conscience, un esprit se distinguant du cerveau, n’étant soumis à aucune loi physique et permettant ainsi aux êtres humains d’effectuer des actions libres. Il y a vraiment cette idée intuitive que notre liberté est basée sur une volonté consciente et immatérielle.

Néanmoins, cette vision de la conscience et de la liberté se heurte à tout un tas de problèmes :

  • Sur le dualisme entre cerveau et esprit : il est très clair qu’il y a des relations de dépendance entre corps et esprit : par exemple, un état psychologique de stress (esprit) a des véritables conséquences physiologiques (corps) ; ou encore, le fait de toucher de l’eau bouillante (corps) provoque un état psychologique de douleur (esprit). Mais alors, si on suppose que le corps est matériel et l’esprit immatériel, comment rendre compte des interactions entre cerveau et esprit ? Par exemple, quand je décide avec mon esprit de lever mon bras, comment se fait-il que des neurones s’activent, que mes muscles soient sollicités pour que mon bras se lève, si cet esprit est immatériel et distinct du corps ? Avec cette vision, il semble qu’un miracle se produise à chaque fois que je soulève mon bras : de l’énergie semble être créée de nulle part !

    On voit bien que cette position est difficilement tenable : l’hypothèse postulant un esprit immatériel distinct du cerveau est tout sauf nécessaire (principe du « rasoir d’Ockham ») et engendre plus de problèmes qu’autre chose. Cela remet ainsi en question la notion intuitive de « volonté consciente immatérielle » censée être à la base du libre-arbitre.
  • La notion même de volonté « libre » semble assez bancale : en effet, comment est-il possible, à un instant donné, de vouloir ce qu’on ne veut pas ou de ne pas vouloir ce qu’on veut ? En tout temps, on veut ce que l’on veut, et ce même si on voudrait vouloir d’autres choses : il paraît circulaire de parler d’auto-formation de la volonté.

Bien sûr, la volonté est déterminée par énormément de paramètres : nos désirs, craintes, objectifs, notre environnement, etc… Mais parler d’une volonté libre en ceci qu’elle se formerait par elle-même de manière indépendante ne semble pas pertinent. 

Quel lien avec le déterminisme ?

Cela nous amène à la question du déterminisme et de la démarche scientifique. De manière générale et en simplifiant quelque peu, on peut dire que la science explique les phénomènes naturels en établissant des relations de cause à effet basées sur des observations de régularités dans la nature.
Par exemple, on observe qu’à chaque fois qu’il pleut, la pluie est précédée par des nuages. On établit alors la relation de cause à effet universelle « la pluie est causée par les nuages » : cela impose une connexion nécessaire entre les deux phénomènes « Il pleut » et « Il y a des nuages ». En particulier, cela implique que dans le futur, la pluie sera forcément précédée par des nuages. L’établissement d’une relation de cause à effet consiste donc en une généralisation sur les cas futurs à partir de l’observation des cas passés : c’est ce qu’on appelle une « induction ». 

Les relations de causalité sont absolument omniprésentes dans les lois de la nature en sciences et dans la vie de tous les jours : les masses des particules causent le fait qu’elles s’attirent, chauffer un gaz cause sa dilatation, une infection microbienne cause une réaction immunitaire, fumer cause une augmentation de risque de cancer du poumon, une alarme cause la sortie du sommeil, etc… De cette manière, toute la démarche scientifique semble se baser sur le déterminisme, à savoir que « le futur dépend du passé ». Pour prendre plus de recul, si on connaissait l’état initial de l’univers et les lois de la nature régissant son fonctionnement, on serait en capacité de déterminer à l’avance tous les évènements futurs, et notamment tous les comportements humains.

Les décisions humaines seraient alors comme décidées à l’avance, de telle sorte que le libre-arbitre tel que présenté précédemment devient totalement illusoire. Spinoza résume très bien cette idée dans la citation suivante (Ethique, 1677) :

« Telle est cette liberté humaine qui consiste en cela seul que les hommes sont conscients de leurs désirs mais inconscients des causes qui les déterminent ».

Résumé du problème et objections courantes

Il semble alors y avoir une incompatibilité entre déterminisme et libre-arbitre. « L’argument de la conséquence » de Van Inwagen (An Essay on Free Will, 1983) est particulièrement utile pour clarifier cet incompatibilisme. Il correspond au raisonnement suivant :

1. Personne n’a de pouvoir sur les faits du passé et les lois de la nature.
2. Les événements du passé et les lois de la nature engendrent tous les événements du futur (c’est-à-dire que le déterminisme est vrai).
3. Par conséquent, personne n’a de pouvoir sur les actes du futur.

Pour répondre à cet argument, vous pourriez être tenté de formuler deux objections :

Objection 1 : « Oui mais on ne peut pas tout déterminer à l’avance, par exemple quand je lance une pièce de monnaie elle tombe au hasard sur pile ou sur face. De même, le comportement humain est tellement complexe et imprévisible qu’il peut être considéré comme aléatoire. Donc je ne vois pas en quoi je ne suis pas libre. »

C’est un point extrêmement important à considérer : il ne faut surtout pas confondre « déterminisme » et « déterminabilité ».

Reprenons l’exemple de la pièce de monnaie : certes en pratique on manque d’informations pour déterminer avec certitude de quel côté elle va tomber. On dit donc qu’il y a 1 chance sur 2 pour qu’elle tombe sur pile ou sur face : le résultat final n’est pas connu à l’avance. Néanmoins, cet hasard apparent ne résulte que de notre ignorance quant à la position et vitesse initiale de la pièce : si on connaissait ces informations, les lois de la mécanique de Newton nous permettraient de calculer sa trajectoire et prédire à l’avance sur quelle face elle va tomber.

Le résultat final est donc bien déterminé, au sens « métaphysique » : il y a une seule possibilité réelle dans la nature, même si pour nous il y a plusieurs possibilités « épistémiques » reflétant seulement notre incertitude et manque d’informations sur l’état du monde à un instant donné. Le fait que le comportement humain soit très complexe et difficile à prédire montre seulement une indéterminabilité causée par notre ignorance sur le fonctionnement du cerveau et les lois de la nature. Cela ne signifie pas qu’en dernière instance, les décisions humaines ne sont pas déterminées : comme tous les autres corps matériels, l’homme est soumis à des lois physiques sur lesquelles il ne peut pas agir.

Objection 2 : « Certes pour ta réponse à la première objection mais on sait bien que le déterminisme est faux à cause de la mécanique quantique où l’indéterminisme est fondamental : les probabilités y sont intrinsèques et ne sont pas la résultante de notre ignorance. »

C’est une objection très courante mais qui n’est en fait pas pertinente :

– Je ne vais pas rentrer dans les détails ici, mais il y a de nombreuses interprétations de la mécanique quantique totalement déterministes, principalement l’interprétation d’Everett et la mécanique bohmienne. Il est totalement faux de dire que la mécanique quantique a réfuté le déterminisme.

– Même si on supposait que le déterminisme était faux, qu’il y avait un hasard fondamental dans l’univers avec des lois probabilistes, cela ferait tout sauf sauver le libre-arbitre ! En effet, si nos décisions étaient déterminées par le hasard, on n’aurait par définition aucun contrôle sur elles, ce qui serait évidemment fatal pour notre liberté. Au final, cette idée d’un indéterminisme fondamental ne fait que créer des problèmes supplémentaires pour le libre-arbitre.

Conclusion

Et voilà, ce sera tout pour ce billet de blog ! La conclusion (provisoire) est la suivante : le déterminisme semble être incompatible avec le libre-arbitre, car celui-ci ne consiste qu’en un pouvoir surnaturel que l’homme ne saurait avoir, étant soumis aux même lois physiques déterministes que le reste de la nature.


La prochaine fois, on va s’intéresser d’un peu plus près au statut des lois des la nature et voir qu’en fait, le problème est plus complexe qu’il en a l’air ! On va également constater qu’il est possible de redéfinir le libre-arbitre pour échapper aux griffes du déterminisme. 🙂

PS : Un petit défi : quel est le nom de ce magnifique sommet ? 🙂

Sources principales :

– Stanford Encyclopedia of Philosophy : Compatibilism
– Monsieur Phi (Best Youtube Channel Ever) : La liberté est-elle un super-pouvoir ?
– Tim Crane & Katalin Farkas (2004) : Metaphysics: A Guide and Anthology 

Réalisme scientifique et empirisme constructif (2/2)

Bienvenue dans ce deuxième billet de blog ! On va continuer notre petite plongée dans les méandres de l’empirisme constructif.

La dernière fois, on a vu en quoi le problème de « la sous-détermination des théories par l’expérience » semblait aller en faveur de l’empirisme constructif. On va maintenant voir une autre critique de Van Fraassen à l’égard d’un argument central pour le réalisme scientifique.

Critique de l’argument « absence de miracle »

L’argument le plus important et connu en faveur du réalisme scientifique est le « No-Miracle Argument » (« absence de miracle ») d’Hilary Putnam, présenté dans son livre Mathematics, Matter and Method  (1979). Selon lui, le réalisme scientifique « est l’unique philosophie qui ne fait pas du succès de la science un miracle ». Le succès de la science concerne en particulier la capacité de certaines théories à prédire l’existence de phénomènes nouveaux. 

Par exemple, la relativité générale d’Einstein a permis de prédire en 1916 l’existence des ondes gravitationnelles, mais faute de moyens technologiques, celles-ci n’ont pu être observées qu’en 2016, soit 100 ans plus tard ! 

Comment alors expliquer cet incroyable succès prédictif de la relativité générale ? Selon Putnam, la meilleure explication est que ce que dit la relativité générale à propos de la gravitation « a à voir » avec ce qui se passe dans la réalité : elle est donc approximativement vraie. Si la relativité générale était complètement fausse, à côté de la plaque par rapport à ce qui se passe en vrai, il deviendrait complètement « miraculeux » qu’elle puisse être en capacité de prédire à l’avance l’existence des ondes gravitationnelles. Le réalisme scientifique serait donc la seule explication rationnelle à l’incroyable succès prédictif des sciences.

Van Fraassen s’attaque à cet argument de deux manières : 

  • D’abord, il soutient que l’on a pas besoin de recourir au réalisme pour expliquer le succès des sciences. Pour cela, il fait un parallèle entre la sélection naturelle en biologie et la sélection des théories.

Quand on parle de la théorie de l’évolution, il est classique de préciser que ce ne sont pas les individus qui s’adaptent eux-mêmes à leur environnement : c’est plutôt l’environnement qui exerce une pression de sélection sur les individus. Dans un environnement donné, les individus présentant des traits phénotypiques avantageux auront tendance à mieux survivre et à se reproduire ; ces caractères vont avoir tendance à se répandre dans la population. Il n’est donc pas étonnant que les individus d’une population soient adaptés à leur environnement : ceux présentant des caractères désavantageux ont disparu !

Par analogie, quand on sélectionne des théories au cours de l’histoire des sciences, un grand nombre sont envisagées mais on choisit celles qui sont compatibles avec les données empiriques. Il n’est donc pas surprenant que les théories qui ont « survécu » à cette sélection aient du succès ! Il n’y a donc aucune raison de faire appel au réalisme pour expliquer le succès des sciences.

  • Ensuite, comme on l’a vu dans le dernier billet de blog, les réalistes font appel à une « inférence à la meilleure explication » pour justifier leur croyance en l’existence d’entités inobservables comme les électrons ou les protons. Mais l’argument de Putnam dit précisément que le réalisme scientifique est la meilleure explication au succès des sciences. En d’autres termes, Putnam utilise l’inférence à la meilleure explication pour justifier le réalisme scientifique, qui requiert lui-même l’inférence à la meilleure explication ! L’argument est donc circulaire et semble inapproprié pour pouvoir soutenir le réalisme.

La conclusion globale qu’en tire Van Fraassen est finalement:

  • le réalisme scientifique est beaucoup trop ambitieux quant à la prétention de la science à la connaissance et se heurte à tout un tas de problèmes.
  • l’empirisme constructif est plus prudent, clair et pragmatique : le but de la science est seulement de développer des théories qui sont empiriquement adéquates, qui décrivent correctement ce qui est observable.

L’empirisme constructif est-il vraiment satisfaisant ?

Bon, c’est bien beau toute cette présentation formelle de l’empirisme constructif, mais il est maintenant temps de donner un peu mon avis sur tout cela ! Pour être très clair et concis : je ne trouve pas cette théorie DU TOUT satisfaisante.

Déjà, les critiques contre l’argument de Putnam ne sont pas convaincantes : 

  • Certes l’argument utilise de manière circulaire l’inférence à la meilleure explication. Mais d’un autre côté, les deux autres grands modes de raisonnement que sont la déduction et l’induction ne peuvent pas non plus être justifiés par des arguments non-circulaires. Cela ne semble pas trop déraisonnable d’utiliser des types de raisonnement de manière circulaire ; ceux-ci constituent une base indispensable pour toutes nos réflexions.
  • L’analogie entre sélection naturelle et sélection des théories n’est pas du tout pertinente. Celle-ci permet de comprendre pourquoi il n’est pas surprenant que l’on soit en possession de théories qui ont du succès, étant donné la manière dont on les choisit au cours de l’histoire. Les réalistes sont totalement d’accord avec cela, ce n’était pas la question qui était posée ! La question est plutôt de savoir pourquoi certaines théories ont un succès prédictif et pas les autres : qu’est-ce qui est à l’origine de la capacité d’une théorie en particulier, comme par exemple la relativité générale, à pouvoir prédire des phénomènes nouveaux ?

Pour prendre une autre analogie plus sportive : il n’est pas étonnant que les finalistes de Roland-Garros soient des bons joueurs de tennis, étant donné la manière dont ils ont été sélectionnés au cours du tournoi. Mais reste la question de savoir pourquoi ce sont ces joueurs qui se sont qualifiés et pas les autres. Pour cela, on fait appel aux caractéristiques spécifiques des joueurs : par exemple, le lift de Nadal, la défense de Ferrer, ou encore le revers à une main de Wawrinka.

De même, il faut expliquer quelles caractéristiques ont permis à la relativité générale de prédire l’existence des ondes gravitationnelles 100 ans avant leur observation. C’est comme déterminer les gènes responsables d’un phénotype avantageux dans un environnement donné. En clair, Van Fraassen positionne son explication au niveau phénotypique, mais cela est totalement hors-sujet car les réalistes demandent une explication génotypique ! 

Une explication raisonnable semble bien être celle du réalisme scientifique : nos meilleures théories scientifiques sont approximativement vraies, ce qui leur permet de faire des prédictions incroyablement précises, y compris concernant des phénomènes pas encore observés.

Un autre problème de taille

Au delà de la faiblesse des critiques contre l’argument de l’absence de miracle, l’empirisme constructif rencontre une autre difficulté majeure.

Pour rappel, Van Fraassen établit une frontière épistémologique entre le domaine de l’observable et de l’inobservable : accepter une théorie revient juste à croire ce qu’elle dit sur ce qui est observable. L’empirisme constructif postule alors une équivalence entre « adéquation empirique » et « vérité sur le monde observable ». Mais il est complètement possible qu’une théorie concernant le monde observable soit fausse mais compatible avec toutes les observations ! Par exemple, il est extrêmement probable qu’il existe une réalité extérieure à nous, mais on ne peut pas complètement écarter la possibilité que l’on soit dans un rêve et que tout cela ne soit qu’une illusion. Les organes sensoriels des êtres humains ne sont pas immunisés face à l’erreur ; nous sommes des « instruments de mesure » comme les autres et rien ne nous permet d’affirmer que l’on perçoit forcément la réalité telle qu’elle est vraiment. Donc si on veut croire aux aspects observables d’une théorie, il ne suffit pas qu’elle soit compatible avec l’expérience, il faut également faire appel à une inférence à la meilleure explication, ce que Van Fraassen refuse de faire !

On voit clairement ici l’incohérence de l’empirisme constructif : il semble arbitraire de penser que l’on doive utiliser l’inférence à la meilleure à l’explication seulement pour le domaine de l’inobservable et pas aussi pour celui de l’observable. Rien ne nous permet de justifier qu’on ait un accès privilégié et certain à la réalité par le biais de nos observations. De même que nos sens appréhendent le monde observable, de nombreux instruments de mesure que l’on utilise en science sondent l’inobservable. L’empirisme constructif est plus modeste que le réalisme scientifique, mais la frontière épistémologique tracée entre l’observable et l’inobservable apparaît comme complètement arbitraire et donc non-pertinente.

Bien que paraissant satisfaisante à première vue, cette théorie semble finalement très difficile à défendre, tant par son incohérence que par le manque d’arguments convaincants contre le réalisme scientifique.

Voilà, ce sera tout pour l’empirisme constructif, j’espère que cela vous a plu ! La prochaine fois, je parlerai probablement du statut des lois de la nature, et du lien avec le fameux problème entre le déterminisme et la liberté !

Réalisme scientifique et empirisme constructif (1/2)

Dans ce premier billet de blog, je vais parler de ce qu’on appelle « l’empirisme constructif ». L’appellation peut faire peur mais c’est tout à fait compréhensible en y allant pas à pas !

Reprenons depuis le début.  Si on prend un peu de recul sur les sciences, on peut se demander à quel point on peut avoir confiance en ce qu’elles disent. Est-ce qu’elles décrivent, au moins approximativement, ce qui passe vraiment dans la réalité ? Est-ce que des entités invisibles à l’oeil nu comme les atomes ou les électrons existent vraiment ? 

Toutes ces questions relèvent d’un débat omniprésent en philosophie des sciences : c’est le problème du « réalisme scientifique ».

Présentation générale

Le réalisme scientifique, c’est une vision optimiste sur la capacité de la science à nous apprendre des choses sur le monde. Pour plus de clarté, cette position est très souvent divisée en trois points :

1) Un aspect « métaphysique » : il existe un monde extérieur indépendant de l’esprit humain. Si l’espèce humaine était amenée à disparaître, les arbres, les maisons, les montagnes, les galaxies, bref tout ce qui nous entoure, existerait toujours. Cela peut paraître évident mais c’est toujours bien de le rappeler !

2) Un aspect « sémantique » qui concerne la manière d’interpréter les théories scientifiques : il faut les interpréter « littéralement ». Cela signifie que les termes scientifiques visent à décrire le monde réel sous tous ces aspects : pas seulement ce qu’on observe dans la vie de tous les jours, mais également ce qui est inobservable pour les humains. Par exemple, des termes comme « électron » ou « atome » ont pour but de référer à des entités microscopiques de la nature.

3) Un aspect « épistémologique » concernant la prétention de nos meilleures théories scientifiques à la connaissance : elles décrivent bien, au moins de manière approximative, ce qui se passe dans la réalité. Elles sont « approximativement vraies ». En particulier, on a de bonnes raisons de penser que des entités inobservables comme les électrons existent vraiment.

Le réalisme scientifique peut paraître très naturel de prime abord. Quand on nous enseigne la chimie, la biologie ou la physique à l’école, on ne se pose pas vraiment la question de savoir si l’ADN, les atomes ou les protons existent : cela semble être un présupposé évident.

Mais force est de constater qu’il y a beaucoup d’arguments remettant en cause cette vision des sciences. Au lieu de faire une liste de tous ces arguments, je vais plutôt en illustrer quelques uns en présentant une théorie concurrente au réalisme scientifique : l’ « empirisme constructif ».

L’empirisme constructif, kézako ?

Cette position a été introduite par le philosophe néerlandais Bas Van Fraassen dans son livre The Scientific Image, en 1980. Alors que durant la première partie du XXème siècle, beaucoup de discussions étaient centrées sur l’aspect « sémantique » du réalisme scientifique, Van Fraassen a recentré le débat sur l’aspect « épistémologique ». Sa théorie, extrêmement connue désormais, a fait l’objet de nombreux débats que je vais tenter de clarifier ici.

Alors, en quoi Van Fraassen s’oppose t’il au réalisme scientifique ? En quoi est-il un « anti-réaliste » ?

Bien qu’il soit totalement d’accord avec les deux premiers points du réalisme scientifique, il refuse le 3ème aspect. Selon lui, « la science a pour but de nous donner des théories qui sont empiriquement adéquates ; et accepter une théorie implique seulement de croire qu’elle est empiriquement adéquate » (p12). Une théorie est empiriquement adéquate si « elle décrit correctement ce qui est observable » (p4).

L’empirisme constructif est donc moins optimiste que le réalisme scientifique quant à la prétention des sciences à la connaissance. Accepter une théorie revient à croire qu’elle est (approximativement) vraie seulement pour tout ce qui est observable ; nous devrions rester agnostiques sur toute proposition concernant des entités inobservables, comme par exemple « Les électrons existent ».

Avant de parler des motivations de Van Fraassen pour introduire une telle position, il paraît indispensable de préciser ce qu’il entend précisément par observable et inobservable. Selon lui, un objet est dit observable si un humain peut l’observer à l’oeil nu, à un endroit et temps donné. Les phénomènes observables peuvent donc être passés, présents ou futurs. Il faut bien faire la distinction entre ce qui est « observable » et ce qui « a été observé jusqu’ici »: par exemple, la prochaine éclipse solaire est bien un phénomène observable, mais elle n’a pas été encore observée.

On peut cependant se demander si cette distinction n’est pas tout simplement mal définie. Les humains n’ont pas tous les mêmes capacités visuelles : entre une personne aveugle, un nouveau né et un adulte à la vision parfaite, les différences sont flagrantes. La notion d’observabilité semble alors totalement subjective. Van Fraassen concède tout à fait que la limite entre observable et inobservable est floue, mais il soutient qu’elle reste pertinente. Comme tout autre instrument de mesure, la vision humaine a des limites et il y a donc des cas où la distinction est non-ambigüe : par exemple, tout le monde est d’accord pour dire qu’un arbre est « observable », alors qu’un électron est « inobservable ».

Nous avons maintenant tous les outils pour attaquer le vif du sujet !

Alors, quels sont les arguments de Van Fraassen contre le réalisme scientifique et pourquoi considère t’il que sa théorie est meilleure ?

Je vais présenter dans ce premier billet de blog la 1ère critique de Van Fraassen : cela concerne le problème de la « sous-détermination des théories par l’expérience ».

Sous-détermination et relation entre théorie et expérience

Imaginons une expérience, où vous mesurez avec un radar la vitesse d’une voiture sur l’autoroute. Vous obtenez comme résultat : 2km/h. Quelle est votre réaction ? Vous dites sûrement « Mon radar déconne ! », et vous avez totalement raison ! 

Ce petit exemple illustre le fait que quand on a une théorie comme « La vitesse d’une voiture sur l’autoroute est élevée », on ne peut pas en déduire la « prédiction » que le radar affichera une vitesse élevée. Pour cela, on doit supposer que le radar fonctionne correctement, ou encore que les conditions extérieures ne vont pas perturber son fonctionnement.

Généralisons un peu : si on a une théorie T, on voit bien qu’elle ne suffit pas à elle seule pour engendrer des prédictions observables O. Pour cela, il faut faire appel à des hypothèses supplémentaires (H1, H2, H3…) sur le fonctionnement de l’appareil de mesure, les conditions de l’expérience, etc : on les nomme « hypothèses auxiliaires ». 

Maintenant, si on obtient une contradiction entre les prédictions observables et les résultats expérimentaux, que peut-on en conclure ? Et bien, comme l’illustre l’exemple avec le radar, on ne peut pas en déduire que T est fausse. En fait, c’est tout le bloc « T et H1,H2,H3… » qui est faux. Donc soit T est fausse, soit une des hypothèses auxiliaires est fausse, mais on ne sait exactement où se situe l’erreur. Il y a ce qu’on appelle un « holisme de confirmation » : T ne peut jamais être testée en isolation d’autres hypothèses. C’est toujours en bloc que sont testées les théories.

Pour rendre compatible notre bloc « T et H1,H2,H3… » avec les observations O, il y a donc plusieurs possibilités : modifier notre théorie T, ou bien modifier/ajouter/supprimer des hypothèses auxiliaires.

C’est cela qui engendre ce que l’on nomme la sous-détermination des théories par l’expérience : pour un certain ensemble de données expérimentales (observations), on peut toujours avoir plusieurs théories mutuellement incompatibles (en particulier concernant des aspects inobservables), mais toutes en accord avec les données. 

Mais alors, comment trancher entre ces théories « empiriquement équivalentes » et progresser scientifiquement ?

C’est ici qu’intervient tout un tas de critères non-empiriques supplémentaires, comme la simplicité des théories, leur pouvoir explicatif, leur élégance, ou encore leur cohérence avec le reste de nos connaissances. Les tenants du réalisme scientifique ont recours à ces critères en faisant ce qu’on appelle « une inférence à la meilleure explication » : une théorie avec une grande simplicité ou un grand pouvoir explicatif est préférée car elle a, selon eux, plus de chances d’être vraie que les autres théories empiriquement équivalentes. Cette méthode permettrait de progresser vers la vérité pour le domaine de l’observable comme de l’inobservable.

Argument contre le réalisme scientifique

Mais le problème pour les réalistes, c’est qu’on voit difficilement comment ce type de critères pourrait nous rapprocher de la vérité. Comme le dit Van Fraassen : « Il est certainement absurde de penser que le monde a plus de chances d’être simple que compliqué » (p90).

Il semble donc plus prudent et raisonnable de rester agnostique concernant les aspects inobservables des théories. On peut alors justifier nos choix entre théories empiriquement équivalentes en disant que les critères non-empiriques sont seulement des vertus pragmatiques : le but de la science est de formuler de la manière la plus simple, cohérente et intelligible possible des théories qui décrivent correctement ce qui est observable.

Evidemment, si on croit aux aspects observables d’une théorie, on va au-delà de nos connaissances empiriques actuelles et on ne résout pas complètement le problème de la sous-détermination : il y a plusieurs théories qui peuvent être en accord sur ce qui a été observé jusqu’ici, mais qui diffèreront sur de futures observations. Cependant, en se limitant au domaine de l’observable, l’empirisme constructif nous permet de prendre beaucoup moins de risques comparé au réalisme scientifique. Cela semble donc être une bien meilleure alternative !

Voilà, cela sera tout pour ce premier article ! On continuera la prochaine fois avec d’autres arguments contre le réalisme scientifique. On verra aussi que finalement, l’empirisme constructif n’est peut-être pas si convaincant que cela !

Bienvenue sur ce blog !

Bienvenue sur « Science Peak » (ou devrais-je dire « Science Speak » ?), où je parlerai de problèmes liés à la philosophie des sciences.

Comment définir la méthode scientifique ? Qu’est-ce qui distingue science de pseudoscience ? Que nous apprennent les théories scientifiques sur le monde ? Voilà autant de questions passionnantes que j’essaierai d’aborder.