Mécanismes et réductionnisme en biologie (2/2)

Allons-y pour la suite sur les mécanismes et le réductionnisme en biologie ! Dans le dernier billet j’ai surtout cherché à donner une définition rigoureuse des mécanismes, telle qu’explicitée par les philosophes des sciences contemporains. La partie vraiment intéressante commence maintenant : quel lien y-a-t’il entre l’approche mécaniste et le réductionnisme ?

D’abord, en quoi consiste exactement le réductionnisme ? En première approximation et sans détailler tout de suite, on peut dire que l’expression « X se réduit à Y » signifie « X peut être ramené à Y », ou dit autrement, « X n’est rien d’autre que Y ». Pour le cas de la démarche mécaniste, on va être amené à se poser la question : quelle relation y-a-t’il entre un phénomène biologique et les mécanismes sous-jacents qui l’expliquent ? Le phénomène se réduit-il à ces mécanismes ?

Cela va être l’occasion d’introduire des notions centrales en philosophie des sciences : la « survenance » et la « réalisabilité multiple ».

1) Le constat d’une relation asymétrique entre mécanisme et phénomène : la relation de « survenance »

Pour rappel, on a vu la dernière fois qu’un mécanisme consiste en un ensemble de constituants (par exemple, des zones du cerveau) dont les activités et intéractions permettent de réaliser la fonction d’un phénomène global (par exemple, la mémorisation spatiale). 

Par conséquent, étant donné des conditions initiales adéquates, toute instance d’un mécanisme permet de rendre compte du rôle causal du phénomène. On voit donc que le mécanisme est lui-même suffisant pour déterminer le phénomène : une fois que le mécanisme est fixé, il n’y a plus de place pour d’autres constituants qui auraient eux aussi une influence sur le rôle causal du phénomène.

Mais l’inverse n’est pas vrai : un phénomène n’est pas suffisant pour fixer le mécanisme. Il est tout à fait concevable que plusieurs types de mécanismes puissent rendre compte du même type de phénomène : c’est ce qu’on appelle la « réalisabilité multiple ». Par exemple, si on prend le phénomène « jouer aux échecs », la fonction peut être réalisée par des mécanismes très différents selon que ce soit un humain ou un ordinateur qui joue. Pour ramener cela à la biologie, on peut même imaginer que des formes de vie extraterrestres soient capables de jouer aux échecs malgré des mécanismes biologiques très éloignés des nôtres.

On peut donc résumer la relation entre mécanisme et phénomène de la manière suivante : un mécanisme, une fois fixé, est une condition suffisante mais pas nécessaire pour déterminer le phénomène.

Cette relation asymétrique est très bien capturée par un autre concept très important en philosophie : la « survenance ». On dit que le phénomène « survient » sur le mécanisme explicatif, dans le sens où deux phénomènes biologiques différents ne peuvent pas avoir exactement les mêmes mécanismes sous-jacents. De manière équivalente, des mécanismes strictement identiques caractérisent forcément le même phénomène. Il s’agit juste d’une manière de reformuler que le mécanisme est suffisant pour déterminer le phénomène.

La survenance permet d’expliciter clairement la relation asymétrique entre mécanisme et phénomène. Mais il faut bien préciser que cela est uniquement un constat : cela ne nous dit rien sur le pourquoi du comment de cette relation, en particulier la question métaphysique « Quelle est la « nature » du mécanisme par rapport à celle du phénomène ? ». C’est ce qu’on va voir tout de suite !

2) Comment expliquer la relation asymétrique entre mécanisme et phénomène ? Précisions et apport du « réductionnisme fonctionnel » dans le débat

Les notions de survenance et de réalisabilité multiple s’appliquent à la démarche mécaniste, mais elles sont plus généralement primordiales dans les débats autour du réductionnisme, notamment pour caractériser les relations entre physique fondamentale et biologie. Pourquoi ? 

Comme mentionné dans le dernier billet, c’est parce que les entités et les phénomènes biologiques sont classés selon leur fonction caractéristique, et non selon leur composition physique. C’est cela qui rend possible la réalisation multiple : pour une propriété biologique caractérisée par une fonction donnée, il y a plusieurs configurations physiques différentes qui peuvent « réaliser » cette fonction. Par exemple, des séquences d’ADN légèrement différentes peuvent coder la même protéine et donc correspondre au même gène ; un état mental de douleur peut être réalisé par différentes configurations cérébrales ; etc.

Il y a donc également une relation asymétrique entre les propriétés physiques et les propriétés biologiques : les propriétés biologiques surviennent sur les propriétés physiques, comme le montrent les schémas ci-dessous :

La réalisation multiple est un argument classique pour dire qu’on ne peut pas réduire la physique à la biologie. La relation étant asymétrique, on ne peut pas se permettre de dire « les concepts biologiques ne sont rien d’autre que des concepts physiques » ou « on peut ramener directement les concepts biologiques aux concepts physiques ». La puissance des sciences spéciales comme la biologie est précisément de faire abstraction de la composition physique des objets pour se concentrer sur l’important : leur fonction ou rôle causal, déterminé par certains effets caractéristiques. Par exemple, ce qui nous intéresse quand on étudie le coeur des humains, c’est comment l’agencement global et l’activité des cellules permettent le pompage du sang à travers l’organisme ; ce n’est pas la configuration exacte des atomes qui peut différer en fonction des personnes.

Malgré la réalisation multiple, on peut tenter de réduire la biologie à la physique d’une manière un peu différente, avec ce qu’on appelle le « réductionnisme fonctionnel ». Celui-ci se décompose en 3 étapes :

1. Définition fonctionnelle : on choisit un concept biologique dont le référent dans la nature est défini par sa fonction F.
2. Recherche des « réalisations » : on cherche les configurations physiques qui réalisent le rôle causal qui définit F, au sens où elles aboutissent aux effets caractéristiques de F.
3. Explication : on décrit les mécanismes physiques qui produisent les effets qui caractérisent F, ce qui permet d’expliquer comment chaque configuration physique est un cas de F.

Cette approche ne vous fait pas penser à quelque chose ? Eh bien oui, en fait, la démarche mécaniste qu’on a vu en large et en travers correspond exactement au réductionnisme fonctionnel ! 

Dans un mécanisme, on trouve des constituants qui ont chacun un rôle causal et qui sont organisés de telle manière qu’ils reproduisent le même rôle causal que le phénomène. Le rôle causal de chaque constituant est lui-même explicable par un mécanisme qui fait intervenir des constituants à un niveau inférieur, et on pourra encore expliquer mécanistiquement les rôles causaux du niveau inférieur, etc, etc. Avec ces mécanismes imbriqués les uns dans les autres, on peut alors redescendre jusqu’à l’échelle de la physique et on finira par obtenir pour notre phénomène de départ une explication en termes de mécanismes physiques : il s’agit exactement de la réduction fonctionnelle.

Bon, ici vous pourriez être tenté de dire « mais quel est l’intérêt de montrer que la démarche mécaniste revient à faire du réductionnisme fonctionnel ? Dire que X est X, c’est pas très profond comme réflexion ! »

Mais non voyons, c’est tout sauf inintéressant. Le réductionnisme fonctionnel a déjà fait l’objet de débats en philosophie, principalement à partir des années 1990 ; pas tellement en philosophie de la biologie, mais dans un domaine voisin : la philosophie de l’esprit. En effet, le même type de réductionnisme s’applique avec les propriétés mentales (états psychologiques de douleur, joie, etc…) qui surviennent sur les propriétés physiques du cerveau. Et cela a des implications sur les options métaphysiques que l’on peut choisir pour caractériser la « nature » des états mentaux par rapport aux états physiques.

Il en va donc de même pour la démarche mécaniste avec la relation entre la « nature » du mécanisme et celle du phénomène : les mécanismes ne sont pas si « métaphysiquement neutres » que ça, contrairement à ce qu’on disait la dernière fois ! Il y a en fait deux alternatives possibles :

Option 1 : Démarche anti-réductionniste

La démarche anti-réductionniste consiste à dire qu’un phénomène biologique est ontologiquement distinct des mécanismes physiques sous-jacents qui l’expliquent, c’est-à-dire de nature différente. Cela revient alors à soutenir un pluralisme ontologique avec plusieurs « couches » d’existence, plusieurs « réalités » à différentes échelles. 

Attention, remarque importante : je parle ici d’anti-réductionnisme alors qu’on est toujours dans le cadre du réductionnisme fonctionnel. N’est-ce pas contradictoire ? En fait non, puisque le réductionnisme fonctionnel concerne la réduction d’une théorie à une autre (la physique à la biologie) alors que l’anti-réductionnisme évoqué ici désigne la réduction de « quelque chose dans le monde » (un phénomène biologique) à « autre chose dans le monde » (les mécanismes physiques sous-jacents).

Le réductionnisme fonctionnel se positionne donc à un niveau épistémologique, alors que l’anti-réductionnisme dont on parle est à un niveau métaphysique/ontologique (sur ce qui existe dans le monde). Il est tout à fait possible de concilier réductionnisme fonctionnel et anti-réductionnisme ontologique, même si comme on va le voir, c’est une position très difficilement tenable.

Revenons-donc à l’anti-réductionnisme. Dire qu’un phénomène biologique est distinct de ses mécanismes physiques sous-jacents peut être attrayant pour conserver la spécificité des concepts biologiques. Mais cela mène en fait à de nombreuses bizarreries.

Pour le constater, il suffit de se poser la question « De quoi un être humain est-il constitué ? ». On pourrait répondre : de cellules. Mais de quoi sont composées les cellules ? D’un arrangement très complexe de molécules. Et de quoi sont composées les molécules ? De configurations d’atomes. On peut continuer ainsi le raisonnement pour redescendre jusqu’à l’échelle la plus petite, celle des constituants élémentaires de la matière dans le modèle standard de la physique des particules.

Pour un anti-réductionniste ontologique, la réponse à la question initiale serait « Un être humain est constitué de « couches » de nature différente. Les cellules, qui se situent à une couche supérieure, ne peuvent pas être ramenées à un ensemble de configurations physiques situées à une couche inférieure ». On voit bien l’étrangeté de cette position : même si avec la réalisation multiple, de nombreuses configurations physiques peuvent aboutir à ce qu’on nomme « cellule », il n’en reste pas moins qu’en tout temps, une cellule n’est rien d’autre qu’une configuration physique particulière. Cela paraît tout sauf nécessaire de postuler plusieurs « couches » d’existence.

**** Début de la partie facultative, si vous ne voulez pas vous embêter avec les détails, passez à la suite, ce n’est pas très important 🙂
Une autre manière de le voir est de revenir à la définition d’un mécanisme physique m qui explique un phénomène biologique p. Considérons un autre phénomène p* causé par p. Comme l’intéraction et l’activité des constituants de m reproduisent entièrement le rôle causal de p, on peut en déduire que m cause aussi p*. On a donc deux causes suffisantes pour p*

Si on adopte l’anti-réductionnisme en faisant la distinction ontologique entre m et p, on se retrouve ainsi dans une position très inconfortable : 

– soit on accepte que m et p sont donc des causes différentes de p*. Mais la question est : une fois que l’on a obtenu une cause physique suffisante de p* (mécanisme m), pourquoi supposer une cause supplémentaire et différente (phénomène p), alors même que p ne joue pas de rôle causal différent dans la production de p* ? On a aucune raison de postuler une telle cause additionnelle. L’incohérence de ce point de vue fait qu’il n’est d’ailleurs quasiment jamais défendu.

– soit on admet que p* a bien une seule et unique cause. Mais dans ce cas, on est forcé d’éliminer soit la cause m, soit la cause p. Comme le but du réductionnisme fonctionnel est d’expliquer un phénomène par ses mécanismes physiques sous-jacents, il faut absolument conserver la cause m et donc éliminer la cause p. Dans ce cas, le phénomène p n’a plus aucun rôle causal : c’est ce qu’on appelle un « épiphénomène ». Comme précédemment, on peut se poser la question de l’intérêt de postuler l’existence d’un épiphénomène en plus du mécanisme, alors que celui-ci permet à lui seul de rendre compte du rôle causal global. En philosophie de l’esprit, cette objection se nomme le « problème de l’exclusion causale », notamment exprimé par le philosophe Jaegwon Kim.
Fin de la partie facultative ****

Pour résumer, l’anti-réductionnisme ontologique semble finalement très peu convaincant puisqu’il introduit des couches d’existence supplémentaires qui n’ont aucune efficacité causale pertinente. Elles apparaissent un peu « de nulle part ».

Mais ce n’est pas le seul gros soucis avec cette position : elle est aussi incompatible avec la définition-même de mécanisme ! En fait, elle rentre en conflit avec le fameux critère de « manipulabilité mutuelle » qui permet de déterminer les constituants d’un mécanisme. 

Pour rappel, ce critère stipule qu’une entité e est un composant du mécanisme m pour un phénomène p si et seulement si une intervention spécifique sur le comportement de e entraîne une modification du comportement de p ; et réciproquement, une intervention spécifique sur le comportement de p entraîne une modification du comportement de e.

Mais avec l’anti-réductionnisme, le mécanisme est par définition d’une nature distincte du phénomène ! L’idée même de pouvoir intervenir sur le phénomène pour trouver les constituants d’un mécanisme ne fait pas sens : le phénomène n’a précisément aucune efficacité causale pertinente. 

Bref, tout cela n’est pas vraiment satisfaisant. Il est donc temps d’étudier l’autre option : le réductionnisme ontologique.

Option 2 : Réductionnisme ontologique

Le réductionnisme ontologique est littéralement l’approche inverse de l’anti-réductionnisme : on identifie toute occurence d’un phénomène à son mécanisme physique sous-jacent. Cette position a le mérite de régler beaucoup de problèmes posés par l’anti-réductionnisme :

– Déjà, on a une seule « couche » de réalité, ce qui est bien plus parcimonieux. Toute occurence d’un phénomène biologique n’est rien d’autre qu’une configuration physique particulière. Par exemple, le corps humain n’est, en tout temps, rien d’autre qu’une certaine configuration de particules.
– Cela élimine aussi le problème de l’exclusion causale (Cf partie facultative), puisque le phénomène p* admet une seule et unique cause suffisante : le mécanisme m / le phénomène p.

À ce stade, il semble qu’on a une vision très satisfaisante des sciences :

1. D’un point de vue ontologique, on a une seule « couche » d’existence.
2. D’un point de vue épistémique, toutes les sciences ont leur importance car elles font intervenir différents niveaux de descriptions, ce qui permet de rendre intelligible une grande variété de phénomènes à diverses échelles.
3. Le point de vue mécaniste est très proche de la façon dont travaillent les biologistes et neuroscientifiques.

Tout cela serait bien beau… s’il n’y avait pas un autre problème. Le réductionnisme ontologique est malheureusement lui aussi très problématique pour la cohérence du concept de mécanisme. Et cela concerne encore une fois le critère de manipulabilité mutuelle !

Qu’est-ce qui ne va pas cette fois-ci ? Le problème est que si on identifie mécanisme et phénomène, la manipulabilité mutuelle est vérifiée trivialement dans tous les cas. En effet, il n’est pas possible d’intervenir spécifiquement sur le comportement du phénomène sans intervenir sur le comportement d’un des constituants du mécanisme sous-jacent, et vice-versa.

Ainsi, contrairement à ce que dit le critère de manipulabilité mutuelle (Situation 1 sur le schéma ci-contre), une intervention sur un constituant du mécanisme ne cause pas une modification du comportement du phénomène, et réciproquement. Plutôt, toute intervention cause nécessairement à la fois la modification du comportement du constituant et du phénomène (Situation 2).

L’erreur du critère de manipulabilité mutuelle est donc de concevoir des relations causales entre constituants du mécanisme et phénomène alors que celles-ci ne correspondent pas aux interventions que l’on réalise dans des expériences.

Et voilà, on arrive à la fin de ce périple dans les méandres des mécanismes et du réductionnisme ! J’espère que c’était clair et intéressant :). En tout cas j’ai fait de mon mieux, c’est un sujet qui peut vite devenir très technique.

En résumé, les mécanismes semblent de prime abord être des explications puissantes et proches de la pratique scientifique en biologie et neurosciences. Mais au final, comme l’argumente Patrice Soom dans cet article, la démarche mécaniste est identique au « réductionnisme fonctionnel » et fait donc face aux mêmes alternatives ontologiques que celui-ci : l’anti-réductionnisme ou bien le réductionnisme ontologique. Dans les deux cas, on a vu que cela créait des conflits majeurs avec le critère de « manipulabilité mutuelle » censé être à la base de la définition-même du mécanisme. L’approche mécaniste semble donc devoir être réformée en profondeur avec une modification de ce critère.

Sources :

– Patrice Soom : Mechanisms, determination and the metaphysics of neuroscience (2012)
– Michaël Esfeld : Philosophie des sciences : Une introduction (2017)
– Christian Sachse : Philosophie de la biologie : Enjeux et perspectives (2011)
– Felipe Romero : Why there isn’t inter-level causation in mechanisms (2015), très utile pour comprendre les problèmes avec le critère de manipulabilité mutuelle.

Mécanismes et réductionnisme en biologie (1/2)

Histoire de changer de sujet, un peu de philosophie de la biologie ! Je vais essayer d’aborder une question passionnante et omniprésente en philosophie des sciences : celle de la relation entre les sciences spéciales (chimie, biologie, psychologie…) et la physique fondamentale. Est-ce que les sciences spéciales sont réductibles à la physique ou totalement autonomes ? Si on réduit tout à la physique (« réductionnisme »), est-ce qu’on ne nie pas l’intérêt et le caractère scientifique des sciences spéciales ?

Bien évidemment, il s’agit d’un débat tellement large que je serais bien incapable d’aborder tous ses aspects. Comme pour mes deux billets sur le réalisme scientifique, je vais me contenter de présenter un sujet un peu annexe mais qui permettra d’expliquer des arguments importants autour du réductionnisme. Cela concerne la notion de « mécanisme » : une explication en termes de mécanismes est-elle « réductive » ?

Les mécanismes sont absolument partout en biologie : le mécanisme de réplication de l’ADN, le mécanisme de traduction de l’ARN en protéines, le mécanisme de la réponse immunitaire, les mécanismes cérébraux qui permettent le langage, la mémorisation, la vision, etc… Dans l’article « Thinking about Mechanisms » datant de 2000, les philosophes des sciences Machamer, Darden et Craver (« MDC ») vont jusqu’à dire que « si on ne réfléchit pas en terme de mécanismes, on ne peut pas comprendre la neurobiologie et la biologie moléculaire » (p24). Cette affirmation semble d’autant plus justifiée que la recherche et découverte de mécanismes est très proche de la manière dont travaillent les biologistes et neuroscientifiques.

Face à l’utilisation croissante des mécanismes au sein de la pratique scientifique en biologie, les philosophes ont récemment cherché (à partir des années 2000) à clarifier la signification de ce concept et particulièrement ses implications par rapport à d’autres débats classiques en philosophie des sciences, notamment celui du réductionnisme. 

Pour commencer, ce serait pas mal de définir ce qu’est un mécanisme, non ? Et pourquoi est-il si pertinent de penser de la sorte pour comprendre la biologie ?

Le cadre mécaniste défini par Machamer, Darden et Craver (« MDC »)

Toujours dans l’article fondateur « Thinking about mechanisms », « MDC » définissent le mécanisme comme un ensemble « d’entités et d’activités organisées de telle manière à produire des changements réguliers », c’est-à-dire la réalisation d’un phénomène donné à partir de conditions initiales typiques.

Par exemple, quand un agent infectieux s’introduit dans notre organisme, des cellules immunitaires détectent l’intrus et recrutent d’autres cellules sur le site de l’infection via la libération de médiateurs chimiques, entraînant alors une réaction inflammatoire (rougeur, douleur, chaleur…).

Le phénomène de réaction inflammatoire est donc expliqué par le mécanisme consistant en l’activité et l’intéraction des cellules immunitaires (« entités ») présentes dans les tissus.

Ainsi, les activités produisent le changement (ordre temporel, durée, rythme) et font intervenir des entités qui ont certaines propriétés (structure, géométrie, localisation). Le but est de décrire chaque étape intermédiaire du mécanisme de telle sorte qu’il y ait une continuité entre les conditions initiales et le phénomène final. Il ne doit pas y avoir de « vide » dans l’explication : les activités permettent de faire le lien entre les étapes successives du mécanisme. 

Une autre propriété importante des mécanismes est qu’ils sont « imbriqués » les uns dans les autres. Les explications en biologie se font à plein d’échelles différentes, tant au niveau moléculaire et cellulaire qu’au niveau des comportements des organismes, voire des populations et des espèces. Par exemple, on peut passer des échelles les plus petites à des échelles supérieures : certains mécanismes sont à l’origine de la formation des liaisons chimiques, les liaisons chimiques font partie des mécanismes de réplication de l’ADN, l’ADN est un composant du mécanisme de synthèse des protéines, les protéines interviennent dans tout un tas de processus au sein des cellules, les cellules permettent aux organes d’exercer leur fonction correctement, le cerveau est un organe qui peut nous servir à apprendre la philosophie des sciences, etc, etc.

On voit alors apparaître l’avantage du « cadre mécaniste » selon Craver : les descriptions en termes de mécanismes ont pour ambition d’unifier la biologie, avec l’intégration des explications à toutes les échelles. Le but est également d’éviter de « réduire » les disciplines qui s’intéressent aux couches « supérieures » (échelle des organismes, des comportements des individus…) à celles qui étudient les couches « inférieures » (biologie moléculaire, cellulaire…). Pour préciser un peu, il y a l’ambition d’être « métaphysiquement neutre » : on ne se prononce pas sur la « nature » des différentes couches, l’important est seulement de prendre en compte chacune de leur spécificité pour rendre intelligible une grande variété de phénomènes.

Penser en termes de mécanismes semble alors tout à fait pertinent : les explications sont intuitives, cohérentes avec la pratique scientifique et métaphysiquement neutres, tout en évitant un réductionnisme qui ne reconnaîtrait pas l’intérêt des différents niveaux d’abstraction utilisés en biologie.

Malheureusement… ce n’est pas si simple ! Il y a pas mal d’arguments qui remettent en question ce cadre mécaniste. Lesquels ? Eh bien, c’est là qu’il va falloir approfondir les liens entre mécanisme et réductionnisme ! 

La démarche mécaniste est-elle vraiment métaphysiquement neutre ?

Comment se positionne le mécanisme par rapport au réductionnisme ? On va voir qu’en fait, la démarche mécaniste ressemble fortement à un certain type de réductionnisme qui a des implications métaphysiques pas du tout neutres.

Pour que ce soit plus facile de le constater, il convient avant de définir un peu plus formellement ce qu’est un mécanisme. En biologie, contrairement à la physique fondamentale, on classe les entités et les phénomènes selon leur fonction caractéristique (ou « rôle causal ») et non selon leur composition physique. Par exemple, le rôle causal du coeur est de pomper le sang à travers l’organisme ; la fonction de certains gènes est de coder pour la couleur des yeux ; etc…

Considérons maintenant un phénomène p que l’on cherche à expliquer en neurosciences : par exemple, la mémorisation spatiale. Cette capacité p est caractérisée par un « rôle causal » ψ : elle nous permet de nous repérer dans des lieux qu’on a déjà visités. Un mécanisme sous-jacent m qui explique p est alors un ensemble de constituants c(1), c(2), …, c(n), caractérisés chacun par leurs activités/« rôles causaux » respectifs, et organisés de telle manière à ce qu’ils reproduisent ensemble le rôle fonctionnel ψ de notre phénomène de départ p. J’ai réalisé ce schéma qui j’espère clarifie la situation :

Schéma de l’explication mécaniste d’un phénomène biologique donné

Dans le cas de la mémorisation spatiale, cela reviendrait à étudier la structure du cerveau en identifiant les zones qui contribuent à ce que nous soyons capables de nous repérer dans un lieu connu. Il s’avère par exemple que l’activité de l’hippocampe a un rôle crucial dans notre capacité à représenter mentalement notre environnement, ce qui suggère qu’il serait un constituant c(1) du mécanisme expliquant la mémorisation spatiale. 

Se pose alors la question de comment déterminer les constituants d’un mécanisme. Comment distinguer une partie du cerveau qui a un rôle dans la mémorisation spatiale, d’une autre partie qui n’en a pas ? C’est ici que rentre en jeu un critère très important proposé par Craver : c’est le critère de « manipulabilité mutuelle ». Ce nom peut paraître barbare mais l’idée est assez simple. Une entité e est un constituant du mécanisme m qui explique un phénomène global p si et seulement si :

– un changement du comportement de e entraîne une modification du comportement de p, ou dit autrement, un changement du rôle causal de e engendre une modification du rôle causal de p. C’est l’approche « bottom-up » (« du bas vers le haut »). Par exemple, une modification de l’activité de l’hippocampe entraîne une perturbation de la mémorisation spatiale.
– inversement, un changement du comportement global de p entraîne une modification du comportement de e : un changement du rôle causal de p engendre une modification du rôle causal de e. C’est cette fois-ci l’approche « top-down » (« du haut vers le bas »). Par exemple, une modification de notre capacité à nous repérer dans des lieux connus entraîne une perturbation de l’activité de l’hippocampe.

Les comportements des constituants du mécanisme et du phénomène global peuvent donc être manipulés mutuellement, d’où l’expression « manipulabilité mutuelle ». 

Ce critère proposé par Craver paraît pertinent puisqu’il colle parfaitement à la pratique des scientifiques qui réalisent des expériences « bottom-up » et « top-down » pour identifier les différentes parties du cerveau responsables de l’existence de phénomènes comme la mémorisation spatiale.

Une fois que les constituants c(1), c(2), …, c(n) du mécanisme m ont été trouvés, on peut continuer le raisonnement en expliquant par d’autres mécanismes sous-jacents les activités des constituants de m. L’activité de l’hippocampe peut donc elle-même constituer un phénomène p’, situé à une couche inférieure par rapport à p, et caractérisé par un rôle causal ψ’. Il s’agit alors de trouver un autre mécanisme m’ en identifiant des composants du cerveau d(1), d(2), …., d(N) à un niveau encore inférieur, de telle manière à ce que leurs activités et intéractions reproduisent le rôle fonctionnel ψ’ du phénomène p’.  Dans le cas de l’hippocampe, sans rentrer dans les détails, ce sont certaines activités au niveau des synapses qui expliquent en partie la réalisation de la fonction ψ’ du phénomène p’. Et on peut continuer ainsi avec des mécanismes à une couche encore inférieure qui expliquent les activités au niveau des synapses, etc, etc, jusqu’à ce qu’on arrive à l’échelle la plus petite : celle de la physique fondamentale. Comme on a vu précédemment, on obtient finalement des mécanismes imbriqués les uns dans les autres, qui rendent compte des phénomènes à différentes échelles.

Et voilà, on a maintenant toutes les bases nécessaires pour parler du coeur du sujet : le lien entre mécanismes et réductionnisme ! Comme ce billet est déjà assez long et qu’il reste beaucoup de choses à voir, je vais garder ça pour la prochaine fois :). Je devrais normalement publier la suite dans quelques jours. En précisant la relation entre mécanismes et phénomène, on va constater que la démarche mécaniste se rapproche énormément d’un certain type de réductionnisme, le « réductionnisme fonctionnel », et n’échappe donc pas à tout un tas d’implications ontologiques qui sont très problématiques pour la cohérence-même du concept de mécanisme !

Sources principales :

– Machamer, Darden & Craver : Thinking about Mechanisms (2000)
– Patrice Soom : Mechanisms, determination and the metaphysics of neuroscience (2012)
– Stanford Encyclopedia of Philosophy : Mechanisms in Science

(Image ci-contre : le magnifique Nanga Parbat, 8125m)

Déterminisme, lois de la nature et libre-arbitre (2/2)

C’est parti pour la suite sur le libre-arbitre et le déterminisme ! On a vu la dernière fois que l’argument de la conséquence de Van Inwagen semblait très convaincant pour montrer une incompatibilité entre libre-arbitre et déterminisme. Eh bien en fait le problème est plus complexe qu’il en a l’air initialement !

Petite introduction

La stratégie classique pour le compatibilisme est de redéfinir le libre-arbitre de telle manière à « échapper aux griffes » du déterminisme. Cette approche me paraît souvent critiquée (voir par exemple deux posts de chaînes Youtube scientifiques sympas : Science Etonnante et Homo Fabulus) car il est considéré que cela ne revient qu’à contourner le problème, en utilisant une définition qui nous arrange mais qui ne correspond pas au sens commun.

Une réponse possible à cet argument est que ce que l’on appelle « sens commun » ou « vision intuitive » n’est pas forcément ce que l‘on croit : la philosophie expérimentale tend en effet à montrer que notre vision intuitive de la responsabilité (intimement liée à celle de liberté) est complètement compatible avec le déterminisme. Pour plus d’explications très intéressantes sur ce point, vous pouvez notamment visionner ce passage d’une vidéo de Monsieur Phi (une interview de Florian Cova, professeur en philosophie à l’Université de Genève).

Aussi intéressant soit-il, je vais laisser ce débat sémantique de côté pour m’attarder sur un point qui est beaucoup moins connu : cela concerne le statut des lois de la nature et de la causalité.

Mon argumentation est en grande partie tirée du dernier livre de Michaël Esfeld « Sciences et liberté », je vous incite à le lire si vous voulez approfondir le sujet, c’est passionnant ! Cet article de l’encyclopédie de Stanford détaille également les différentes approches contemporaines se focalisant sur le statut des lois de la nature.

Rappelons d’abord l’argument de Van Inwagen pour l’incompatibilisme :

1. Personne n’a de pouvoir sur les faits du passé et les lois de la nature.
2. Les événements du passé et les lois de la nature engendrent tous les événements du futur (c’est-à-dire que le déterminisme est vrai).
3. Par conséquent, personne n’a de pouvoir sur les actes du futur.

La stratégie globale de ce billet de blog va être d’abord de clarifier les notions de déterminisme et de lois de la nature. Le but est de montrer que la conclusion de l’argument de Van Inwagen n’est vraie que si l’on adopte une position particulière dans le débat sur la nature des lois. Ce sont des discussions assez techniques et qui couvrent de larges domaines de la philosophie des sciences, alors je vais faire de mon mieux pour être clair et concis. Allez c’est parti !

Comment fonctionne le déterminisme en sciences ?

Prenons le cas d’une expérience basique : je lâche une bille du haut d’un immeuble. Comment calcule t’on le temps qu’elle met pour atteindre le sol ? Plusieurs outils sont requis :

– les lois physiques : la seconde loi de Newton (pour le rapport entre les forces appliquées sur la bille et son accélération) et la loi universelle de la gravitation (pour connaître l’expression de la force de gravitation à la surface de la Terre)
– les conditions initiales : la hauteur et la vitesse de la bille au moment du lancer ; et les valeurs des paramètres qui apparaissent dans les lois, comme la masse de la bille ou la constante universelle de gravitation.

Avec toutes ces informations, on peut calculer la trajectoire de la bille et le temps qu’elle met pour toucher le sol. Le déterminisme en sciences consiste donc à dire : « les conditions initiales sur les différents paramètres et les lois de la nature engendrent les évènements du futur. » Si on compare avec le point 2) de l’argument de Van Inwagen, on s’aperçoit que « les événements du passé » a été remplacé par « les conditions initiales sur les différents paramètres ». On peut penser que c’est équivalent, et en fait… pas forcément !

Pourquoi donc ? Eh bien, on va voir qu’il est possible de penser que les valeurs initiales de certains paramètres dépendent du mouvement futur dans l’univers.

Plus précisément, pour faire l’équivalence entre « les événements du passé » et « les conditions initiales sur les différents paramètres », il faut supposer que ces paramètres sont des propriétés intrinsèques aux objets, de telle sorte que ces propriétés soient des caractéristiques réelles du monde à un instant donné. Dans cette vision, les valeurs initiales des paramètres caractérisent bien les événements passés.

Cela peut paraître tout à fait naturel de considérer que des paramètres comme la masse ou la charge d’une particule soient des propriétés intrinsèques à celle-ci. Néanmoins, il existe des arguments remettant en cause cette vision des choses, et c’est bien là tout le coeur du débat.

Quels arguments ?


Reprenons l’exemple de la loi de la gravitation. Celle-ci permet de résumer de manière simple et informative une régularité stable dans l’univers : celle de l’attraction entre les corps ayant une masse. Mais quel statut précis donner à cette loi ? S’agit-il :

a) d’une simple description d’une régularité stable (l’attraction des corps) ?
b) de la découverte d’une propriété intrinsèque aux objets (la masse) qui cause le fait que les corps s’attirent, qui impose ces mouvements ?

On retrouve ici les deux variantes classiques en philosophie des sciences concernant le statut des lois : d’un côté l’ « Humeanism » (a) et de l’autre l’ « Anti-Humeanism » (b). 

  • L’ « Humeanism » est appelé ainsi car il s’inspire de la position du philosophe David Hume (1711-1776) pour lequel les relations de causalité n’existent pas : elles découlent seulement de notre habitude psychologique à observer des régularités dans la nature. Elles sont pour ainsi dire « dans notre tête ». Pour Hume, il est correct de dire « jusqu’à présent, la pluie a été précédée par des nuages », mais pas « les nuages causent la pluie. ». Tout ce qu’il y a dans le monde est un enchaînement de phénomènes avec certaines régularités ; il n’y a pas de connexions nécessaires dans la nature car celles-ci reflètent juste la psychologie des êtres humains qui aiment bien penser en ces termes. 
    Un petit détail : dans la suite je vais plutôt parler du « Super-Humeanism » (développé récemment par Esfeld et Duckert) au lieu de l’Humeanism. Je vais laisser de côté les différences entre les deux, ce n’est pas d’une grande importance.

  • De l’autre côté, l’« Anti-Humeanism » insiste sur le fait que les lois de la nature ne sont pas de simples descriptions de régularités observées : elles sont également des explications. Les lois mettent en évidence des nécessités réelles qui nous indiquent ce qu’on peut ou ne peut pas faire. Une position courante est alors de situer ces nécessités dans les paramètres des lois physiques comme la masse : celle-ci est une propriété intrinsèque aux objets qui impose les mouvements d’attraction observés. L’existence de cette propriété permet ainsi de fournir une explication aux mouvements, en allant plus loin que la simple description.

    Si cette version de l’Anti-Humeanism est acceptée, il y a bien une équivalence entre « les événements du passé » et « les conditions initiales sur les différents paramètres » comme mentionné plus haut, car ces paramètres caractérisent le monde à un instant donné. Dans ce cas, l’argument de Van Inwagen est tout à fait pertinent et montre bien l’incompatibilité entre déterminisme et libre-arbitre.

Mais on n’est pas forcé d’accepter l’Anti-Humeanism. Quid du Super-Humeanism ? (à ne pas confondre avec Super-Human 😉 )
Apporte t’il vraiment moins d’explications que l’Anti-Humeanism ?
La réponse est en fait… pas forcément.

Pourquoi ? Tout simplement parce que les paramètres comme la masse ou la charge sont précisément définis à partir de régularités de mouvements : ils sont introduits dans les lois physiques pour leur fonction dans l’évolution de la configuration de la matière. Ces paramètres sont d’ailleurs appelés « paramètres dynamiques ». La masse est donc caractérisée par sa fonction pour le mouvement de la matière, à savoir le fait que les objets s’attirent. Comme le dit le physicien Ernst Mach (1818-1916) à propos de la mécanique classique de Newton :

« La véritable définition de la masse ne peut être déduite que des relations dynamiques des corps. »

Ainsi, quand on dit « la masse est la cause du mouvement attractif des corps », on explique le mouvement par une propriété elle-même définie en fonction de ce mouvement ! Autrement dit, le raisonnement est circulaire. Conférer le statut de propriété intrinsèque à la masse n’ajoute rien à l’explication : il suffit de dire que c’est un paramètre mathématique qui permet de représenter de manière optimale le mouvement attractif des objets. Il n’est pas nécessaire d’attribuer une forme d’existence « primitive » aux paramètres dynamiques : ce qui existe est de la matière en mouvement, et le reste (la masse, la charge, le spin…) entre dans les lois seulement en terme de rôle fonctionnel pour l’évolution de la configuration de la matière.

Petit résumé

Bon, ça peut paraître technique et rébarbatif comme discussion mais au final le résumé est assez simple :

1) Si on considère les paramètres dynamiques comme des propriétés intrinsèques ayant une existence propre, le libre-arbitre semble bien incompatible avec le déterminisme.
2) Cette vision des choses pose des problèmes : on suppose l’existence de propriétés supplémentaires qui caractérisent la matière en mouvement, mais cela n’apporte rien en termes d’explications puisque ces propriétés sont précisément définies en fonction de leur rôle pour ce mouvement.

Il peut alors être intéressant de s’intéresser de plus près au Super-Humeanism et au statut qu’il donne aux paramètres dynamiques (masse, charge, spin…). En fait, si cette théorie est vraie, alors l’argument de Van Inwagen ne tient pas et il n’y a pas d’incompatibilité entre déterminisme et libre-arbitre. En effet d’après le Super-Humeanism, si on considère l’état initial de l’univers en entier, les valeurs initiales des paramètres dynamiques dépendent du mouvement futur de la matière. Ces valeurs sont en faites fixées, pour ainsi dire, « à la fin de l’univers ». 

Pour clarifier un peu, l’idée générale du (Super)-Humeanism est très bien résumée dans cette citation d’un article de Michaël Esfeld (page 9, traduction à partir de l’anglais) :

« Pour le (Super)-Humeanism, vient d’abord le mouvement des particules, qui présente un certain nombre de patterns ou de régularités, puis viennent les lois, y compris la géométrie. Par conséquent, les lois, les paramètres qui y figurent et la géométrie ne sont pas une sorte d’agent qui forcent les particules à se déplacer d’une certaine manière. Les lois ne contraignent pas le mouvement des particules. C’est le mouvement des particules qui fixe les lois. Par conséquent, si l’on demande pourquoi il y a des régularités dans le mouvement des particules, le (Super-)Huméanism ne peut pas répondre à cette question. L’affirmation du (Super-)Humeanism est qu’il n’y a pas de réponse scientifique à cette question. Notre compréhension scientifique du monde prend fin lorsque les régularités saillantes dans le mouvement de la matière sont atteintes, comme, par exemple, le mouvement attractif des particules. »

Pour avoir une loi et des conditions initiales qui décrivent parfaitement les régularités saillantes de la nature, il faut donc attendre « la fin de l’univers » car c’est précisément le mouvement des corps qui fixe les bonnes lois et valeurs initiales des paramètres.

On arrive donc au moment tant attendu où l’argument de Van Inwagen pour l’incompatibilisme est remis en question ! On peut formuler l’objection ainsi :

–> Le Super-Humeanism est d’accord sur le fait que personne n’a de pouvoir sur les faits du passé. Mais le déterminisme en sciences se base sur des lois, et ces lois font intervenir des paramètres dont les valeurs initiales ne sont pas intrinsèques à ce moment initial : elles dépendent du mouvement futur dans l’univers, et donc notamment des comportements humains. Le point 2) de l’argument de Van Inwagen est donc incorrect, ce qui rend invalide le raisonnement. En théorie, il n’y a rien qui rende incompatible le déterminisme avec le libre-arbitre : si les humains décident d’agir autrement, cela modifierait légèrement les valeurs initiales des paramètres dynamiques entrant dans les lois.

Pour résumer, bien que les lois fixent un cadre général sur ce qu’on peut ou ne peut pas faire (régularités stables dans la nature), dans des cas concrets rien ne prédétermine nos actions car il faut avoir recours à des paramètres dynamiques dont les valeurs initiales dépendent du mouvement global et futur de la matière dans l’univers

Objection possible et conclusion

Et voilà donc pourquoi le débat était plus complexe qu’il en avait l’air ! C’est je trouve une approche assez originale du compatibilisme. Néanmoins, j’imagine que vous n’êtes pas forcément convaincus. Votre discours ressemblerait peut-être à celui-ci :

 « Même si les valeurs initiales des paramètres dynamiques dépendent du mouvement futur de la matière dans l’univers, jusqu’à présent tout se passe comme si ce n’était pas le cas et que ces paramètres étaient des propriétés intrinsèques aux objets. Pour rendre compte du succès des prédictions en sciences, il faut considérer les régularités du mouvement comme fixes dans le temps. Tout se passe donc comme si l’attraction des particules résultaient de la manifestation d’une propriété intrinsèque, à savoir la masse, et donc tout se passe comme si la masse ne dépendait pas des mouvements futurs dans l’univers. En bref, il est difficile de concevoir que des paramètres qu’on utilise avec succès pour faire des prédictions sur le comportement futur des objets puissent eux-mêmes dépendre du mouvement futur dans l’univers. Tout se passe comme si « on avait pas besoin d’attendre la fin de l’univers pour avoir des valeurs qui nous permettent de faire des prédictions correctes. » »

C’est précisément la question que j’ai posée à Michaël Esfeld, qui m’a indiqué :

« Ma réponse est qu’il faut faire une distinction entre deux choses: (a) l’univers en entier et (b) des situations précises pour lesquelles nous faisons des prédictions. Votre argument vaut pour (b), et la raison pour le succès est que nous préparons et isolons les systèmes sur lesquels nous faisons des prédictions. Pour (a), on ne connaît simplement pas les valeurs initiales, et de toute façon, l’influence des actions humaines est marginale à cette échelle.
Pour l’instant, ma position est purement théorique. Mais en principe, il devrait être possible de construire des expériences qui la mettent à l’épreuve. »

En d’autres termes, les deux théories « le libre-arbitre existe » et « le libre-arbitre n’existe pas » ne sont pas distinguables empiriquement pour l’instant. Cela reste une question ouverte qui pourrait éventuellement être tranchée par de futures expériences.

Voilà vous avez maintenant toutes les informations pour pouvoir vous faire un avis sur ce débat hautement complexe, j’espère que ça vous a plu ! Bien sûr, je n’ai pas couvert tous les aspects de la question : comment définir le libre-arbitre si on accepte le Super-Humeanism, ou encore quelles sont les relations précises entre physique fondamentale, biologie et sciences cognitives.


Mais si on suppose globalement une certaine unité entre les différentes sciences, alors on peut dire que la physique fondamentale n’impose pas forcément un incompatibilisme entre libre-arbitre et déterminisme. Cela dépend du statut que l’on donne aux lois de la nature et à la causalité.

PS : Si ce débat vous intéresse je vous incite à lire le livre de Michaël Esfeld, le sujet est beaucoup plus approfondi et une définition du libre-arbitre y est proposée. Il y a également une longue bibliographie pour poursuivre avec d’autres lectures !

Une autre source très utile pour la philosophie des sciences et notamment les questions autour des lois de la nature :
J. A. Cover, Martin Curd, Christopher Pincock (2012) : Philosophy of Science: The Central Issues, Second International Student Edition

Déterminisme et libre-arbitre (1/2)

Bienvenido in this new Artikel !
Aujourd’hui, je vais aborder un sujet hautement débattu en philosophie : celui de la compatibilité entre déterminisme et libre-arbitre.

Si on faisait un sondage auprès de la population française en posant la question « Pensez-vous avoir un libre-arbitre ? », les résultats seraient probablement « Oui » avec une assez large majorité. Par exemple, ce sondage effectué sur internet donne un résultat de 60% de « Oui ». D’un autre côté, en tant qu’étudiant en sciences, j’ai souvent entendu des discours assez tranchés du type « il est évident que le libre-arbitre n’existe pas, les neurosciences l’ont réfuté ».

Derrière ces positions contrastées se cache en réalité un débat complexe qui jongle entre neurosciences, philosophie de l’esprit, philosophie des sciences et débat sémantique. Je vais essayer de clarifier quelques points ici.

Vision intuitive du libre-arbitre

Reprenons depuis le début. En quoi pense-t-on intuitivement avoir un libre-arbitre ? Un discours typique serait le suivant : « Je suis libre et responsable de mes actes car je prends mes décisions consciemment, avec ma volonté. C’est MOI qui décide consciemment de faire une certaine action ». Cela semble sous-entendre ce qu’on appelle le « principe des possibilités alternatives » : « Jusqu’au dernier moment avant ma décision consciente, j’aurais pu agir autrement ». La liberté semble alors être conçue comme une liberté de la volonté : la volonté détermine les décisions prises, et la volonté est déterminée par un « moi ».

On voit ici très bien le lien avec la dualité entre corps et esprit de Descartes. Le « moi » dans les phrases précédentes semble correspondre à une conscience, un esprit se distinguant du cerveau, n’étant soumis à aucune loi physique et permettant ainsi aux êtres humains d’effectuer des actions libres. Il y a vraiment cette idée intuitive que notre liberté est basée sur une volonté consciente et immatérielle.

Néanmoins, cette vision de la conscience et de la liberté se heurte à tout un tas de problèmes :

  • Sur le dualisme entre cerveau et esprit : il est très clair qu’il y a des relations de dépendance entre corps et esprit : par exemple, un état psychologique de stress (esprit) a des véritables conséquences physiologiques (corps) ; ou encore, le fait de toucher de l’eau bouillante (corps) provoque un état psychologique de douleur (esprit). Mais alors, si on suppose que le corps est matériel et l’esprit immatériel, comment rendre compte des interactions entre cerveau et esprit ? Par exemple, quand je décide avec mon esprit de lever mon bras, comment se fait-il que des neurones s’activent, que mes muscles soient sollicités pour que mon bras se lève, si cet esprit est immatériel et distinct du corps ? Avec cette vision, il semble qu’un miracle se produise à chaque fois que je soulève mon bras : de l’énergie semble être créée de nulle part !

    On voit bien que cette position est difficilement tenable : l’hypothèse postulant un esprit immatériel distinct du cerveau est tout sauf nécessaire (principe du « rasoir d’Ockham ») et engendre plus de problèmes qu’autre chose. Cela remet ainsi en question la notion intuitive de « volonté consciente immatérielle » censée être à la base du libre-arbitre.
  • La notion même de volonté « libre » semble assez bancale : en effet, comment est-il possible, à un instant donné, de vouloir ce qu’on ne veut pas ou de ne pas vouloir ce qu’on veut ? En tout temps, on veut ce que l’on veut, et ce même si on voudrait vouloir d’autres choses : il paraît circulaire de parler d’auto-formation de la volonté.

Bien sûr, la volonté est déterminée par énormément de paramètres : nos désirs, craintes, objectifs, notre environnement, etc… Mais parler d’une volonté libre en ceci qu’elle se formerait par elle-même de manière indépendante ne semble pas pertinent. 

Quel lien avec le déterminisme ?

Cela nous amène à la question du déterminisme et de la démarche scientifique. De manière générale et en simplifiant quelque peu, on peut dire que la science explique les phénomènes naturels en établissant des relations de cause à effet basées sur des observations de régularités dans la nature.
Par exemple, on observe qu’à chaque fois qu’il pleut, la pluie est précédée par des nuages. On établit alors la relation de cause à effet universelle « la pluie est causée par les nuages » : cela impose une connexion nécessaire entre les deux phénomènes « Il pleut » et « Il y a des nuages ». En particulier, cela implique que dans le futur, la pluie sera forcément précédée par des nuages. L’établissement d’une relation de cause à effet consiste donc en une généralisation sur les cas futurs à partir de l’observation des cas passés : c’est ce qu’on appelle une « induction ». 

Les relations de causalité sont absolument omniprésentes dans les lois de la nature en sciences et dans la vie de tous les jours : les masses des particules causent le fait qu’elles s’attirent, chauffer un gaz cause sa dilatation, une infection microbienne cause une réaction immunitaire, fumer cause une augmentation de risque de cancer du poumon, une alarme cause la sortie du sommeil, etc… De cette manière, toute la démarche scientifique semble se baser sur le déterminisme, à savoir que « le futur dépend du passé ». Pour prendre plus de recul, si on connaissait l’état initial de l’univers et les lois de la nature régissant son fonctionnement, on serait en capacité de déterminer à l’avance tous les évènements futurs, et notamment tous les comportements humains.

Les décisions humaines seraient alors comme décidées à l’avance, de telle sorte que le libre-arbitre tel que présenté précédemment devient totalement illusoire. Spinoza résume très bien cette idée dans la citation suivante (Ethique, 1677) :

« Telle est cette liberté humaine qui consiste en cela seul que les hommes sont conscients de leurs désirs mais inconscients des causes qui les déterminent ».

Résumé du problème et objections courantes

Il semble alors y avoir une incompatibilité entre déterminisme et libre-arbitre. « L’argument de la conséquence » de Van Inwagen (An Essay on Free Will, 1983) est particulièrement utile pour clarifier cet incompatibilisme. Il correspond au raisonnement suivant :

1. Personne n’a de pouvoir sur les faits du passé et les lois de la nature.
2. Les événements du passé et les lois de la nature engendrent tous les événements du futur (c’est-à-dire que le déterminisme est vrai).
3. Par conséquent, personne n’a de pouvoir sur les actes du futur.

Pour répondre à cet argument, vous pourriez être tenté de formuler deux objections :

Objection 1 : « Oui mais on ne peut pas tout déterminer à l’avance, par exemple quand je lance une pièce de monnaie elle tombe au hasard sur pile ou sur face. De même, le comportement humain est tellement complexe et imprévisible qu’il peut être considéré comme aléatoire. Donc je ne vois pas en quoi je ne suis pas libre. »

C’est un point extrêmement important à considérer : il ne faut surtout pas confondre « déterminisme » et « déterminabilité ».

Reprenons l’exemple de la pièce de monnaie : certes en pratique on manque d’informations pour déterminer avec certitude de quel côté elle va tomber. On dit donc qu’il y a 1 chance sur 2 pour qu’elle tombe sur pile ou sur face : le résultat final n’est pas connu à l’avance. Néanmoins, cet hasard apparent ne résulte que de notre ignorance quant à la position et vitesse initiale de la pièce : si on connaissait ces informations, les lois de la mécanique de Newton nous permettraient de calculer sa trajectoire et prédire à l’avance sur quelle face elle va tomber.

Le résultat final est donc bien déterminé, au sens « métaphysique » : il y a une seule possibilité réelle dans la nature, même si pour nous il y a plusieurs possibilités « épistémiques » reflétant seulement notre incertitude et manque d’informations sur l’état du monde à un instant donné. Le fait que le comportement humain soit très complexe et difficile à prédire montre seulement une indéterminabilité causée par notre ignorance sur le fonctionnement du cerveau et les lois de la nature. Cela ne signifie pas qu’en dernière instance, les décisions humaines ne sont pas déterminées : comme tous les autres corps matériels, l’homme est soumis à des lois physiques sur lesquelles il ne peut pas agir.

Objection 2 : « Certes pour ta réponse à la première objection mais on sait bien que le déterminisme est faux à cause de la mécanique quantique où l’indéterminisme est fondamental : les probabilités y sont intrinsèques et ne sont pas la résultante de notre ignorance. »

C’est une objection très courante mais qui n’est en fait pas pertinente :

– Je ne vais pas rentrer dans les détails ici, mais il y a de nombreuses interprétations de la mécanique quantique totalement déterministes, principalement l’interprétation d’Everett et la mécanique bohmienne. Il est totalement faux de dire que la mécanique quantique a réfuté le déterminisme.

– Même si on supposait que le déterminisme était faux, qu’il y avait un hasard fondamental dans l’univers avec des lois probabilistes, cela ferait tout sauf sauver le libre-arbitre ! En effet, si nos décisions étaient déterminées par le hasard, on n’aurait par définition aucun contrôle sur elles, ce qui serait évidemment fatal pour notre liberté. Au final, cette idée d’un indéterminisme fondamental ne fait que créer des problèmes supplémentaires pour le libre-arbitre.

Conclusion

Et voilà, ce sera tout pour ce billet de blog ! La conclusion (provisoire) est la suivante : le déterminisme semble être incompatible avec le libre-arbitre, car celui-ci ne consiste qu’en un pouvoir surnaturel que l’homme ne saurait avoir, étant soumis aux même lois physiques déterministes que le reste de la nature.


La prochaine fois, on va s’intéresser d’un peu plus près au statut des lois des la nature et voir qu’en fait, le problème est plus complexe qu’il en a l’air ! On va également constater qu’il est possible de redéfinir le libre-arbitre pour échapper aux griffes du déterminisme. 🙂

PS : Un petit défi : quel est le nom de ce magnifique sommet ? 🙂

Sources principales :

– Stanford Encyclopedia of Philosophy : Compatibilism
– Monsieur Phi (Best Youtube Channel Ever) : La liberté est-elle un super-pouvoir ?
– Tim Crane & Katalin Farkas (2004) : Metaphysics: A Guide and Anthology 

Réalisme scientifique et empirisme constructif (2/2)

Bienvenue dans ce deuxième billet de blog ! On va continuer notre petite plongée dans les méandres de l’empirisme constructif.

La dernière fois, on a vu en quoi le problème de « la sous-détermination des théories par l’expérience » semblait aller en faveur de l’empirisme constructif. On va maintenant voir une autre critique de Van Fraassen à l’égard d’un argument central pour le réalisme scientifique.

Critique de l’argument « absence de miracle »

L’argument le plus important et connu en faveur du réalisme scientifique est le « No-Miracle Argument » (« absence de miracle ») d’Hilary Putnam, présenté dans son livre Mathematics, Matter and Method  (1979). Selon lui, le réalisme scientifique « est l’unique philosophie qui ne fait pas du succès de la science un miracle ». Le succès de la science concerne en particulier la capacité de certaines théories à prédire l’existence de phénomènes nouveaux. 

Par exemple, la relativité générale d’Einstein a permis de prédire en 1916 l’existence des ondes gravitationnelles, mais faute de moyens technologiques, celles-ci n’ont pu être observées qu’en 2016, soit 100 ans plus tard ! 

Comment alors expliquer cet incroyable succès prédictif de la relativité générale ? Selon Putnam, la meilleure explication est que ce que dit la relativité générale à propos de la gravitation « a à voir » avec ce qui se passe dans la réalité : elle est donc approximativement vraie. Si la relativité générale était complètement fausse, à côté de la plaque par rapport à ce qui se passe en vrai, il deviendrait complètement « miraculeux » qu’elle puisse être en capacité de prédire à l’avance l’existence des ondes gravitationnelles. Le réalisme scientifique serait donc la seule explication rationnelle à l’incroyable succès prédictif des sciences.

Van Fraassen s’attaque à cet argument de deux manières : 

  • D’abord, il soutient que l’on a pas besoin de recourir au réalisme pour expliquer le succès des sciences. Pour cela, il fait un parallèle entre la sélection naturelle en biologie et la sélection des théories.

Quand on parle de la théorie de l’évolution, il est classique de préciser que ce ne sont pas les individus qui s’adaptent eux-mêmes à leur environnement : c’est plutôt l’environnement qui exerce une pression de sélection sur les individus. Dans un environnement donné, les individus présentant des traits phénotypiques avantageux auront tendance à mieux survivre et à se reproduire ; ces caractères vont avoir tendance à se répandre dans la population. Il n’est donc pas étonnant que les individus d’une population soient adaptés à leur environnement : ceux présentant des caractères désavantageux ont disparu !

Par analogie, quand on sélectionne des théories au cours de l’histoire des sciences, un grand nombre sont envisagées mais on choisit celles qui sont compatibles avec les données empiriques. Il n’est donc pas surprenant que les théories qui ont « survécu » à cette sélection aient du succès ! Il n’y a donc aucune raison de faire appel au réalisme pour expliquer le succès des sciences.

  • Ensuite, comme on l’a vu dans le dernier billet de blog, les réalistes font appel à une « inférence à la meilleure explication » pour justifier leur croyance en l’existence d’entités inobservables comme les électrons ou les protons. Mais l’argument de Putnam dit précisément que le réalisme scientifique est la meilleure explication au succès des sciences. En d’autres termes, Putnam utilise l’inférence à la meilleure explication pour justifier le réalisme scientifique, qui requiert lui-même l’inférence à la meilleure explication ! L’argument est donc circulaire et semble inapproprié pour pouvoir soutenir le réalisme.

La conclusion globale qu’en tire Van Fraassen est finalement:

  • le réalisme scientifique est beaucoup trop ambitieux quant à la prétention de la science à la connaissance et se heurte à tout un tas de problèmes.
  • l’empirisme constructif est plus prudent, clair et pragmatique : le but de la science est seulement de développer des théories qui sont empiriquement adéquates, qui décrivent correctement ce qui est observable.

L’empirisme constructif est-il vraiment satisfaisant ?

Bon, c’est bien beau toute cette présentation formelle de l’empirisme constructif, mais il est maintenant temps de donner un peu mon avis sur tout cela ! Pour être très clair et concis : je ne trouve pas cette théorie DU TOUT satisfaisante.

Déjà, les critiques contre l’argument de Putnam ne sont pas convaincantes : 

  • Certes l’argument utilise de manière circulaire l’inférence à la meilleure explication. Mais d’un autre côté, les deux autres grands modes de raisonnement que sont la déduction et l’induction ne peuvent pas non plus être justifiés par des arguments non-circulaires. Cela ne semble pas trop déraisonnable d’utiliser des types de raisonnement de manière circulaire ; ceux-ci constituent une base indispensable pour toutes nos réflexions.
  • L’analogie entre sélection naturelle et sélection des théories n’est pas du tout pertinente. Celle-ci permet de comprendre pourquoi il n’est pas surprenant que l’on soit en possession de théories qui ont du succès, étant donné la manière dont on les choisit au cours de l’histoire. Les réalistes sont totalement d’accord avec cela, ce n’était pas la question qui était posée ! La question est plutôt de savoir pourquoi certaines théories ont un succès prédictif et pas les autres : qu’est-ce qui est à l’origine de la capacité d’une théorie en particulier, comme par exemple la relativité générale, à pouvoir prédire des phénomènes nouveaux ?

Pour prendre une autre analogie plus sportive : il n’est pas étonnant que les finalistes de Roland-Garros soient des bons joueurs de tennis, étant donné la manière dont ils ont été sélectionnés au cours du tournoi. Mais reste la question de savoir pourquoi ce sont ces joueurs qui se sont qualifiés et pas les autres. Pour cela, on fait appel aux caractéristiques spécifiques des joueurs : par exemple, le lift de Nadal, la défense de Ferrer, ou encore le revers à une main de Wawrinka.

De même, il faut expliquer quelles caractéristiques ont permis à la relativité générale de prédire l’existence des ondes gravitationnelles 100 ans avant leur observation. C’est comme déterminer les gènes responsables d’un phénotype avantageux dans un environnement donné. En clair, Van Fraassen positionne son explication au niveau phénotypique, mais cela est totalement hors-sujet car les réalistes demandent une explication génotypique ! 

Une explication raisonnable semble bien être celle du réalisme scientifique : nos meilleures théories scientifiques sont approximativement vraies, ce qui leur permet de faire des prédictions incroyablement précises, y compris concernant des phénomènes pas encore observés.

Un autre problème de taille

Au delà de la faiblesse des critiques contre l’argument de l’absence de miracle, l’empirisme constructif rencontre une autre difficulté majeure.

Pour rappel, Van Fraassen établit une frontière épistémologique entre le domaine de l’observable et de l’inobservable : accepter une théorie revient juste à croire ce qu’elle dit sur ce qui est observable. L’empirisme constructif postule alors une équivalence entre « adéquation empirique » et « vérité sur le monde observable ». Mais il est complètement possible qu’une théorie concernant le monde observable soit fausse mais compatible avec toutes les observations ! Par exemple, il est extrêmement probable qu’il existe une réalité extérieure à nous, mais on ne peut pas complètement écarter la possibilité que l’on soit dans un rêve et que tout cela ne soit qu’une illusion. Les organes sensoriels des êtres humains ne sont pas immunisés face à l’erreur ; nous sommes des « instruments de mesure » comme les autres et rien ne nous permet d’affirmer que l’on perçoit forcément la réalité telle qu’elle est vraiment. Donc si on veut croire aux aspects observables d’une théorie, il ne suffit pas qu’elle soit compatible avec l’expérience, il faut également faire appel à une inférence à la meilleure explication, ce que Van Fraassen refuse de faire !

On voit clairement ici l’incohérence de l’empirisme constructif : il semble arbitraire de penser que l’on doive utiliser l’inférence à la meilleure à l’explication seulement pour le domaine de l’inobservable et pas aussi pour celui de l’observable. Rien ne nous permet de justifier qu’on ait un accès privilégié et certain à la réalité par le biais de nos observations. De même que nos sens appréhendent le monde observable, de nombreux instruments de mesure que l’on utilise en science sondent l’inobservable. L’empirisme constructif est plus modeste que le réalisme scientifique, mais la frontière épistémologique tracée entre l’observable et l’inobservable apparaît comme complètement arbitraire et donc non-pertinente.

Bien que paraissant satisfaisante à première vue, cette théorie semble finalement très difficile à défendre, tant par son incohérence que par le manque d’arguments convaincants contre le réalisme scientifique.

Voilà, ce sera tout pour l’empirisme constructif, j’espère que cela vous a plu ! La prochaine fois, je parlerai probablement du statut des lois de la nature, et du lien avec le fameux problème entre le déterminisme et la liberté !

Réalisme scientifique et empirisme constructif (1/2)

Dans ce premier billet de blog, je vais parler de ce qu’on appelle « l’empirisme constructif ». L’appellation peut faire peur mais c’est tout à fait compréhensible en y allant pas à pas !

Reprenons depuis le début.  Si on prend un peu de recul sur les sciences, on peut se demander à quel point on peut avoir confiance en ce qu’elles disent. Est-ce qu’elles décrivent, au moins approximativement, ce qui passe vraiment dans la réalité ? Est-ce que des entités invisibles à l’oeil nu comme les atomes ou les électrons existent vraiment ? 

Toutes ces questions relèvent d’un débat omniprésent en philosophie des sciences : c’est le problème du « réalisme scientifique ».

Présentation générale

Le réalisme scientifique, c’est une vision optimiste sur la capacité de la science à nous apprendre des choses sur le monde. Pour plus de clarté, cette position est très souvent divisée en trois points :

1) Un aspect « métaphysique » : il existe un monde extérieur indépendant de l’esprit humain. Si l’espèce humaine était amenée à disparaître, les arbres, les maisons, les montagnes, les galaxies, bref tout ce qui nous entoure, existerait toujours. Cela peut paraître évident mais c’est toujours bien de le rappeler !

2) Un aspect « sémantique » qui concerne la manière d’interpréter les théories scientifiques : il faut les interpréter « littéralement ». Cela signifie que les termes scientifiques visent à décrire le monde réel sous tous ces aspects : pas seulement ce qu’on observe dans la vie de tous les jours, mais également ce qui est inobservable pour les humains. Par exemple, des termes comme « électron » ou « atome » ont pour but de référer à des entités microscopiques de la nature.

3) Un aspect « épistémologique » concernant la prétention de nos meilleures théories scientifiques à la connaissance : elles décrivent bien, au moins de manière approximative, ce qui se passe dans la réalité. Elles sont « approximativement vraies ». En particulier, on a de bonnes raisons de penser que des entités inobservables comme les électrons existent vraiment.

Le réalisme scientifique peut paraître très naturel de prime abord. Quand on nous enseigne la chimie, la biologie ou la physique à l’école, on ne se pose pas vraiment la question de savoir si l’ADN, les atomes ou les protons existent : cela semble être un présupposé évident.

Mais force est de constater qu’il y a beaucoup d’arguments remettant en cause cette vision des sciences. Au lieu de faire une liste de tous ces arguments, je vais plutôt en illustrer quelques uns en présentant une théorie concurrente au réalisme scientifique : l’ « empirisme constructif ».

L’empirisme constructif, kézako ?

Cette position a été introduite par le philosophe néerlandais Bas Van Fraassen dans son livre The Scientific Image, en 1980. Alors que durant la première partie du XXème siècle, beaucoup de discussions étaient centrées sur l’aspect « sémantique » du réalisme scientifique, Van Fraassen a recentré le débat sur l’aspect « épistémologique ». Sa théorie, extrêmement connue désormais, a fait l’objet de nombreux débats que je vais tenter de clarifier ici.

Alors, en quoi Van Fraassen s’oppose t’il au réalisme scientifique ? En quoi est-il un « anti-réaliste » ?

Bien qu’il soit totalement d’accord avec les deux premiers points du réalisme scientifique, il refuse le 3ème aspect. Selon lui, « la science a pour but de nous donner des théories qui sont empiriquement adéquates ; et accepter une théorie implique seulement de croire qu’elle est empiriquement adéquate » (p12). Une théorie est empiriquement adéquate si « elle décrit correctement ce qui est observable » (p4).

L’empirisme constructif est donc moins optimiste que le réalisme scientifique quant à la prétention des sciences à la connaissance. Accepter une théorie revient à croire qu’elle est (approximativement) vraie seulement pour tout ce qui est observable ; nous devrions rester agnostiques sur toute proposition concernant des entités inobservables, comme par exemple « Les électrons existent ».

Avant de parler des motivations de Van Fraassen pour introduire une telle position, il paraît indispensable de préciser ce qu’il entend précisément par observable et inobservable. Selon lui, un objet est dit observable si un humain peut l’observer à l’oeil nu, à un endroit et temps donné. Les phénomènes observables peuvent donc être passés, présents ou futurs. Il faut bien faire la distinction entre ce qui est « observable » et ce qui « a été observé jusqu’ici »: par exemple, la prochaine éclipse solaire est bien un phénomène observable, mais elle n’a pas été encore observée.

On peut cependant se demander si cette distinction n’est pas tout simplement mal définie. Les humains n’ont pas tous les mêmes capacités visuelles : entre une personne aveugle, un nouveau né et un adulte à la vision parfaite, les différences sont flagrantes. La notion d’observabilité semble alors totalement subjective. Van Fraassen concède tout à fait que la limite entre observable et inobservable est floue, mais il soutient qu’elle reste pertinente. Comme tout autre instrument de mesure, la vision humaine a des limites et il y a donc des cas où la distinction est non-ambigüe : par exemple, tout le monde est d’accord pour dire qu’un arbre est « observable », alors qu’un électron est « inobservable ».

Nous avons maintenant tous les outils pour attaquer le vif du sujet !

Alors, quels sont les arguments de Van Fraassen contre le réalisme scientifique et pourquoi considère t’il que sa théorie est meilleure ?

Je vais présenter dans ce premier billet de blog la 1ère critique de Van Fraassen : cela concerne le problème de la « sous-détermination des théories par l’expérience ».

Sous-détermination et relation entre théorie et expérience

Imaginons une expérience, où vous mesurez avec un radar la vitesse d’une voiture sur l’autoroute. Vous obtenez comme résultat : 2km/h. Quelle est votre réaction ? Vous dites sûrement « Mon radar déconne ! », et vous avez totalement raison ! 

Ce petit exemple illustre le fait que quand on a une théorie comme « La vitesse d’une voiture sur l’autoroute est élevée », on ne peut pas en déduire la « prédiction » que le radar affichera une vitesse élevée. Pour cela, on doit supposer que le radar fonctionne correctement, ou encore que les conditions extérieures ne vont pas perturber son fonctionnement.

Généralisons un peu : si on a une théorie T, on voit bien qu’elle ne suffit pas à elle seule pour engendrer des prédictions observables O. Pour cela, il faut faire appel à des hypothèses supplémentaires (H1, H2, H3…) sur le fonctionnement de l’appareil de mesure, les conditions de l’expérience, etc : on les nomme « hypothèses auxiliaires ». 

Maintenant, si on obtient une contradiction entre les prédictions observables et les résultats expérimentaux, que peut-on en conclure ? Et bien, comme l’illustre l’exemple avec le radar, on ne peut pas en déduire que T est fausse. En fait, c’est tout le bloc « T et H1,H2,H3… » qui est faux. Donc soit T est fausse, soit une des hypothèses auxiliaires est fausse, mais on ne sait exactement où se situe l’erreur. Il y a ce qu’on appelle un « holisme de confirmation » : T ne peut jamais être testée en isolation d’autres hypothèses. C’est toujours en bloc que sont testées les théories.

Pour rendre compatible notre bloc « T et H1,H2,H3… » avec les observations O, il y a donc plusieurs possibilités : modifier notre théorie T, ou bien modifier/ajouter/supprimer des hypothèses auxiliaires.

C’est cela qui engendre ce que l’on nomme la sous-détermination des théories par l’expérience : pour un certain ensemble de données expérimentales (observations), on peut toujours avoir plusieurs théories mutuellement incompatibles (en particulier concernant des aspects inobservables), mais toutes en accord avec les données. 

Mais alors, comment trancher entre ces théories « empiriquement équivalentes » et progresser scientifiquement ?

C’est ici qu’intervient tout un tas de critères non-empiriques supplémentaires, comme la simplicité des théories, leur pouvoir explicatif, leur élégance, ou encore leur cohérence avec le reste de nos connaissances. Les tenants du réalisme scientifique ont recours à ces critères en faisant ce qu’on appelle « une inférence à la meilleure explication » : une théorie avec une grande simplicité ou un grand pouvoir explicatif est préférée car elle a, selon eux, plus de chances d’être vraie que les autres théories empiriquement équivalentes. Cette méthode permettrait de progresser vers la vérité pour le domaine de l’observable comme de l’inobservable.

Argument contre le réalisme scientifique

Mais le problème pour les réalistes, c’est qu’on voit difficilement comment ce type de critères pourrait nous rapprocher de la vérité. Comme le dit Van Fraassen : « Il est certainement absurde de penser que le monde a plus de chances d’être simple que compliqué » (p90).

Il semble donc plus prudent et raisonnable de rester agnostique concernant les aspects inobservables des théories. On peut alors justifier nos choix entre théories empiriquement équivalentes en disant que les critères non-empiriques sont seulement des vertus pragmatiques : le but de la science est de formuler de la manière la plus simple, cohérente et intelligible possible des théories qui décrivent correctement ce qui est observable.

Evidemment, si on croit aux aspects observables d’une théorie, on va au-delà de nos connaissances empiriques actuelles et on ne résout pas complètement le problème de la sous-détermination : il y a plusieurs théories qui peuvent être en accord sur ce qui a été observé jusqu’ici, mais qui diffèreront sur de futures observations. Cependant, en se limitant au domaine de l’observable, l’empirisme constructif nous permet de prendre beaucoup moins de risques comparé au réalisme scientifique. Cela semble donc être une bien meilleure alternative !

Voilà, cela sera tout pour ce premier article ! On continuera la prochaine fois avec d’autres arguments contre le réalisme scientifique. On verra aussi que finalement, l’empirisme constructif n’est peut-être pas si convaincant que cela !

Bienvenue sur ce blog !

Bienvenue sur « Science Peak » (ou devrais-je dire « Science Speak » ?), où je parlerai de problèmes liés à la philosophie des sciences.

Comment définir la méthode scientifique ? Qu’est-ce qui distingue science de pseudoscience ? Que nous apprennent les théories scientifiques sur le monde ? Voilà autant de questions passionnantes que j’essaierai d’aborder.