Les grands concepts scientifiques du XXème siècle
Il n’y a pas de recettes pour parvenir à une découverte scientifique, et comme en art, il ne saurait être question d’enseigner comment créer de la connaissance. Cependant, depuis que la science existe, beaucoup de chercheurs ont réfléchi sur les méthodes et l’état d’esprit nécessaires pour progresser. C’est le plus souvent en combinant intimement plusieurs techniques que l’on y parvient et c’est pourquoi nous allons survoler les principales. À vous ensuite de choisir les vôtres et d’assurer ainsi votre positionnement épistémologique personnel.
Les méthodes les plus nombreuses se regroupent autour de l’hypothético-déductivité,
elle même basée sur des règles cartésiennes dont
les sciences dures traditionnelles font le plus large usage. Seules les approches
les plus modernes basées sur d’autres formes de causalité
en physique ou sur des raisonnements systémiques en biologie s’en
affranchissent sans complexes, mais les SHS (sciences humaines et sociales)
n’intègrent que très lentement les dernières évolutions
épistémologiques. C’est pourquoi le chercheur ne peut
guère compter que sur les méthodes déductives : on émet
des hypothèses et on cherche à les vérifier. Comme la
validation la plus ancienne, la moins contestable et la plus facile est la
voie quantitative, beaucoup de SHS recourent aux mesures pour afficher leur
rigueur. D’où la forte présence de quelques outils plus
ou moins connus : questionnaires et exploitations statistiques, observations
quantifiées, analyses de contenu ou de contexte, lexicométrie,
tris croisés, analyses factorielles, variances et coefficients de corrélation,
notion de chemin critique ou de point de rebroussement.
Certaines branches des sciences dures ont ouvert des brèches que nous
ne pouvons plus ignorer. En 1925, le physicien Werner Heisenberg
a présenté la notion fondamentale de principe
d’incertitude : sous forme mathématique, on peut
dire que le produit des incertitudes sur une mesure est toujours une constante,
ce qui en termes logiques signifie que plus on réunit d’informations
sur une variable régissant un phénomène, moins on en
possède sur les autres. Autrement dit encore, on ne peut tout connaître
simultanément puisque la mesure du phénomène
modifie le phénomène. Et cette incertitude fondamentale
doit nous permettre de mieux analyser les problèmes des sciences douces
: ne sont-ils pas eux aussi, et à une échelle plus proche de
nous que celle dont traitait Heisenberg, influencés par toute tentative
de mesure ? Ou en d’autres termes, l’approche positiviste et déterministe
ne connaît-elle pas une limite absolue et intangible encore plus vite
atteinte dans les SHS, ce qui replacerait celles ci dans la complexité,
au sens d’Edgar Morin.
Et ce n’est pas tout, car à ce principe de Heisenberg, il faudrait
ajouter celui de Gödel pour l’incomplétude
(en 1931) et celui de Church pour l’indécidabilité
(en 1936). En 1985, dans un ouvrage fondamental, le chercheur en intelligence
artificielle Douglas Hofstadter donne une illustration du
théorème d’incomplétude de Kurt Gödel dans
un dialogue entre « Achille et la tortue » (personnages empruntés
à Lewis Carroll) . Toute la saynète est basée sur un
phonographe qui ne peut jamais être vraiment parfait car pour être
« parfait », il doit savoir reproduire toutes les fréquences
d’un disque, y compris celles qui sont capables de le détruire,
ce qui signifie que plus il est « parfait » dans la restitution,
plus il est « imparfait » puisqu’il s’autodétruit.
Enfin, la théorie générale des systèmes, fondée
par Ludwig von Bertalanffy entre 1932 et 1968 a modifié
radicalement la théorie de la connaissance en montrant que dans un
système, la causalité linéaire connue depuis l’Antiquité
n’était qu’un cas particulier d’une causalité
plus complexe appelée causalité circulaire dans laquelle toute
conséquence pouvait devenir cause. La systémique établit
de nombreuses autres règles susceptibles d’intéresser
le chercheur en SHS : intercausalité, notion d’émergence,
homéostasie, rétroaction (ou « feed back »), etc.
Ainsi, on ne peut plus être sûr aujourd’hui que les méthodes
traditionnelles sont toujours les plus appropriées pour rendre compte
des phénomènes complexes abordés par les SHS, d’où
notre ouverture vers ces nouvelles approches, sans pour autant rejeter ce
qui a fonctionné et peut, dans les cas où la mesure est possible,
fournir encore des résultats valides. Mais le débat épistémologique
ne s’arrête pas à ce point car il existe de nombreuses
autres méthodes, fort anciennes elles, qui ne demandent qu’à
reprendre du service sitôt que l’on s’attaque à des
sujet ambigus ou imprécis (au sens d’Abraham
Moles).
L’intuition arrive au premier rang et notre intention n’est pas
de la cacher comme une maladie honteuse : bien que sans statut, car difficile
à étudier scientifiquement, elle joue un rôle fondamental
que l’on ne peut ignorer au motif que l’on ne sait comment elle
agit ni que l’on doute de sa répartition égalitaire entre
les chercheurs… C’est un fait qui semble acquis, nous ne sommes
pas tous égaux sous le rapport de l’intuition : certains «
voient » tout de suite une issue, d’autres tournent en rond sans
jamais trouver… et changent de sujet.
Dans le chapitre consacré à la modélisation nous essaierons
de montrer que la connaissance de l’activation de nos réseaux
sémantiques associée à un bon entraînement à
la pensée graphique peut, dans certaines circonstances, permettre de
fortifier notre capacité d’intuition. Pour y parvenir, il faut
savoir se placer à bonne distance de son sujet, ni trop près
pour ne pas s’y perdre, ni trop loin pour ne pas le survoler. Dans Le
Hasard et la nécessité, ouvrage célèbre en son
temps (1970), le biologiste Jacques Monod, prix Nobel, a
montré le rôle qu'un scienti¬fique pouvait assigner à
l'identification simulante, notamment en s'identi¬fiant à une protéine
: « Je me suis moi-même surpris, n'ayant à force d'attention
centrée sur l'expérience ima¬ginaire plus rien d'autre dans
le champ de la conscience, à m'identifier à une molécule
de protéine. »
Ce terme, aux origines anciennes, notamment en rhétorique où
il signifiait l’action sur autrui est réapparu dans les années
80 dans le champ des recherches en sciences cognitives sous le nom d’inférence
logique comme symétrique de la déduction : il s’agit de
remonter des conséquences aux causes, à l’inverse de la
déduction qui va des causes aux conséquences. La science occidentale
a mis des siècles pour s’affranchir des démarches exclusivement
inductives, souvent qualifiées d’empiriques (induction et empirie
sont souvent confondues) ; cependant, des épistémologues comme
Gaston Bachelard considèrent que l’induction n’est pas
inutile au début d’une recherche, au moins comme un « activateur
cognitif ».
L’induction se rencontre à l’amorce d’une recherche,
généralement pour trouver des pistes de travail : elle peut
conduire à la découverte de corrélations fécondes
ou de régularités significatives (dépassant le hasard)
; elle réapparaît parfois à la fin d’une recherche
dans la partie prospective et agit alors comme réactivateur de la réflexion
pour proposer de nouveaux travaux sur une base validée. Son seul danger
sérieux consisterait à croire qu’elle peut tout. Le meilleur
remède que nous connaissions consiste à « graver »
dans la mémoire des étudiants l’histoire de la puce et
du chercheur (ceux qui la connaissent peuvent rire tout seuls et passer directement
au paragraphe suivant) :
Un chercheur choisit de travailler sur le comportement des puces. Il commence
par explorer toute la littérature disponible sur le sujet et découvre
qu’on les a peu étudiées sous l’angle comportemental.
Après de longues réflexions, enrichies d’entretiens et
de lectures diverses, il arrive à mettre au point une esquisse de sa
problématique : les puces possèdent-elles des facultés
de modifier leur comportement en fonction de modifications apportées
à leur environnement ? Il se met en quête d’un directeur
de recherche avec lequel il définit rapidement une série d’hypothèses
complémentaires ainsi que sa méthodologie : dressage de familles
de puces selon le schéma Stimulus/Réponse (S/R) et réactivation
régulière du réflexe conditionnel, modifications graduelles
de l’environnement, observation des résultats, induction et inférences
de nouvelles hypothèses, nouveau cycle d’expérience et
conclusions. Sa méthodologie validée par son directeur et assortie
de divers conseils bibliographiques, il prépare ses corpus de puces
et passe au conditionnement : un grand nombre de puces (plusieurs centaines)
sont entraînées à réagir à un stimulus sonore
: à chaque fois qu’elle entendent un son particulier (1000 Hertz
à 75 dB pendant 0,5 seconde), elles sautent et reçoivent une
récompense. Lorsque toutes ses puces sont dressées selon le
schéma pavlovien classique, les expériences peuvent commencer.
La première étape consiste à réaliser l’ablation
d’une patte à une série de puces puis à envoyer
le stimulus sonore tout en observant le résultat : les puces continuent
de sauter comme si de rien n’était. Un peu inquiet, il rend compte
à son directeur de recherche qui lui dit de continuer le protocole
comme prévu (on ne change pas de méthode comme de chemise !)
et de bien observer s’il n’y a pas des variations infimes des
variables du saut qu’il conviendrait de quantifier plus précisément
(longueur, hauteur, type de trajectoire, etc.). Les expériences reprennent,
non sans avoir vérifié que les puces témoins ont elles
aussi conservé le même réflexe conditionnel et qu’un
phénomène parasite n’est pas venu perturber les travaux.
Ce n’est qu’avec l’ablation de la troisième patte
qu’il se passe quelque chose : les puces sautent toujours, mais certaines
semblent sauter moins loin. D’où une nouvelle hypothèse
émergente : y aurait il un lien inversement proportionnel entre la
distance de saut et le nombre de pattes supprimées ? À ce stade,
son directeur le félicite et lui annonce qu’il va publier et
signer un « paper » dans le bulletin interne du labo, et qu’en
remerciement, il lui offrira une gentille dédicace… À
la fois heureux et dubitatif, notre chercheur poursuit ses travaux. Ce n’est
qu’assez longtemps après qu’il découvre son erreur
: il n’y a pas de proportionnalité, mais des phénomènes
de palier, puisqu’il faut retirer encore trois pattes pour que la distance
de saut chute, cette fois très fortement. Un nouveau « paper
» est publié. Enfin, au bout de plusieurs semaines de travail
intense, il arrive au terme de sa recherche. Un lot résiduel de puces
n’a plus qu’une patte (naturellement il a prudemment conservé
des spécimens dans toutes les configurations antérieures au
cas où il faudrait recommencer une des étapes). Avec une patte,
les puces sautent encore en recevant le stimulus, mais la distance de saut
est devenue très petite, de même que la trajectoire qui n’est
plus une parabole mais peut-être un segment d’hyperbole ou de
conique (ce point devra être éclairci sur les puces restantes…).
Il ne lui reste plus que l’ultime étape, celle qui validera sa
problématique : faire l’ablation de la dernière patte,
ce qu’il opère avec une grande excitation, l’excitation
des découvreurs d’horizons nouveaux, celle qu’ont du connaître
avant lui Archimède, Newton, Maxwell, Einstein ou Plank. Lorsque les
puces sans pattes reçoivent le stimulus, il ne se passe rien, rigoureusement
rien : elles ne sautent plus.
Dans l’article que son directeur co-signe avec lui (quelle consécration
!) dans une revue scientifique avec comité de lecture international
(selon les procédures aujourd’hui en vigueur pour tenter de réduire
le népotisme), ils déclarent en conclusion que non seulement
leur problématique a été éclairante puisqu’elle
a initié une méthodologie féconde mais qu’en plus
elle s’est révélée opératoire puisque sans
contestation possible, il ont pu induire que lorsque l’on coupe toutes
les pattes d’une puce, celle ci devient sourde…
L’histoire qui précède introduit bien le passage des dangers
relativement mineurs de l’induction à ceux, autrement plus coriaces,
de l’empirie que beaucoup utilisent plus ou moins, volontairement ou
non, consciemment ou non mais que personne ne veut reconnaître. L’histoire
du terme est très mouvementée puisque selon les époques
ou les cultures elle fut conseillée ou rejetée comme a-scientifique.
L’étymologie est claire, une démarche est empirique quand
elle s’appuie exclusivement sur l’expérience. Philosophiquement,
l’empirisme (primat à l’expérience) s’oppose
parfois dans un combat acharné au rationalisme (primat absolu à
la raison) en s’épaulant de l’associationnisme (Hume et
Stuar Mill). Aujourd’hui, le statut de l’empirisme est ambigu
: rejeté comme doctrine car trop proche du discours et de la fausse
science, il est néanmoins reconnu comme utile, au moins dans certaines
phases de recherche et à condition d’être tenu à
distance.
Quant à la spéculation, on lui adresse les mêmes reproches
augmentés du fait qu’au contraire de l’empirie, elle est
le plus souvent tautologique. Spéculer est perçu comme une activité
honteuse, au mieux gratuite, sans importance et au pire comme franchement
nocive parce que stérile et remplie de préjugés, à
l’opposé de la science : « On ne peut rien fonder sur l'opinion
: il faut d'abord la détruire. » disait Bachelard . Là
encore, ce qui compte, c’est le positionnement de la spéculation
dans la démarche. Si par spéculation, on entend germination
bachelardienne, pas d’hésitation : spéculez ! Et s’il
fallait se rassurer encore plus, on pourrait faire appel à deux personnalités
au dessus de tout soupçon : « Popper (contrairement aux néopositivistes)
ne récuse nullement la spéculation, fut-elle de caractère
métaphysique ou mythologique, comme source possible de progrès
dans la connaissance. La spéculation est à l'origine de “conjonctures”
éventuellement réfutables, qui constituent la richesse même
à quoi s'alimente la connaissance, dont l'édifice s'accroît
par une succession d'essais, de tentatives dont la vocation n'est pas d'établir
une impossible “vérité” empirique, mais d'éliminer
l'erreur. »
En conclusion, le chercheur doit garder l’esprit ouvert à la
fois sur les faits qu’il va étudier mais aussi sur les cadres
conceptuels généraux qu’il va mettre en œuvre, consciemment
ou non. C’est pourquoi, nous conseillons, avant de se lancer dans toute
recherche, de se livrer à un examen de conscience approfondi des méthodes
dans le cadre desquelles on compte travailler. Un crible épistémologique
devrait initier cette interrogation personnelle. L’idéal serait
de disposer d’une Carte de Tendre de la Recherche, inspirée de
celle de Mlle de Scudéry (1654) dans laquelle figureraient la mer de
la spéculation, le lac de l’empirie, les villages du cartésianisme
et de la phénoménologie, ainsi que des indications d’itinéraires
menant le chercheur à la découverte en contournant tous les
obstacles ou en les utilisant pour progresser dans sa quête. Nous avons
tenté l’aventure, à vous de vous l’approprier et
de la perfectionner.
Plusieurs outils ont été forgés pour sortir de la Guerre
de Cent ans entre l’empirie, le positivisme et leurs alliés ou
mercenaires : la formalisation, née dans l’univers des sciences
dures, essentiellement mathématique et physique est le plus important
d’entre eux. On notera que la formalisation et sa désinence proche
qui sera abordée simultanément, le formalisme, possèdent
deux grandes familles d'acceptions : une positive, liée à des
méthodes de créa¬tion (ou d'ingénierie) de la connaissance,
l'autre négative, attachée à l'esprit de système,
au systématisme. La formalisation est une méthode déjà
classique consistant à trouver, à partir des régu¬larités
observées (ou déduites d'un échelon inférieur)
une représentation abstraite permettant de mieux expli¬quer, décrire
ou com¬prendre la réalité, et parfois de prévoir
ses évolu¬tions. Dans les sciences dures, la formalisation corres¬pond
évidemment à la mathématisation du phénomène
observé - sa mise en formule - éventuellement probabiliste,
voire quantique et non déterministe (principe d’incertitude).
Le travail des scientifiques consiste ensuite à confirmer la formule
ou à l'infirmer avant de proposer une nouvelle formalisation plus proche
de la réalité ou plus générale, selon qu'il s'agit
d'une recherche locale ou globale. Dans les sciences douces, il est rare¬ment
possible de proposer une formalisation unidimensionnelle (avec une seule variable
déterminante) ; on observe plutôt des formalisations multidimensionnelles,
avec tous les inconvénients mathématiques afférents (difficulté
de traitement, indépendance incertaine ou difficile à examiner
des variables), ce qui entraîne des calculs plus lourds et moins faciles
à effectuer et vérifier. D'où les simplifications, les
approximations abusives et les idées fausses qui ont pu faire croire
que les sciences de l'imprécis étaient elles-mêmes imprécises.
Si la formalisation est bien menée, la recherche peut comporter d'autres
outils, comme des équations symboliques (Moles), des organigrammes,
des sociogrammes, des matrices à deux, trois ou n dimensions, ou de
nombreuses autres techniques combinables les unes avec les autres.
S'il s'agit d'employer les ressources des systèmes formels, de la pensée
logique, de l'hypothético-déductivité, de l'inférence,
de l'abstrac¬tion, de la recherche de variables pertinentes, de la modélisation,
de la simulation, bref de tous les moyens, classiques et modernes de théoriser
le réel, soyez formalistes ! N’hésitez pas ! Les recherches
en SHS ne peuvent se contenter de la simple observation, d'autant plus qu'un
bon nombre de leurs objets de recherche s'apparentent aux interactions faibles
que l'on ne peut comprendre qu'avec des outils modé¬lisateurs.
À la fin de la lecture de ce chapitre, le chercheur en SHS devrait
s’être libéré de ses complexes (s’il en avait)
ou être protégé contre leur éventuelle apparition.
Les sciences douces (qui ne sont pas molles) n’ont pas à s’introspecter
en permanence quant à leur statut scientifique par rapport aux sciences
dures. Comme elles, mais avec des méthodes différentes et sur
des terrains différents, elles participent à la construction
de ce que Moles nommait le « grand logos universel de la nature. »
Le débat entre sciences dures et douces devrait être clos au
sens ou les secondes, pour gagner en crédibilité et en légitimité
devraient cesser de regarder systématiquement les vieilles méthodes
des premières. Les sciences douces seraient bien inspirées de
regarder les évolutions les plus récentes en cours, par exemple
du côté du traitement automatique de la connaissance plutôt
que de se focaliser sur des approches quantitatives ou positivistes certes
utiles mais de peu de secours pour des questions complexes dans lesquelles
il n’est plus question de prédictibilité mais de probabilité
d’occurrence de scénarios. Ceux qui douteraient du caractère
inéluctable des progrès en matière d’intelligence
artificielle ou de traitement de la connaissance n’ont qu’à
se souvenir comme on se moquait il n’y a qu’une petite dizaine
d’années des programmes d’échecs en déclarant
que jamais ces machines ne battraient le meilleur joueur mondial. Aujourd’hui,
on connaît le résultat.
Le plus gros avantage de ces nouvelles approches est qu’il n’y
a plus besoin d’une propédeutique mathématicologique compliquée
pour les pratiquer : elles sont faciles à apprendre et tout chercheur
en SHS, à condition qu’il soit logique et cohérent (ce
qui est bien le moins !) peut se les approprier rapidement. Sur ce plan, nous
sommes à égalité avec les chercheurs des sciences dures,
d’où le fait que les années qui viennent vont voir apparaître
cette nouvelle épistémologie des sciences de l’imprécis,
de l’ambiguïté ou du flou que l’on pourrait bien renommer
sciences de l’homme. Ce repositionnement permettrait aussi de sortir
du complexe positiviste selon lequel une science n’est scientifique
que si elle calcule et prédit des phénomènes. Il est
des sciences dures comme l’astronomie qui ne sont ni expérimentales
ni prédictives sans qu’on leur conteste leur scientificité.
Alors pourquoi n’en serait-il pas de même des sciences de l’homme
dès lors qu’elles auraient conquis une épistémologie
spécifique et féconde ?
En sciences dures, on calcule, on n’explique pas le comment des choses.
La gravitation universelle constitue un bon exemple : on sait calculer à
peu près tout ce qui en dépend, mais on est incapable d’expliquer
en détail le phénomène. C’est ce que le mathématicien
René Thom, auteur de la théorie des catastrophes
a exprimé dans une formule percutante : « Descartes […]
expliquait tout et ne calculait rien, Newton […] calculait tout et n’expliquait
rien… » . En sciences humaines et sociales, on ne calcule pratiquement
jamais rien, en tout cas pas dans une orientation prédictive, ce qui
fait que nous serions cartésiens et pas newtoniens : agréable
paradoxe nous obligeant à relire attentivement le Discours de la méthode
(1637) sous un angle systémiste pour être parmi les premiers
à rendre compte du comment en recourant à la puissance heuristique
de la modélisation.
© JLM