De nombreux articles scientifiques, pourtant validés par les pairs, donnent des résultats qui ne sont pas reproduits par la suite : c'est ce que l'on appelle la crise de la reproductibilité. 70% des chercheurs ont expérimenté cette situation, et ce dans tous les domaines, même si les sciences dures sont moins impactées.
Une publication scientifique suit une méthodologie stricte, où elle va d'abord être revue par des pairs et éventuellement corrigée avant d'être publiée, gage théorique de se véracité. Cependant, les pairs n'ont pas le temps de refaire l'intégralité des expériences, et il arrive donc souvent que même si un article est bien fait, les résultats ne soient au final pas reproduits par la suite. Ce problème se retrouve par ailleurs dans tous les journaux, y compris dans les plus célèbres comme Nature ou Science.
Plusieurs hypothèses permettraient d'expliquer ce problème, comme l'effet tiroir (on ne publie que les résultats qui sont significatifs, pas l'absence de résultats, ce qui peut conduire à des biais statistiques), la pression de la publication qui amène à des fautes ou des manipulations légères, ou encore un mauvais usage des statistiques.
Le problème est particulièrement grave en psychologie, où moins de la moitié des articles seraient reproductibles.
Tous les commentaires (26)
Bravo à Khanos qui remporte le grand chelem en étant l'auteur de l'anecdote et des 3 commentaires les mieux notés ! Ça ne doit pas être facile à reproduire, ça non plus !
Durant ma thèse (en électronique), j'ai écrit plusieurs articles décrivant mes résultats. Lors des révisions, mes superviseurs m'ont demandé plusieurs fois de supprimer des paramètres expérimentaux relatifs à mes expériences que je donnais dans les brouillons des articles. Dans les versions finales et publiées, on a supprimé certains paramètres.
Au début ça m'a choqué. Après j'ai compris.
Le but est d'être sûr que mes résultats préliminaires ne soient pas copiés ailleurs. Mais il faut tout de même communiquer le plus vite possible sur ce que je faisais pour être sûr d'être le premier à publier la dessus. Le premier est plus invité en conférence, a plus de citations, plus de reconnaissance, plus de bourses, plus de budget. On revient tjrs à l'argent.
Écrire un article devient un subtil mélange entre "donner assez de détails pour être crédible et compris" et "ne pas en donner assez pour ne pas être copié".
Ça ne rend pas mes articles faux. J'imagine ne pas être le seul dans ce genre de situation.
Petite réponse globale :
@raean : oui le cas de la mémoire de l'eau est fameux et assez triste. J'avais entendu dire que les résultats n'étaient reproduit que quand un des assistants était présent. En tout cas, comme suggéré ailleurs, si c'est effectivement un problème, il reste minoritaire par rapport à l'ensemble des articles non reproduits.
Et merci pour cette reconnaissance de grand chelem ^^
@Agathe, oui, socio et psycho sont clairement des sciences. Et si c'est plus discutable pour les maths, c'est clairement un outil merveilleux. Parfois j'aimerai en avoir fait un peu plus, mais en général l'utilisation "à la physicienne" me suffit (hein, est ce que j'ai vérifié si j'avais le droit d'appliquer ça ? Bah je l'ai appliqué et ca marche, ça va non ?").
@Viwk : Oui tu as raison, ça, ça touche pour moi à un problème lié à la pression de publication et au fonctionnement de la recherche dans son ensemble (même si ça dépend pas mal des domaines, il y en a d'autre où cacher des infos n'est pas très utile). Ceci étant dit, une fois que l'article est publié et que tu as pu exploité ce que tu voulais, normalement, tu devrais avoir gardé tout tes paramètres de coté et être en mesure de les fournir si on te le demandait plus tard. C'est à ce moment la qu'on pourra voir si l'article est réplicable ou non.
J’avoue que pour le premier jet, j’ai eu du mal à comprendre.
Mais là impeccable
La reproductibilité en sciences humaines poserait la question de l'influence de l'observateur... Et de l'éthique par conséquent. Peu d'études peuvent s'exercer sur des grands échantillons et produire des résultats statistiques reproductibles. Elles décrivent et analysent des phénomènes réels mais ne le peuvent faire qu'en sélectionnant l'échantillon selon le phénomène observé :
Par analogie, c'est comme le (vieux) slogan FDJ : "50% des gagnants ont tenté leur chance"... Si vous voulez décrire les trajectoires biographiques des gagnants, vous n'observez pas tous les joueurs mais tous les gagnants. Et l'étude produite sera sur un échantillon trop petit pour être reproductible et rendre prévisible (même statistiquement) la biographie du prochain gagnant.
Et si le prochain gagnant correspondait à l'observation précédente, il faudrait envisager que l'étude a pu influencer sur son agir.
En sciences dures, il serait inversement inquiétant que la statistique soit changée sensiblement et on soupçonnerait rapidement soit un biais d'observation de l'étude soit une intervention extérieure postérieure