En étant convaincu que vous avez bien dormi, vous serez mieux

Proposé par
Invité
le
dans

Tous les commentaires (35)

Bientôt une anecdote sur l'eau chaude

a écrit : Le protocole est le suivant : on explique a un groupe qu'une nouvelle méthode permet de mesurer le pourcentage de sommeil paradoxal fait dans la nuit, et que la moyenne se situait entre 20 et 25%. Puis, on les faisait dormir avec une machine. a leur réveil, on dit a un groupe qu'ils ont dormi 16.2% de leur temps en sommeil paradoxal, et 28.7% a l'autre groupe. Enfin, on effectue un certain nombre de test (mémoire, réactivité) permettant d'évaluer la qualité du sommeil.
Apparemment, le deuxième groupe aurait de meilleur résultat. Je dis bien apparemment, car les articles de presse ne présentent pas les résultats finaux. De plus, l'échantillon est assez faible, 164 participants, divisés en trois groupes (ceux ayant moins dormi, plus dormi, et un groupe de test).
Afficher tout
164 n'est pas divisible par 3. Par conséquent, un groupe était inférieur en nombre par rapport aux deux autres.

Est-ce que ça joue sur les résultats finaux et, si oui, est-ce que ça peut rendre les résultats caducs?

du coup comment on fait ?? c'est vrai ou c'est pas vrai ???

C'est un peu sans intérêt cette anecdote, c'est en quelque sorte la méthode Court, et ça marche pour absolument tous les aspects de la vie ! Enfin c'est mon avis.

a écrit : Je chipote un peu : le «Journal of Experimental Psychology» a un bon impact factor (IF) ce qui constitue une sorte de « gage » de bonne qualité d’article. L’université du Colorado où a été réalisé l’étude se situe à Denver (population : 682’000 et des poussières), en terme d’échantillonnage, on pourrait dire avec un intervalle de confiance à 95% et une marge d’erreur de 5% que ce taux devrait se monter à N=384 pour que celui-ci soit représentatif de la population. Après ce serait intéressant de lire l’article en entier ! Je vais essayer de le télécharger pour en lire plus là-dessus :) Afficher tout Apparemment vous connaissez les impact factor et les stat ... travaillez vous dans les essais cliniques ?

Si nous allons dans votre sens il faudrait prendre la pop du pays ou mondiale et non la pop de la ville...

Et pour qu'un résultat soit pertinent il n'est pas forcément utile d'avoir beaucoup de patient.
En fonction de ce que l'on veut tenter de démontrer (hypothèse...), les statisticiens nous disent combien de patient il faut pour que le résultat soit pertinent (qu'il soit positif ou négatif)

D'autre part cette étude a sûrement été fait pour étudier le phénomène sur un petit groupe et donc avec peu de moyen avant d'aller plus loin et de dépenser beaucoup plus d'argent.

Enfin les études montrant l'effet placebo sont très nombreuses.

a écrit : 164 n'est pas divisible par 3. Par conséquent, un groupe était inférieur en nombre par rapport aux deux autres.

Est-ce que ça joue sur les résultats finaux et, si oui, est-ce que ça peut rendre les résultats caducs?
Non pas du tout !
Du moment que les échantillons sont assez grands, il peut sans problème y avoir une différence entre chacun (à part si elle est trop importante, genre un groupe fait le double de l'autre - ça ne rend pas le résultat faux pour autant, mais on émet des réserves sur le résultat). C'est dû au fait qu'on ne travaille pas directement sur le nombre mais sur les moyennes et variances d'échantillons.

En science, lorsqu'on fait un test statistique on essaie au maximum d'utiliser un test paramétrique : un test qui doit d'abord vérifier plusieurs conditions d'applications telles que la taille de l'échantillon, des valeurs réparties selon une loi particulière (loi normale la plupart du temps) etc.
En ce qui concerne la taille de l'échantillon, le minimum communément admis est 30 - ici la condition est donc bien remplie, mais ils ont tout de même choisi un nombre supérieur pour plus de fiabilité.

Si l'une de ces conditions n'est pas remplie, il faut utiliser un test non-paramétrique. Le désavantage de ces tests, c'est qu'ils ont moins de puissance, c'est-à-dire que le résultat donné est moins fiable que pour un test paramétrique - ceci dit c'est juste qu'il faut prendre ce résultat avec des pincettes et savoir d'où il sort, il n'est pas pour autant faux.
Dans l'article, la première expérience se base sur des groupes de taille <30 mais je ne connais pas le test utilisé - il se base peut-être sur une statistique non-paramétrique. La seconde xp en revanche, qui est celle dont les groupes sont assez grands, utilise une base paramétrique.

Mais quelle vérité, cela fait partie des choses qui m’ horripile le plus aujourd’hui. Les gens utilisent le mot fatigue à tord et à travers. Ils sont fatigués avant d’avoir commencé. Aujourd’hui on utilise ce mot bien plus par habitude qu’autre chose.
De plus tout le monde attribue la fatigue au travail.
Certain s’alimentent mal, ce couche à pas d’heure, ne font jamais de sport et travaille 35h par semaines mais lorsqu’ils sont fatigués c’est toujours à cause du travail.
Il regarde la liste de travail le matin en se gatttant la tête et ça y est, ils sont fatigué

Moi personnellement, les gens fatigués, ça me fatigue ;-)

Bref c’était le petit coup de gueule du jour

a écrit : Non pas du tout !
Du moment que les échantillons sont assez grands, il peut sans problème y avoir une différence entre chacun (à part si elle est trop importante, genre un groupe fait le double de l'autre - ça ne rend pas le résultat faux pour autant, mais on émet des réserves sur le résultat). C'est d
û au fait qu'on ne travaille pas directement sur le nombre mais sur les moyennes et variances d'échantillons.

En science, lorsqu'on fait un test statistique on essaie au maximum d'utiliser un test paramétrique : un test qui doit d'abord vérifier plusieurs conditions d'applications telles que la taille de l'échantillon, des valeurs réparties selon une loi particulière (loi normale la plupart du temps) etc.
En ce qui concerne la taille de l'échantillon, le minimum communément admis est 30 - ici la condition est donc bien remplie, mais ils ont tout de même choisi un nombre supérieur pour plus de fiabilité.

Si l'une de ces conditions n'est pas remplie, il faut utiliser un test non-paramétrique. Le désavantage de ces tests, c'est qu'ils ont moins de puissance, c'est-à-dire que le résultat donné est moins fiable que pour un test paramétrique - ceci dit c'est juste qu'il faut prendre ce résultat avec des pincettes et savoir d'où il sort, il n'est pas pour autant faux.
Dans l'article, la première expérience se base sur des groupes de taille <30 mais je ne connais pas le test utilisé - il se base peut-être sur une statistique non-paramétrique. La seconde xp en revanche, qui est celle dont les groupes sont assez grands, utilise une base paramétrique.
Afficher tout
Merci pour toutes ces explications. Je le coucherai vraiment moins bête ce soir... ;-)

pour info, le contraire de l'effet placebo s'appelle l'effet nocebo.

a écrit : C'est un peu sans intérêt cette anecdote, c'est en quelque sorte la méthode Court, et ça marche pour absolument tous les aspects de la vie ! Enfin c'est mon avis. Mon cerveau est plus fort que tout puisque c’est moi qui le commande. Si je décide que j’ai bien dormi alors je suis en forme. Et si j’ai mal dormi, je positive et je suis en forme aussi... Si je suis triste, je me convainc que ce n’est pas si grave, qu’il y a pire et ça va mieux... Etc etc...

Mais ce qui m’apparaît simple peut être insurmontable pour d’autres.

a écrit : Il y a un moyen simple pour contourner ça : le site Sci-Hub, une sorte de Pirate Bay scientifique. Comme son alter ego, c'est techniquement pas forcément un procédé extrêmement légal mais c'est surtout que c'est contraire à la volonté des gros journaux, qui essaient de faire fermer son nom de domaine. Les scientifiques eux sont majoritairement en faveur de ce site et plus généralement d'une science open source (ce qu'elle devrait être à la base), je connais plusieurs scientifiques extrêmement renommés qui l'utilisent.
En tout cas, vous ne risquez rien en l'utilisant ^^

Bref, donc pour accéder à l'article il faut d'abord chercher son DOI (un code composé de chiffres que l'on trouve dans les infos générales relatives à la publication), en l'occurrence dans la source anglaise de l'anecdote on le trouve au-dessus et au-dessous de l'abstract : 10.1037/a0035546
Parfois on peut le trouver sous forme d'url, il faut juste enlever le "http://" pour ne garder que les chiffres.
On va ensuite sur le site Sci-Hub (site russe mais pas besoin de comprendre cette langue ^^) et on copie-colle le DOI dans la barre de recherche avant de cliquer sur "open" - ça donne directement le pdf téléchargeable ! (Et ça fonctionne avec tous les articles, en 8 ans de recherches biblios j'ai toujours pu récupérer le pdf même d'articles vieux de 60 ans ou plus)

D'ailleurs, voilà le lien de l'article en question : sci-hub.tw/10.1037/a0035546
Afficher tout
Autant je conchie Elsevier et compagnie parce que ces saloperies d'éditeurs sont à la limite de la mafia, autant expliquer comment pirater des articles sur scmb, bof bof, même si ce site est connu par quasiment toute personne qui a ou a eu une biblio sérieuse à faire "récemment".

a écrit : Apparemment vous connaissez les impact factor et les stat ... travaillez vous dans les essais cliniques ?

Si nous allons dans votre sens il faudrait prendre la pop du pays ou mondiale et non la pop de la ville...

Et pour qu'un résultat soit pertinent il n'est pas forcément utile d&#
039;avoir beaucoup de patient.
En fonction de ce que l'on veut tenter de démontrer (hypothèse...), les statisticiens nous disent combien de patient il faut pour que le résultat soit pertinent (qu'il soit positif ou négatif)

D'autre part cette étude a sûrement été fait pour étudier le phénomène sur un petit groupe et donc avec peu de moyen avant d'aller plus loin et de dépenser beaucoup plus d'argent.

Enfin les études montrant l'effet placebo sont très nombreuses.
Afficher tout
Oui je suis actuellement en train de réaliser une étude, je travaille dans les statistiques par la même occasion. J’ai décidé de prendre la population de la ville en question et pas de l’Etat tout entier (les études américaines ont le don pour se concentrer que sur la ville et pas sur l’Etat où le pays en entier, question de nombre) mais effectivement, la taille de l’échantillonnage est « petit » mais une étude type Review ou RCT coûtent cher, très cher et n’ont pas forcément un investisseur derrière. Ainsi, ils doivent prendre des choix

a écrit : Mon cerveau est plus fort que tout puisque c’est moi qui le commande. Si je décide que j’ai bien dormi alors je suis en forme. Et si j’ai mal dormi, je positive et je suis en forme aussi... Si je suis triste, je me convainc que ce n’est pas si grave, qu’il y a pire et ça va mieux... Etc etc...

Mais ce qui
m’apparaît simple peut être insurmontable pour d’autres. Afficher tout
C'est exactement ça ! (Au fait je voulais dire méthode Couet et pas "court")
Moi par exemple je suis insomniaque et j'ai beau me dire que ça va aller, je passe quand même une journée de merde car fatiguée... Mais sur d'autres aspects de ma vie, si je positive, ça fonctionne à fond ! En fait c'est juste que ça vaut le coup d'essayer.

Voué... le protocole me semble assez maladroit.
La qualité du sommeil n’a pas forcément à voir avec sa durée, ou un paquet de mesures objectives.

Ça sens un peu « l’étude à la con » fait pour vendre des pages dans les magasines.

a écrit : 164 n'est pas divisible par 3. Par conséquent, un groupe était inférieur en nombre par rapport aux deux autres.

Est-ce que ça joue sur les résultats finaux et, si oui, est-ce que ça peut rendre les résultats caducs?
C'est une étude statistique, cela peut juste jouer sur le fait que l'un des groupes a un résultat plus fiable que les autres car avec un échantillon plus grand. De plus si les scientifiques ont considéré qu'il y a un effet placebo d'après leur expérience, c'est EN TENANT COMPTE de ces paramètres. En sachant qu'à partir de 35 on dit que ça fait beaucoup en statistique. Ce qui compte le plus c'est que les personnes choisies soient le plus prises au hasard possible pour éviter des biais.

Mais il faut savoir que l'étude statistique est justement là pour prendre en compte l'incertitude due au nombre réduit, c'est des scientifiques, ils utilisent donc une méthode scientifique, pour prouver scientifiquement que c'est juste. Par contre ce qui ne peux pas toujours être vérifiable, c'est la qualité de l'échantillon utilisé, s'ils choisissent des gens selon des critères, et qu'ils font comme si c'était aléatoire, l'étude est invalide. C'est pour ça que malgré tout il vaut mieux regarder plusieurs études, avec des échantillons plus grands, pour que le groupe soit plus représentatif.