izentrop a écrit :Dans tes rêves.GuyGadeboisLeRetour a écrit :On a vu et prouvé que c'est totalement faux, mais il faut que tu remettes le couvert....izentrop a écrit :Les études randomisées revues par les pairs sont faites justement pour ne pas être corrompues. C'est peut être ça que tu ne comprends pas.
sante-pollution-prevention/les-etudes-randomisees-pas-meilleurs-que-les-etudes-observationnelles-t16801-20.html?#p438319Bien sûr qu'on peut pipeauter une étude randomisée, d'autant plus que ce doit être tentant, elles sont plus chères à réaliser que les autres. Mais c'est au moins aussi facile de pipeauter une étude observationnelle, et plus facile de se planter, parce que généralement on ne sera pas maître de tout l'environnement ou de la méthode d'acquisition des données (voir les affaires du Lancet).
Ce qui est pipeau, c'est l'argument, qui est HS. Si on compare ces deux types études, on doit supposer qu'elles sont honnêtes. L'intérêt de l'observationnelle, c'est qu'elle a un champ plus vaste que l'autre. On ne peut en effet pas tester l'effet d'une substance nocive sur la santé en l'injectant à des patients (à moins de s'appeler Mengele), tandis qu'on peut faire une étude observationnelle sur ceux qui en ont été accidentellement victimes.
Facile de truquer une ERDA:
1. Manipulation de la sélection des participants
Critères d'inclusion/exclusion biaisés : Modifier ou appliquer de manière sélective les critères d'inclusion ou d'exclusion pour recruter des participants susceptibles de produire des résultats favorables.
Recrutement ciblé : Intégrer des participants dont les caractéristiques sont connues pour répondre positivement au traitement ou minimiser les effets indésirables.
2. Non-respect de la mise en aveugle
Indices subtils donnés aux participants ou investigateurs : Par exemple, si le traitement actif a un effet secondaire évident (ex. : un goût amer ou des réactions physiques), cela peut permettre à certains d'identifier le groupe auquel ils appartiennent.
Conditionnement du traitement : Si les comprimés placebo et actifs ont des différences visibles (forme, couleur, goût), cela peut briser l’aveugle.
Communication volontaire : Un membre de l’équipe divulgue intentionnellement ou accidentellement des informations sur l’attribution des groupes.
3. Modification des données pendant l’analyse
Sélection des résultats rapportés : Ne rapporter que les résultats positifs en omettant ceux qui ne sont pas favorables (p-hacking ou cherry-picking).
Manipulation statistique : Utiliser des méthodes statistiques inappropriées pour rendre les résultats significatifs ou interpréter les données de manière trompeuse.
Falsification des données : Modifier ou créer des données fictives pour obtenir les résultats désirés.
4. Manipulation pendant l’essai
Interventions non déclarées : Ajouter ou retirer des traitements supplémentaires pour influencer les résultats dans un groupe.
Non-respect des doses : Administrer intentionnellement une dose incorrecte à l’un des groupes pour favoriser un résultat spécifique.
Perte de données non aléatoire : Exclure des participants de l'analyse finale (ex. : éliminer ceux dont les résultats vont à l’encontre de l’hypothèse de l’étude).
5. Publication sélective
Omission des résultats négatifs : Ne pas publier l'étude si les résultats ne vont pas dans le sens des attentes des promoteurs.
Redressement des données dans les rapports : Modifier les données ou conclusions dans le rapport final pour embellir les résultats.
6. Conflits d'intérêts et biais structurels
Influence du sponsor : Si l'étude est financée par une entreprise ou une organisation avec un intérêt direct, il peut y avoir une pression pour obtenir des résultats favorables.
Biais des investigateurs : Les chercheurs eux-mêmes peuvent être influencés par leurs croyances ou leurs attentes, consciemment ou inconsciemment.
7. Problèmes de suivi à long terme
Suivi incomplet ou biaisé : Négliger certains participants dans le suivi ou accorder plus d’attention à un groupe spécifique pour influencer les conclusions.
8. Manipulation dans la phase de conception
Hypothèse biaisée : Formuler une hypothèse de recherche spécifiquement pour obtenir un résultat attendu, tout en excluant d'autres hypothèses pertinentes.
Taille de l’échantillon mal calculée : Délibérément sous-dimensionner l'échantillon pour réduire la probabilité de détecter des différences statistiquement significatives (ou au contraire, pour amplifier artificiellement un effet).
9. Altération des protocoles pendant l’étude
Changements non déclarés au protocole : Modifier le protocole en cours d’étude pour inclure de nouveaux critères d’analyse ou ajuster la méthodologie en fonction des résultats intermédiaires.
Déviation volontaire du protocole : Appliquer différemment les traitements ou les interventions selon les groupes.
10. Fabrication de données
Création de données fictives : Insérer des données totalement inventées pour renforcer un effet ou masquer des résultats négatifs.
Copie des données : Réutiliser ou dupliquer les données d’un participant ou d’une sous-population pour gonfler artificiellement la taille de l’échantillon.
11. Non-déclaration des biais ou des problèmes
Ignorer les biais connus : Ne pas signaler les facteurs qui pourraient biaiser les résultats, comme les erreurs de mesure, la non-conformité des participants ou les pertes de suivi.
Problèmes de conformité non rapportés : Par exemple, si certains participants ne prennent pas le traitement prescrit ou si des erreurs de dosage se produisent.
12. Truquage dans les analyses intermédiaires
Arrêt précoce de l’étude : Arrêter prématurément l’étude lorsque les résultats semblent favorables, avant que des données supplémentaires ne puissent atténuer ces effets.
Analyse intermédiaire biaisée : Examiner les données avant la fin de l’étude et ajuster les méthodes pour maximiser l'effet apparent.
13. Manipulation des groupes placebo et actif
Composition inégale du placebo : Fournir un placebo qui n’est pas totalement neutre (par exemple, qui a des effets physiologiques ou des caractéristiques sensorielles différentes).
Traitement non homogène : Appliquer des normes différentes dans le suivi ou le traitement des groupes, introduisant des biais systémiques.
14. Falsification des données sur les effets secondaires
Sous-estimation des effets indésirables : Ignorer, minimiser ou ne pas signaler les effets indésirables liés au traitement actif.
Exagération des effets indésirables du placebo : Rapport exagéré ou inventé des effets indésirables dans le groupe placebo pour rendre le traitement actif plus favorable.
15. Manipulation des résultats par redéfinition des critères
Redéfinition des variables de résultats : Changer les critères d'évaluation principaux après avoir vu les résultats, pour mettre en avant ceux qui sont les plus favorables.
Critères de succès arbitraires : Utiliser des seuils ou des définitions non standard pour qualifier un traitement de "réussi".
16. Influence sur les publications
Plagiat et duplication : Publier les résultats d'une même étude dans plusieurs journaux pour donner l'impression d'un consensus scientifique.
Publication différée ou cachée : Retarder ou cacher les résultats d’études défavorables pour influencer la perception globale du traitement.
17. Pressions externes ou internes
Pression sur les investigateurs : Les sponsors ou les supérieurs peuvent exercer une influence pour modifier ou interpréter les résultats de manière favorable.
Préparation de rapports biaisés : Travailler avec des rédacteurs fantômes (ghostwriting) pour rédiger des articles biaisés qui omettent certains résultats défavorables.
18. Non-déclaration ou suppression des données manquantes
Ignorer les données manquantes : Ne pas tenir compte des données manquantes ou les traiter de manière biaisée dans les analyses.
Imputation des données : Imputer les données manquantes avec des valeurs favorables au lieu d’utiliser des méthodes statistiques rigoureuses.
19. Influence des comités d’examen ou d’éthique
Manque d’indépendance des comités : Inclure des membres ayant des liens avec le sponsor ou des conflits d’intérêts.
Supervision laxiste : Comités d'éthique ou de surveillance qui ne vérifient pas attentivement les déviations dans l'étude.
Ces manipulations montrent que même les études les mieux conçues peuvent être vulnérables à des pratiques peu éthiques si les mécanismes de contrôle sont insuffisants. La transparence, la vérification indépendante, et l’enregistrement préalable des protocoles sont essentiels pour réduire ces risques.
Exemples:
1. Andrew Wakefield et le lien entre le vaccin ROR et l’autisme (1998)
Détails : Andrew Wakefield a publié une étude dans The Lancet affirmant un lien entre le vaccin ROR (rougeole-oreillons-rubéole) et l'autisme. L'étude reposait sur un très petit échantillon (12 enfants) et des méthodes non éthiques, notamment des tests invasifs non nécessaires sur des enfants.
Problème : Wakefield a falsifié les données pour montrer un lien inexistant. De plus, il avait un conflit d’intérêts financier, car il travaillait sur un vaccin concurrent.
Conséquences : L’étude a provoqué une baisse massive des taux de vaccination et une recrudescence des maladies évitables. The Lancet a rétracté l’article en 2010, et Wakefield a perdu sa licence médicale.
2. Haruko Obokata et les cellules STAP (2014)
Détails : Haruko Obokata, une chercheuse japonaise, a publié deux articles dans Nature prétendant avoir découvert une méthode simple pour transformer des cellules ordinaires en cellules pluripotentes (appelées cellules STAP).
Problème : L’étude contenait des images falsifiées et des données manipulées. Les résultats étaient impossibles à reproduire.
Conséquences : L’étude a été rétractée, et Obokata a été discréditée. La controverse a conduit au suicide d'un de ses collègues, Yoshiki Sasai, co-auteur des articles.
3. Paolo Macchiarini et les greffes de trachée artificielle (2011-2016)
Détails : Paolo Macchiarini, un chirurgien de renommée mondiale, a publié des études affirmant le succès de greffes de trachée artificielle recouverte de cellules souches.
Problème : Les données sur les patients étaient falsifiées, et les résultats étaient exagérés. Plusieurs patients sont morts après ces interventions expérimentales.
Conséquences : Macchiarini a été accusé de fraude scientifique et de mauvaise conduite médicale. L’affaire a gravement terni la réputation de l’Institut Karolinska, où il travaillait.
4. Hwang Woo-suk et la recherche sur les cellules souches (2004-2005)
Détails : Hwang Woo-suk, un scientifique sud-coréen, a publié des articles dans Science affirmant avoir cloné des cellules souches humaines embryonnaires.
Problème : Les données étaient falsifiées, et certains ovules utilisés dans l’étude avaient été obtenus de manière non éthique, y compris auprès de membres de son équipe.
Conséquences : Les articles ont été rétractés, et Hwang a perdu son poste. Cette affaire a freiné les avancées dans la recherche sur les cellules souches en Corée du Sud.
5. Diederik Stapel et les études en psychologie (2011)
Détails : Diederik Stapel, un psychologue néerlandais, a falsifié des données dans au moins 55 articles scientifiques et plusieurs thèses de doctorat supervisées.
Problème : Stapel a inventé des données pour appuyer ses hypothèses, sans jamais réaliser les expériences.
Conséquences : Il a été déchu de son poste universitaire, et ses travaux ont été rétractés. Cet événement a souligné la nécessité de réplications dans la recherche psychologique.
6. R. K. Chandra et la recherche en nutrition (années 1980-2000)
Détails : R. K. Chandra, un chercheur canadien, a publié des études sur les effets des suppléments nutritionnels, affirmant qu'ils amélioraient la santé des personnes âgées.
Problème : Ses études étaient basées sur des données fabriquées. Plusieurs analyses indépendantes ont montré que ses résultats étaient invraisemblables.
Conséquences : Chandra a été discrédité, et ses travaux ont été rétractés. Il est devenu un exemple emblématique de fraude scientifique dans la recherche médicale.
7. Jan Hendrik Schön et la physique des semi-conducteurs (années 2000)
Détails : Jan Hendrik Schön, un physicien travaillant chez Bell Labs, a publié une série d’articles révolutionnaires sur les semi-conducteurs et les matériaux organiques.
Problème : Il a falsifié et dupliqué des données expérimentales, utilisant les mêmes graphiques pour différents résultats.
Conséquences : Ses travaux ont été rétractés, et il a perdu son poste. L’affaire a mis en lumière l’importance de la transparence dans la recherche expérimentale.
8. Scott Reuben et les études sur les analgésiques (1996-2008)
Détails : Scott Reuben, un anesthésiste, a publié plusieurs études affirmant l’efficacité de certains analgésiques (par exemple, le Celebrex et le Lyrica).
Problème : Il a inventé des données et n’a jamais mené les essais cliniques qu’il prétendait avoir réalisés.
Conséquences : Au moins 21 de ses articles ont été rétractés. Cette fraude a remis en question la sécurité de nombreux protocoles médicaux basés sur ses travaux.
Ces exemples montrent que même dans des systèmes rigoureux, la fraude peut se produire. Cependant, ils soulignent également l’importance de la réplication, des audits indépendants et de la transparence pour détecter et corriger les erreurs ou manipulations.
En 2023, plus de 10 000 études falsifiées ont été retirées des revues scientifiques, un record alarmant. Cette augmentation est en partie due à la prolifération des « usines à papiers », des organisations qui produisent en masse des articles frauduleux. Ces entités exploitent des chercheurs sous pression pour publier, souvent en utilisant des outils d'intelligence artificielle pour générer des contenus qui imitent l'écriture scientifique.
Tout ceci est, ça va sans dire, "dans mes rêves".