À l’ère des réseaux sociaux, des médias en continu et disons-le, de la surabondance d’informations, nous sommes tous, à un moment ou un autre, exposés à des nouvelles « scientifiques » qui prétendent tout prouver : qu’un aliment miracle prévient le cancer, qu’une seule habitude de vie prolonge de dix ans l’espérance de vie, ou qu’un médicament est dangereux… Mais comment savoir ce qui est vrai ? Quels sont les pièges qui nous attendent quand les données scientifiques sont (trop) vulgarisées dans les médias ?
Ce sujet, qui présente les dix erreurs fréquentes à connaître pour exercer son esprit critique est séparé en deux article pour en alléger la lecture. Voici la première partie.
Les pièges classiques de la science dans les médias
Dans cette première partie, on s’attarde aux pièges les plus classiques : ceux qui concernent les chiffres, les corrélations douteuses, le sensationnalisme, ou encore la tendance à simplifier à outrance les résultats scientifiques.
L’objectif ? T’aider à mieux décoder ce que tu lis, entends ou partages. Parce qu’une information scientifique mal transmise peut faire plus de tort que de bien.
1. Confondre corrélation et causalité
Une corrélation est une relation statistique entre deux variables : lorsque l’une varie, l’autre a tendance à varier aussi, dans le même sens (corrélation positive) ou dans le sens opposé (corrélation négative). Cependant, cela ne signifie pas que l’une cause l’autre.
Par exemple, pendant longtemps, certaines études ont observé une corrélation entre la consommation modérée de vin rouge (par exemple, un verre par jour) et une meilleure santé cardiovasculaire. Mais cela ne prouve aucunement que le vin rouge est la cause de cette meilleure santé. En réalité, les chercheurs ont mis en évidence que ces consommateurs modérés avaient souvent un mode de vie plus sain dans son ensemble : revenu plus élevé, alimentation plus équilibrée, habitudes sociales plus régulières (comme partager les repas entre amis), meilleur accès aux soins, etc. Autrement dit, le vin rouge n’était qu’un marqueur de ce mode de vie, et non la cause directe d’une meilleure santé.
Ces variables sont ce qu’on appelle des facteurs confondants : ce sont des éléments extérieurs qui influencent à la fois la variable étudiée (la consommation de vin) et le résultat observé (la bonne santé), faussant ainsi l’interprétation de la relation entre les deux.
La causalité, en revanche, désigne un lien de cause à effet entre deux phénomènes, où l’un provoque directement l’autre. Pour établir une relation causale, il ne suffit pas d’observer une corrélation : il faut démontrer que la cause précède l’effet, qu’il existe un mécanisme explicatif, et que d’autres causes potentielles ont été écartées.
Par exemple, fumer cause un risque accru de cancer du poumon. Cette relation a été démontrée par des décennies d'études épidémiologiques, biologiques et cliniques, établissant à la fois un mécanisme biologique et une relation dose-réponse.
La confusion entre corrélation et causalité a pourtant mené à de nombreuses erreurs et paniques collectives, comme dans le cas du faux lien entre les vaccins et l’autisme, popularisé par une étude frauduleuse de 1998, aujourd’hui rétractée, et contredit depuis par des dizaines d’études rigoureuses
2. Mal interpréter les statistiques
Un « risque accru de 10 % » peut sonner dramatique, mais tout dépend du point de départ : une hausse de 10 % d’un risque initial de 1 sur 1 000 000 reste… très faible. C’est la différence entre risque relatif et risque absolu qui est souvent mal comprise.
Le risque absolu correspond à la probabilité brute qu’un événement survienne dans un groupe donné. Il est généralement exprimé en pourcentage ou en fraction. Par exemple, si dans un groupe de 1 000 personnes, 10 développent une maladie, le risque absolu est de 1 % (10/1 000).
Le risque relatif compare le risque d’un événement entre deux groupes : un groupe exposé à un facteur donné (ex. un médicament, une habitude) et un groupe non exposé. Il indique à quel point le risque est plus (ou moins) élevé dans le groupe exposé. Par exemple, si 2 % des gens exposés à un produit tombent malades, contre 1 % dans le groupe non exposé, le risque relatif est de 2. On dira alors que le risque double — ce qui peut sonner inquiétant, même si la différence absolue est seulement de 1 %.
Ainsi, des chercheurs ont montré que présenter les statistiques en termes absolus réduit les biais de perception.
3. Simplifier à l’excès
Il faut comprendre que le processus scientifique est un processus constamment en mouvement, rempli de nuances, de bémols, et même, dans certains cas, d'exceptions… surtout en biologie ! J’ai même un professeur qui disait : « En biologie, il y a toujours des exceptions ! »
Cependant, pour rendre la science accessible, pour la vulgariser, on n’a pas le choix de la simplifier… de passer sous silence ces nuances qui font pourtant de ce processus quelque chose de vivant et dynamique. Or, une simplification trop poussée peut dénaturer l’information et les conclusions scientifiques.
Par exemple, il est facile de résumer une étude sur le cancer par « un taux de guérison de 20 % », sans préciser que ce n’est que dans un seul groupe d’âge, ou uniquement chez les cancers pris à un stade précoce.
Un autre exemple est qu'on entend souvent dire que le sirop d’érable est un sucre « meilleur » que les autres, car il contient des minéraux. C’est vrai sur le plan chimique… mais ce qu’on oublie fréquemment de mentionner, c’est qu’il faudrait en consommer de grandes quantités pour que ces minéraux aient un réel effet physiologique — des quantités qui dépasseraient largement les recommandations en sucre. Sorti de son contexte, ce type de simplification peut facilement induire en erreur.
4. Céder au sensationnalisme scientifique
« Une découverte qui va révolutionner la médecine ! » Voilà le genre de titre accrocheur qu’on retrouve souvent dans les médias, surtout sur les réseaux sociaux. Pourtant, en creusant un peu, on découvre que l’étude en question est isolée, préliminaire, ou encore réalisée uniquement sur des modèles animaux, comme des souris. Cela ne signifie pas que la recherche n’a pas de valeur, mais que ses résultats sont encore loin d’être généralisables.
Ce type de mise en scène existe pour capter l’attention, pour générer des clics et du partage, de l’audience. À tel point, qu'une étude majeure du Massachusetts Institute of Technology publiée en 2018 dans la revue Science a démontré que les fausses nouvelles (donc souvent avec des titres sensationnalistes) se propagent bien plus rapidement et largement que les vraies informations sur Twitter. Plus précisément, les chercheurs ont constaté que les fausses nouvelles sont 70 % plus susceptibles d'être retweetées que les vraies et atteignent 1 500 personnes environ six fois plus vite que les informations véridiques.
Mais ce sensationnalisme nuit à la compréhension du processus scientifique. La science n’avance pas par éclairs de génie qui bouleversent tout en une nuit. Elle avance lentement, prudemment, à coups d’hypothèses réfutées et de contradictions apparentes qu’il faut démêler. En science, les "miracles" sont rares, et les certitudes sont bâties sur des décennies de recherche cumulative, pas sur un seul article sensationnaliste.
C’est pourquoi, lorsqu’une annonce semble trop belle pour être vraie, il est sain d’avoir un doute. De même, si une étude va à l’encontre de l’ensemble des connaissances établies, sans explication solide ni consensus émergent, il faut redoubler de vigilance.
Et même dans les rares cas où une découverte s’annonce véritablement majeure, il faut faire preuve de patience : il faudra que d’autres chercheurs la reproduisent, la valident, la confrontent à d’autres hypothèses. C’est ainsi que se construit le consensus scientifique, étape par étape, au fur et à mesure que les preuves s’accumulent.
5. Négliger le contexte scientifique
Une étude isolée n’est qu’un maillon dans une chaîne de production du savoir. Lorsqu’un média présente une seule recherche comme une révélation, sans préciser ce que d’autres études ont trouvé sur le même sujet, il peut créer l’illusion d’un consensus scientifique, alors que celui-ci n’existe pas encore.
La fiabilité de la science repose sur deux piliers essentiels : la reproductibilité et la révision par les pairs.
La reproductibilité, c’est la capacité pour d’autres chercheurs de répéter une expérience dans des conditions similaires et d’obtenir des résultats comparables. C’est un pilier fondamental de la démarche scientifique : si une étude produit des résultats spectaculaires, mais qu’aucun autre laboratoire indépendant ne parvient à les reproduire, sa crédibilité est fortement compromise. La reproductibilité agit comme un garde-fou contre les erreurs, les biais… voire les fraudes.
Un exemple marquant est celui de la « mémoire de l’eau », une étude publiée en 1988 dans Nature : bien qu’elle ait suscité un grand intérêt médiatique, ses résultats n’ont jamais pu être reproduits, ce qui a finalement discrédité l’hypothèse.
La révision par les pairs, quant à elle, est un processus par lequel un article scientifique est évalué de manière anonyme par d’autres spécialistes du domaine avant d’être publié. Ces experts examinent la méthodologie, la qualité des données, la cohérence des conclusions et la pertinence des sources. C’est un filtre de qualité, mais pas une garantie absolue : c’est pourquoi on valorise l’accumulation de publications convergentes dans des revues sérieuses, et non une seule étude isolée.
Il est important de savoir que ce n'est pas toutes les revues dites “scientifiques” qui font une vraie révision par les pairs. Certaines se contentent de publier rapidement, moyennant des frais souvent très importants, sans véritable évaluation critique. On parle alors de revues prédatrices. Ce phénomène a été largement documenté par le chercheur Vincent Larivière, de l'Université de Montréal. Il explique comment des publications très douteuses peuvent aujourd’hui circuler avec une apparence de légitimité scientifique.
Ainsi, publier ne veut pas dire “prouver”. Et annoncer “publié dans une revue scientifique” ne garantit pas que l’étude a été rigoureusement évaluée. Seules les publications issues de revues reconnues, avec révision par les pairs, et qui s’inscrivent dans un corpus reproductible, méritent d’être prises au sérieux.
Qu’est-ce qu’une revue prédatrice ?
Les revues prédatrices sont des publications qui se présentent comme scientifiques, mais ne respectent pas les standards de la recherche. Leur objectif principal n’est pas la diffusion rigoureuse du savoir, mais le profit.
Voici leurs principales caractéristiques :
- Elles demandent des frais de publication élevés aux auteurs sans offrir de véritable service éditorial.
- Elles ne pratiquent pas de révision par les pairs, ou seulement de façon symbolique et rapide.
- Elles imitent l’apparence de revues légitimes : noms savants, sites web soignés, comités éditoriaux fictifs ou peu crédibles.
- Elles envoient des sollicitations par courriel à des chercheurs pour leur proposer de publier facilement et rapidement.
Résultat : des études de faible qualité, parfois même complètement inventées, peuvent y être publiées et ensuite relayées comme “preuves scientifiques” dans les médias ou par des influenceurs.
Comprendre les pièges… c’est déjà un pas vers la rigueur
Les données scientifiques sont précieuses, mais mal interprétées ou mal présentées, elles peuvent devenir source de confusion, de désinformation… voire de décisions nuisibles. En apprenant à repérer les pièges classiques comme la confusion entre corrélation et causalité, les statistiques alarmistes, ou les simplifications abusives, on développe un réflexe essentiel de discernement.
Mais ces pièges ne sont pas que techniques. Bien souvent, ils s’appuient ou sont amplifiés par nos propres biais cognitifs, ou par des dynamiques médiatiques qui donnent une illusion d’équilibre ou de controverse là où il n’y en a pas.
Dans la deuxième partie de ce sujet, on plonge au cœur de ces mécanismes invisibles : biais de confirmation, fausse équivalence, hypothèses présentées comme des faits… et on voit comment mieux s’en protéger, que l’on soit journaliste, vulgarisateur ou simple citoyen curieux.
👉 **Lire la suite ici : [Nos biais et ceux des médias : quand la science est déformée](#lien)**
Sources pour approfondir le sujet :
- Le module gratuit « Décoder l’info scientifique » de l’Agence Science-Presse : formations.sciencepresse.qc.ca
- Vaccines are not associated with autism: An evidence-based meta-analysis – Taylor et al., BMJ, 2014
- Bradford Hill, A. (1965). The Environment and Disease: Association or Causation?, Proceedings of the Royal Society of Medicine.
- WHO (Organisation mondiale de la santé). Communicating risks in public health emergencies, 2017
- Vosoughi, S., Roy, D., & Aral, S. (2018). The spread of true and false news online. Science, 359(6380), 1146–1151. https://doi.org/10.1126/science.aap9559
- Rencontre avec Vincent Larivière: revues et conférences prédatrice. Youtube. 2019. https://youtu.be/tElb9Ns9-bM?si=Bk0Gx4DUA-g09y1G
- Cook, J., Oreskes, N., Doran, P. T., Anderegg, W. R. L., Verheggen, B., Maibach, E. W., & Green, S. A. (2013). Quantifying the consensus on anthropogenic global warming in the scientific literature. Environmental Research Letters, 8(2), 024024. https://doi.org/10.1088/1748-9326/8/2/024024
- Lynas, M., Houlton, B. Z., & Perry, S. (2021). Greater than 99% consensus on human caused climate change in the peer-reviewed scientific literature. Environmental Research Letters, 16(11), 114005. https://doi.org/10.1088/1748-9326/ac2966
- UNESCO. (2021). Débattre de l’avenir de l’humanité : Le climat, la vérité et la démocratie. Rapport de la conférence mondiale sur la liberté de la presse 2021. https://fr.unesco.org/sites/default/files/wpfd2021_outcome_document_fr.pdf
Les données scientifiques dans les médias: Dix pièges à éviter pour ne pas se faire berner - Partie 1