Partie 1 | Les principes fondamentaux de l'EBP.
Petite introduction à l'approche "evidence-based" dans le coaching.
Avant-propos
En tant que préparateur physique et formateur dans les sciences du sport, je vais essentiellement employer le terme EBP plutôt que celui d’EBM. Bien que de nombreux parallèles puissent être faits, je tiens à rappeler qu’un éducateur ou éducatrice sportive qui proposerait des interventions pouvant être considérées comme de la médecine ou de la kinésithérapie serait de facto dans le cadre d’un exercice illégal de la médecine et/ou de la kinésithérapie. Je souhaite rappeler à mes collègues “coach(e)s” que nous ne sommes pas formé(e)s aux conditions pathologiques, que cela soit du point de vue éthique, diagnostic, pronostic ou thérapeutique. Travailler en collaboration avec des professionnel(le)s de santé ne nous autorise pas à les substituer, même quand nous estimons avoir appris des choses en leurs présences.
Introduction historique et définition de l’approche
En 1991, Gordon Guyatt publie un éditorial qu’il titre Evidence-Based Medicine (Guyatt, 1991), en français, médecine fondée sur les données probantes ou médecine factuelle. Il s’agit à ma connaissance de la première occurrence du terme et depuis d’autres termes sont apparus comme Evidence-Based Practice (EBP) et Evidence-Based Healthcare (EBHC). Ces termes semblent, globalement, interchangeables même si quelques nuances ont été proposées sans pour autant avoir abouti à un consensus (Puljak, 2022).
Largement adoptée dans la quasi-totalité des pays du monde, les avantages et les inconvénients de l’EBM ont largement été discutés au sein de la littérature scientifique et quelques reproches à l’encontre de l’approche trahissent son succès, comme le montre le “surplus” de preuves (Greenhalgh et al., 2014). L’approche fondée sur les preuves concerne aussi l’activité physique et la performance sportive, et les ouvrages sur le sujet participent à son émancipation en proposant de passer des sciences à la pratique (-From- Science to Practice ; voir par exemple Hough et Schoenfeld, 2021 ou encore Stone et Suchomel, 2022).
Telle que définie par ses fondateurs, l’EBM est
“l'utilisation consciencieuse, explicite et judicieuse des meilleures évidences actuelles dans la prise de décisions concernant les soins aux patients individuels.”1 (Sackett et al., 1996)
Commençons tout de suite par préciser que le terme evidence est polysémique et que selon le cadre culturel il pourrait ne pas être compris de la même façon. Comme le souligne Jacques Massol (2016, p. 20) :
“le terme evidence au sens anglais du terme correspond pour le dictionnaire Oxford à : « The available body of facts or information indicating whether a belief or proposition is true or valid »2.”
En France, le terme “preuve” n’est pas synonyme d’evidence au sens anglais. Mais pour des raisons pratiques, je continuerai en employer le terme “preuve”. Il faudra le comprendre au sens anglais que Jacques Massol partage, tout simplement.
Bien que largement critiquée, l’EBM/EBP résiste, c’est-à-dire que la communauté scientifique et médicale a cherché à la faire faillir pour tester sa validité et son applicabilité, et que le concept demeure largement adopté malgré ses imperfections. Il est probable que les nombreuses discussions autour de la médecine ou de la pratique fondée sur les preuves aient participé à son amélioration et à la consolidation de certains de ses concepts, notamment en ce qui concerne son applicabilité.
Sur les réseaux sociaux, le qualificatif evidence-based est employé par bon nombre de coach(e)s et/ou diététicien(ne)s qui donnent à son emploi une fonction liée aux enjeux identitaires à la place d’être employée comme une approche aux enjeux épistémiques3. Autrement dit, l’EBP est utilisée comme un tampon de validation de soi-même, une forme de gage de “qualité”. Bien que je comprenne cet aspect de la communication, je m’inquiète de la réelle compréhension de ce que signifie “être” EBP. L’approche me semble mal comprise voire caricaturée (délibérément ou non), ce qui a deux conséquences délétères potentielles : le rejet de l’EBP ou un usage inapproprié de l’approche. Il est nécessaire de comprendre au moins les aspects fondamentaux pour éviter d’employer l’EBP sous une forme tronquée.
La production de contenus visant le discrédit de l’EBP repose souvent sur deux arguments :
l’absence de considération pour les connaissances acquises par l’expérience ;
la tentative d’application de connaissances générales, acquises scientifiquement, à un individu unique.
Il est vrai que par son approche scientifique, la pratique fondée sur les preuves accepte une forme de “rejet” (partiel) de l’expérience personnelle comme méthode d’inférences fiables et capture au passage la volonté d’une connaissance généralisable liée à l’expérimentation scientifique. Pourtant, l’intégration de l’expérience personnelle au sein de l’approche EBP n’est pas neuve et les reproches à cet égard me semblent trop souvent exagérés. Nous aborderons cet aspect dans la partie 2.
En second point, il est en effet souvent reproché à l’emploi des données scientifiques que la portée générale des résultats expérimentaux ne corresponde pas au contexte d’un individu unique. C’est donc directement la validité externe des études et l’applicabilité des résultats qui sont critiquées ici. Nous aborderons donc cet aspect dans la partie 3.
Concernant cette première partie, je me contenterai de présenter les grandes lignes de l’EBP/EBM afin que nous partions de prémisses et de définitions communes. Je souhaite par le biais de cette courte description des principes fondamentaux éviter un dialogue de sourds avec ceux et celles qui auraient des critiques à adresser à l’EBP sur la base d’une compréhension erronée de cette approche.
Les principes fondamentaux de l’evidence-based practice
L’EBP comme cadre de prise de décision
L’EBP n’est pas une science et ne se présente pas comme telle. Il s’agit d’un cadre aidant à la prise de décision clinique et l’emploi de la science dans ce contexte est pratique, dans le sens où cet emploi n’a pas pour vocation à investiguer le réel mais cherche plutôt une utilité clinique (Massol, 2016). D’ailleurs, dès 1995, une forme prescriptive de l’EBM est publiée et se présente en cinq étapes (Sackett et Rosenberg, 1995, p. 622 ; traduction DeepL) :
“convertir ces besoins d'information en questions auxquelles il est possible de répondre
trouver, avec un maximum d'efficacité, les meilleurs éléments de réponse (qu'ils proviennent l'examen clinique, du laboratoire de diagnostic, de la littérature publiée ou d'autres sources)
évaluer de manière critique ces données probantes en ce qui concerne leur validité (proximité de la vérité) et leur utilité (clinique)
appliquer les résultats de cette évaluation dans notre pratique clinique
évaluer nos performances”
Plusieurs commentaires peuvent être proposés à partir de ces étapes.
Pour commencer, en étape 1, c’est le contexte individuel du client(e)/patient(e) qui va être interprété et converti en interrogations dont les réponses/solutions sont susceptibles d’être accessibles (cf. partie 3).
L’étape 2 suggère que de multiples sources de données peuvent servir à répondre, avec plus ou moins de fiabilité, aux questions initialement posées. L’expérience personnelle peut en faire partie sous conditions (cf. partie 2). Cette étape est également normative dans le sens où l’expression “avec un maximum d’efficacité” suggère qu’il pourrait exister des processus d’investigation (systématiques) plus rigoureux que d’autres.
L’étape 3 insiste sur les notions de validité et d’utilité. La validité correspond, au moins en partie, à la hiérarchie des preuves (hiérarchie discutée, discutable et améliorée depuis) ainsi qu’à la nature des données employées (prioritairement empiriques en EBP). Concernant l’utilité, la notion peut faire référence à deux aspects : à la validité externe d’une étude (i.e. la généralisation de ses résultats selon le PICO) et à l’application clinique dans un contexte donné. Nous reviendrons sur cette notion d’utilité notamment lorsque je présenterai (succinctement) le score GRADE.
L’étape 4 concerne directement l’application d’un traitement ou d’une méthode sur des individus uniques qui constituent notre clientèle/patientèle.
Et pour finir, l’étape 5 recommande d’évaluer les résultats de l’application des méthodes sur nos client(e)s/patient(e)s, c’est-à-dire d’évaluer les résultats produits par l’étape 4 (s’il y en a). Ce que l’étape ne précise pas en revanche c’est qu’elle peut/devrait être soumise à des critères de validité également. En effet, évaluer c’est mesurer et la métrologie, définie comme “science de la mesure”, connaît des recommandations de pratique précises selon les différents critères qui la composent : fidélité, validité, interprétabilité et sensibilité aux changements (COSMIN taxonomy). A noter que certaines mesures ont pu être réalisées au sein de l’étape 2, notamment par le biais du diagnostic. L’étape 2 pourrait être un “avant” et l’étape 5 un “après”.
Ces étapes sont prescriptives et contiennent, au moins en partie, du contenu scientifique sans pour autant que ce dernier soit exclusif, cela dépend de l’étape et du degré de validité des données scientifiques disponibles.
Le cadre EBP appliqué au coaching
Dans le cadre d’une prise en charge clinique liée à l’activité physique et sportive, un “algorithme” de décision étapes par étapes a été modernisé et proposé par Wackerhage et Schoenfeld (2021). Il s’agit globalement de la même approche que Sackett et Rosenberg (1995) mais certaines étapes, comme la première, sont rendues plus complètes et détaillées, avec notamment l’apport d’outils spécifiques à la prise en charge clinique (e.g. définir des objectifs SMART). Les auteurs précisent également quelles étapes sont concernées par l’emploi des données scientifiques et je reconnais de ne pas être en accord total avec eux. A leurs yeux, seules les étapes 3 à 6, allant du testing à la planification (voir image ci-dessous) sont concernées par cet emploi. Je pense que l’étape 1, celle de l’entretien avec le client(e), pourrait être concernée également puisqu’il existe des outils scientifiques valides pour mener à bien un entretien selon les objectifs de celui-ci. Je pense notamment à l’entretien motivationnel (Miller et Rollnick, 2019) ou encore à l’entretien délibératif (Berner-Rodoreda et al., 2020). Malgré cela, pour plus de transparence, il est possible de se rapporter à la figure ci-dessous pour mieux comprendre les étapes qu’ils partagent (Wackerhage et Schoenfeld, 2021 ; fig.3):
Les bases épistémiques de l’approche
Sans entrer dans les détails épistémologiques (pour cela, cf. Massol, 2016, p. 59-116), il existe au moins trois bases épistémiques à l’EBM (toutes issues de Djulbegovic et Guyatt, 2017) :
1ère base épistémique
Toutes les preuves n’ont pas la même valeur et la pratique de la médecine devrait se baser sur les meilleurs niveaux de preuves disponibles.
La valeur des niveaux de preuves a été proposée sous la forme d’une hiérarchie des preuves, bien qu’aucune ne soit réellement consensuelle. Que cette catégorisation soit présentée comme un tableau (OCEBM Levels of Evidence) ou comme une pyramide (Murad et al., 2016), il y a un point sur lequel les auteurs semblent être en accord : l’essai randomisé contrôlé (ECR) est un étalon d’or (gold standard) dans le cadre clinique. Néanmoins, soyons conscient(e) qu’il existe quelques critiques légitimes au fait de considérer les ECR comme des étalons d’or (voir par exemple Cartwright, 2007 ou encore pour un résumé des différents arguments : Philosophy of Medicine - Stanford Encyclopedia of Philosophy, section 5).
Il me semble nécessaire de considérer la valeur des différentes conceptions d’études (cas-témoins, transversales, rétrospectives, prospectives, randomisées contrôlées, etc.) à la lueur de la question posée et des risques de biais :
Question posée. La conception d’une étude cas-témoins ne permet pas de déterminer les bénéfices d’une méthode/traitement, ce n’est pas l’objectif de la conception (Mann, 2003). Une étude prospective de cohorte et/ou un essai clinique interventionnel (e.g. ECR) seront des conceptions plus appropriées. Pour établir la fréquence d’apparition d’une blessure au sein d’une population de sportifs/-ves, les études longitudinales seront probablement inadaptées et des sondages locaux permettront une meilleure représentativité du phénomène (OCEBM Levels of Evidence).
Risques de biais. Ils peuvent influencer les résultats, généralement par une surestimation de l’effet. Par exemple, une absence de conditions aveugles au sein d’un ECR est associée à une exagération de l’estimation des effets de 12% (ROR= 0.88 ; 95% CrI 0.81-0.94) (Savović et al., 2018). Il faut donc garder en tête que les niveaux de preuves dépendent de la question posée et des risques de biais, ce qui suggère de savoir employer diverses échelles d’évaluation de ces risques de biais selon la conception choisie (par exemple, l’échelle TESTEX pour les études qui mettent en place un protocole d’entraînement ; Smart et al., 2015).
Plus récemment, un outil visant l’évaluation des niveaux de preuves scientifiques, dénommé score GRADE (Grading of Recommendations, Assessment, Development, and Evaluations), a vu le jour (Guyatt et al., 2008). Il ne s’agit plus ici de considérer seulement la nature de l’étude ou les risques de biais mais également d’évaluer d’autres critères, comme l’imprécision des résultats, la caractère indirect des protocoles (via le PICO), l’hétérogénéité des résultats, etc. La figure suivante illustre la comparaison entre la hiérarchie des preuves et le GRADE (Djulbegovic et Guyatt, 2017 ; fig.1) :
Au-delà d’un outil de jugement, le score GRADE est un des critères employé pour établir des recommandations de pratique. Il est souhaitable, et souhaité (voir Neumann et al., 2018), de disposer de recommandations, notamment lorsque les niveaux de preuves sont jugées faibles voire très faibles, comme c’est bien souvent le cas dans le cadre des sciences du sport (cf. partie 3).
2ème base épistémique
La recherche de la vérité devrait passer par la prise en compte de toutes les preuves et par l’absence de sélection de ces dernières en (dé)faveur de certaines positions.
La sélection des données aposteriori est une des mauvaises pratiques scientifiques et les sciences du sport ne sont pas épargnées (Büttner et al., 2020). Ce qui est classiquement appelé cherry picking (littéralement “cueillette de cerises”) consiste à inclure ou exclure par sélection des éléments de preuves désirables ou indésirables à une conclusion/proposition apriori déterminée. Bien qu’il en existe de multiples formes, ce qui relève du cherry picking dans le cadre du coaching ou d’une prise en charge clinique correspond à la sélection de données ou de connaissances cherchant à valider l’emploi d’une méthode ou d’une autre. Le clinicien(ne) a choisi apriori la méthode qu’il ou elle souhaitait employer et a sélectionné aposteriori les éléments servant à justifier ce choix. Il est aisé d’avoir raison quand nous écartons, volontairement ou non, toutes les raisons qui pourraient nous donner tort.
Le cadre EBP refuse une telle démarche. Comprendre et discuter des avantages et des inconvénients de méthodes d’intervention, cela passe d’abord par la prise en compte de toutes les données disponibles. Puis il est nécessaire de se diriger vers une évaluation critique des données pour fonder ses décisions cliniques sur les meilleurs niveaux de preuves. La démarche est donc l’inverse du cherry picking : la sélection des meilleures preuves se fait apriori et le choix de la méthode d’intervention se fait aposteriori. Ce sont les preuves (entre autres) qui guident les recommandations, pas l’inverse.
3ème base épistémique
Admettre l’insuffisance des preuves malgré leur nécessité et par conséquent, admettre qu’une prise de décision clinique doit considérer les valeurs et les préférences des client(e)s/patient(e)s.
La prise de décision clinique est collaborative entre le clinicien(ne) et le client(e)/patient(e) et permet d’aboutir à une prise de décision partagée (cf. partie 3). A qui prétend “être EBP” incombe la tâche de la compréhension des valeurs et des préférences de l’individu qui réclame nos services. Si je dois concéder un aspect aux critiques énoncées plus haut dans cet article, c’est que parfois, certain(e)s manquent cette base et cherchent à appliquer “bêtement” les recommandations issues des meilleurs niveaux de preuves sans tenir compte des particularités du coaching.
En résumé, l’EBP c’est…
… un cadre qui nous aide à prendre de meilleures décisions parce qu’il y a une forme de contrôle critique de la qualité des données qui nous servent à prendre ces décisions. En se fondant sur les connaissances acquises grâce à la méthode scientifique, l’approche EBP entend trouver un compromis entre la validité de ces connaissances et leur utilité, c’est-à-dire leur niveau d’applicabilité dans un contexte spécifique et unique. L’approche EBP ne consiste pas à trouver des connaissances (scientifiques prioritairement) qui viendraient valider des propositions apriori admises comme vraies. C’est tout l’inverse, ce sont les meilleurs niveaux de preuves qui guident les recommandations ; recommandations à recontextualiser et à comparer aux divers cas cliniques individuels. Il n’est pas question de jouer à “Science a dit”4 : les applications pratiques issues des meilleurs niveaux de preuves peuvent ne pas correspondre au contexte de la prise en charge. C'est notamment le cas lorsque les scores GRADE sont faibles voire très faibles.
Bien que nous ayons vu les principes fondamentaux de l’EBP, notamment dans ses dimensions prescriptives et épistémiques (succinctement tout de même ; lire Massol, 2016, p. 59-116 pour plus de détails), je me suis focalisé sur les données scientifiques et leur hiérarchisation.
Il nous reste à aborder, en partie 2, l’expertise clinique et les différents sens que nous pourrions donner à la notion “d’expérience”, ainsi qu’en partie 3, la gestion des valeurs et des préférences des client(e)s/patient(e)s.
Nous verrons plus précisément, en partie 3, comment nous pouvons passer des connaissances scientifiques, dont la portée est générale, à une prise de décision partagée et à l’application expérimentale des recommandations, dont la portée est individuelle.
Au-delà de cette courte introduction, il est possible de lire les publications scientifiques recommandées par Nunan et al., (2017) et Nunan et al., (2021).
Pour aller plus loin sur ces aspects, tu peux apprendre directement avec moi à maîtriser les outils de l’EBP pour répondre directement aux besoins de tes client(e)s et ainsi largement améliorer tes prises en charge :
👉 COACH EBP® : La démarche EBP en sciences du sport 👈
“the conscientious, explicit, and judicious use of current best evidence in making decisions about the care of individual patients.”
“L'ensemble des faits ou des informations disponibles indiquant si une croyance ou une proposition est vraie ou valide.” (traduction DeepL)
“enjeux identitaires : l’individu est motivé par le souhait de donner une bonne image de lui-même ; enjeux épistémiques : l’individu est motivé par le souhait de mieux connaître le monde” (citation adaptée de Falkowicz et al., 2023, p. 97)
Référence au jeu “Jacques a dit” pour ceux et celles nées après les années 2000.
excellent article mon gros 👌