Un critère intermédiaire est souvent une mesure qui va documenter d’un point de vue physiologique une maladie et/ou son traitement. Par exemple, le LDL et l’athéromatose, ou la tension artérielle et certaines maladies cardiovasculaires.
Lorsqu’un critère intermédiaire est l’objet d’une étude clinique, on l’appelle critère du substitution (surrogate endpoint). Le syllogisme est tentant: le traitement T agit sur le paramètre A, Le paramètre A est un déterminant de la maladie M, donc T agit sur M, donc prescrivez T. Parfois, le syllogisme est tellement ancré dans nos esprits que l’on en oublie M, par exemple le LDL et les maladies cardio-vasculaires. Combien de personnes ont été traitée « pour un LDL élevé » lorsque les statines ont été commercialisées, en dehors de toute recommendation?
Les critères de substitution, comme beaucoup d’outils statistiques (par exemple la non-infériorité, les critères secondaires, les analyses post-hoc, en sous-groupe…), n’ont pas été créés par des statisticiens pervers et/ou avides de gloire et d’argent. Ce sont des outils utiles qui avec le temps, et surtout la promesse de résultats rapidement positifs, donc lucratifs, ont été dévoyés de leur fonction première. L’étude d’un critère intermédiaire permet idéalement de valider un concept pharmacologique et/ou physiologique et de savoir rapidement et avec relativement peu de moyens-une mesure est toujours plus rapide à observer qu’un décès ou un évènement clinique-si un traitement peut être efficace sur une maladie. Après, il est nécessaire de confirmer cette hypothèse par un essai clinique, bien plus long et onéreux à mettre en place, mais finalement le seul qui pourra répondre à l’unique question que nous devons nous poser: est-ce que ce traitement diminue la morbidité-mortalité de cette maladie?
Mais comme je l’ai dit, l’outil des critères de substitution fut dévoyé et on a obtenu des AMM et fait prescrire des milliers de boites de médicaments uniquement sur des essais portant sur ces derniers.
On peut regarder ainsi l’exemple quasi caricatural de l’aliskiren qui a obtenu une AMM et a été vendu sur des études montrant son intérêt sur les chiffres tensionnels (critères de substitution), mais qui, in fine n’a jamais montré d’intérêt dans la diminution de la morbidité-mortalité cardio-vasculaire. Le texte de la dernière mise à jour de l’avis de la HAS est éclairant:
Une étude très sympa s’intéressant à la validité des critères de substitution est sortie récemment dans le JAHA.
Tout est résumé dans ce graphique:
Les auteurs ont analysés sur 20 ans, dans 3 grands journaux scientifiques (NEJM, Lancet et JAMA) les essais cliniques sur des thérapeutiques cardio-vasculaires comportant un critère de substitution comme critère principal. Ils ont ensuite regardé les essais cliniques ultérieurs sur ces mêmes thérapeutiques.
D’abord, sur les 220 essais initiaux, seuls 59 ont été suivis par un essai clinique. Cela montre bien que l’essai avec critère intermédiaire, par flemme, manque de moyen, ou tout simplement parce qu’on ne le voit que comme un argument de vente, se suffit à lui même. La seule chose qui compte, l’intérêt clinique pour le patient est donc méprisé la plupart du temps.
Pour le groupe des études qui ont été suivies par un essai clinique, nous observons notamment qu’en cas d’études initiales positives, les essais cliniques confirmaient l’intérêt du traitement que dans 24 cas sur 44. Si les études initiales étaient négatives, les essais cliniques les contredisaient que dans 3 cas sur 15.
Autrement dit, il ne faut pas prescrire de traitement pour son seul effet sur un critère de substitution. Par ailleurs, la négativité d’un essai avec critère de substitution augure assez bien la négativité clinique d’un traitement.
L’effet sur la morbidité-mortalité doit rester idéalement la seule aune permettant de juger de l’intérêt d’un traitement. Tout le reste n’est bien souvent que technique de vente.
Je fais une petite rediffusion d’une vieille note datant de 2010.
À l’époque, ce sont les déclarations du Pr, ci-dessous, qui avaient motivées la rédaction de cette note. Il n’avait pas aimé mon billet et s’était plaint au conseil de l’ordre. J’avais exagéré, je m’étais pas mal moqué, sans que cela apporte quoi que ce soit à la controverse. J’avais donc ré-écrit ce billet, en supprimant toute mention du Pr. Cette épisode a été une grande leçon dans ma carrière de blogueur. Pas besoin d’être méprisant quand on souhaite faire avancer le débat. Vous verrez, la note fait quelques allusions à l’actualité de l’époque. je n’ai rien changé pour la garder dans son jus, hormis corriger ou supprimer les liens obsolètes.
Juste une petite précision supplémentaire, pour un médicament à marge thérapeutique étroite, les bornes de la bioéquivalence sont de 90%-110%, et non pas de 80%-125%.
Bonne lecture 😉
°O°O°O°O°O°O°O°O°O°O°O°O°O°O°O°O°O°O°O°O°O°O°
Un des principaux reproches fait par les adversaires des génériques est l’apparemment très large fourchette de tolérance (entre 80 et 125%) acceptée par les autorités sanitaires françaises lors de la détermination de la bioéquivalence d’un générique et d’un princeps.
Je n’ai jamais trouvé d’explications bien satisfaisantes sur ces limites. Pourquoi elles et pas d’autres ?
La plupart des documents sont soit non explicatifs, soit tellement techniques que je n’y comprends strictement rien.
Mais on va quand même essayer d’éclaircir un peu les choses.
Premièrement, ce n’est pas l‘action qui varie entre 80 et 125%, mais la biodisponibilité.
Byers JP, Sarver JG. Pharmacokinetic Modeling. In Hacker M, Bachmann K, Messer W. Pharmacology Principles and Practice. London: Academic Press; 2009. p. 202.
Par exemple, pour le clopidogrel, si tant est que l’on puisse mesurer son action autrement que par des critères cliniques ce serait par un test d’agrégabilité plaquettaire. Sa biodisponibilité est mesurée notamment par l’aire sous la courbe (ASC en français, AUC en anglais) des concentrations plasmatiques de clopidogrel en fonction du temps (AUC 0-t).
La biodisponibilité est censée être un reflet de l’efficacité. Tout le système de la bioéquivalence repose sur cette approximation. Après, on peut s’écharper sans fin pour savoir quelle est l’exactitude de cette approximation. Je ne vais pas rentrer dans ce débat.
Deuxièmement, et cela me semble bien plus important, ces bornes sont des bornes maximales d’acceptabilité.
C’est à dire qu’elles ne reflètent pas du tout la différence de biodisponibilité effectivement constatée entre un générique et un princeps.
Je vais prendre un exemple « chaud », un essai de bioéquivalence entre le Plavix® et le clopidogrel Mylan® qui a permis à ce dernier d’obtenir une AMM européenne.
Ce princeps et ce générique contiennent des sels différents: chlorydrate pour le générique et hydrogène sulfate pour le princeps. Mais dans les deux cas, c’est bien la biodisponibilité du clopidogrel que l’on mesure (petit rappel sur le métabolisme du clopidogrel ici).
Cet essai est disponible ici, à partir de la page 10.
Je ne vais pas décrire le protocole qui est le même pour la plupart des essais de bioéquivalence. Ici, on a étudié 96 sujets sains.
Les résultats sont les suivants (page 12) et représentent la disponibilité du clopidogrel dans le plasma:
Comme ça, ça fait peur, mais en fait, ce n’est pas si compliqué que cela.
On va se contenter de regarder la première colonne, c’est à dire l’aire sous la courbe entre t0 et un instant t: AUC 0-t.
Test, c’est le générique, Reference le princeps.
Ratio, c’est le rapport entre l’aire sur la courbe du test sur celle de la référence. C’est ce ratio dont l’intervalle de confiance doit se situer entre 80% et 125%. Ici, ce ratio est de 100% avec un intervalle de confiance de 90-110% On est donc parfaitement au sein des bornes.
BM Davit et al. Ann. Pharmacother., Oct 2009; 43: 1583 – 1597.
On va regarder très rapidement les autres colonnes: les Cmax (la concentration maximale de clopidogrel), Tmax (le temps mis pour arriver à la Cmax), et la demi-vie sont sensiblement les mêmes pour le générique et le princeps.
Voici deux autres exemples de ratios observés pour AUC 0-t:
clopidogrel Sandoz®: 90.43%
clopidogrel Qualimed®: 100%
Maintenant, vous allez me dire que ce ne sont que 3 exemples.
J’en conviens parfaitement.
Mais il y a des gens qui ont regardé de près cette fameuse différence effective. Ils ont étudié 2070 essais de bioéquivalence déposés depuis 12 ans devant la FDA.
La différence moyenne observée entre les aires sous la courbe du princeps et du générique est de…3.56%.
Dans 98% des cas, cette différence était inférieure à 10%. Le résumé de cette étude publiée dans Annals of Pharmacotherapyest ici.
Un argument des adversaires des génériques souligne que l’aspect du générique peut troubler les patients. Mais je pense qu’un peu de pédagogie peut le plus souvent améliorer les choses.
Enfin, ils accusent parfois les autorités sanitaires de ne pas analyser les génériques avec la même rigueur que les princeps.
Le problème est que de nombreuses autorités sanitaires, et non des moindres (EMA, FDA, autorités sanitaires japonaises, australiennes, sud-africaines, canadiennes) utilisent grosso modo les mêmes limites 80-125 et les mêmes protocoles d’études de pharmacovigilance.
Admettons que l’Afssaps (qui suit les protocoles de l’EMA, mais admettons quand même) soit aux ordres de Roselyne qui veut faire des économies à tout prix sur le dos des patients, j’arrive plus difficilement à comprendre que notre brillante Ministre ait une telle influence au niveau mondial. Dans le même ordre d’idées, j’ai du mal à imaginer une telle unanimité autour de protocoles qui seraient si peu rigoureux.
Peut-être un complot mondial concocté par un groupe de génériqueurs qui tire les ficelles du fond de leur base secrète édifiée sous le volcan Eyjafjöll ?
(c’est en réalisant un essai clinique de bioéquivalence de l’ExforgeHCT® qu’ils auraient accidentellement provoqué la fameuse éruption)