(Suite des Article 1/6 & Article 2/6 & Article 3/6 & Article 4/6)

5) Quel avenir pour l’industrie pharmaceutique ?

Ce changement de paradigme est également l’une des voies d’avenir pour une industrie pharmaceutique dont le modèle historique est en crise.

Calico (Google) s’attaque au défi « de l’âge et des maladies associées » en recrutant l’ancien patron de Genentech, l’un des pionniers des biotechnologies. Selon le New York Times, « la médecine est sur le point de devenir une science de l’information : les médecins et les chercheurs sont désormais capables de récolter et d’analyser de gigantesques quantités de données auprès de leurs patients. Et Google est très, très bon avec les grandes bases de données ». Presque simultanément, Craig Venter, pionnier du séquençage génétique, crée Human Longevity Inc. visant à percer le mystère du vieillissement, en séquençant 100,000 génomes, et en se servant de ces données massives pour percer les secrets du vieillissement et bien entendu pour développer des solutions « préventives ».

Nul doute que ces initiatives feront progresser les connaissances. Nul doute qu’elles contribueront à accélérer les profondes mutations dont l’industrie pharmaceutique vit aujourd’hui les prémisses. Déjà les laboratoires « traditionnels » s’allient pour partager leurs données. Parfois même pour les rendre publiques. Ces mêmes laboratoires se lancent dans des programmes visant à améliorer l’observance, à travers des applications sur tablettes ou téléphones mobiles. Il existe sans conteste une convergence de tous ces acteurs vers le numérique. Mais cette convergence n’est que la partie visible des changements qui sont à l’œuvre. Les changements les plus importants se situeront bientôt au cœur du processus de développement du médicament. Intéressons nous un instant à ce processus. Le « gold standard » international pour la démonstration de l’efficacité et de la sécurité des médicaments consiste à définir des hypothèses d’efficacité et de sécurité chiffrées, concevoir l’étude prospective adéquate, réaliser l’étude sur autant de patients que nécessaire, vérifier l’hypothèse de départ, et évaluer la probabilité pour que cette hypothèse soit vérifiée par hasard, à travers la fameuse « p-value» dont le seuil est généralement fixé à 5%. Aucune preuve scientifique ne doit être acceptée comme telle si elle n’a pas été correctement établie selon ce processus. Les hypothèses qui n’ont pas été définies avant le recrutement des patients peuvent être testées a posteriori. On parle alors d’analyses « post-hoc ». Les résultats de ces analyses ne peuvent en revanche accéder au statut de vérité scientifique qu’au prix d’une validation prospective menée dans le cadre d’une nouvelle étude.

La preuve d’efficacité et de sécurité des médicaments s’établit progressivement de la recherche exploratoire (criblage des molécules et dépôt de brevet), à la phase de commercialisation et de pharmacovigilance. Globalement, sur les 20 ans de validité du brevet, 10 seulement sont consacrées à la commercialisation. En effet, la mise au point d’un médicament dure en moyenne 10 ans, et coûte environ 1 Milliard d’euros (http://www.leem.org). Il n’existe aucune formule de calcul permettant d’établir un montant précis pour les différentes phases de ce processus. Le chiffre moyen d’1 Md € se calcule aujourd’hui en se fondant sur la prise en compte du coût des échecs selon trois paramètres essentiels : (i) le rapport entre le nombre de molécules identifiées dans la phase de découverte et le nombre de molécules enregistrées sur les principaux marchés, (ii) les montants investis, et (iii) le temps écoulé entre la prise de brevet pour la molécule et l’accès aux marchés remboursés. Le coût de développement d’un médicament s’est accru ces dernières années passant de quelques centaines de millions d’euros à plus de 1,5 milliard d’euros pour certains médicaments (Elias Zerhouni. Leçon inaugurale au Collège de France. « Les grandes tendances de l’innovation biomédicale au XXIe siècle ». 20 janvier 2011. Page 27). Il aurait augmenté de 60 % entre 2000 et 2005. A cette explosion des coûts de développement s’ajoute la détermination des payeurs publics et privés à réduire les dépenses de santé, notamment à travers une remise en question du rapport bénéfice/risque/coût des médicaments. Les restructurations permanentes et la délocalisation de certaines fonctions vers des pays à moindre coût de main d’œuvre ne suffiront probablement pas à compenser ces menaces structurelles.

Dès lors, quel avenir pour l’industrie pharmaceutique ? Aujourd’hui, seul 1 médicament sur 13 est couronné de succès, contre 1 sur 8, il y a dix ans (Elias Zerhouni. Steven M. Paul, Daniel S. Mytelka, Christopher T. Dunwiddie « How to Improve R&D Productivity : the Pharmaceutical Industry’s Grand Challenge »). L’attrition que connaissent les molécules candidates est l’une des causes principales de la croissance rapide des coûts de développement des médicaments. Lorsqu’un programme est interrompu en raison d’une efficacité insuffisante ou d’effets indésirables trop fréquents malgré des étapes antérieures encourageantes, c’est l’ensemble des investissements qui est perdu et s’ajoute aux coût de revient de la prochaine molécule commercialisée.

Les données générées au cours des programmes interrompus constituent un actif potentiel totalement sous-estimé par les laboratoires pharmaceutiques. A tel point qu’il est souvent difficile, voire impossible d’identifier au sein de ces organisations une personne capable de retrouver ces données et a fortiori des les exploiter, quelques années ou même quelques mois après l’interruption des programmes.

Le taux de succès des études cliniques de phase II est d’environ 30 à 40% selon les indications (Michael Hay, David W Thomas, John L Craighead, Celia Economides & Jesse Rosenthal « Clinical development success rates for investigational drugs » Nature Biotechnology, volume 32 NUMBER 1 JANUARY 2014.). Cela signifie qu’environ une étude de phase II sur 3 est positive et mène à une étude de phase III sur un plus grand nombre de patients. Le taux de succès des études de phase III est quant à lui de 45 à 70%, soit environ la moitié à 2 tiers d’études positives. Une étude de phase II ou de phase III est négative lorsque l’efficacité et/ou la sécurité observée est inférieure en moyenne à l’efficacité et/ou à la sécurité attendue (par rapport à un contrôle – généralement un placebo). La plupart des études dites « négatives » contiennent néanmoins des profils de patients pour lesquels le traitement donne de bien meilleurs résultats que le placebo. Malheureusement, ces profils de patients sont mélangés à d’autres profils de patients pour lesquels le traitement inefficace, voire dangereux, et pour lesquels le placebo donne de meilleurs résultats. L’étude donne donc en moyenne un résultat négatif, les profils de patients répondeurs demeurent sans traitement, et le laboratoire concerné perd son investissement, en attendant qu’une prochaine étude soit positive.

Ces profils de patients « répondeurs » ou « non répondeurs » sont les biais évoqués précédemment. Ces biais sont a priori inconnus au moment de la conception d’une étude, et il est impossible de les prévoir à l’avance, sauf en ayant accès aux données d’une autre étude de taille suffisante (ce qui exclue les phases I) sur la même indication et le même traitement.

Il est compréhensible que les laboratoires pharmaceutiques ne souhaitent pas nécessairement analyser les données de leurs études cliniques de phase II ou de phase III négatives afin d’identifier d’éventuels profils de répondeurs et de non répondeurs en vue d’affiner la fenêtre thérapeutique de leur traitement. Cela leur demanderait en effet de relancer une étude pour valider de nouvelles hypothèses, en perdant un temps précieux sur la durée de validité du brevet, sans garantie de succès. Mais pourquoi les laboratoires pharmaceutiques n’explorent-ils pas systématiquement leurs données de phase II afin d’augmenter les chances de succès de leurs études de phase III ? Pourquoi ces laboratoires, une fois leurs molécules sur le marché, n’exploitent-t-ils pas leurs études de phase II et III pour anticiper plus efficacement ce que sera l’efficacité et la sécurité de leur traitement en situation de vie réelle ?

Pourquoi les autorités sanitaires ne demandent elles jamais – en dépit des droits dont elles disposent – ces données aux laboratoires pharmaceutiques afin d’identifier par elles même les profils de patients à risque, ou les profils de patients pour lesquels le rapport bénéfice/risque n’est pas favorable ?

Probablement pour une raison simple : les preuves d’efficacité et de sécurité établies sur la moyenne des patients de ces études cliniques prévalent jusqu’à ce qu’elles soient confirmées ou remises en question par des données de vie réelle. Il est de notoriété publique que les études cliniques ne permettent pas d’évaluer ce que seront l’efficacité ni la sécurité des traitements en situation de vie réelle. C’est d’ailleurs la raison pour laquelle les autorités de santé et les payeurs exigent de plus en plus la mise en place d’études pharmaco épidémiologiques en « vie réelle » de la part des laboratoires pharmaceutiques. Le concept de « Basket trial design » (« Extraordinary Responders Drive Concept of Basket Trial Design » Asco daily news, June 24th 2014) récemment introduit lors de l’ASCO, pourrait bien faire son chemin, et bien au delà de l’oncologie et de la génomique.

Les processus de R&D en vigueur dans l’industrie pharmaceutique n’ont jusqu’ici laissé que très peu de place à l’analyse post-hoc des données. C’est pourtant dans les données elles même que les laboratoires trouveront le second souffle dont ils ont besoin. C’est dans ce terreau d’une valeur inestimable, qui s’est accumulé au fil des années, qu’elles trouveront les clefs d’une plus grande productivité, et cultiveront leurs succès de demain.

Alexandre TEMPLIER

Alexandre Templier évolue depuis plus de 20 ans dans le domaine des Sciences de la Vie. Passionné par les technologies de l'information et l'optimisation des décisions en environnements complexes, Alexandre a consacré l'essentiel de sa carrière à mettre les sciences de l'ingénieur au service du monde médical. Co-fondateur et directeur général de la société QUINTEN depuis sa création, il est notamment en charge du développement et des partenariats académiques dans le domaine de la Santé. Alexandre est titulaire d’un doctorat en biomécanique de l’Ecole Nationale Supérieure d’Arts & Métiers Paris Tech, et du MBA de l’Institut d’Administration des Entreprises de Paris ; il a été maître de conférences associé à l’Ecole Nationale Supérieure des Arts & Métiers - Paris Tech de 2001 à 2013.

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *