(Suite des Article 1/6 & Article 2/6 & de Article 3/6)

4) Médecine personnalisée : prédire ou guérir – faut-il choisir ?

Même si on lit régulièrement que « la médecine personnalisée est déjà une réalité dans certains cas », ou encore que « la médecine personnalisée est à portée de mains », il est légitime de se demander si la médecine personnalisée est vraiment pour demain. Il existe en effet un certain nombre de thérapies ciblées, pour la plupart en oncologie, qui permettent – pour quelques types de cancers – de traiter les patients de façon individualisée en fonction des spécificités génétiques et biologiques de leurs tumeurs. On pense tout particulièrement à l’anticorps monoclonal trastuzumab (Herceptine®), indiqué dans les cas de cancer du sein avec surexpression protéique du gène HER2/neu , ou encore aux gènes RAS (KRAS et NRAS) dont le statut muté/non muté permet d’anticiper la réponse de tumeurs colorectales aux traitements anti-EGFR. Ces rares exemples ne sont d’ailleurs qu’une évolution de ce qui se faisait déjà dans les années 80 avec l’hormonothérapie dans le cancer du sein, ciblant les récepteurs cellulaires de l’œstrogène (ER) ou les récepteurs de la progestérone (PR). Ces marqueurs permettent en somme d’augmenter significativement les chances de réponse d’une portion des patients en fonction de caractéristiques biologiques de différentes natures, et de gagner en moyenne quelques mois de survie. Les patients n’ayant aucun des marqueurs connus ayant de moindres chances de réponse thérapeutique et des durées de survie inférieures (exemple du cancer du sein triple négatif). L’imatinib (Glivec®) permet quant à lui de traiter avec une très grande efficacité tous les patients atteints de Leucémie myéloïde chronique (car il est en compétition avec l’activité tyrosine kinase constitutive de la protéine chimérique BCR-ABL2 issue de la translocation t(9;22) caractéristique de la maladie), ciblant à la fois le marqueur et la cible de la maladie. Malheureusement, il s’agit là d’un cas relativement isolé.

Les autres exemples récents de biomarqueurs prédictifs de réponse thérapeutique (ex : vemurafenib/BRAF V600E, crizotinib/ALK, tafinlar/mekinist/THxID BRAF …) sont également des marqueurs individuels. Ils ne couvrent eux aussi qu’une partie congrue de l’indication concernée, ne confèrent qu’un surcroît d’efficacité relatif par rapport à un traitement non ciblé, et ne sont finalement pas très nombreux. Enfin, les biosignatures, dont Mammaprint® et OncotypeDx® sont les principaux représentants, sont aujourd’hui essentiellement dédiées au diagnostic, au pronostic, et de manière marginale au ciblage des traitements. Leur sensibilité est de l’ordre de 80% (80% des rechutes sont effectivement anticipées par le test), et leur spécificité de l’ordre de 30 à 40%. Ceci veut dire qu’il est possible de détecter 80% des rechutes de manière anticipée, au prix d’une proportion relativement élevée de faux positifs. Rappelons qu’un test qui serait systématiquement et aveuglément positif aurait une sensibilité de 100%, car il détecterait tous les positifs (vrais positifs), et une spécificité de 0% car il détecterait également comme positifs tous les négatifs (faux positifs).

Comment se fait-il, alors même que les mesures biologiques n’ont jamais été aussi riches et sophistiquées et les données médicales aussi nombreuses, que nous ne soyons pas encore capables de traiter le bon patient avec la bonne molécule, au bon moment, et à la bonne dose ? Comment se fait-il que les taux de réponse aux médicaments soient aussi faibles ? (en moyenne ~25% en oncologie, ~30% pour la maladie Alzeihmer, ~48% pour l’ostéoporose, ~57% pour le diabète, ~60% pour l’asthme, …) – (Paving the Way for Personalized Medicine, FDA’s Role in a New Era of Medical Product Development, October 2013)

La réponse est probablement de nature méthodologique voire épistémologique, et non biotechnologique. Pour simplifier, les marqueurs individuels sont identifiés au moyen d’analyses univariées qui ne permettent que très rarement (Cf. imatinib) de rendre compte de la complexité du vivant, et les biosignatures sont basées sur des modèles mathématiques multivariés dont la fonction est de prédire globalement un phénomène, sans s’intéresser aux biais contenus dans les données à partir desquelles ils ont été construits. Or, la seule manière d’exploiter efficacement les données cliniques et biologiques consiste à identifier, caractériser, et exploiter les biais qu’elles contiennent, comme autant d’hypothèses à valider dans d’autres jeux de données de même nature. Entendons par biais les multiples profils de patients définis par des combinaisons de caractéristiques qui leur sont propres et qui montrent localement des taux de réponse thérapeutique particulièrement élevés (ou particulièrement bas). Ceci revient à reproduire artificiellement le processus d’apprentissage de l’expert humain, qui à force d’expériences se construit un ensemble de règles qui lui permettent de faire ses choix en fonction des situations rencontrées, et qu’il ne cesse de remettre en question au fil de ses nouvelles expériences.

Rares sont les experts qui ont la capacité de prédire de manière fiable un phénomène aussi complexe que la réponse à un traitement à partir d’une expérience, aussi longue soit-elle. Bien plus nombreux sont les experts qui se sont toujours efforcés de faire de leur mieux en fonction des situations rencontrées, et de tirer humblement parti des résultats obtenus, sans jamais prétendre avoir fait le tour de la question.

Pourquoi la médecine personnalisée serait elle fondamentalement différente de la médecine dans ses principes ? On parle en effet de médecine personnalisée et non de médecine automatique.

Faisons l’hypothèse – probable – que les biosignatures permettront bientôt de prédire de manière fiable – c’est à dire avec une sensibilité et une spécificité élevée – l’évolution des maladies et la réponse à un traitement. Les médecins accepteront-ils de prendre des décisions sans en comprendre l’origine ? Sans en avoir expérimenté la cause ?

Les citoyens voient aujourd’hui d’un œil tantôt émerveillé, tantôt irrité des bannières publicitaires leur proposer d’acheter des produits en fonction d’une prédiction réalisée par une machine à partir de leurs comportements de navigation et d’achat. Ces mêmes citoyens accepteront-ils de s’en remettre à ces machines lorsque leur santé sera en jeu ? Comme je l’ai mentionné précédemment, des femmes n’hésitent pas à procéder à une ablation mammaire ou ovarienne sous prétexte qu’un rapport de test sanguin commercial leur a prédit un risque de cancer supérieur à la moyenne. Mais s’agit-il réellement d’un phénomène durable ? Comment prouver à moyen ou à long terme que ces femmes ont eu raison ? Comment savoir si cette prédiction était fondée ? En médecine comme ailleurs, vendre des feux rouges est toujours plus facile que de vendre des feux verts. La FDA ne s’y est pas trompé en rappelant récemment la société 23andme à ses obligations réglementaires.
(http://www.livescience.com/41534-23andme-direct-to-consumer-genetic-test-shortcomings.html).

La donnée est sans aucun doute une arme thérapeutique redoutable. Mais elle ne touchera sa cible qu’au prix d’un profond changement de paradigme consistant à détecter et exploiter les biais existant dans les données comme autant de modèles possibles à valider, plutôt que de faire simplement l’hypothèse que ces biais n’existent pas afin de construire un modèle prédictif global reposant sur des biais sans en connaître la nature ? Il est temps de rechercher les quantités d’effets là ou elles se trouvent – fut-ce par parties – afin d’agir de manière ciblée et efficace, plutôt que de se contenter de prédictions indifférenciées permettant au mieux d’apporter des réponses standardisées nécessairement moins efficaces.

Très bientôt, l’article 5 sera disponible > Quel avenir pour l’industrie pharmaceutique ?

Alexandre TEMPLIER

Alexandre Templier évolue depuis plus de 20 ans dans le domaine des Sciences de la Vie. Passionné par les technologies de l'information et l'optimisation des décisions en environnements complexes, Alexandre a consacré l'essentiel de sa carrière à mettre les sciences de l'ingénieur au service du monde médical. Co-fondateur et directeur général de la société QUINTEN depuis sa création, il est notamment en charge du développement et des partenariats académiques dans le domaine de la Santé. Alexandre est titulaire d’un doctorat en biomécanique de l’Ecole Nationale Supérieure d’Arts & Métiers Paris Tech, et du MBA de l’Institut d’Administration des Entreprises de Paris ; il a été maître de conférences associé à l’Ecole Nationale Supérieure des Arts & Métiers - Paris Tech de 2001 à 2013.

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *