Suite de l’article 1/6 : 1) Quantified self – « Connais-toi toi même » ?

2) Tous différents et pourtant si semblables – la fin du « moyennage »

Nous sommes tous différents les uns des autres. « Chaque patient est unique » comme le disent souvent les médecins.

Chacun d’entre nous est en effet la combinaison unique d’une multitude de caractéristiques génétiques, biologiques, cognitives et comportementales. Evidemment, nous partageons des traits communs.

Nous avons tous « en moyenne » deux yeux et deux oreilles, un nez et une bouche, deux bras et deux jambes etc. et toutes les autres caractéristiques qui définissent notre espèce. Les hommes ont des caractéristiques qui leurs sont propres, tout comme les femmes. Tel groupe ethnique sera globalement différent de tel autre selon divers critères.

Tout ceci nous renvoie à la théorie naïve des ensembles, dont l’usage n’est malheureusement pas très en vogue dans le cadre de l’exploitation des données médicales.

Prenons à titre d’exemple les facteurs de risque d’accidents cardio-vasculaires. L’âge, l’hypertension artérielle, le diabète, le tabagisme, les dyslipidémies, le surpoids, la sédentarité et le stress, sont aujourd’hui reconnus comme des facteurs « cumulatifs » de risque d’incidents cardiovasculaires. Autrement dit, plus j’accumule ces facteurs de risque, et plus mon risque d’avoir un incident cardiovasculaire augmente. C’est la raison pour laquelle environ 1 milliard de personnes dans le monde sont sous statine, afin de rester dans les limites « normales » de cholestérol, et en particulier de LDL (le mauvais cholestérol).
Mais pourquoi cette « normalité » serait-elle la même pour l’ensemble de la population mondiale ? Pourquoi la limite admissible de cholestérol ne varierait-t-elle pas d’un individu à l’autre en fonction de combinaisons de facteurs de diverses natures ?
Notons au passage l’existence de multiples controverses au sujet de ces statines, dont la preuve de l’efficacité – selon ses détracteurs – n’aurait pas été démontrée. Et quand bien même celle-ci aurait-elle été démontrée – aurait il été raisonnable de penser que cette efficacité fût la même pour tous ?
Evidemment non, comme une publication récente semble le démontrer (Sanja Stankovic, Milika Asanin, Nada Majkic-Singh « The pharmacogenetics of cardiovascular drugs », J Med Biochem 2014; 33 (1)).

C’est pourtant bien en raisonnant de cette manière que les progrès du siècle dernier ont été réalisés par la recherche médicale et l’industrie pharmaceutique.

Restons sur l’exemple de nos facteurs de risque cardiovasculaires. Ces derniers ont été mis en évidence dans le cadre de la cohorte « Framingham », démarrée en 1948. Elle visait initialement à étudier de manière prospective quelques milliers d’habitants d’une petite ville du Massachusetts aux Etats‐Unis, avec un recueil extensif des données de santé, environnementales et comportementales, en vue d’établir un lien entre génétique et risque cardiovasculaire. Cette cohorte a largement contribué à la mise en évidence des facteurs de risque cardiovasculaire tels que nous les connaissons, en décrivant notamment dès 1960 les effets de la cigarette sur la survenue des maladies et des incidents cardiovasculaires. On estime que les données issues de cette cohorte ont permis de proposer des mesures préventives qui ont diminué de moitié la mortalité liée aux maladies cardiovasculaires. Ces progrès majeurs sont le fruit d’analyses globales des données accumulées dans le cadre de ces cohortes. Ces analyses ont permis de « dégrossir » les facteurs de risque, qui ont ensuite fait l’objet de massives campagnes de prévention.

Il est aujourd’hui nécessaire d’utiliser des approches moins globalisantes et plus ciblées afin de poursuivre efficacement ces campagnes de prévention. Il convient en effet d’identifier les multiples profils de patients dont la tolérance à tel ou tel facteur de risque sera plus ou moins grande en fonction d’autres facteurs, afin de proposer les solutions préventives et curatives les plus efficaces à chacun de ces profils.

N’est-ce d’ailleurs pas l’essence de la pratique médicale elle-même que de tenter en permanence de trouver un compromis entre les connaissances médicales généralement admises et les cas particuliers que constituent les patients ?

Les compétences techniques et scientifiques d’un médecin prennent toute leur dimension lorsqu’elles sont alliées à une capacité d’écoute et d’empathie, qui va souvent de pair avec une certaine intuition. Le médecin est en effet celui qui connaît parfaitement les règles selon lesquelles un diagnostic est posé et un traitement prescrit et administré. C’est également celui qui sait parfois prendre de la distance par rapport à ces règles, lorsqu’il observe les limites de celles-ci. C’est bien de la pratique médicale elle-même que naissent les intuitions et les hypothèses qui donnent lieu aux programmes de recherche médicale.

Et si cette méthode hypothético-déductive, véritable moteur du progrès de la science médicale, et génératrice de données massives de toutes natures était tout à coup « dopée », accélérée par ces données ? Et si les données générées par les différentes équipes de recherche biomédicale et par les laboratoires pharmaceutiques, en vue de vérifier des hypothèses – le plus souvent empiriques – étaient exploitées de manière systématique et approfondie pour générer de nouvelles hypothèses ?

Suite de la série d’articles prochainement…

Alexandre TEMPLIER

Alexandre Templier évolue depuis plus de 20 ans dans le domaine des Sciences de la Vie. Passionné par les technologies de l'information et l'optimisation des décisions en environnements complexes, Alexandre a consacré l'essentiel de sa carrière à mettre les sciences de l'ingénieur au service du monde médical. Co-fondateur et directeur général de la société QUINTEN depuis sa création, il est notamment en charge du développement et des partenariats académiques dans le domaine de la Santé. Alexandre est titulaire d’un doctorat en biomécanique de l’Ecole Nationale Supérieure d’Arts & Métiers Paris Tech, et du MBA de l’Institut d’Administration des Entreprises de Paris ; il a été maître de conférences associé à l’Ecole Nationale Supérieure des Arts & Métiers - Paris Tech de 2001 à 2013.

5 Comments on “Big Data : Nouvelle arme thérapeutique ? (2/6)

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *