Aujourd’hui les scanners médicaux produisent en quelques secondes des milliers d’images et des teraoctets de données pour un seul patient. Mais comment font les médecins pour analyser ces informations et déterminer ce qui est utile ? A TEDxGöteborg, Anders Ynnerman, expert en imagerie médicale, nous fait découvrir de nouveaux outils sophistiqués — comme l’autopsie virtuelle — pour analyser ces myriades de données, et nous donne un aperçu des futures technologies médicales aux allures de science-fiction. Cette conférence comporte des images médicales qui peuvent choquer.

0:11
Je vais commencer par lancer un tout petit défi, le problème du traitement des données, des données que nous devons traiter dans le contexte médical. C’est vraiment un énorme défi pour nous. Et ceci est notre bête de somme. C’est un appareil à tomographie calculée par ordinateur — un scanner CT. C’est un appareil extraordinaire. Il utilise les rayons X, des faisceaux de rayons X, qui tournent très rapidement autour du corps humain. Il faut environ 30 secondes pour passer à travers tout l’appareil et d’énormes quantités d’informations sont produites en sortie de la machine. C’est une machine extraordinaire que nous pouvons utiliser pour améliorer les soins de santé. Mais, comme je l’ai dit, c’est aussi un défi à relever. Toute l’ampleur du problème se trouve sur cette image. Il s’agit de l’explosion des données médicales qui se produit en ce moment même. C’est le problème auquel nous sommes confrontés. Laissez-moi revenir en arrière.

1:02
Revenons quelques années en arrière, et observons ce qui se passait à l’époque. Les appareils qui sortaient alors — ils ont commencé à arriver dans les années 70 — scannaient le corps humain, et produisaient environ une centaine d’images de ce corps. J’ai pris la liberté, pour que ce soit plus clair, de traduire cela en termes de données numériques. Ça correspondrait à environ 50 Mo, ce qui est peu quand vous pensez aux quantités de données que nous pouvons manipuler de nos jours rien que sur nos portables normaux. Si vous traduisez ça en annuaires, ça fait une pile d’annuaires d’environ un mètre de haut. Quand on voit ce que l’on peut faire aujourd’hui avec les machines dont nous disposons, on peut, en seulement quelques secondes, obtenir 24 000 images d’un corps. Cela correspondrait à environ 20 Go, ou 800 annuaires. La pile d’annuaires ferait alors 200 mètres de haut. Ce qui va se produire — et nous le voyons déjà, ça commence — c’est une tendance technologique qui arrive en ce moment même, est que nous commençons également à regarder les images en temps réel. Nous obtenons également la dynamique du corps. Supposez seulement que nous ne recueillions des données que sur une durée de cinq secondes, cela correspondrait à un téraoctet de données. C’est à dire 800 000 annuaires, une pile de 16 km de haut. Et cela pour un seul patient, un seul examen. Voilà ce à quoi nous devons faire face.

2:16
C’est vraiment l’énorme défi qui se présente à nous. Et dès aujourd’hui — il s’agit de 25 000 images. Imaginez l’époque où les radiologues travaillaient de cette façon. Ils auraient affiché 25 000 clichés, et ils auraient dit 25 000 fois : » Tout va bien, tout va bien, Ah, voilà le problème.  » On ne peut plus faire ça, c’est impossible. Alors on doit trouver quelque chose d’un peu plus intelligent que ça. Ce que nous faisons donc, c’est de regrouper toutes ces coupes. Imaginez que vous découpez votre corps dans tous les sens, et puis vous essayez de remettre les tranches ensemble pour former une pile de données, un bloc de données. C’est ce que nous faisons en réalité. Ce gigaoctet, ou téraoctet de données, nous le mettons dans ce bloc. Mais, bien sûr, le bloc de données n’indique que la quantité de rayons X qui a été absorbée par chaque point du corps humain. Nous devons donc trouver un moyen de voir les choses que nous voulons observer et de rendre transparentes les choses que nous ne voulons pas observer. C’est-à-dire de transformer l’ensemble des données en quelque chose qui ressemble à ça. Et c’est très difficile. Le défi pour nous est énorme.

3:17
En utilisant des ordinateurs, même s’ils deviennent tout le temps plus rapides et meilleurs, il est très difficile de traiter des gigaoctets de données, des téraoctets de données, et d’en extraire les informations utiles. Je veux observer le cœur, je veux observer les vaisseaux sanguins, je veux observer le foie, peut-être même détecter une tumeur dans certains cas. Et voilà où ce petit amour entre en jeu. C’est ma fille. A 9 h 00, ce matin même. Elle joue à un jeu sur ordinateur. Elle n’a que deux ans, et elle s’éclate. C’est elle la vraie force motrice qui pousse au développement des cartes graphiques. Aussi longtemps que les gamins joueront à des jeux sur ordinateur, le traitement graphique continuera à s’améliorer de plus en plus. Alors rentrez chez vous, s’il vous plaît, et dites à vos enfants de jouer plus souvent, parce que j’en ai besoin.

4:02
C’est ce qui est à l’intérieur de cet appareil qui me permet de faire ce que je j’accomplis avec les données médicales. Ce que je fais en vérité, c’est que j’utilise ces petits appareils extraordinaires. Et vous savez, si je reviens peut-être dix ans en arrière quand j’ai obtenu le financement pour acheter mon premier ordinateur de traitement graphique. C’était une énorme machine. C’était des rangées de processeurs, de stockage, de tout cela. J’ai payé cette machine aux alentours d’un million de dollars. Et elle était à peu près aussi rapide que mon iPhone aujourd’hui. Chaque mois il y a de nouvelles cartes graphiques qui sortent. En voici quelques unes des dernières mises en vente — NVIDIA, ATI. Intel est également présent. Et vous savez, pour quelques centaines d’euros, vous pouvez les acquérir et les mettre dans votre ordinateur, et vous pouvez faire des choses extraordinaires avec ces cartes graphiques. C’est donc ce qui nous permet de faire face à l’explosion des données en médecine, ajouté à l’élaboration de quelques solutions très habiles en termes d’algorithmes — de compression des données, d’extraction des informations utiles aux travaux des chercheurs.

5:02
Je vais vous montrer quelques exemples de ce que nous pouvons faire. Voici un ensemble de données qui ont été relevées par un scanner CT. Vous pouvez voir que ces données sont complètes. C’est une femme. Vous pouvez voir les cheveux. Vous pouvez voir chaque organe de cette femme séparément. Vous pouvez voir qu’il y a un éparpillement de rayons X sur les dents, le métal des dents. C’est la raison de ces traces. Mais de façon complètement interactive, avec une carte graphique standard, sur un ordinateur normal, je peux faire une coupe plane. Et bien sûr, toutes les données sont à l’intérieur, je peux donc la faire tourner, je peux la voir sous différents angles, et je peux voir que cette femme a eu un problème. Elle a eu une hémorragie au cerveau, qui a été soignée par un petit stent, un tube en métal qui renforce le vaisseau. Et rien qu’en changeant les réglages, je peux décider de ce qui va être transparent, et de ce qui va être visible. Je peux observer la structure crânienne, et je peux voir que, oui, c’est là qu’on a ouvert le crâne de cette femme, et c’est par là qu’on est entré. Ce sont des images extraordinaires. Elles sont de très haute définition, et sont vraiment un exemple de ce qu’on peut faire aujourd’hui avec des cartes graphiques standard.

6:09
Alors on s’en est vraiment servi, et on a essayé de faire entrer plein de données dans le système. L’une des utilisations sur lesquelles nous travaillons — et cela a suscité quelque intérêt dans le monde entier — est le programme d’autopsies virtuelles. Une fois de plus, en partant de très très grands ensembles de données, vous avez vu ces scans en pied que nous pouvons faire. Nous faisons juste passer le corps à travers le scanner CT, et en seulement quelques secondes nous pouvons obtenir l’ensemble des données du corps entier. Ceci provient d’une autopsie virtuelle. Vous pouvez voir comment j’enlève progressivement les couches. En premier vous avez vu le sac dans lequel le corps est arrivé, puis j’enlève la peau — vous pouvez voir les muscles — et finalement vous pouvez voir le squelette de cette femme.

6:47
A ce stade, je voudrais aussi souligner que, avec le plus grand respect pour les personnes que je vais maintenant vous montrer — je vais vous montrer quelques cas d’autopsies virtuelles — c’est avec un grand respect pour ces personnes qui sont mortes dans des circonstances violentes que je vous montre ces images. Dans le cadre médico-légal — il y a eu jusqu’ici environ 400 cas, rien que dans la région de Suède d’où je viens, qui ont subi une autopsie virtuelle durant ces quatre dernières années. Voilà le déroulement de la situation typique : La police va décider — dans la soirée, quand un cas se présente — ils vont décider, d’accord, voilà un cas qui nécessite une autopsie. Le lendemain, entre six et sept heures du matin, le corps est transporté dans son sac jusqu’à notre Centre, et il est passé dans l’un de nos scanners CT. Puis le radiologue, en compagnie du pathologiste et parfois du médecin légiste, examinent les données qui sortent, et ils se concertent. Ils décident alors de ce qu’ils vont faire lors de la vraie autopsie qui va suivre.

7:48
Voyons maintenant quelques cas, voici l’un de nos tout premiers. Vous pouvez vraiment voir les détails de l’ensemble de données ; c’est à très haute définition. Et ce sont nos algorithmes qui nous permettent d’agrandir chaque détail. Là aussi, c’est totalement interactif, vous pouvez le faire pivoter et voir les choses en temps réel sur ces systèmes là. Sans trop en dire sur ce cas, il s’agit d’un accident de circulation, un chauffard ivre a renversé une femme. Il est très très facile de voir les dégâts sur le squelette. Et la cause du décès qui est la nuque brisée. Cette femme a de plus fini sous la voiture, alors elle est assez gravement abîmée par l’accident.

8:25
Voici un autre cas, une attaque au couteau. Ça nous montre une fois encore ce que nous pouvons faire. Il est très facile d’observer les objets en métal, nous pouvons les montrer à l’intérieur du corps. Vous pouvez aussi voir des objets dans la mâchoire — ce sont en réalité les plombages — mais c’est parce que j’ai réglé les fonctions pour faire apparaître le métal et rendre tout le reste transparent. Voici un autre cas de violence. Ce n’est pas vraiment ça qui a tué la personne. Elle a été tuée par des coups de poignard dans le cœur, mais ils se sont simplement débarrassé du couteau en l’enfonçant dans l’un des globes oculaires. Voici un autre cas. C’est très intéressant pour nous de pouvoir observer des choses comme les coups de couteau. Ici vous pouvez voir que le couteau a transpercé le cœur. On peut facilement voir comment l’air a fui d’un endroit à l’autre, ce qui est difficile dans une autopsie normale, standard. Cela aide énormément l’enquête criminelle à établir la cause du décès, et dans certains cas, à orienter l’enquête dans la bonne direction pour découvrir qui est vraiment le meurtrier.

9:21
Voici un autre cas que je trouve intéressant. Vous pouvez voir ici une balle qui s’est logée juste à côté de la colonne vertébrale de cette personne. Et ce que nous avons fait, c’est de transformer cette balle en source lumineuse, de façon à ce que la balle brille réellement, ce qui rend la recherche des fragments très facile. Lors d’une autopsie physique, si vous devez réellement fouiller le corps pour retrouver les fragments, c’est vraiment assez dur à faire.

9:44
Une des choses que je suis très très heureux de pouvoir vous montrer aujourd’hui est notre table d’autopsie virtuelle. C’est un appareil tactile que nous avons élaboré basé sur ces algorithmes, et qui utilise un processeur graphique standard. Voici de quoi cela a l’air en vrai, juste pour vous donner un idée de ce à quoi cela ressemble. Ça marche vraiment comme un énorme iPhone. Nous avons implémenté tous les gestes que vous pouvez faire sur une table classique, vous pouvez voir cela comme une énorme interface tactile. Alors si vous aviez l’intention d’acheter un iPad, laissez tomber, voilà ce qu’il vous faut à la place. Steve, j’espère bien que tu nous écoutes. C’est un petit appareil très sympa. Alors si vous en avez l’occasion, essayez-le. C’est vraiment une expérience concrète. Nous avons eu des réactions favorables, et nous essayons de le développer, et de l’utiliser à des fins pédagogiques, mais aussi, peut-être à l’avenir, dans un contexte plus clinique. Il y a une vidéo sur YouTube que vous pouvez télécharger et regarder, si vous voulez relayer l’information sur les autopsies virtuelles vers d’autres personnes.

10:46
Bon, puisque nous parlons de toucher, passons à la possibilité de toucher réellement les données. C’est un peu de la science-fiction, là, on se projette dans le futur. Ça n’est pas vraiment ce que les médecins utilisent actuellement, mais j’espère qu’ils le feront à l’avenir. Ce que vous voyez à gauche est un appareil tactile. C’est un petit stylet mécanique qui a des moteurs pas à pas extrêmement rapides à l’intérieur. Je peux donc produire un retour de force. Alors, quand je touche virtuellement les données cela va produire des retours de force dans le stylet, et j’obtiens ainsi une réaction. Dans ce cas précis, il s’agit du scan d’une personne vivante. J’ai ce stylet, et j’examine les données, je déplace le stylet vers la tête, et tout à coup, je sens une résistance. Et ainsi je peux sentir la peau. Si j’appuie un peu plus fort, je vais traverser la peau, et je pourrai sentir l’os à l’intérieur. Si j’appuie encore plus fort, je traverserai le crâne, particulièrement près de l’oreille, où l’os est très tendre. Et alors je pourrai sentir le cerveau à l’intérieur, et ça aura une consistance de neige fondue, comme ceci.

11:41
C’est vraiment bien. Et pour aller encore plus loin, voilà un cœur. C’est aussi grâce à ces nouveaux scanners extraordinaires, avec lesquels, en seulement 0,3 secondes, je peux scanner la totalité du cœur, et je peux le faire avec une dimension temporelle. Et donc, pour observer ce cœur, je peux faire tourner une vidéo. Voici Karljohan, l’un de mes étudiants de troisième cycle, qui travaille sur ce projet. Il est assis devant l’appareil haptique, le système de retour de force, et il déplace le stylet vers le cœur, et le cœur bat maintenant devant lui, pour qu’il puisse voir comment il bat. Il a pris le stylet, et il le déplace vers le cœur, il le pose sur le cœur, et il sent les battements de cœur du véritable patient en vie. Il peut alors examiner les mouvements du cœur. Il peut entrer à l’intérieur, pénétrer à l’intérieur du cœur, et sentir vraiment comment les valves bougent. Ceci, je crois, est vraiment l’avenir pour les chirurgiens cardiaques. Je veux dire, c’est probablement le plus grand fantasme pour un chirurgien du cœur que de pouvoir aller voir à l’intérieur du cœur du patient avant de passer à l’acte chirurgical, et de faire cela avec des données de qualité haute définition. C’est vraiment super.

12:43
Maintenant nous allons encore un peu plus loin dans la science-fiction. Nous avons un peu entendu parler de l’IRM fonctionnelle. Voilà un projet vraiment intéressant. L’IRM utilise des champs magnétiques et des fréquences radio pour scanner le cerveau, ou n’importe quelle partie du corps. Ce que l’on obtient en réalité ce sont des informations sur la structure du cerveau, mais on peut aussi mesurer la différence de propriétés magnétiques entre le sang qui est oxygéné et le sang qui s’est appauvri en oxygène. Cela signifie qu’il est possible d’établir une carte de l’activité du cerveau. C’est quelque chose sur quoi nous travaillons. Vous venez juste de voir Motts, notre ingénieur d’étude, entrer dans la machine d’IRM, et il portait des lunettes. Pour qu’il puisse voir des choses dans les lunettes, en fait. Pour que je puisse lui montrer des choses pendant qu’il est dans le scanner. Et c’est un peu bizarre, parce que ce que Motts voit, c’est en fait ceci. Il voit son propre cerveau. Motts fait quelque chose, là. Il fait probablement comme ça avec sa main droite, parce que le côté gauche du cortex de la motricité est actif. Et il peut voir ceci en même temps. Ces représentations sont toutes nouvelles. C’est quelque chose sur quoi nous menons des recherches depuis un certain temps.

13:51
Voici une autre séquence du cerveau de Motts. Ici, nous avons demandé à Motts de compter à rebours à partir de 100. Il fait :  » 100, 97, 94… » Il le fait à l’envers. Et vous pouvez voir comment le petit processeur mathématique travaille dans son cerveau, et illumine tout le cerveau. Eh bien, c’est extraordinaire. On peut faire ça en temps réel. On peut étudier des tas de choses. On peut lui demander de faire des trucs. Vous pouvez aussi voir que son cortex visuel est actif, à l’arrière de sa tête, parce que c’est là qu’il voit, il voit son propre cerveau. Et il entend également nos instructions quand nous lui disons de faire quelque chose. De plus, le signal est vraiment profond à l’intérieur du cerveau, mais il brille au travers, parce qu’il y a toutes les données à l’intérieur de ce volume. Dans juste un instant vous allez voir — Bien, là, Motts, maintenant bouge ton pied gauche. Il fait comme ça. Pendant 20 secondes, il fait comme ça, et tout à coup, ça s’illumine là-haut. Nous avons le cortex moteur qui s’active là-haut. C’est vraiment, vraiment bien. Je pense que c’est un outil formidable. Et en rapport avec la conférence qui m’a précédé ici, c’est quelque chose que nous pourrions utiliser comme outil pour comprendre vraiment comment marchent les neurones, comment marche le cerveau, et nous pouvons le faire avec de la très, très bonne qualité visuelle et une résolution très rapide.

14:56
Il nous arrive aussi de nous amuser au Centre. Ceci est un CAT scan — Computer Aided Tomography. C’est Elsa, une lionne du zoo de notre région, près de Norrkoping, dans la forêt de Kolmarden. Elle est arrivée au Centre, et ils l’ont endormie, et passée directement dans le scanner. Ensuite, bien sûr, j’obtiens tout l’ensemble des données de la lionne. Et je peux faire de très jolies images comme celle-ci. Je peux enlever des couches de la lionne. Je peux observer l’intérieur. Nous avons testé cela. Et je pense que c’est une application formidable pour l’avenir de cette technologie. Parce qu’on en sait très peu sur l’anatomie animale. Le seul savoir disponible pour les vétérinaires est très basique, en somme. Nous pouvons scanner toutes sortes de choses, toutes sortes d’animaux. Le seul problème est de les faire entrer dans la machine. Voici un ours. Ça a été un peu dur de le faire rentrer. L’ours est un animal affectueux, amical. Le voilà. Voilà le nez de l’ours. Vous pourriez avoir envie de câliner celui-ci, jusqu’à ce que vous changiez les réglages et que vous voyiez ceci. Alors, attention aux ours.

15:59
Pour finir, je voudrais remercier toutes les personnes qui m’ont aidé à produire ces images. C’est un énorme travail que de réussir cela, rassembler les données, développer les algorithmes, écrire tous les programmes. Ces personnes ont énormément de talent. Ma devise est toujours :  » N’embauche que des gens plus intelligents que toi », et la plupart d’entre eux sont plus intelligents que moi.

16:20
Merci beaucoup.

16:22
(Applaudissements)

SOURCE

TED TALK – Anders Ynnerman: Visualizing the medical data explosion

Morgan REMOLEUR

Passionné par le digital, Morgan est un Pharmacien entrepreneur innovant au plus près des patients. Industriel de formation, Internet par passion, Business developer pour partager l'innovation. "Je suis intimement convaincu que le digital et le big data vont révolutionner tous les métiers à la fois sur un plan technique dans la collecte des données, pratique pour la relation client et éthique avec le besoin de régulation."

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *