Tous nos sites et sites référencés

Intelligence artificielle et classification des gliomes : Apprentissage statistique et modélisation tumorale

Mis à jour le 05/12/2017 par SFR

  

Rémy Guillevin et Mathieu Naudin, Groupe Mathématiques et Imagerie

 

 

Récemment paru, l’article [1] publié par Zhang Yan et al. propose de comparer différentes méthodes d’apprentissage statistiques afin de classer les gliomes selon leur grade (LGG/HGG ainsi que le grade de II à IV) en utilisant des acquisition RMN multiparamétriques. La méthode de comparaison se base sur les histogrammes et les textures des différentes acquisitions réalisées préalablement. Le jeu de données comprend 120 gliomes mêlant LGG (N = 28) et HGG (N = 92). La taille de l’échantillon permet de faire de la classification mais ne permet pas de disposer à la fois d’une base d’apprentissage et d’une base de test, c’est pour cela que la stratégie leave-one-out a été utilisée ici. La comparaison de plusieurs algorithmes a permis de mettre en lumière les plus performants. De nombreuses classes d’algorithmes ont été utilisées depuis les approches Bayesiennes jusqu’aux approches par arbres de décisions. Dans le but de ne pas fausser les approches, les données ont été normalisées et sur-échantillonnées pour augmenter artificiellement le nombre d’échantillons. Ce travail a été réalisé en utilisant le logiciel open source nommé WEKA. Ce logiciel intègre différents composants pour préparer et classer les différents jeux de données. 37 attributs de textures et une vingtaine d’attributs calculés sur les histogrammes ont été extraits de la trentaine d’images paramétriques pour chaque examen. Les algorithmes les plus performants sont pour le premier cas LibSVM [2] – SMO [3] (0.945) sur les données sur-échantillonnées et AdaBoostM1 [4] – LogitBoost [5] (0.808) sur les données originales. Pour le classement des grades c’est alors LibSVM [2] – SMO [2] qui obtiennent les meilleurs résultats sur les données originales (0.786) alors que IBk [6] se détache notamment avec un taux de classement de 0.961. Les meilleurs algorithmes ont par la suite été utilisés avec une modification de leurs paramètres clés afin de déterminer les meilleurs paramètres pour chaque cas. Ceci a permis une optimisation des méthodes de classement pour les deux grands types de classification souhaités.

 

Référence :

1. Zhang X. et al. Optimizing a machine learning based glioma grading system using multi-parametric MRI histogram and texture features. Oncotarget, 8(29), 47816, 2017.

2. Schölkopf B. et al. With Kernels: Support Vector Machines, Regularization, Optimization and Beyond, MIT Press, 2002. (SVM)

3. Platt J et al. Fast Training of Support Vector Machines using Sequential Minimal Optimization. In B. Schoelkopf and C. Burges and A. Smola, editors, Advances in Kernel Methods - Support Vector Learning, 1998. (SMO)

4. Freund Y et al. Experiments with a new boosting algorithm. In: Thirteenth International Conference on Machine Learning, San Francisco, 148-156, 1996. (AdaBoostM1)

5. Friedman J et al. Additive Logistic Regression: a Statistical View of Boosting. Stanford University, 1998. (LogitBoost)

6. Aha D et al. Instance-based learning algorithms. Machine Learning. 6:37-66, 1991. (IBk)