BE1028729B1 - Méthode d'analyse d'images pour une meilleure prise de décision clinique - Google Patents

Méthode d'analyse d'images pour une meilleure prise de décision clinique Download PDF

Info

Publication number
BE1028729B1
BE1028729B1 BE20215945A BE202105945A BE1028729B1 BE 1028729 B1 BE1028729 B1 BE 1028729B1 BE 20215945 A BE20215945 A BE 20215945A BE 202105945 A BE202105945 A BE 202105945A BE 1028729 B1 BE1028729 B1 BE 1028729B1
Authority
BE
Belgium
Prior art keywords
image
shape
modified
analysis method
multiplier
Prior art date
Application number
BE20215945A
Other languages
English (en)
Inventor
Sean Walsh
Vim Vos
Ralph T H Leijenaar
Original Assignee
Oncoradiomics
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Oncoradiomics filed Critical Oncoradiomics
Application granted granted Critical
Publication of BE1028729B1 publication Critical patent/BE1028729B1/fr

Links

Classifications

    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • G06V10/806Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10081Computed x-ray tomography [CT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10088Magnetic resonance imaging [MRI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10116X-ray image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20036Morphological image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30096Tumor; Lesion

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Public Health (AREA)
  • Epidemiology (AREA)
  • Biomedical Technology (AREA)
  • Databases & Information Systems (AREA)
  • Primary Health Care (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Data Mining & Analysis (AREA)
  • Pathology (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Evolutionary Computation (AREA)
  • Software Systems (AREA)
  • Quality & Reliability (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)

Abstract

La présente invention concerne une méthode d'analyse d'image destiné à fournir des informations pour soutenir des objectifs de diagnostic, de thérapie, de pronostic ou de théranostic de corps humains et animaux. La présente invention concerne également un système permettant d'exécuter des tâches d'analyse d'image pour fournir des informations destinées à soutenir des objectifs de diagnostic , de thérapie , de pronostic ou de thermodiagnostic de corps humains et animaux.

Description

MÉTHODE D'ANALYSE D'IMAGES POUR UNE MEILLEURE PRISE DE
DÉCISION CLINIQUE DOMAINE DE L'INVENTION La présente invention concerne le domaine de l'analyse d'images. En particulier, la présente invention concerne le domaine de l'analyse d'images pour la médecine prédictive et l'aide à la décision clinique. CONTEXTE DE L'INVENTION L'analyse d'images médicales permet d'extraire, à partir d'une image médicale telle qu'une image de tomographie par émission de positons (TEP), une image de tomographie assistée par ordinateur (TAO) ou une image de résonance magnétique (RM), des caractéristiques d'image significatives. Les caractéristiques de l'image sont des mesures quantitatives de l'image qui sont en corrélation avec des informations cliniquement pertinentes, telles que le stade de la maladie et les paramètres histologiques. Les techniques d'analyse d'image peuvent donc être utilisées pour obtenir des marqueurs prédictifs, diagnostiques, thérapeutiques ou pronostiques d'une manière sûre, non invasive et longitudinale. De plus, contrairement aux techniques invasives telles que les biopsies, l'analyse d'images permet d'évaluer la lésion d'un patient dans son ensemble. Ceci est d'autant plus important en oncologie, car il est connu que l'hétérogénéité intra- et inter-tumorale est associée à la résistance au traitement, à l'échec du traitement et au mauvais pronostic. Des marqueurs d'imagerie validés sont donc nécessaires pour évaluer correctement l'hétérogénéité tumorale, pour mieux stratifier les patients et donc pour soutenir la prise de décision clinique à l'ère de la médecine de précision. La segmentation de la région d'intérêt, telle qu'un néoplasme, est une étape préliminaire dans le processus d'extraction des caractéristiques de l'image. La segmentation manuelle prend du temps et dépend de l'utilisateur.
Plusieurs méthodes de segmentation automatiques et semi-automatiques existent donc pour surmonter ces problèmes.
Des exemples de méthodes de segmentation reposant sur des opérations morphologiques et se trouvent dans les travaux de S.
Echegaray et al : " Core samples for radiomics features that are insensitive to tumor segmentation : method and pilot study using CT images of hepatocellular carcinoma " (Journal of Medical Imaging (Bellingham), 2015) et " A Rapid Segmentation-Insensitive "Digital Biopsy" Method for Radiomic Feature Extraction : Method and Pilot Study Using CT Images of Non-Small Cell Lung Cancer" (Tomography, 2016). La première utilise une méthode de segmentation par "échantillon central!" basée sur le calcul du cercle maximal inscrit dans une région délimitée manuellement et l'obtention de caractéristiques à partir de cet "échantillon central", la seconde applique une méthode de segmentation basée sur l'érosion et la dilatation.
Des exemples de méthodes de segmentation semi-automatique pouvant être appliquées aux images médicales sont GrowCut, les modèles de mélange gaussien et la méthode de clustering Fuzzy C-Means.
Ces trois méthodes ont été comparées par H.
Veeraraghavan et al. dans "Appearance Constrained Semi-Automatic Segmentation from DCE-MRI is Reproducible and Feasible for Breast Cancer Radiomics : À Feasibility Study " (Scientific Reports, 8, 4838, 2018). Bien que de nombreuses approches de segmentation aient été développées pour extraire des caractéristiques d'image quantitatives d'un volume tumoral brut (GTV), les modèles prédictifs basés sur les méthodes de segmentation de l'art antérieur sont caractérisés par des performances prédictives médiocres, comme par exemple des valeurs d'exactitude, de précision, de rappel, de score F ou d'AUC médiocres.
La présente invention concerne une méthode d'analyse d'image qui résout les problèmes de l'art antérieur.
En particulier, la présente invention fournit une méthode d'analyse d'image et un modèle prédictif performant pour soutenir le processus de décision clinique.
RÉSUMÉ La présente invention concerne une méthode d'analyse d'image destinée à fournir des informations pour soutenir des objectifs de diagnostic, de thérapie, de pronostic ou de theragnostic de corps humains et animaux, comprenant les étapes suivantes : - fournir, par une unité de traitement, une image 1;
- définir, par ladite unité de traitement, une région d'intérêt pour obtenir une première forme d'image À et éventuellement définir, par ladite unité de traitement, une seconde région d'intérêt pour obtenir une seconde forme d'image C ;
- modifier, par ladite unité de traitement, la première forme d'image À et éventuellement modifier la seconde forme d'image C de façon à obtenir une pluralité de formes d'image modifiées B ;
- dériver, par ladite unité de traitement, pour chacune des formes d'image définies dans l'étape de définition et obtenues dans l'étape de modification,
une pluralité de paramètres de caractéristiques d'image ; et calculer au moins une valeur de paramètre de caractéristique d'image à partir de chaque pluralité de paramètres de caractéristiques d'image ;
- la sélection facultative, par ladite unité de traitement, d'un sous-ensemble de paramètres de caractéristiques d'image à partir des pluralités de paramètres de caractéristiques d'image obtenus dans l'étape de dérivation, le sous-ensemble de paramètres de caractéristiques d'image étant sélectionné sur la base de la au moins une valeur de paramètre de caractéristique d'image ;
- dériver, par ladite unité de traitement, en utilisant les données de référence,
une valeur prédictive, diagnostique, thérapeutique, pronostique ou thermo-diagnostique pour soutenir la prise de décision médicale,
dans lequel la valeur prédictive est dérivée sur la base d'au moins un paramètre de caractéristique d'image qui est dérivé de la forme d'image modifiée B.
Dans un mode de réalisation, l'étape de modification comprend le décalage du centre de la première forme d'image À et éventuellement le décalage du centre de la seconde forme d'image C. Dans un mode de réalisation, la forme d'image modifiée B est obtenue en décalant le centre de la première forme d'image A d'une distance de décalage a dans n'importe quelle direction a tout en préservant la taille et la forme de la forme d'image À, de façon à obtenir une forme d'image modifiée Ba. Dans un mode de réalisation, la distance de décalage a est comprise entre 0 et a max, où a max est le plus grand décalage dans une direction spécifiée sans qu'aucune partie de la forme d'image modifiée Ba ne s'étende en dehors de la région d'image I. Dans un mode de réalisation, l'étape de modification comprend le redimensionnement de la première forme d'image À et éventuellement le redimensionnement de la seconde forme d'image C. Ledit redimensionnement peut être effectué en appliquant un multiplicateur de taille b tout en préservant la position centrale, de manière à obtenir une forme d'image modifiée Bb. Dans un mode de réalisation, le multiplicateur de redimensionnement b est > 0 et inférieur à b max, où b max est le plus grand multiplicateur pour lequel aucune des formes d'image modifiées Bb ne s'étend en dehors de la région d'image.
Dans un mode de réalisation, l'étape de modification comprend la déformation de la première forme d'image À et éventuellement la déformation de la seconde forme d'image C. La déformation peut être effectuée en appliquant un multiplicateur de déformation géométrique c pour obtenir une forme d'image modifiée Bc.
Dans un mode de réalisation, le multiplicateur de déformation géométrique c est sélectionné sur la base de la forme géométrique bidimensionnelle ou tridimensionnelle s'adaptant le plus étroitement à la forme de l'image À.
Dans un mode de réalisation, l'étape de modification comprend : la déformation de la première forme d'image À et, éventuellement, la déformation de la seconde forme d'image C par un multiplicateur de déformation physiologique d pour obtenir une forme d'image modifiée Bd.
5 Lemultiplicateur de déformation physiologique d peut être choisi en fonction de la forme et de la taille d'un organe ou de ses parties. Dans un mode de réalisation, l'étape de modification comprend deux ou plusieurs des étapes de décalage, de redimensionnement ou de déformation décrites ci-dessus. Dans un mode de réalisation, l'étape de modification comprend au moins une opération morphologique entre deux ou plusieurs des formes A, C et B disponibles.
Dans un mode de réalisation, le présent procédé comprend une étape de dérivation. Ladite étape de dérivation peut comprendre : la combinaison d'une pluralité de valeurs de paramètres de caractéristiques d'image dérivées de la première image À et de l'image B modifiée.
La présente invention concerne également un produit de programme informatique destiné à fournir des informations à des fins de diagnostic, de thérapie, de pronostic ou de theragnostic de corps humains et/ou animaux, le produit de programme informatique comprenant des instructions qui, lorsque le programme est exécuté par un ordinateur, amènent l'ordinateur à exécuter les étapes du procédé décrit ci-dessus.
La présente invention concerne également un support de stockage lisible par ordinateur comprenant des instructions qui, lorsque le programme est exécuté par un ordinateur, amènent l'ordinateur à exécuter les étapes du procédé tel que décrit ci-dessus.
La présente invention concerne également un système permettant d'effectuer des tâches d'analyse basées sur l'image pour fournir des informations destinées à soutenir des objectifs de diagnostic, de thérapie, de pronostic ou de theragnostic de corps humains et animaux, le système comprenant une unité de traitement configurée pour : - fournir une image I ;
- définir une région d'intérêt dans l'image I de manière à obtenir une première forme d'image À et éventuellement définir une deuxième région d'intérêt de manière à obtenir une deuxième forme d'image C ;
- modifier la première forme d'image A et éventuellement modifier la deuxième forme d'image C pour obtenir une pluralité de formes d'image modifiées B ;
- dériver de chacune des formes d'image A, de la forme d'image modifiée B et éventuellement de la seconde forme d'image C, une pluralité de paramètres de caractéristiques d'image ; et calculer au moins une valeur de paramètre de caractéristique d'image à partir de chaque pluralité de paramètres de caractéristiques d'image ;
- sur la base de l'au moins une valeur de paramètre de caractéristique d'image, sélectionner un sous-ensemble de paramètres de caractéristique d'image à partir des pluralités de paramètres de caractéristique d'image, le sous-ensemble de paramètres de caractéristique d'image comprenant au moins un paramètre de caractéristique d'image dérivé de la forme d'image modifiée B ;
- en utilisant les données de référence, dériver une valeur prédictive, diagnostique, thérapeutique, pronostique ou théranostique pour soutenir la prise de décision médicale.
DESCRIPTION DÉTAILLÉE La description détaillée suivante sera mieux comprise lorsqu'elle sera lue conjointement avec les dessins.
Pour les besoins de l'illustration, les formes d'image sont représentées dans les modes de réalisation préférés.
Il faut toutefois comprendre que l'application n'est pas limitée aux modes de réalisation précis présentés.
Les dessins ne sont pas dessinés à l'échelle et ne sont pas destinés à limiter la portée des revendications aux modes de réalisation représentés.
En conséquence, il faut comprendre que lorsque des caractéristiques mentionnées dans les revendications annexées sont suivies de signes de référence, ces signes sont inclus uniquement dans le but d'améliorer l'intelligibilité des revendications et ne limitent en aucune façon la portée des revendications.
La présente invention concerne un procédé d'analyse d'image destiné à fournir des informations à l'appui d'un diagnostic, d'une thérapie, d'un pronostic ou d'un theragnostic de corps humains et animaux.
Le procédé selon la présente intention comprend une étape de fourniture 100, par une unité de traitement, d'une image I.
Dans un mode de réalisation, l'image I est une image de tomographie par émission de positrons (TEP), telle qu'une image de TEP-FDG ou de TEP-FLT.
Dans un mode de réalisation, l'image I est une image de résonance magnétique (RM), telle qu'une image pondérée en T1, une image pondérée en T2, une image RM pondérée en diffusion, une image RM à contraste dynamique (DCE), une image de spectroscopie RM, une image de contraste de susceptibilité dynamique (DSC), une carte de coefficient de diffusion apparent (ADC), une image RM fonctionnelle (IRMf). Dans un mode de réalisation, l'image I est une image de tomographie par ordinateur (CT). Dans un mode de réalisation, l'image I est une image radiographique.
Dans un mode de réalisation, l'image I est une image ultrasonore.
L'image peut être dans n'importe quel format numérique.
Dans un mode de réalisation, l'image I est filtrée.
Le procédé selon la présente invention comprend une étape consistant à définir 200 une région d'intérêt dans l'image I, de manière à obtenir une première forme d'image A.
Dans un mode de réalisation, l'étape 200 comprend éventuellement une étape consistant à définir 201 une deuxième région d'intérêt dans l'image I, de manière à obtenir une deuxième forme d'image C.
Un exemple non limitatif de ce mode de réalisation est illustré à la figure 1. Pour des raisons d'intelligibilité, les formes d'images À et C sont représentées dans l'image I ainsi qu'agrandies et isolées de l'image mère I.
Dans un mode de réalisation, la région d'intérêt est définie par une unité de traitement.
Dans un mode de réalisation, l'unité de traitement est configurée pour exécuter un algorithme de croissance de région afin de définir la région d'intérêt.
Dans un mode de réalisation, les points de départ de l'algorithme de croissance de régions sont sélectionnés par un utilisateur.
Dans un mode de réalisation, la région d'intérêt est dessinée à la main.
Dans un mode de réalisation , la région d'intérêt est une forme prédéfinie quelconque telle qu'un cercle, une ellipse, un polygone, un rectangle . Dans un mode de réalisation, la région d'intérêt est un néoplasme.
Dans un mode de réalisation, la région d'intérêt est chargée à partir d'une mémoire.
Dans un mode de réalisation, la région d'intérêt est stockée dans une mémoire.
Le procédé selon la présente invention comprend une étape de modification 300 de la première forme d'image A, qui comprend éventuellement en outre une étape de modification 301 de la deuxième forme d'image C, de manière à obtenir une pluralité de formes d'image modifiées B.
Dans l'étape de modification 300, les formes d'image obtenues précédemment sont modifiées par une unité de traitement.
Dans un mode de réalisation, la première forme d'image A est modifiée de manière à obtenir une forme d'image modifiée B.
Dans un mode de réalisation, un nombre prédéterminé N de modifications est appliqué à la forme d'image A, de manière à obtenir N formes d'image modifiées B.
Dans un mode de réalisation, les formes d'image modifiées B comprennent au moins un pixel qui est superposé à un pixel de la forme d'image A. Par pixels superposés, on entend des pixels qui ont la même position dans l'image I. Si une deuxième forme d'image C est définie, au moins une forme d'image modifiée B est obtenue à partir de la deuxième forme d'image C. Dans un mode de réalisation, un nombre prédéterminé M de modifications est appliqué à la forme d'image C, de manière à obtenir M formes d'image modifiées B. Les modifications préférées et les formes d'image modifiées correspondantes B ainsi obtenues seront expliquées ci-dessous. Dans un mode de réalisation, l'étape de modification 300 comprend une combinaison de ces modifications.
Par convention, chacune des formes d'images modifiées B a une référence formée par la lettre "B" suivie d'un caractère "x", Le caractère "x" indique le type de modification appliquée à la forme d'image A, ou éventuellement à la deuxième forme d'image C, pour obtenir la forme d'image modifiée Bx.
Par exemple, la modification consistant à décaler une forme d'image est indiquée par le caractère "a". Par conséquent, la forme d'image modifiée B obtenue par le décalage de la forme d'image A, ou par le décalage de la seconde forme d'image C éventuellement définie, est indiquée par le caractère "Ba".
Dans un mode de réalisation, l'étape de modification 300 comprend le décalage de la forme d'imagerie A.
Dans un mode de réalisation, par déplacement de la forme d'image A, on entend faire glisser la forme d'image A dans n'importe quelle direction dans l'image I de manière à obtenir une forme d'image modifiée Ba ayant les mêmes proportions que la forme d'image A et ayant une position différente par rapport à la position de la forme d'image A. Par conséquent, la forme d'image A et la forme d'image modifiée Ba sont congruentes.
Par formes d'image congruentes, on entend que les formes d'image ont la même forme et la même taille. Deux ou plusieurs formes d'image sont congruentes si elles coïncident précisément l'une avec l'autre après l'une des modifications suivantes : retournement, décalage, rotation ou une combinaison de celles-ci.
Un exemple non limitatif de ce mode de réalisation est illustré à la figure 2. Dans un souci d'intelligibilité, les images formes A et Ba sont représentées à l'intérieur de l'image I ainsi qu'isolées de l'image mère I. Dans un mode de réalisation, le décalage de la forme d'image A comprend : l'identification des coordonnées (x, y) de tous les pixels de la forme d'image À ; l'ajout d'une quantité prédéterminée x' à toutes les coordonnées x et/ou d'une quantité prédéterminée y' à toutes les coordonnées y, de manière à obtenir une forme d'image modifiée Ba ayant la même forme que la forme d'image A et ayant une position différente. Dans un mode de réalisation, lesdites quantités prédéterminées x' et y' sont comprises entre 0 et x max, et entre 0 et y max, respectivement. X max et y max sont choisis de telle sorte que, pour chaque pixel de la forme d'image A ayant des coordonnées (x, y), (x+x max, y+y max) ne dépassent pas les dimensions de l'image I.
Dans un mode de réalisation, l'étape de modification 300 comprend le déplacement de la première forme d'image À d'une distance de déplacement a dans n'importe quelle direction, tout en préservant la taille et la forme de la forme d'image A. La forme d'image modifiée Ba obtenue dans ce mode de réalisation a la même forme et une position différente, lorsqu'elle est comparée à la forme d'image À.
Dans un mode de réalisation, par position de la forme de l'image, on entend la position du centre de la forme de l'image dans l'image I.
Dans un mode de réalisation, le procédé selon la présente invention comprend une étape d'identification du centre de la forme d'image A.
Dans un mode de réalisation, le centre de la forme de l'image À peut être le centre de symétrie, le centre de masse, le centre de masse pondéré ou le centre de la boîte de délimitation/ellipsoïde.
Dans un mode de réalisation, l'amplitude de la distance de décalage a est comprise entre 0 et a max, où a max est la plus grande distance dont la forme de l'image A peut être décalée dans une direction donnée tout en étant entièrement comprise dans les limites de l'image I.
Dans un mode de réalisation, la distance de décalage a est comprise entre 0,0001% de d min et 100% de d min, où d min est le plus petit diamètre de la forme d'image A.
Dans un mode de réalisation, une seconde forme d'image C est définie dans l'étape de définition 201, et l'étape de modification 300 comprend en outre une étape de modification 301 consistant à décaler la seconde forme d'image C.
Dans un mode de réalisation, les termes "traîné", "décalé" et "déplacé", se référant à la forme d'image A ou C, ont la même signification.
Dans un mode de réalisation, l'étape de modification 300 comprend le redimensionnement de la forme d'image A.
Dans un mode de réalisation, par redimensionnement, on entend l'application d'un multiplicateur de taille b à la forme de l'image À tout en conservant sa position de manière à obtenir une forme d'image modifiée Bb qui est similaire à A.
Par formes d'image similaires, on entend que les formes d'image ont la même forme et une taille différente ou égale.
Deux ou plusieurs formes d'image sont similaires si elles coïncident précisément l'une avec l'autre après l'une des modifications suivantes : redimensionnement, retournement, décalage, rotation ou une combinaison de celles-ci.
Dans un mode de réalisation, le multiplicateur b est inférieur à 1. Dans ce mode de réalisation, la forme d'image modifiée Bb est une version rétrécie de la forme d'image A.
Dans un mode de réalisation, le multiplicateur b est supérieur à 1. Dans ce mode de _ réalisation, la forme d'image modifiée Bb est une version agrandie de la forme d'image A.
Un exemple non limitatif de ce mode de réalisation est illustré à la figure 3. Pour des raisons d'intelligibilité, les formes d'image A et Bb sont représentées à l'intérieur de l'image I et isolées de celle-ci.
Dans un mode de réalisation, le multiplicateur b est égal à 1. Dans ce mode de réalisation, la forme d'image modifiée Bb et la forme d'image A sont congruentes.
Dans un mode de réalisation, le multiplicateur b est compris entre 1 et b max, où b max est le plus grand multiplicateur pour lequel aucun des pixels de la forme d'image modifiée Bb ne s'étend en dehors des limites d'une zone prédéfinie à l'intérieur de l'image I.
Dans un mode de réalisation, ladite zone prédéfinie à l'intérieur de l'image I est l'image I entière,
une zone comprenant le patient, ou une zone comprenant un organe. Dans un mode de réalisation, la zone prédéfinie est obtenue par un algorithme de croissance de région. Dans un autre mode de réalisation, la zone prédéfinie est dessinée à la main.
Dans un mode de réalisation, le multiplicateur b est compris entre 0,25 et 1,75. De préférence, le multiplicateur b est compris entre 0,75 et 1,25.
Dans un mode de réalisation, une deuxième forme d'image C est définie dans l'étape de définition 201, et l'étape de modification 300 comprend en outre une étape de modification 301 consistant à redimensionner la deuxième forme d'image C.
Dans un mode de réalisation de la présente invention, l'étape de modification 300 comprend la déformation de la première forme d'imagerie A.
Dans un mode de réalisation, on entend par déformation l'application d'un multiplicateur de déformation c de manière à obtenir une forme d'image modifiée Bc.
Dans un mode de réalisation, on entend par déformation le déplacement des sommets de la forme de l'image À vers une position cible.
Dans un mode de réalisation, le multiplicateur de déformation c est un multiplicateur de déformation géométrique, c'est-à-dire un multiplicateur de déformation qui permet d'obtenir une forme d'image modifiée Bc qui est une forme géométrique bidimensionnelle ou tridimensionnelle. Un exemple non limitatif de ce mode de réalisation, dans lequel la forme d'image modifiée Bc est un carré, est illustré à la figure 4. Pour des raisons d'intelligibilité, les formes d'images A et Bc sont représentées à l'intérieur de l'image I et sont isolées de l'image mère I.
Dans ce mode de réalisation, l'étape de modification 300 comprend : - détecter dans l'image I une forme géométrique qui correspond étroitement à la forme de l'image A; - pour chaque pixel de la forme d'image A, calculer un multiplicateur géométrique c sur la base de la forme géométrique détectée ; - multiplier la position de chaque pixel de la forme d'image A par le multiplicateur géométrique c, de manière à obtenir une forme d'image modifiée Bc.
Dans un mode de réalisation, la forme géométrique est celle obtenue au moyen d'un critère d'ajustement, c'est-à-dire qu'il s'agit de la forme géométrique qui s'adapte le mieux à la forme de l'image A. Dans un mode de réalisation, la forme géométrique qui s'adapte étroitement à la forme de l'image A est une forme géométrique entièrement comprise dans la forme de l'image A, comme par exemple un polygone inscrit dans la forme de l'image A. Dans un mode de réalisation, le multiplicateur de déformation c est un multiplicateur de déformation géométrique qui permet d'obtenir une forme d'image modifiée Bc qui est entièrement comprise dans la forme d'image À, comme par exemple un polygone inscrit dans la forme d'image A. Dans un mode de réalisation, le multiplicateur de déformation c est un multiplicateur de déformation géométrique qui permet d'obtenir une forme d'image modifiée Bc dans laquelle la forme d'image A est entièrement comprise. Des exemples non limitatifs de ce mode de réalisation sont illustrés à la figure 4 et à la figure 5.
Dans un mode de réalisation particulier, la forme d'image modifiée Bc est un polygone circonscrit autour de la forme d'image A. Dans un mode de réalisation, la forme géométrique est une forme bidimensionnelle, de préférence une forme polygonale. Dans un mode de réalisation, la forme géométrique est une forme tridimensionnelle.
Dans un mode de réalisation, le multiplicateur de déformation est un multiplicateur de déformation physiologique d. Par multiplicateur de déformation physiologique, on entend un multiplicateur qui permet d'obtenir une forme d'image modifiée Bd qui est similaire à un organe, une partie d'organe, ou une structure implantée dans un corps humain ou animal, ou un cyborg.
Dans ce mode de réalisation, l'étape de modification 300 comprend : - détecter dans l'image I un objet physiologique ; - déterminer la forme dudit objet physiologique ;
- pour chaque pixel de la forme d'image A, le calcul d'un multiplicateur de déformation physiologique d basé sur la forme de l'objet physiologique ; - multiplier la position de chaque pixel de la forme d'image A par le multiplicateur de déformation physiologique d, de manière à obtenir une forme d'image modifiée Bd.
Ce mode de réalisation garantit que la forme d'image modifiée Bd comprend des zones physiologiques pertinentes, de sorte que les caractéristiques de l'image sont extraites non seulement d'une lésion, mais aussi des tissus environnants. Ceci est d'autant plus important en oncologie, puisque les tissus entourant la tumeur fournissent des informations importantes liées à la classification de la tumeur, à la réponse au traitement, à la progression de la tumeur ou au pronostic. Les tissus environnants de la tumeur peuvent inclure un œdème, une tumeur rehaussée, une tumeur non rehaussée, des tissus nécrosés, des tissus sains. Dans un mode de réalisation, le multiplicateur de déformation d est un multiplicateur de déformation physiologique qui permet d'obtenir une forme d'image modifiée Bd dans laquelle la forme d'image A est entièrement comprise. Un exemple non limitatif de ce mode de réalisation est illustré à la figure 6. Dans un mode de réalisation, le multiplicateur de déformation d est un multiplicateur de déformation physiologique qui permet d'obtenir une forme d'image modifiée Bd qui est _ entièrement comprise dans la forme d'image A. Par exemple, la forme d'image À peut être une région d'intérêt correspondant à un cancer du poumon présumé. Dans cet exemple, les formes d'image modifiées Bd qui sont obtenues avec un multiplicateur de déformation physiologique d peuvent inclure, sans s'y limiter : le poumon comprenant le cancer du poumon suspecté, une zone nécrotique comprise dans le cancer du poumon suspecté. Dans un mode de réalisation, l'objet physiologique dans lequel la forme de l'image À est entièrement comprise est détecté au moyen de l'un des algorithmes suivants : algorithme de détection de bord, algorithme de croissance de région, seuillage d'image.
Dans un mode de réalisation, l'objet physiologique dans lequel la forme d'image A est entièrement comprise est un tissu, un organe, une partie d'un organe, un patient.
Dans un mode de réalisation, une seconde forme d'image C est définie dans l'étape de définition 201, et l'étape de modification 300 comprend en outre une étape de modification 301 consistant à déformer ladite seconde forme d'image C.
Dans un mode de réalisation de la présente invention, l'étape de modification 300 comprend l'application d'une opération morphologique, telle qu'une érosion, une dilatation, une ouverture, une fermeture ou une combinaison de celles-ci, à la forme de l'image À.
Dans un mode de réalisation, une deuxième forme d'image C est définie dans l'étape de définition 201, et l'étape de modification 300 comprend en outre une étape de modification 301 consistant à appliquer une opération morphologique à la deuxième forme d'image C.
Dans un mode de réalisation de la présente invention, l'étape de modification 300 comprend une modification telle qu'une rotation, une réflexion, une transformation affine, une transformation polynomiale ou une transformation linéaire par morceaux.
Dans un mode de réalisation, une seconde forme d'image C est définie dans l'étape de définition 201, et l'étape de modification 300 comprend l'union, l'intersection, la différence de la forme d'image A et de la seconde forme d'image C, ou une combinaison de celles-ci.
Dans un mode de réalisation, l'étape de modification 300 comprend : l'union, l'intersection, la différence de deux ou plusieurs formes d'image modifiées B, ou une combinaison de celles-ci, de manière à obtenir des formes d'image modifiées supplémentaires B.
Dans le présent procédé, l'étape de modification 300 peut comprendre une combinaison de deux ou plusieurs modifications telles que décrites ci-dessus appliquées sur la forme d'image A et/ou la deuxième forme d'image C et/ou une ou plusieurs formes d'image modifiées B. Les modifications combinées peuvent être appliquées successivement.
Un exemple non limitatif de ce mode de réalisation est illustré à la figure 7. Dans cet exemple particulier, la forme d'image modifiée B obtenue via l'étape de modification 300 est obtenue via une combinaison de deux modifications : une déformation appliquée sur la forme d'image A, de manière à obtenir une forme d'image modifiée Bd ; et une différence entre ladite forme d'image modifiée Bd et la forme d'image À.
Pour des raisons d'intelligibilité, les formes d'images A, Bd et B sont représentées à l'intérieur de l'image I et sont isolées de l'image mère I.
Le procédé selon la présente invention comprend une étape 400 d'obtention de paramètres de caractéristiques d'image et de valeurs de paramètres de caractéristiques d'image, qui comprend : - dériver une pluralité de paramètres de caractéristiques d'image à partir de chaque forme d'image définie (telle qu'obtenue à l'étape 200) et/ou modifiée (telle qu'obtenue à l'étape 300) ; et - calculer au moins une valeur de paramètre de caractéristique d'image à partir de chacune des pluralités de paramètres de caractéristique d'image. L'étape de dérivation 400 permet d'associer une pluralité de paramètres de caractéristiques d'image à chaque région d'intérêt précédemment définie et/ou modifiée, et donc d'effectuer une extraction de caractéristiques. Dans un mode de réalisation, les paramètres de caractéristiques d'image dérivés _ comprennent au moins une caractéristique de forme, comme par exemple : compacité, diamètre moyen, diamètre maximum, diamètre minimum, sphéricité, surface, volume. Dans un mode de réalisation, les paramètres de caractéristiques d'image dérivés comprennent au moins une statistique d'histogramme, comme par exemple : 10% percentile, 25 percentile, 75% percentile, 90% percentile, entropie, plage d'intensité, variance d'intensité, écart type d'intensité, aplatissement, écart absolu moyen, intensité minimale, intensité maximale, intensité moyenne, intensité médiane, racine carrée moyenne, asymétrie, écart type, uniformité, variance. Dans un mode de réalisation, les paramètres des caractéristiques de l'image comprennent au moins une caractéristique de texture telle que la rugosité, le contraste, la corrélation,
l'énergie, l'homogénéité, le moment de différence inverse, la moyenne de la somme, la variance de la somme, l'entropie de la somme.
Plus précisément, une pluralité de paramètres de caractéristiques d'image est dérivée de la forme d'image A et de chacune des formes d'image modifiées B obtenues à l'étape de modification 300.
Dans un mode de réalisation, une deuxième région d'intérêt est définie dans l'image I, de manière à obtenir une deuxième forme d'image C. Dans ce mode de réalisation, l'étape de dérivation 400 comprend la dérivation d'une pluralité de paramètres de caractéristiques d'image à partir de la deuxième forme d'image C.
Dans un mode de réalisation particulier, une forme d'image A et une seconde forme d'image C peuvent être définies et modifiées de manière à obtenir deux formes d'image modifiées B, qui sont des versions modifiées de A et C, comme par exemple une version décalée de A et une version redimensionnée de C. Dans ce mode de réalisation particulier, dans l'étape de dérivation 400, une première pluralité de paramètres de caractéristiques d'image est dérivée de la forme d'image A, une seconde pluralité de paramètres de caractéristiques d'image est dérivée de la seconde forme d'image C, et une troisième et une quatrième pluralité de paramètres de caractéristiques d'image sont dérivées des deux formes d'image modifiées B.
A partir de chacune des pluralités de paramètres de caractéristiques d'image obtenus dans l'étape de dérivation 400, ou sélectionnés dans l'étape de sélection 500, au moins une valeur de paramètre de caractéristique d'image est calculée. Puisque chaque pluralité de paramètres de caractéristiques d'image est dérivée d'une forme d'image précise À ou B ou C, la au moins une valeur de paramètre de caractéristique d'image est une représentation quantitative de ladite forme d'image.
Le procédé selon la présente invention comprend une étape optionnelle de sélection 500 d'un sous-ensemble de paramètres de caractéristiques d'image à partir des pluralités de paramètres de caractéristiques d'image obtenues dans l'étape de dérivation 400, le sous- ensemble de paramètres de caractéristiques d'image étant sélectionné sur la base de l'au moins une valeur de paramètre de caractéristique d'image.
Certains des paramètres de caractéristiques d'image peuvent être mutuellement corrélés ; en outre, les informations liées à différents paramètres de caractéristiques d'image peuvent ne pas être également pertinentes. L'étape de sélection 500 permet avantageusement de réduire la redondance et de sélectionner les paramètres de caractéristiques d'image les plus pertinents. En conséquence, dans un modèle prédictif construit sur ledit sous-ensemble de paramètres de caractéristiques d'image, l'erreur de prédiction est minimisée. Ledit sous-ensemble de paramètres de caractéristiques d'image comprend au moins un paramètre de caractéristique d'image dérivé d'une forme d'image modifiée B.
Dans un mode de réalisation, le sous-ensemble de paramètres de caractéristiques d'image comprend tous les paramètres de caractéristiques d'image dérivés de la pluralité de formes d'image modifiées B.
L'étape 500 de sélection des caractéristiques permet de sélectionner les paramètres de caractéristiques d'image les plus pertinents nécessaires à la construction d'un modèle de prédiction. Dans un mode de réalisation, le sous-ensemble de paramètres de caractéristiques d'image est sélectionné sur la base du pouvoir prédictif du modèle.
Le sous-ensemble de paramètres de caractéristiques d'image peut être sélectionné au moyen d'une technique de sélection de caractéristiques par intelligence artificielle. Les exemples de technique de sélection de caractéristiques d'intelligence artificielle comprennent, sans s'y limiter : une technique de sélection basée sur un filtre, une technique de sélection basée sur un wrapper, une méthode intégrée, ou une combinaison de celles-ci.
Dans un mode de réalisation, le sous-ensemble de paramètres de caractéristiques d'image comprend un paramètre de caractéristique d'image dérivé d'une forme d'image B modifiée.
Dans un mode de réalisation, l'étape 500 de sélection des caractéristiques est facultative. Dans ce mode de réalisation, tous les paramètres de caractéristiques d'image obtenus dans l'étape de dérivation 400 sont utilisés pour construire un modèle prédictif dans l'étape de dérivation 600. La méthode selon la présente invention comprend une étape consistant à dériver 600 une valeur prédictive, diagnostique, thérapeutique, pronostique ou théranostique pour soutenir la prise de décision médicale, en utilisant des données de référence.
Dans l'étape de dérivation 600, une valeur prédictive est dérivée par une unité de traitement sur la base des paramètres de caractéristiques d'image.
Dans un mode de réalisation, la valeur dérivée à l'étape de dérivation 600 est une valeur prédictive, une valeur de diagnostic, une valeur thérapeutique, une valeur de pronostic ou une valeur de thermo-diagnostic.
Dans un premier mode de réalisation, une étape de sélection 500 est effectuée pour sélectionner un sous-ensemble de paramètres de caractéristiques d'image, et la valeur prédictive est dérivée sur la base dudit sous-ensemble de paramètres de caractéristiques d'image.
La sélection d'un sous-ensemble de paramètres de caractéristiques d'image permet de minimiser l'erreur de classification du modèle prédictif.
Dans un deuxième mode de réalisation, une étape de sélection 500 n'est pas effectuée, et la valeur prédictive est donc dérivée sur la base de tous les paramètres de caractéristiques d'image obtenus dans l'étape de dérivation 400. La valeur prédictive est dérivée en fonction d'au moins un paramètre de caractéristique _ d'image qui n'est pas obtenu exclusivement à partir de la première forme d'image À, c'est- à-dire qu'elle est dérivée d'au moins un paramètre de caractéristique d'image obtenu à partir de la forme d'image modifiée B.
Les formes d'image modifiées B peuvent capturer des informations qui sont pertinentes à des fins de prédiction et/ou d'apprentissage ; par conséquent, la performance du modèle prédictif est améliorée lorsque la valeur prédictive est dérivée sur la base d'au moins un paramètre de caractéristique d'image provenant de la forme d'image modifiée B.
Dans un mode de réalisation, la valeur prédictive est dérivée dans l'étape de dérivation 600 en combinant une pluralité de valeurs de paramètres de caractéristiques d'image dérivées de l'image À et de l'image B modifiée. Dans un mode de réalisation, la valeur prédictive est une combinaison linéaire des valeurs de paramètres de caractéristiques d'image dérivées de l'image A et de l'image modifiée B, dans laquelle chaque valeur de paramètre de caractéristique d'image est multipliée par un facteur de pondération. Dans un autre mode de réalisation, la valeur prédictive est une combinaison polynomiale des valeurs de paramètres de caractéristiques d'image dérivées de l'image A et de l'image Bmodifiée.
Dans un mode de réalisation, l'unité de traitement déduit la valeur prédictive en utilisant des données de référence. Les données de référence peuvent comprendre des résultats cliniques, des marqueurs moléculaires, des marqueurs génétiques.
Dans un mode de réalisation, l'étape de dérivation 600 est réalisée par un algorithme d'apprentissage automatique exécuté sur une unité de traitement.
La présente invention concerne également un système permettant d'effectuer des tâches d'analyse basées sur l'image pour fournir des informations destinées à soutenir des objectifs de diagnostic, de thérapie, de pronostic ou de theragnostic de corps humains et animaux.
Dans un mode de réalisation, le système comprend un module de visualisation pour afficher l'image I, la forme d'image A, la pluralité de formes d'image modifiées B et, éventuellement, la deuxième forme d'image C.
Dans un mode de réalisation, le système comprend une unité de traitement, l'unité de traitement étant configurée pour exécuter un ou plusieurs algorithmes basés sur des règles ou des algorithmes basés sur l'apprentissage automatique.
Dans un mode de réalisation, le système selon la présente invention comprend une unité de traitement capable de fournir une image I.
Dans un mode de réalisation, l'unité de traitement est en outre configurée pour définir des régions d'intérêt dans l'image I, de manière à définir une forme d'image À et, éventuellement, à définir une deuxième forme d'image C. Dans un mode de réalisation du présent système, l'unité de traitement est configurée pour modifier la première forme d'image A et, éventuellement, modifier la seconde forme d'image C de manière à obtenir une pluralité de formes d'image modifiées B. Dans un mode de réalisation, l'unité de traitement comprend un module de calcul configuré pour dériver de chacune des formes d'image A et de la pluralité de formes d'image modifiées B, une pluralité de paramètres de caractéristiques d'image ; et calculer au moins une valeur de paramètre de caractéristique d'image à partir de chaque pluralité de paramètres de caractéristiques d'image.
Dans un mode de réalisation, une deuxième région d'intérêt est définie dans l'image I, de manière à obtenir une deuxième forme d'image C. Dans ce mode de réalisation, le module de calcul est en outre capable de : - dériver une pluralité de paramètres de caractéristiques d'image associés à ladite seconde forme d'image C ; - calculer au moins une valeur de paramètre de caractéristique d'image à partir de la pluralité de paramètres de caractéristiques d'image associés à la seconde forme d'image C.
L'unité de traitement peut également être configurée pour exécuter un algorithme de sélection configuré pour sélectionner un sous-ensemble de paramètres de caractéristiques d'image à partir des pluralités de paramètres de caractéristiques d'image. Dans un mode de réalisation, l'algorithme de sélection est configuré pour sélectionner le sous-ensemble de paramètres de caractéristiques d'image ayant une corrélation mutuelle inférieure à un seuil prédéfini.
Dans un mode de réalisation, l'unité de traitement est configurée pour exécuter un algorithme d'apprentissage automatique pour construire un modèle prédictif d'un patient. Dans un mode de réalisation, la sortie du modèle prédictif est une valeur prédictive,
diagnostique, thérapeutique, pronostique ou théranostique pour soutenir la prise de décision médicale.
Dans un mode de réalisation, l'entrée du modèle prédictif comprend les pluralités de paramètres de caractéristiques d'image dérivés de chacune des formes d'image A, de la forme d'image modifiée B et éventuellement de la seconde forme d'image C.
Dans un mode de réalisation, l'entrée du modèle prédictif comprend un sous-ensemble de paramètres de caractéristiques d'image sélectionnés parmi les pluralités de paramètres de caractéristiques d'image.
La sélection d'un sous-ensemble de paramètres de caractéristiques d'image permet de minimiser les erreurs du modèle prédictif qui sont dues à la présence de paramètres de caractéristiques d'image mutuellement corrélés.
Bien que divers modes de réalisation aient été décrits et illustrés, la description détaillée ne doit pas être interprétée comme étant limitée aux présentes.
Diverses modifications peuvent être apportées aux modes de réalisation par les personnes compétentes dans l'art sans s'écarter de l'esprit et de la portée véritables de la divulgation telle que définie par les revendications.
La présente invention concerne également un produit de programme d'ordinateur pour l'analyse d'images, de préférence pour fournir des informations destinées à soutenir des objectifs de diagnostic, de thérapie, de pronostic ou de theragnostic de corps humains et animaux.
Le produit de programme informatique comprend des instructions qui, lorsque le programme est exécuté par un ordinateur, amènent l'ordinateur à réaliser les étapes du procédé décrit ci-dessus.
Le programme informatique selon la présente invention permet de fournir une méthode d'analyse d'image automatisée pour fournir des informations cliniquement pertinentes.
Cela permet de réduire les variations dépendant de l'utilisateur, fournissant ainsi un support rapide et fiable au processus de décision clinique.
Le produit programme d'ordinateur destiné à exécuter la méthode décrite ci-dessus peut être écrit sous forme de programmes d'ordinateur, de segments de code, d'instructions ou de toute combinaison de ceux-ci, pour instruire ou configurer individuellement ou collectivement le processeur ou l'ordinateur afin qu'il fonctionne comme une machine ou un ordinateur spécialisé pour exécuter les opérations effectuées par les composants matériels.
Dans un exemple, le produit de programme informatique comprend un code machine qui est directement exécuté par un processeur ou un ordinateur, tel qu'un code machine produit par un compilateur.
Dans un autre exemple, le produit de programme informatique comprend un code de niveau supérieur qui est exécuté par un processeur ou un ordinateur en utilisant un interpréteur.
Les programmeurs ayant une compétence ordinaire dans l'art peuvent facilement écrire les instructions ou le logiciel basés sur les schémas de principe et les organigrammes illustrés dans les dessins et les descriptions correspondantes dans la spécification, qui divulguent des algorithmes pour effectuer les opérations de la méthode telle que décrite ci-dessus.
La présente invention concerne également un support de stockage lisible par ordinateur comprenant des instructions qui, lorsque le programme est exécuté par un ordinateur, amènent l'ordinateur à exécuter les étapes du procédé selon l'un quelconque des modes de réalisation décrits ci-dessus.
Selon un mode de réalisation, le support de stockage lisible par ordinateur est un support de stockage lisible par ordinateur non transitoire.
Les programmes informatiques mettant en œuvre le procédé des présents modes de réalisation peuvent généralement être distribués aux utilisateurs sur un support de stockage lisible par ordinateur de distribution tel que, mais sans s'y limiter, une carte SD, un dispositif de stockage externe, une micropuce, un dispositif de mémoire flash, un disque dur portable et des sites Web de logiciels.
À partir du support de distribution, les programmes informatiques peuvent être copiés sur un disque dur ou un support de stockage intermédiaire similaire.
Les programmes informatiques peuvent être exécutés en chargeant les instructions informatiques, soit à partir de leur support de distribution, soit à partir de leur support de stockage intermédiaire, dans la mémoire d'exécution de l'ordinateur, configurant l'ordinateur pour qu'il agisse conformément au procédé de la présente invention.
Toutes ces opérations sont bien connues des personnes compétentes dans l'art des systèmes informatiques.
Les instructions ou logiciels destinés à commander un processeur ou un ordinateur pour mettre en oeuvre les composants matériels et exécuter les méthodes décrites ci-dessus, ainsi que toutes les données, fichiers de données et structures de données associés, sont enregistrés, stockés ou fixés dans ou sur un ou plusieurs supports de stockage non transitoires lisibles par ordinateur. Des exemples de supports de stockage non transitoires lisibles par ordinateur comprennent la mémoire morte (ROM), la mémoire vive (RAM), la mémoire flash, les CD- ROM, CD-R, CD+ R, CD-RW, CD+ RW, DVD- ROM, DVD- Rs, DVD+ Rs, DVD- RWs, DVD+ RWs, DVD- RAMs, BD- ROMs, BD- Rs, BD- R LTHs, BD- REs, bandes magnétiques, disquettes, dispositifs de stockage de données magnéto-optiques, dispositifs de stockage de données optiques, disques durs, et tout dispositif connu d'une personne ayant une compétence ordinaire dans l'art qui est capable de stocker les instructions ou le logiciel et toutes les données associées, les fichiers de données et les structures de données d'une manière non transitoire et de fournir les instructions ou le logiciel et toutes les données associées, les fichiers de données et les structures de données à un processeur ou un ordinateur de sorte que le processeur ou l'ordinateur puisse exécuter les instructions. Dans un exemple, les instructions ou le logiciel et toutes les données, tous les fichiers de données et toutes les structures de données associés sont distribués sur des systèmes informatiques couplés en réseau de sorte que les instructions et le logiciel et toutes les données, tous les fichiers de données et toutes les structures de données associés sont stockés, accédés et exécutés de manière distribuée par le processeur ou l'ordinateur. Bien que divers modes de réalisation aient été décrits et illustrés, la description détaillée ne doit pas être interprétée comme étant limitée aux présentes. Diverses modifications peuvent être apportées aux modes de réalisation par les personnes compétentes dans l'art sans s'écarter de l'esprit et de la portée véritables de la divulgation telle que définie par les revendications.
DESCRIPTION DES DESSINS Les caractéristiques et avantages de l'invention apparaîtront à la lecture de la description suivante de modes de réalisation d'un système, cette description étant donnée uniquement à titre d'exemple et en référence aux dessins annexés.
La figure 1 représente une image I dans laquelle un ROI est défini de façon à obtenir une forme d'image A et dans laquelle la forme d'image A est décalée de façon à obtenir une forme d'image modifiée Ba ayant la même forme et la même taille que la forme d'image À et ayant une position différente de la forme d'image À dans l'image I.
La figure 2 représente une image I dans laquelle deux ROI sont définis de manière à obtenir une forme d'image À et une seconde forme d'image C. La figure 3 représente une image I dans laquelle un ROI est défini de manière à obtenir une forme d'image À et dans laquelle la forme d'image A est redimensionnée de manière à obtenir une forme d'image modifiée Bb plus grande que la forme d'image À et ayant les mêmes proportions que la forme d'image A.
La figure 4 représente une image I dans laquelle un ROI est défini de façon à obtenir une forme d'image A et dans laquelle la forme d'image À est déformée avec un multiplicateur géométrique c de façon à obtenir une forme d'image modifiée Bc qui est l'ajustement carré le plus proche de la forme d'image À.
Lafigure 5 représente une image I dans laquelle un ROI est défini de façon à obtenir une forme d'image A et dans laquelle une première et une seconde modifications sont appliquées à ladite forme d'image A, de façon à obtenir deux formes d'image modifiées B ; lesdites première et seconde modifications comprennent, respectivement : la déformation de la forme d'image À avec un multiplicateur géométrique c de façon à _ obtenir une première forme d'image modifiée Bc qui est un cercle comprenant la forme d'image A, le redimensionnement de la forme d'image A avec un multiplicateur de taille b de façon à obtenir une seconde forme d'image modifiée Bb.
La figure 6 représente une image I dans laquelle un ROI est défini de manière à obtenir une forme d'image A et dans laquelle la forme d'image A est déformée avec un — multiplicateur physiologique d de manière à obtenir une forme d'image modifiée Bd qui est une partie du poumon.
La figure 7 représente une image I dans laquelle un ROI est défini de façon à obtenir une forme d'image À et dans laquelle une combinaison de modifications est appliquée à la forme d'image À de façon à obtenir une image modifiée B, la combinaison de modifications comprenant : la déformation de la forme d'image À avec un multiplicateur physiologique d de façon à obtenir une forme d'image modifiée Bd qui est le coeur du tissu compris dans la forme d'image À ; la soustraction de la forme d'image Bd ainsi obtenue de la forme d'image À de façon à obtenir une forme d'image modifiée B.
La figure 8 est un graphique représentant la courbe d'opérateur récepteur (ligne continue noire) d'un modèle prédictif exemplaire obtenu avec le procédé de la présente invention, dans lequel la valeur prédictive est obtenue sur la base d'au moins un paramètre de caractéristique d'image dérivé d'une forme d'image modifiée B.
La figure 9 est un graphique représentant la courbe d'opérateur récepteur (ligne continue noire) d'un modèle prédictif obtenu avec un procédé de l'art antérieur, dans lequel la valeur prédictive est obtenue sur la base de paramètres de caractéristiques d'image dérivés uniquement des formes d'image A.
EXEMPLE Le sous-type histologique de la tumeur est l'un des principaux aspects cliniques qui peuvent influencer la prise de décision en matière de traitement pour les patients atteints de cancer du poumon non à petites cellules (NSCLC). Dans l'exemple suivant, la présente invention est appliquée pour évaluer la performance d'un modèle d'apprentissage automatique pour classer le sous-type histologique de carcinome spinocellulaire (SCC) du NSCLC. Dans cet exemple, la valeur prédictive est dérivée au moyen d'un algorithme d'apprentissage automatique.
Matériaux et méthodes Les images tomodensitométriques de 266 patients atteints d'un cancer du poumon non à petites cellules confirmé par l'examen pathologique, et dont le sous-type histologique a été confirmé, ont été obtenues à partir de l'ensemble de données open-source LUNG1, qui comprend les images de 422 patients atteints de cancer du poumon non à petites cellules. Les sous-types histologiques correspondants sont indiqués dans le tableau 1.
Carcinome à cellules | 152 mms TE Tableau 1 Les images CT des 266 cas avec un sous-type histologique clairement défini ont été incluses dans la présente étude. Sur chaque image CT, une région d'intérêt (ROI) autour du volume tumoral brut a été délimitée manuellement par un expert pour obtenir une forme d'image A. Ensuite, les ROI ont été modifiées, de manière à obtenir les 6 formes d'image modifiées B suivantes, à partir de chaque forme d'image A. Les formes d'image modifiées ainsi obtenues sont décrites en détail ci-dessous. - La forme de l'image Bl est obtenue en appliquant un multiplicateur de déformation géométrique, de manière à obtenir la sphère circonscrite de la forme de l'image A qui s'ajuste le plus étroitement autour de la forme de l'image A.
- La forme de l'image B2 est obtenue en appliquant un multiplicateur de déformation géométrique, de manière à obtenir la sphère inscrite de la forme de l'image A qui s'adapte le mieux à l'intérieur de la forme de l'image A.
- La forme d'image B3 est obtenue par une combinaison de deux modifications. Tout d'abord, un multiplicateur de redimensionnement est appliqué à la forme d'image A, de manière à obtenir une forme d'image modifiée B3a, qui est un rétrécissement de 10 mm de la forme d'image A dans toutes les directions. La deuxième modification est la différence entre la forme de l'image A et la forme de l'image B3a ;obtenir une forme d'image modifiée B3 qui est une coque intérieure d'une épaisseur de 10 mm.
- La forme d'image B4 est également obtenue par une combinaison de deux modifications. Tout d'abord, un multiplicateur de redimensionnement est appliqué à la forme d'image A, de manière à obtenir une forme d'image modifiée B4a, qui est un agrandissement de 10 mm de la forme d'image A dans toutes les directions. La deuxième modification est la différence entre la forme d'image B4a et la forme d'image À ; de manière à obtenir une forme d'image modifiée B4 qui est une coque extérieure d'une épaisseur de 10 mm.
- La forme d'image B5 est obtenue en appliquant un multiplicateur de redimensionnement, de manière à obtenir une forme d'image modifiée B5, qui est un agrandissement de 10 mm de la forme d'image A dans toutes les directions.
- La forme d'image B6 est obtenue en appliquant un multiplicateur de redimensionnement, de manière à obtenir une forme d'image modifiée B5 qui est un rétrécissement de 3 mm dans toutes les directions. Pour chacune des formes d'image A, Bl, B2, B3, B4, B5 et B6, 172 paramètres de caractéristiques d'image ont été dérivés. Les caractéristiques extraites comprennent les statistiques de premier ordre, la texture et la forme.
Larégression logistique multivariable avec régularisation Elastic Net a été effectuée selon la méthodologie suivante. Les caractéristiques fortement corrélées, celles dont la variance est proche de zéro et les combinaisons linéaires entre caractéristiques ont d'abord été éliminées de l'analyse. Pour chaque paire de caractéristiques fortement corrélées (coefficient de corrélation de Pearson p > 0,8), la variable présentant la plus grande corrélation absolue moyenne avec toutes les caractéristiques restantes a été supprimée. L'apprentissage du modèle a été effectué par validation croisée 10 fois répétée pour sélectionner les hyperparamètres optimaux du modèle, en optimisant l'aire sous la courbe du récepteur (AUC). La performance globale du modèle hors échantillon a ensuite été évaluée comme la moyenne de la validation croisée répétée de l'AUC pour le modèle avec les hyperparamètres optimaux.
Dans l'étape de dérivation, un premier modèle prédictif a été construit pour fournir une première valeur prédictive pour la classification du SCC sur la base d'un premier sous- ensemble de paramètres de caractéristiques d'image comprenant des paramètres de caractéristiques d'image dérivés des formes d'image À et des formes d'image modifiées B1àB6.
Un second modèle prédictif a en outre été construit pour fournir une seconde valeur prédictive pour la classification du SCC, ladite seconde valeur prédictive étant dérivée sur la base d'un second sous-ensemble de paramètres de caractéristiques d'image comprenant des paramètres de caractéristiques d'image exclusivement dérivés des formes d'image A.
Résultats Les courbes d'opérateur récepteur du premier et du deuxième modèle sont présentées dans les figures 8 et 9, respectivement (axe horizontal : taux de faux positifs, axe vertical : taux de vrais positifs, (ligne pointillée grise : ligne de chance). L'aire sous la courbe (AUC) pour le premier modèle, qui comprend des informations supplémentaires contenues dans les formes B1-B6 du ROI de l'image modifiée, était de 0,61. L'AUC du second modèle, qui ne comprend que les paramètres des caractéristiques dérivées de la forme de l'image A, était de 0,52. L'AUC du premier modèle était statistiquement plus élevée que l'AUC du second modèle (HO : AUC égale ; p < 0,05).
Conclusion Ces résultats montrent que la performance du modèle est sensiblement améliorée lorsque la valeur prédictive est dérivée sur la base d'au moins un paramètre de caractéristique d'image à partir des formes d'image modifiées B.

Claims (18)

REVENDICATIONS
1. Procédé d'analyse d'image pour fournir des informations à l'appui d'objectifs de diagnostic, de thérapie, de pronostic ou de théranostic de corps humains et animaux, comprenant les étapes consistant à : - fournir (100), par une unité de traitement, une image I; - définir (200), par ladite unité de traitement, une région d'intérêt pour obtenir une première forme d'image À et éventuellement définir (201), par ladite unité de traitement, une seconde région d'intérêt pour obtenir une seconde forme d'image C ; - modifier (300), par ladite unité de traitement, la première forme d'image A et éventuellement modifier (301) la seconde forme d'image C de façon à obtenir une pluralité de formes d'image modifiées B ; - dériver (400), par ladite unité de traitement, pour chacune des formes d'image définies dans l'étape de définition (200, 201) et obtenues dans l'étape de modification (300, 301), une pluralité de paramètres de caractéristiques d'image ; et calculer au moins une valeur de paramètre de caractéristique d'image à partir de chaque pluralité de paramètres de caractéristiques d'image ; - la sélection facultative (500), par ladite unité de traitement, d'un sous- ensemble de paramètres de caractéristiques d'image à partir des pluralités de paramètres de caractéristiques d'image obtenus dans l'étape de dérivation, le sous-ensemble de paramètres de caractéristiques d'image étant sélectionné sur la base de la au moins une valeur de paramètre de caractéristique d'image ; - dériver (600), par ladite unité de traitement, en utilisant des données de référence, une valeur prédictive, diagnostique, thérapeutique, de pronostic ou de theragnostic pour soutenir la prise de décision médicale, dans lequel la valeur prédictive est dérivée sur la base d'au moins un paramètre de caractéristique d'image qui est dérivé de la forme d'image modifiée B.
2. Procédé d'analyse d'image selon la revendication 1, dans lequel l'étape de modification (300) comprend le décalage du centre de la première forme d'image À et éventuellement le décalage du centre de la deuxième forme d'image C.
3. Procédé d'analyse d'image selon la revendication 2, dans lequel la forme d'image modifiée B est obtenue en décalant le centre de la première forme d'image À d'une distance de décalage a dans n'importe quelle direction a tout en préservant la taille et la forme de la forme d'image A, de façon à obtenir une forme d'image modifiée Ba.
4. Procédé d'analyse d'image selon la revendication 3, dans lequel la distance de décalage a est comprise entre 0 et a max, a max étant le décalage le plus important dans une direction spécifiée sans qu'aucune partie de la forme d'image modifiée Ba ne s'étende en dehors de la région d'image I.
5. Procédé d'analyse d'image selon l'une quelconque des revendications 1 à 4, dans lequel l'étape de modification (300) comprend le redimensionnement de la première forme d'image À et éventuellement le redimensionnement de la deuxième forme d'image C.
6. Procédé d'analyse d'image selon la revendication 5, dans lequel le redimensionnement est effectué en appliquant un multiplicateur de taille b tout en préservant la position centrale, de manière à obtenir une forme d'image modifiée Bb.
7. _ Procédé d'analyse d'image selon la revendication 6, dans lequel le multiplicateur de redimensionnement b est > 0 et inférieur à b max, où b max est le plus grand multiplicateur pour lequel aucune des formes d'image modifiées Bb ne s'étend en dehors de la région d'image.
8. Procédé d'analyse d'image selon l'une quelconque des revendications 1 à 7, dans lequel l'étape de modification(300) comprend la déformation de la première forme d'image À et éventuellement la déformation de la deuxième forme d'image C.
9. Procédé d'analyse d'image selon la revendication 8, dans lequel la déformation est effectuée en appliquant un multiplicateur de déformation géométrique c pour obtenir une forme d'image modifiée Bc.
10. Procédé d'analyse d'image selon la revendication 9, dans lequel le multiplicateur de déformation géométrique c est sélectionné sur la base de la forme géométrique bidimensionnelle ou tridimensionnelle s'adaptant le plus étroitement à la forme d'image A.
11. Procédé d'analyse d'image selon la revendication 8, dans lequel l'étape de modification (300) comprend la déformation de la première forme d'image À et éventuellement la déformation de la deuxième forme d'image C par un multiplicateur de déformation physiologique d pour obtenir une forme d'image modifiée Bd.
12. Procédé d'analyse d'image selon la revendication 11, dans lequel le multiplicateur de déformation physiologique d est sélectionné sur la base de la forme et de la taille d'un organe ou de parties de celui-ci.
13. Procédé d'analyse d'image selon l'une quelconque des revendications 1 à 12, dans lequel l'étape de modification (300) comprend deux ou plusieurs des étapes de décalage, de redimensionnement ou de déformation selon l'une quelconque des revendications 2 à 12.
14. Procédé d'analyse d'image selon l'une quelconque des revendications 1 à 13, dans lequel l'étape de modification (300) comprend au moins une opération morphologique entre deux ou plusieurs de l'une quelconque des formes A, forme C et formes B disponibles.
15. Procédé d'analyse d'image selon l'une quelconque des revendications 1 à 14, dans lequel l'étape de dérivation (600) comprend : la combinaison d'une pluralité de valeurs de paramètres de caractéristiques d'image dérivées de la première image À et de l'image modifiée B.
16. Système pour effectuer des tâches d'analyse basées sur l'image afin de fournir des informations pour soutenir des objectifs de diagnostic, de thérapie, de pronostic ou de theragnostic de corps humains et animaux, le système comprenant une unité de traitement configurée pour : - fournir une image I ; - définir une région d'intérêt dans l'image I de manière à obtenir une première forme d'image À et éventuellement définir une deuxième région d'intérêt de manière à obtenir une deuxième forme d'image C ; - modifier la première forme d'image A et éventuellement modifier la deuxième forme d'image C pour obtenir une pluralité de formes d'image modifiées B ; - dériver de chacune des formes d'image A, de la forme d'image modifiée B et éventuellement de la seconde forme d'image C, une pluralité de paramètres de caractéristiques d'image ; et calculer au moins une valeur de paramètre de caractéristique d'image à partir de chaque pluralité de paramètres de caractéristiques d'image ; - sur la base de l'au moins une valeur de paramètre de caractéristique d'image, sélectionner un sous-ensemble de paramètres de caractéristique d'image à partir des pluralités de paramètres de caractéristique d'image, le sous-ensemble de paramètres de caractéristique d'image comprenant au moins un paramètre de caractéristique d'image dérivé de la forme d'image modifiée B ; - en utilisant les données de référence, dériver une valeur prédictive, diagnostique, thérapeutique, pronostique ou théranostique pour soutenir la prise de décision médicale.
17. Produit de programme informatique pour fournir des informations soutenant des objectifs de diagnostic, de thérapie, de pronostic ou de théranostic de corps humains et/ou animaux, le produit de programme informatique comprenant des instructions qui, lorsque le programme est exécuté par un ordinateur, amènent l'ordinateur à réaliser les étapes du procédé selon l'une quelconque des revendications 1 à 15.
18. Support de stockage lisible par ordinateur comprenant des instructions qui, lorsque le programme est exécuté par un ordinateur, amènent l'ordinateur à réaliser les étapes du procédé selon l'une quelconque des revendications 1 à 15.
BE20215945A 2020-12-18 2021-12-06 Méthode d'analyse d'images pour une meilleure prise de décision clinique BE1028729B1 (fr)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
EP20215700.4A EP4016448A1 (fr) 2020-12-18 2020-12-18 Procédé d'analyse d'image pour améliorer la prise de décision clinique

Publications (1)

Publication Number Publication Date
BE1028729B1 true BE1028729B1 (fr) 2022-05-18

Family

ID=73855927

Family Applications (1)

Application Number Title Priority Date Filing Date
BE20215945A BE1028729B1 (fr) 2020-12-18 2021-12-06 Méthode d'analyse d'images pour une meilleure prise de décision clinique

Country Status (4)

Country Link
US (1) US20240055124A1 (fr)
EP (2) EP4016448A1 (fr)
BE (1) BE1028729B1 (fr)
WO (1) WO2022128587A1 (fr)

Also Published As

Publication number Publication date
US20240055124A1 (en) 2024-02-15
EP4264542A1 (fr) 2023-10-25
EP4016448A1 (fr) 2022-06-22
WO2022128587A1 (fr) 2022-06-23

Similar Documents

Publication Publication Date Title
Masood et al. Automatic choroid layer segmentation from optical coherence tomography images using deep learning
US10896490B2 (en) Systems and methods for reflectance-based projection-resolved optical coherence tomography angiography
EP2401719B1 (fr) Méthodes de segmentation d&#39;images et de détection de structures particulières
FR2902218A1 (fr) Procede de traitement d&#39;images de tomosynthese pour une detection de signes radiologiques
WO2011051382A1 (fr) Procede et dispositif d&#39;analyse d&#39;images hyper-spectrales.
US11386555B2 (en) Assessment of arterial calcifications
EP2435985B1 (fr) Procede de quantification de l&#39;evolution de pathologies impliquant des changements de volumes de corps, notamment de tumeurs
Jaworek-Korjakowska Novel method for border irregularity assessment in dermoscopic color images
FR3095332A1 (fr) Méthode de planification d’une ablation de tissus basée sur l’apprentissage profond
Tyagi et al. An optimized CNN based intelligent prognostics model for disease prediction and classification from Dermoscopy images
BE1028729B1 (fr) Méthode d&#39;analyse d&#39;images pour une meilleure prise de décision clinique
CA3176333A1 (fr) Methode de determination d&#39;une region d&#39;ablation basee sur l&#39;apprentissage profond
FR3082976A1 (fr) Detection de nerfs dans une serie d&#39;images echographiques par la determination de regions d&#39;interets definies par la detection d&#39;arteres
EP4154262A1 (fr) Méthode de prédiction de la récidive d&#39;une lésion par analyse d&#39;images
Tsou et al. A heuristic framework for image filtering and segmentation: application to blood vessel immunohistochemistry
WO2020178526A1 (fr) Dispositif et procédé d&#39;évaluation qualitative des greffons hépatiques
EP4172933B1 (fr) Dispositif d&#39;imagerie tumorale
EP3509483B1 (fr) Systeme et procede pour reconstruire un signal physiologique d&#39;un systeme dynamique artere/tissu/veine d&#39;un organe dans un espace surfacique
WO2024110407A1 (fr) Procédé de segmentation automatique d&#39;un organe sur une image médicale en trois dimensions
WO2021234278A1 (fr) Système et procédé pour estimer un indicateur d&#39;activité tissulaire d&#39;un organe
Playout Système d'Apprentissage Multitâche Dédié à la Segmentation des Lésions Sombres et Claires de la Rétine dans les Images de Fond d'Oeil
FR3082982A1 (fr) Procede de determination de l&#39;infiltration de cellules biologiques dans un objet biologique d&#39;interet
Arjang Analysis of Topological Distribution of Skin Lesions
WO2023006918A1 (fr) Procédé d&#39;analyse d&#39;une image endoscopique de la paroi interne d&#39;un organe creux, dispositif et produit programme d&#39;ordinateur correspondants
WO2024156813A1 (fr) Procédé de caractérisation lésionnelle du cœur et système associé

Legal Events

Date Code Title Description
FG Patent granted

Effective date: 20220518