EP2149122A1 - Procede et dispositif d'acquisition et de traitement de donnees pour la detection de l'evolution dans le temps de lesions evolutives - Google Patents

Procede et dispositif d'acquisition et de traitement de donnees pour la detection de l'evolution dans le temps de lesions evolutives

Info

Publication number
EP2149122A1
EP2149122A1 EP08805867A EP08805867A EP2149122A1 EP 2149122 A1 EP2149122 A1 EP 2149122A1 EP 08805867 A EP08805867 A EP 08805867A EP 08805867 A EP08805867 A EP 08805867A EP 2149122 A1 EP2149122 A1 EP 2149122A1
Authority
EP
European Patent Office
Prior art keywords
image
data
images
acquisition
database
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
EP08805867A
Other languages
German (de)
English (en)
Inventor
Laurent Petit
Philippe Andres
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Galderma Research and Development SNC
Original Assignee
Galderma Research and Development SNC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Galderma Research and Development SNC filed Critical Galderma Research and Development SNC
Publication of EP2149122A1 publication Critical patent/EP2149122A1/fr
Withdrawn legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/44Detecting, measuring or recording for evaluating the integumentary system, e.g. skin, hair or nails
    • A61B5/441Skin evaluation, e.g. for skin disorder diagnosis
    • A61B5/445Evaluating skin irritation or skin trauma, e.g. rash, eczema, wound, bed sore
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/20ICT specially adapted for the handling or processing of medical images for handling medical images, e.g. DICOM, HL7 or PACS
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing

Definitions

  • the invention relates to the field of data processing and, in particular, to the field of dermatological image data processing.
  • the invention relates to the acquisition and processing of data for detecting the evolution over time of progressive lesions.
  • a particularly interesting application of the invention thus relates to the monitoring of the evolution over time of the acne state of the skin.
  • the monitoring of the evolution of a dermatological pathology, such as acne can be carried out by image processing.
  • image processing it is necessary to use successive recording recordings obtained at different times of an organ to be monitored, in this case the skin, and to compare the data thus obtained in order to detect the appearance and development of new lesions or on the contrary, their disappearance.
  • FR-A-2 830 962 in which, after visualization, the images undergo a pretreatment so as, on the one hand, to carry out a geometric registration of the images with respect to a reference image, and, on the other hand, on the other hand, to correct biases caused by more or less important differences in intensity between zones of the same image.
  • the object of the invention is to overcome the drawbacks associated with conventional image acquisition and processing techniques and, in particular, to improve the proposed functionalities so as to facilitate comparisons between data, particularly image data.
  • Another object of the invention is to propose a method and a device for acquiring data, in particular image data, which makes it possible to considerably reduce the evaluation duration of a processing.
  • the object of the invention is therefore, according to a first aspect, a data acquisition and processing method for detecting the evolution over time of progressive lesions, comprising the steps of:
  • At least one corresponding item extracted from the database is inserted into an image being viewed.
  • the data comprises image data.
  • images are successively formed according to different respective acquisition modes, so that at each instant of shooting a set of images obtained according to different modes is formed. respective acquisitions, the images formed in the database are stored and the images are displayed by selection and display of the selected images on a display screen.
  • a region of interest is delimited in the image and a corresponding zone of an image extracted from the image is inserted into the image being viewed. database.
  • the images stored in memories being associated with data relating to a parameter of the surface, at least part of said data of an exported image zone is inserted simultaneously into the region of interest.
  • the storage of the images in a database allows an organization of the files in order, for example, to follow in parallel various types of processing and to facilitate the consultation of the images.
  • a region of interest is delimited in the visualized image and a corresponding zone of an image formed at the same instant in a mode of operation is inserted into the image being viewed. different acquisition.
  • the images stored in memory are associated with data relating to a parameter of the surface, and at least a portion of said data of an exported image area is inserted simultaneously into the region of interest. . It is also possible to insert in the image being viewed a corresponding area of an image formed according to a different acquisition mode.
  • the region of interest being movable in the image being viewed, the portion of the image extracted from the database is dynamically updated so as to correspond to the region of interest being displacement.
  • the method comprises a step of processing the images formed by geometric matching of the images.
  • this processing step includes selecting a reference image and geometrically changing the set of images formed to match the reference image.
  • a reference acquisition mode and the geometric modification of each image formed from the other acquisition modes can be selected to match the image formed from the acquisition mode. reference.
  • the processing step includes the steps of;
  • a similarity vector field is generated between respective areas of the image to be processed and the reference image and the transformation function is calculated from the developed vector field.
  • the processing step may further include modifying the intensity of the processed image to match that of the reference image.
  • the processing step may furthermore comprise a step for visualizing the transformation during which a mesh is applied to the image to be processed, the mesh is deformed by means of the function of transformation and one displays the deformed mesh on the screen of visualization.
  • the object of the invention is also, according to a second aspect, a device for acquiring and processing data for detecting the evolution over time of progressive lesions, comprising data acquisition means adapted for acquisition sequentially of the data according to different acquisition modes, so that at each moment of acquisition a set of data obtained according to respective acquisition modes is formed, a database for the storage of data sequences thus acquired, a display screen for viewing data extracted from the database and a central processing unit comprising means for inserting into an image being viewed at least one corresponding data extracted from the database.
  • the data includes image data.
  • this device comprises means of shooting associated with lighting means adapted together for the formation of successive images according to different acquisition modes so that at each moment of shooting one forms a set of images obtained according to different acquisition modes.
  • the central processing unit is associated with a human-machine interface comprising means for delimiting a region of interest in an image being viewed.
  • the central unit may further comprise means for inserting in said image a corresponding area of an image extracted from the database.
  • the means for inserting in said image a corresponding zone of an image extracted from the image base comprise means for dynamically developing said zone as a function of a displacement of the region of the image. interest in the image being viewed.
  • the central processing unit further comprises image transformation means for geometrically deforming the images to make them correspond to a reference image.
  • the image transformation means comprise means for delimiting at least one calibration zone in said images, means for calculating a coefficient of similarity between the calibration zones of an image to be deformed, on the one hand, and of the reference image, on the other hand, and for calculating a transformation function from the calculated coefficients, and means for applying said function to the entire image to be deformed.
  • the CPU may further include intensity control means adapted to change the intensity of each transformed image to match that of the reference image.
  • FIG. 1 is a block diagram illustrating the general architecture of an image acquisition and processing device according to the invention
  • FIG. 2 is a block diagram showing the structure of the central unit of the device of FIG. 1;
  • FIGS. 3 and 4 illustrate the method of resetting the images
  • FIGS. 5 to 9 show the human-machine interface of the device of FIG. 1 allowing the adjustment of display parameters and the choice of a region of interest;
  • FIG. 10 shows the procedure for superimposing an area extracted from another image in the region of interest
  • FIG. 13 illustrates a flowchart illustrating the operation of the image acquisition and processing method according to the invention.
  • FIG. 1 there is shown the general architecture of an image acquisition and processing device according to the invention, designated by the general reference numeral
  • this device is intended to follow the evolution over time of acne lesions by taking successive shots according to predetermined periods of time of the skin of a patient, and to realize the archiving the images formed, their visualization and comparison.
  • Such a device is intended to monitor the evolution over time of progressive lesions, such as acne, psoriasis, rosacea, pigment disorders, onychomycosis, actinic keratosis, skin cancers.
  • Such a device can thus advantageously be used by practitioners to determine the effectiveness of a treatment or, for example, to implement clinical trials in order to likewise assess the effectiveness of a new treatment. product.
  • the invention is not limited to use in the field of dermatology and may also apply mutatis mutandis to any other field in which it is necessary to carry out a comparative analysis of successive images of an organ or, in general, a surface to be examined. It will also be noted that it is not beyond the scope of the invention when one follows the evolution in time of progressive lesions from a periodic acquisition of data of other kinds, from an archiving of this data and further processing of this data.
  • the device As seen in FIG. 1, in the illustrated embodiment in which the data is image data, the device
  • a camera 10 essentially comprises a camera 12 placed on a fixed support 13 and a lighting device 14 connected to a central unit 15 comprising a set of hardware and software means for controlling the operation of the camera 12 and the lighting device 14 in order to take pictures of the skin of a patient P according to various lighting modes and this, successively and control the subsequent exploitation of the results.
  • the patient P undergoes examination sessions, for example at a rate of one every days, for a period which may be of the order of one month and, at each visit, photographs are taken according to various lighting modes used respectively to assess various characteristics of the lesions or to acquire data relating to parameters of the patient's skin.
  • photographs are taken under illumination under natural light, in parallel polarized light, and in cross-polarized light.
  • the modes of shooting can also be performed by UVA irradiation or irradiation, near infra-red, by using an infrared thermography, or at different wavelengths (multispectral images). It is also possible to perform an arithmetic combination of these images thus formed.
  • the image data could furthermore be combined with data obtained by means of various measuring devices, for example by means of an evaporimeter to determine the insensible loss of water of the skin, at the using a sebumeter to determine the level of sebum in the skin, or by means of a pH meter to determine, for example, changes in the skin due to an irritating treatment,.
  • the image data may also be associated with microcirculation or desquamation information using appropriate measuring instruments, or with hydration using, for example, a corneometer.
  • the lighting device 14 incorporates various lighting means for emitting the radiation chosen, for example, as indicated above, in a normal light, parallel or perpendicular polarized light. But in other embodiments, the lighting device 14 may further incorporate if one A UVA source, a source of near - infrared radiation or infrared radiation, or different wavelengths to form multispectral images or to achieve arithmetic combinations of such images.
  • the central unit 15 is associated with an image database 16, or generally a database, in which all the images taken at each visit are stored and organized according to the various lighting modes associated with complementary data delivered by the measuring devices. It is also associated with a human-machine interface 17 constituted, for example, by a keyboard, a mouse, or any other means suitable for the intended use and comprising a display screen 18 for viewing the images formed. As can be seen, the device 10 can communicate by wired or wireless link with a remote user station 19 or a network of such stations making it possible, for example, to retrieve, consult, compare and remotely exploit the images stored in the database 16.
  • the device 10 is completed by a support 20 placed at a distance and at a fixed height relative to the camera 12 in order to allow precise positioning of the patient's body area P relative to the latter.
  • the support 20 may advantageously be supplemented by complementary means making it possible to position and precisely maintain the selected body area, for example in the form of a chin strap or bearing surfaces for the patient's head so that, at each visit, the patient's face is positioned precisely in relation to the camera.
  • the central unit pre-processes the images formed by geometric registration of the images. images.
  • this registration may be rigid, that is to say that it does not change the forms, or non-rigid, or affine, and thus modify the forms according to a certain number of degrees of freedom.
  • this registration is performed with respect to a reference image, that is to say, on the one hand, with respect to an image formed during a reference examination and , on the other hand, with respect to a reference image.
  • this reference image may be constituted by an image taken according to a predetermined acquisition mode, for example taken under natural light.
  • the images, previously organized, are stored in the image database 16, so that they can later be consulted and compared.
  • the CPU 15 comprises a set of hardware and software modules for image processing, organization and operation.
  • a first module 21 for managing images or data making it possible to group patients suffering from the same pathology or to create a clinical study relating, for example, to a treatment of which the performance must be assessed, or an existing study selected.
  • This module 21 makes it possible to define and organize, in the database 16, a memory zone assigned an identifier and comprising a certain number of patients, a set of visits, specific modes of shooting, zones of the body photographed, even regions of interest in the stored images and parameters to monitor, from the measuring devices.
  • the first management module 21 is associated with a second image management module 22 which makes it possible to import images into the device 10 and to link them to a previously created study, to a patient, to a visit, to a region of interest and a mode of shooting.
  • the central unit 15 is also provided with a module 23 for resetting the images.
  • This registration module 23 comprises a first stage 23a ensuring the registration of all the images formed during the different visits on a reference visit and a second floor
  • the registration of the images implemented by the central unit 15 is based on a comparison of an image I to be recalibrated with respect to a reference image I re f.
  • this comparison is to develop a similarity criterion, for example a correlation coefficient of the reference zones Z ref to the reference image and consists in searching in the reference image, the area Z 'ref the most similar of each reference zone Z re f of the image to be recalibrated I.
  • a similarity criterion for example a correlation coefficient of the reference zones Z ref to the reference image and consists in searching in the reference image, the area Z 'ref the most similar of each reference zone Z re f of the image to be recalibrated I.
  • this calculation makes it possible to elaborate a vector field V each illustrating the deformation to be applied to a reference zone so as to correspond to a similar zone of the reference image.
  • the image registration module performs a calculation of the transformation to be applied to the image I to obtain an exact matching of a zone of the body from one examination to another or, in general, from one image to another. It is, in other words, to look for the affine or free transformation which best represents the vector field and to apply this transformation to the whole image.
  • the CPU 15 may optionally correct bias in the image by correcting the intensity of the imaged image so that its intensity is similar to the reference image.
  • the central unit 15 After having performed this pretreatment, the central unit 15 proceeds to store the images in the image database 16, associated, if necessary, as indicated above, with complementary data. For this purpose, it uses a module 24 for generating a set of corrected images in order, in particular, to be able to export the images so that they can be used in processing software of other kinds.
  • the central unit 15 further comprises a dynamic display module of the set of imaged images, designated by the general reference numeral 25.
  • This module 25 is directly parameterizable by the human-machine interface 17 in conjunction with the screen 18 and includes all the hardware and software means for navigating within the image database 16 to display the set of recalibrated images, adjust the viewing parameters, such as zoom, brightness, contrast, the shooting mode displayed, delimit regions of interest or, as will be described in detail later, to incorporate into a region defined in an image being viewed, a corresponding region extracted from another image, for example an image taken according to another mode of shooting. Referring to Figures 5 to 9, to do this, the central unit
  • the 15 causes the display, on the screen 18, a number of windows or, in general, an interface providing the user with a number of tools to allow such dynamic visualization of the images.
  • a first window F1 makes it possible to display all the visits previously made and to select one of the visits in order to extract the corresponding images from the image database.
  • a second window F2 (FIG. 6) makes it possible to choose, for each image, an acquisition mode and complementary images relating, for example, to other areas of the photographed face.
  • a first icon II makes it possible to select the zone of the face to identify, for example the right cheek, the left cheek, the forehead, the chin, while a second icon 12 makes it possible to select the mode of exposure, eg natural light, polarized parallel or cross light,
  • a control window F3 (FIG. 7) makes it possible to display, in a global image, an image portion under examination and to move rapidly in the image.
  • the central unit 15 can also provide a control window F4 for adjusting the zoom level, brightness and contrast of the image displayed ( Figure 8) or a window F5 to select a slideshow scroll mode according to which the images of the different visits or a visit framing a selected visit are presented on the screen with an adjustable scrolling speed (FIG. 9).
  • a control window F4 for adjusting the zoom level, brightness and contrast of the image displayed ( Figure 8) or a window F5 to select a slideshow scroll mode according to which the images of the different visits or a visit framing a selected visit are presented on the screen with an adjustable scrolling speed (FIG. 9).
  • the processing unit 15 further includes an image processing module 26 which cooperates with the display module 25 to jointly offer the user a tool for selecting a region of interest R in an image being viewed, to select another image, for example an image taken in another mode of shooting, to import a zone Z of the selected image corresponding to the region of interest R and d. to integrate in image I the zone Z extracted from the selected image.
  • the central unit 15 and, in particular, the processing module 26, extracted from the image corresponding to the selection, the zone Z corresponding to the region of interest and inserts it into the image in order to be able to dynamically dispose of another mode of shooting in a selected portion of an image being viewed.
  • any other data extracted from the database can also be incorporated in the region of interest R in place of or in addition to the imported zone Z, for example any type of data obtained.
  • a parameter of the skin such as pH data, insensitive water loss, sebumetry, hydration data such as skinchip or corneometry, microcirculation, desquamation, the color or elasticity of the skin.
  • the central unit 15 is provided with an automatic lesion detection module 27 ensuring, for example, a comparison of the data associated with each pixel with a detection threshold value. of lesions.
  • the intensity profile as a function of time has a perfectly identifiable peak when it is present on the skin, that is to say that the skin becomes more darker or lighter, or more red, depending on the type of lesion. It is then possible to automatically detect and qualify the appearance of a lesion by comparing the intensity profiles with a threshold value. For example, as shown, the variation profile of the red / blue signal ratio can be compared with an intensity threshold value corresponding to a value "2".
  • the automatic lesion detection module 27 extracts, for each image, zone by zone, the values of the parameters monitored, and thus elaborates, for all the images formed successively in time, and for each parameter, a profile of variation of the parameter as a function of time.
  • the monitored parameter can be constituted by any type of parameter related to the images, and in particular a colorimetric parameter, that is to say, in particular, the intensity of the red, green and blue components. and the component ratio, for example the ratio of the intensity of the red component to the blue component.
  • the module 27 thus collects all the values of the parameters monitored over a configurable period of time and produces curves illustrating the evolution of these parameters to present them to the user. As illustrated in Figures 1 1 and 12, it is therefore possible, for example, to have the evolution of the values of the components of red, green and blue and the ratio of these components. For each of the monitored zones, the detection module 27 performs a calculation of the difference of the value of the parameters with a corresponding lesion detection threshold value.
  • this calculation is carried out after selection, by the user, of one or more parameters, depending on the nature of the lesion to be detected and, if appropriate, after entering a threshold value or of several respective threshold values by the user.
  • the threshold value which can be stored in memory in the central unit 15 or entered manually, is parameterizable and depends on the monitored parameter.
  • the appearance of a lesion results in a variation in the damaged area of the color components.
  • the lesion causes a relatively large decrease in the blue and green components, relative to the change in the red component, which results in a locally significant increase in the ratio of red and blue for the duration of onset of the lesion.
  • Another threshold value is used when the detection of a lesion is made from another parameter.
  • the detection of a lesion is carried out by the module 27, zone by zone.
  • the dimensions of the monitored zones constitute a parameterizable value which depends on the size of the lesions to be detected.
  • the central unit 15 proceeds to the successive acquisition of a set of images taken successively in time during various visits of a patient and, for each visit, according to various modes of Shooting.
  • the central unit 15 implements the study and management management modules 21 and 22 in order to create a study or to assign the images formed to a study previously entered.
  • the images are re-aligned according to the procedure previously indicated, by implementing the image registration modules 23-a and 23-b in order to, on the one hand, recalibrate the images.
  • a set of staggered images (step 33) is then produced, which are then stored in the image database 16.
  • the image data can be supplemented by data provided by other types of sensors in order to supplement the available information.
  • the central unit 15 offers the user a number of interfaces making it possible to select display parameters, to choose one or more regions of interest, and to navigate from one image to another at the same time. within the region of interest, to choose various areas of a face, ...

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Medical Informatics (AREA)
  • Public Health (AREA)
  • General Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Surgery (AREA)
  • Veterinary Medicine (AREA)
  • Molecular Biology (AREA)
  • Biomedical Technology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Pathology (AREA)
  • Biophysics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Epidemiology (AREA)
  • Primary Health Care (AREA)
  • Dermatology (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)

Abstract

Ce procédé d' acquisition et de traitement de données pour la détection de l'évolution dans le temps de lésions évolutives comprend les étapes de :acquisitions successives des données selon des modes d' acquisition différents, de sorte qu' à chaque instant d'acquisition, on forme un ensemble de données obtenues selon des modes d' acquisition respectifs; stockage des données acquises dans une base de données; et visualisation des données par sélection et affichage des données sélectionnées sur un écran de visualisation, Au cours de l' étape de visualisation d'une donnée on insère dans une image en cours de visualisation au moins une donnée correspondante extraite de la base de données.

Description

Procédé et dispositif d'acquisition et de traitement de données pour la détection de l'évolution dans le temps de lésions évolutives
L 'invention se rapporte au domaine du traitement de données et, en particulier, au domaine du traitement de données d' images dermatologiques.
Plus particulièrement, l'invention concerne l' acquisition et le traitement de données pour la détection de l'évolution dans le temps de lésions évolutives.
Une application particulièrement intéressante de l' invention concerne ainsi le suivi de l' évolution dans le temps de l' état acnéique de la peau.
Le suivi de l' évolution d'une pathologie dermatologique, telle que l' acné, peut s ' effectuer par traitement d' images. Mais cela nécessite dans ce cas de mettre en œuvre des enregistrements de prises de vues successives obtenus à différents temps d'un organe à surveiller, en l' espèce la peau, et de comparer les données ainsi obtenues afin de détecter l' apparition et le développement de nouvelles lésions ou au contraire, leur disparition.
Afin de permettre une comparaison efficace des images, il est nécessaire de procéder à un recalage des images afin de les rendre superposables ou, de manière générale, de permettre une comparaison de surfaces identiques de l'organe surveillé. On pourra à cet égard se référer aux documents FR-A-
2 830 961 et FR-A-2 830 962 dans lesquels, après visualisation, les images subissent un prétraitement afin, d'une part, de procéder à un recalage géométrique des images par rapport à une image de référence, et, d' autre part, de corriger des biais engendrés par des différences d'intensités plus ou moins importantes entre des zones d'une même image.
Par ailleurs, dans le but de faciliter la détection et le suivi de l'évolution des lésions, il a été proposé de réaliser les prises de vues au moyen d' éclairages de types différents afin, par exemple, de faciliter l' appréciation du relief ou de l' inflammation des lésions et de faciliter leur identification et leur comptage. Toutefois, selon les différentes techniques d' acquisition et de traitement d'images classiquement utilisées, la consultation des différentes images s 'effectue en les sélectionnant et en affichant successivement chacune des images, les unes après les autres, ce qui rend leur comparaison relativement fastidieuse et peu efficace.
Par ailleurs, il a été constaté que le suivi de l' évolution d'une pathologie nécessite, de la part des praticiens ou des laboratoires de recherche, de suivre l'évolution de la pathologie sur une durée relativement importante, pouvant aller jusqu' à six mois, pour déterminer l' efficacité d'un produit.
Par conséquent, le but de l' invention est de pallier les inconvénients liés aux techniques d' acquisition et de traitement d' images conventionnelles et, en particulier, d' améliorer les fonctionnalités proposées de manière à faciliter les comparaisons entre des données, notamment des données d'image.
Un autre but de l' invention est de proposer un procédé et un dispositif d' acquisition de données, notamment des données d' image, qui permette de réduire considérablement la durée d' évaluation d'un traitement. L 'invention a donc pour objet, selon un premier aspect, un procédé d' acquisition et de traitement de données pour la détection de l'évolution dans le temps de lésions évolutives, comprenant les étapes de :
- acquisitions successives des données selon des modes d' acquisition différents, de sorte qu'à chaque instant d' acquisition, on forme un ensemble de données obtenues selon des modes d' acquisition respectifs ;
- stockage des données acquises dans une base de données ; et
- visualisation des données par sélection et affichage des données sélectionnées sur un écran de visualisation.
En outre, au cours de l' étape de visualisation d'une donnée, on insère dans une image en cours de visualisation au moins une donnée correspondante extraite de la base de données.
Selon une autre caractéristique de l' invention, les données comprennent des données d' image. Ainsi, dans un exemple de mise en œuvre de l'invention, on forme successivement des images selon des modes d' acquisition respectifs différents, de sorte qu'à chaque instant de prise de vues on forme un ensemble d' images obtenues selon des modes d'acquisition respectifs, on stocke les images formées dans la base de données et l'on visualise les images par sélection et affichage des images sélectionnées sur un écran de visualisation.
En outre, au cours de l'étape de visualisation d'une image, on délimite une région d' intérêt dans l' image et l' on insère dans l' image en cours de visualisation une zone correspondante d'une image extraite de la base de données.
On peut ainsi en outre associer à la zone importée d'une autre image des données additionnelles. Ainsi, par exemple, les images stockées en mémoires étant associées à des données relatives à un paramètre de la surface, on insère simultanément une partie au moins desdites données d'une zone d' image exportée dans la région d' intérêt.
On conçoit ainsi que l' intégration à une image en cours de visualisation d'une zone extraite d'une autre image de la base d' images permet de faciliter grandement la comparaison entre les images et de faciliter ainsi de manière considérable le suivi de l'évolution d'une lésion.
En outre, le stockage des images dans une base de données permet une organisation des fichiers afin, par exemple, de suivre en parallèle divers types de traitement et de faciliter la consultation des images.
Selon un autre caractéristique de l' invention, on délimite une région d' intérêt dans l' image visualisée et l'on insère dans l'image en cours de visualisation une zone correspondante d'une image formée au même instant selon un mode d' acquisition différent. En outre, par exemple, les images stockées en mémoire sont associées à des données relatives à un paramètre de la surface, et l' on insère simultanément une partie au moins desdites données d'une zone d' image exportée dans la région d' intérêt. On peut également insérer dans l' image en cours de visualisation une zone correspondante d'une image formée selon un mode d' acquisition différent. Avantageusement, la région d' intérêt étant déplaçable dans l' image en cours de visualisation, on met à jour dynamiquement la portion de l' image extraite de la base de données de manière à la faire correspondre à la région d'intérêt en cours de déplacement. Selon encore une autre caractéristique de l' invention, le procédé comprend une étape de traitement des images formées par mise en correspondance géométrique des images.
Par exemple, cette étape de traitement comprend la sélection d'une image de référence et la modification géométrique de l' ensemble des images formées pour les faire correspondre à l' image de référence.
On peut en outre procéder à la sélection d'un mode d' acquisition de référence et à la modification géométrique de chaque image formée à partir des autres modes d' acquisition pour la faire correspondre à l' image formée à partir du mode d' acquisition de référence.
Dans un mode de mise en œuvre, l' étape de traitement comprend les étapes de ;
- calcul d'un ensemble de coefficients de similitude entre au moins une zone de l'image à traiter et une ou plusieurs zones correspondantes de l'image de référence ;
- calcul d'une fonction de transformation à partir des coefficients de similitude calculés ; et
- application de la fonction de transformation à l' ensemble de l' image à traiter. Par exemple, on élabore un champ de vecteurs de similitude entre des zones respectives de l' image à traiter et de l' image de référence et l'on calcule la fonction de transformation à partir du champ de vecteurs élaboré.
L ' étape de traitement peut en outre comprendre une modification de l' intensité de l' image traitée pour la faire correspondre à celle de l'image de référence.
Dans un mode de mise en œuvre, l' étape de traitement peut comprendre en outre une étape permettant de visualiser la transformation au cours de laquelle on applique sur l' image à traiter un maillage, on déforme le maillage au moyen de la fonction de transformation et l' on affiche le maillage déformé sur l' écran de visualisation.
L 'invention a également pour objet, selon un second aspect, un dispositif d' acquisition et de traitement de données pour la détection de l'évolution dans le temps de lésions évolutives, comprenant des moyens d' acquisition des données adaptés pour l' acquisition successives des données selon des modes d' acquisition différents, de sorte qu'à chaque instant d' acquisition on forme un ensemble de données obtenues selon des modes d' acquisition respectifs, une base de données pour le stockage de séquences de données ainsi acquises, un écran de visualisation pour la visualisation de données extraites de la base de données et une unité centrale de traitement comprenant des moyens pour insérer dans une image en cours de visualisation au moins une donnée correspondante extraite de la base de données. Selon une autre caractéristique de ce dispositif, les données comprennent des données d' image.
Ainsi, par exemple, ce dispositif comprend des moyens de prise de vues associés à des moyens d' éclairage adaptés conjointement pour la formation d'images successives selon des modes d' acquisition différents de sorte qu'à chaque instant de prise de vues on forme un ensemble d' images obtenues selon des modes d'acquisition différents.
En outre, l'unité centrale de traitement est associée à une interface homme-machine comprenant des moyens pour délimiter une région d' intérêt dans une image en cours de visualisation. L 'unité centrale peut en outre comprendre des moyens pour insérer dans ladite image une zone correspondante d'une image extraite de la base de données.
Selon une encore une autre caractéristique de ce dispositif, les moyens pour insérer dans ladite image une zone correspondante d'une image extraite de la base d'images comprennent des moyens pour élaborer dynamiquement ladite zone en fonction d'un déplacement de la région d' intérêt dans l' image en cours de visualisation.
Selon encore une autre caractéristique de ce dispositif, l'unité centrale de traitement comprend en outre des moyens de transformation des images pour déformer géométriquement les images pour les faire correspondre à une image de référence. Par exemple, les moyens de transformation des images comprennent des moyens pour délimiter au moins une zone de calibrage dans lesdites images, des moyens pour calculer un coefficient de similitude entre les zones de calibrage d'une image à déformer, d'une part, et de l'image de référence, d' autre part, et pour calculer une fonction de transformation à partir des coefficients calculés, et des moyens pour appliquer ladite fonction à l' ensemble de l' image à déformer.
L 'unité centrale peut en outre comprendre des moyens de contrôle d'intensité adaptés pour modifier l'intensité de chaque image transformée pour la faire correspondre à celle de l' image de référence.
D ' autres buts, caractéristiques et avantages de l' invention apparaîtront à la lecture de la description suivante, donnée uniquement à titre d'exemple non limitatif, et faite en référence aux dessins annexés, sur lesquels :
- la figure 1 est un schéma synoptique illustrant l'architecture générale d'un dispositif d' acquisition et de traitement d' images conforme à l' invention ;
- la figure 2 est un schéma synoptique montrant la structure de l'unité centrale du dispositif de la figure 1 ;
- les figures 3 et 4 illustrent la méthode de recalage des images ;
- les figures 5 à 9 montrent l'interface homme-machine du dispositif de la figure 1 permettant le réglage de paramètres de visualisation et le choix d'une région d' intérêt ;
- la figure 10 montre la procédure de superposition d'une zone extraite d'une autre image dans la région d'intérêt ;
- les figures 1 1 et 12 illustrent la procédure de détection automatique de lésions ; et - la figure 13 illustre un organigramme illustrant le fonctionnement du procédé d' acquisition et de traitement d' images conforme à l' invention.
En référence à la figure 1 , on a représenté l' architecture générale d'un dispositif d'acquisition et de traitement d' images conforme à l' invention, désigné par la référence numérique générale
10. Dans l' exemple de réalisation représenté, ce dispositif est destiné à suivre l' évolution dans le temps de lésions acnéiques en procédant à des prises de vues successives selon des périodes de temps prédéterminées de la peau d'un patient, et à réaliser l' archivage des images formées, leur visualisation et leur comparaison.
On notera cependant qu'un tel dispositif est destiné à suivre l'évolution dans le temps de lésions évolutives, telles que l' acné, le psoriasis, la rosacée, les désordres pigmentaires, l'onychomycose, la kératose actinique, les cancers cutanés. Un tel dispositif peut ainsi être avantageusement être utilisé par des praticiens pour déterminer l' efficacité d'un traitement ou, par exemple, pour mettre en œuvre des essais cliniques afin, de la même façon, d' apprécier l' efficacité d'un nouveau produit.
On notera cependant que l'invention n' est pas limitée à une utilisation dans le domaine de la dermatologie et peut également s 'appliquer mutatis mutandis à tout autre domaine dans lequel il est nécessaire de procéder à une analyse comparative d' images successives d'un organe ou, de manière générale, d'une surface à examiner. On notera de même que l' on ne sort pas du cadre de l'invention lors que l' on suit l' évolution dans le temps de lésions évolutives à partir d'une acquisition périodique de données d' autres natures, d'un archivage de ces données et d'un traitement ultérieur de ces données.
Comme on le voit sur la figure 1 , dans le mode de réalisation illustré dans lequel les données sont des données d' image, le dispositif
10 comprend essentiellement un appareil de prise de vues 12 placé sur un support 13 fixe et un dispositif d'éclairage 14 raccordés à une unité centrale 15 comprenant un ensemble de moyens matériels et logiciels permettant de commander le fonctionnement de l' appareil de prise de vues 12 et du dispositif d' éclairage 14 afin de procéder à des prises de vues de la peau d'un patient P selon divers modes d'éclairage et ce, de manière successive et contrôler l'exploitation ultérieure des résultats.
En effet, dans l'exemple de réalisation envisagé dans lequel le dispositif 10 est destiné à permettre à un praticien ou à un laboratoire de recherche de déterminer l' efficacité d'un traitement, le patient P subit des séances d' examen, par exemple à raison de une tous les jours, pendant une durée pouvant être de l'ordre de un mois et, à chaque visite, on procède à des prises de vues selon divers modes d' éclairage servant respectivement à apprécier diverses caractéristiques des lésions ou à acquérir des données relatives à des paramètres de la peau du patient.
Par exemple, on procède à des prises de vues selon un éclairage sous lumière naturelle, selon une lumière polarisée en parallèle, et selon une lumière polarisée croisée.
En effet, la lumière polarisée en parallèle permet d' apprécier aisément les reliefs des lésions alors que la lumière polarisée croisée permet de faciliter le comptage des lésions inflammatoires en améliorant leur visualisation.
Les modes de prises de vues peuvent également s' effectuer par éclairage ou irradiation en UVA, en proche infra-rouge, par mise en oeuvre d'une thermographie infra-rouge, ou sous différentes longueurs d' onde (images multispectrales). Il est également possible de procéder à une combinaison arithmétique de ces images ainsi formées.
On peut également utiliser d' autres types d' éclairage ou encore combiner les images formées avec des données complémentaires obtenues à l'aide de moyens de mesure appropriés.
Ainsi, de manière non limitative, on pourrait en outre combiner les données d' images avec des données obtenues au moyen de divers dispositifs de mesure, par exemple au moyen d'un évaporimètre afin de déterminer la perte insensible en eau de la peau, au moyen d'un sébumètre, afin de déterminer le taux de sébum de la peau, ou au moyen d'un PHmètre dans le but de déterminer, par exemple, les modifications subies par la peau en raison d'un traitement pouvant être irritant, ... On pourrait encore associer aux données d' images des informations relatives à la microcirculation ou à la desquamation de la peau en utilisant des appareils de mesure appropriés, ou encore à l'hydratation en utilisant par exemple un corneomètre.
Le dispositif d' éclairage 14 incorpore divers moyens d' éclairage permettant d'émettre le rayonnement choisi, par exemple, comme indiqué précédemment, selon une lumière normale, une lumière polarisée parallèle ou perpendiculaire. Mais, dans d'autres modes de réalisation, le dispositif d' éclairage 14 peut en outre incorporer si on le souhaite, une source de rayons UVA, une source de rayons émettant dans le domaine du proche infrarouge ou dans le domaine de l' infrarouge ou encore selon différentes longueurs d' ondes pour former des images multispectrales ou en vue de réaliser des combinaisons arithmétiques de telles images.
Comme on le voit sur la figure 1 , l'unité centrale 15 est associée à une base d' images 16, ou de manière générale une base de données, dans laquelle sont stockées et organisées l' ensemble des images prises à chaque visite selon les divers modes d' éclairage associée à des données complémentaires délivrés par les dispositifs de mesure . Elle est encore associée à une interface homme-machine 17 constituée, par exemple, par un clavier, une souris, ou tout autre moyen approprié pour l'utilisation envisagée et comprenant un écran de visualisation 18 permettant de visualiser les images formées. Comme on le voit, le dispositif 10 peut communiquer par liaison filaire ou non filaire avec un poste d'utilisateur distant 19 ou à un réseau de tels postes permettant, par exemple, de récupérer, consulter, comparer et exploiter à distance les images stockées dans la base de données 16. Enfin, dans le but de rendre les conditions de prise de vues sensiblement reproductibles, le dispositif 10 est complété par un support 20 placé à distance et à hauteur fixe par rapport à l'appareil de prise de vues 12 afin de permettre un positionnement précis de la zone du corps du patient P par rapport à ce dernier. Le support 20 peut être avantageusement complété par des moyens complémentaires permettant de positionner et maintenir précisément la zone corporelle choisie, par exemple sous la forme d'une mentonnière ou de surfaces d' appui pour la tête du patient afin, qu'à chaque visite, le visage du patient soit positionné de manière précise par rapport à l' appareil de prise de vues.
Toutefois, afin d' améliorer les performances du dispositif et de rendre comparables les images entre elles en mettant en correspondance exacte les parties du corps d'un examen à un autre, l'unité centrale procède à un prétraitement des images formées par recalage géométrique des images. Suivant le cas, ce recalage peut être rigide, c' est-à-dire qu' il ne change pas les formes, ou bien non rigide, ou bien affine, et modifiera ainsi les formes selon un certain nombre de degrés de liberté.
Comme cela sera décrit en détail par la suite, ce recalage s 'effectue par rapport à une image de référence, c' est-à-dire, d'une part, par rapport à une image formée lors d'un examen de référence et, d' autre part, par rapport à une image de référence. Par exemple, cette image de référence peut être constituée par une image prise selon un mode d' acquisition prédéterminé, par exemple prise sous lumière naturelle.
Après avoir effectué ce prétraitement, les images, préalablement organisées, sont stockées dans la base d' images 16, pour pouvoir ultérieurement être consultées et comparées.
Pour ce faire, en se référant à la figure 2, l'unité centrale 15 comporte un ensemble de modules matériels et logiciels assurant le traitement des images, leur organisation et leur exploitation.
Il comporte ainsi, dans le mode de réalisation envisagé, un premier module 21 de gestion d' images ou de données, permettant de regrouper des patients souffrant d'une même pathologie ou de créer une étude clinique portant, par exemple, sur un traitement dont il convient d' apprécier la performance, ou de sélectionner une étude existante.
Ce module 21 permet de définir et d'organiser, dans la base de données 16, une zone mémo ire affectée d'un identifiant et regroupant un certain nombre de patients, un ensemble de visites, des modes de prise de vues spécifiques, des zones du corps photographiées, voire des régions d' intérêt dans les images stockées et des paramètres à surveiller, issus des dispositifs de mesure.
Par exemple, lors de la création d'une étude par le module 21 , on procède à une détermination d'un mode de prise de vues de référence sur lequel seront ultérieurement recalées les autres images.
Le premier module 21 de gestion est associé à un deuxième module 22 de gestion d'images qui permet d' importer des images dans le dispositif 10 et de les lier à une étude préalablement créée, à un patient, à une visite, à une région d'intérêt et à un mode de prise de vues. L 'unité centrale 15 est également pourvue d'un module 23 de recalage des images.
Ce module de recalage 23 comprend un premier étage 23 a assurant le recalage de l'ensemble des images formées lors des différentes visites sur une visite de référence et un deuxième étage
23-b assurant le recalage des images de chaque visite sur une image de référence prise selon un mode de prise de vues prédéterminé, en l' espèce en lumière naturelle.
En se référant aux figures 3 et 4, le recalage des images mis en œuvre par l'unité centrale 15 est basé sur une comparaison d'une image I à recaler par rapport à une image de référence Iref.
Il s ' agit, en d' autres termes, de spécifier un ensemble de zones de référence Zref dont le nombre et la surface sont paramétrables et de comparer chacune des zones Zref avec l' image de référence Iref par exemple en balayant chaque zone de référence sur l' image de référence.
En pratique, cette comparaison consiste à élaborer un critère de similitude, par exemple un coefficient de corrélation des zones de référence Zref vers l' image de référence et consiste donc à rechercher dans l' image de référence, la zone Z 'ref la plus semblable de chaque zone de référence Zref de l'image à recaler I.
Comme on le voit sur la figure 4, ce calcul permet d' élaborer un champ de vecteurs V illustrant chacun la déformation à appliquer sur une zone de référence pour la faire correspondre à une zone similaire de l' image de référence. A partir de ce champ de vecteur, le module de recalage des images procède à un calcul de la transformation à appliquer à l' image I pour obtenir une mise en correspondance exacte d'une zone du corps d'un examen à un autre ou, de manière générale, d'une image à une autre. II s 'agit, en d' autres termes, de rechercher la transformation affine ou libre qui permet de représenter le mieux le champ de vecteurs et d'appliquer cette transformation à l' ensemble de l'image.
La peau, étant un matériau élastique, il a été constaté qu'un recalage non rigide, c 'est-à-dire non affine, permet un meilleur recalage des images après régularisation du champ de vecteurs, ce qui permet d'imposer des contraintes à la transformation et ne pas autoriser tout type de transformation.
Il est en outre proposé à l'utilisateur une représentation de la transformation effectuée afin de valider ou non le recalage d'une image et éviter ainsi une comparaison ultérieure d' images dont les modifications apportées sont trop importantes.
Par exemple, pour ce faire, on superpose à une image à recalée une grille ou, de manière générale, un maillage fictif, et l'on applique la même transformation à ce maillage que celle subie lors du recalage des images. Il est ainsi possible d' apprécier aisément le niveau de déformation appliqué à l'image.
Après avoir effectué le recalage, l'unité centrale 15 peut, de manière optionnelle, corriger des biais dans l' image en corrigeant l' intensité de l'image recalée pour que son intensité soit semblable à l' image de référence.
Après avoir effectué ce prétraitement, l 'unité centrale 15 procède au stockage des images dans la base d' images 16, associées, le cas échéant, comme indiqué précédemment, à des données complémentaires. Elle utilise à cet effet un module 24 de génération d'un jeu d' images recalées afin, notamment, de pouvoir exporter les images pour qu'elles puissent être utilisées dans des logiciels de traitement d'autres natures.
L 'unité centrale 15 comporte encore un module de visualisation dynamique du jeu d'images recalées, désigné par la référence numérique générale 25.
Ce module 25 est directement paramétrable par l' interface homme-machine 17 conjointement avec l' écran 18 et comprend tous les moyens matériels et logiciels permettant de naviguer au sein de la base d'images 16 pour visualiser le jeu d' images recalées, de régler les paramètres de visualisation, tels que le zoom, la luminosité, le contraste, le mode de prise de vues visualisé, de délimiter des régions d'intérêt ou encore, comme cela sera décrit en détails par la suite, d' incorporer à une région délimitée dans une image en cours de visualisation, une région correspondante extraite d'une autre image, par exemple une image prise selon un autre mode de prise de vues. En se référant aux figures 5 à 9, pour ce faire, l'unité centrale
15 provoque l' affichage, sur l 'écran 18, d'un certain nombre de fenêtres ou, de manière générale, d'une interface proposant à l'utilisateur un certain nombre d' outils pour permettre une telle visualisation dynamique des images.
Tout d' abord, en se référant à la figure 5 , une première fenêtre F l permet de visualiser l' ensemble des visites précédemment effectuées et de sélectionner l'une des visites afin d' extraire de la base d' images les images correspondantes. Une deuxième fenêtre F2 (figure 6) permet de choisir, pour chaque image, un mode d' acquisition et des images complémentaires portant par exemple sur d' autres zones du visage photographié. Par exemple, un premier icône I I permet de sélectionner la zone du visage à identifier, par exemple la joue droite, la joue gauche, le front, le menton, ... tandis qu'un deuxième icône 12 permet de sélectionner le mode d' exposition, par exemple lumière naturelle, lumière polarisée en parallèle ou croisée,
En outre, une fenêtre de contrôle F3 (figure 7) permet de visualiser, dans une image globale, une portion d' image en cours d' examen et de se déplacer rapidement dans l'image.
L 'unité centrale 15 peut encore proposer une fenêtre de contrôle F4 permettant de régler le niveau de zoom, de luminosité et de contraste de l' image visualisée (figure 8) ou encore une fenêtre F5 permettant de sélectionner un mode de défilement « diaporama » selon lequel les images des différentes visites ou d'une visite encadrant une visite sélectionnée sont présentées à l' écran avec une vitesse de défilement réglable (figure 9).
En se référant aux figures 2 et 10, l'unité de traitement 15 comporte encore un module de traitement d'images 26 qui coopère avec le module de visualisation 25 pour proposer conjointement à l'utilisateur un outil permettant de sélectionner une région d'intérêt R dans une image en cours de visualisation, de sélectionner une autre image, par exemple une image prise selon un autre mode de prise de vues, d' importer une zone Z de l' image sélectionnée correspondant à la région d' intérêt R et d' intégrer à l'image I la zone Z extraite de l' image sélectionnée. Ainsi, par exemple, après avoir sélectionné une région d' intérêt R et un autre mode de prise de vues, l'unité centrale 15 et, en particulier, le module de traitement 26, extrait de l' image correspondante à la sélection, la zone Z correspondant à la région d'intérêt et l' insère dans l' image afin de pouvoir dynamiquement disposer d'un autre mode de prise de vues dans une portion sélectionnée d'une image en cours de visualisation.
Bien entendu, toute autre donnée extraite de la base, ou une partie seulement de ces données, peut également être incorporée dans la région d' intérêt R en lieu et place ou en plus de la zone importée Z, par exemple tout type de données obtenues par les différents dispositifs de mesure d'un paramètre de la peau, telles que des données de pH, de perte insensible en eau, de sébumétrie, de données d'hydratation comme par exemple le skinchip ou la cornéométrie, la microcirculation, la desquamation, la couleur ou l' élasticité de la peau.
Enfin, en se référant également aux figures 1 1 et 12, l'unité centrale 15 est dotée d'un module 27 de détection automatique de lésions assurant, par exemple, une comparaison des données associées à chaque pixel avec une valeur de seuil de détection de lésions.
En effet, en se référant à la figure 1 1 qui concerne une peau saine, et sur laquelle on a représenté l' évolution de l' intensité i d'une portion d' image en fonction du temps t, ,pour la couleur rouge (courbe C l ), pour la couleur verte (courbe C2), pour la couleur bleue (courbe C3) et pour le rapport rouge/bleu (C4), on voit que, dans une région saine, le profil des intensités oscille autour d'une valeur moyenne correspondante à la couleur de la peau.
Au contraire, comme représenté sur la figure 12 qui correspond à une peau présentant des lésions acnéiques, et sur laquelle les courbes C l , C '2, C '3 et C '4 correspondent respectivement aux courbes C l ,
C2, C3 et C4 de la figure 1 1 , dans une région lésée, le profil d'intensités en fonction du temps présente un pic parfaitement identifiable quand il est présent sur la peau, c' est-à-dire que la peau devient plus sombre ou plus claire, ou plus rouge, selon le type de lésion. II est alors possible de détecter et de qualifier automatiquement l' apparition d'une lésion par comparaison des profils d'intensité avec une valeur de seuil. Par exemple, comme représenté, on peut comparer le profil de variation du rapport des signaux rouge/bleu avec une valeur de seuil d' intensité correspondant à une valeur « 2 ».
Ainsi, comme cela ressort des figures 1 1 et 12, le module 27 de détection automatique de lésions procède à l'extraction, pour chaque image, zone par zone, des valeurs des paramètres surveillés, et élabore ainsi, pour l' ensemble des images formées successivement dans le temps, et pour chaque paramètre, un profil de variation du paramètre en fonction du temps.
Comme indiqué précédemment, le paramètre surveillé peut être constitué par tout type de paramètre lié aux images, et en particulier un paramètre de colorimétrie, c 'est-à-dire, notamment, l' intensité des composantes de rouge, de vert et de bleu et le rapport de composantes, par exemple le rapport entre l'intensité de la composante de rouge et de la composante de bleu.
Le module 27 collecte ainsi l' ensemble des valeurs des paramètres surveillés sur une période de temps paramétrable et élabore des courbes illustrant l' évolution de ces paramètres pour les présenter à l'utilisateur. Comme illustré sur les figures 1 1 et 12, il est dès lors possible, par exemple, de disposer de l'évolution des valeurs des composantes de rouge, de vert et de bleu et du rapport de ces composantes. Pour chacune des zones surveillées, le module 27 de détection procède à un calcul de la différence de la valeur des paramètres avec une valeur de seuil de détection de lésion correspondante.
Bien entendu, ce calcul s 'effectue après sélection, par l'utilisateur, de l'un ou de plusieurs paramètres, en fonction de la nature de la lésion à détecter et, le cas échéant, après saisie d'une valeur de seuil ou de plusieurs valeurs de seuil respectives par l'utilisateur.
En effet, la valeur de seuil, qui peut être stockée en mémoire dans l'unité centrale 15 ou saisie manuellement, est paramétrable et dépend du paramètre surveillé. Comme indiqué précédemment, l' apparition d'une lésion se traduit par une variation, dans la zone lésée, des composantes de couleur. Dans l' exemple illustré sur la figure 12, la lésion engendre une baisse relativement important des composantes de bleu et de vert, par rapport à la modification de la composante de rouge, ce qui se traduit par une élévation localement importante du rapport des composantes de rouge et de bleu pendant la durée d' apparition de la lésion.
Il est ainsi ici possible de détecter l' apparition de la lésion à partir de la variation du rapport des composantes de rouge et de bleu, par comparaison avec une valeur de seuil de détection par exemple fixée à « 2 ».
Bien entendu, on utilise une autre valeur de seuil lorsque la détection d'une lésion s 'effectue à partir d'un autre paramètre. La détection d'une lésion s 'effectue par le module 27, zone par zone. Bien entendu, les dimensions des zones surveillées constituent une valeur paramétrable qui dépend de la taille des lésions à détecter.
On va enfin décrire en référence à la figure 13 les principales phases du procédé d' acquisition et de traitement d' images selon l' invention, pour la détection de l'évolution dans le temps de lésions acnéiques effectuée, dans l' exemple considéré à partir de données d' images formées selon des modes d' éclairage respectifs.
Au cours d'une première étape 30, l'unité centrale 15 procède à l' acquisition successive d'un ensemble d' images prises successivement dans le temps lors de diverses visites d'un patient et, pour chaque visite, selon divers modes de prise de vues.
Ultérieurement ou au préalable, l'unité centrale 15 met en œuvre les modules de gestion d' étude et de gestion 21 et 22 afin de créer une étude ou d'affecter les images formées à une étude préalablement saisie.
Lors de l'étape 32 suivante, il est procédé à un recalage des images, selon la procédure précédemment indiquée, en mettant en œuvre les modules 23-a et 23-b de recalage des images afin, d'une part, de recaler les images sur une visite de référence et, d'autre part, de recaler, à chaque visite, une image sur une image de référence prise selon un mode de prise de vues sélectionné. Après recalage, il est procédé à l' élaboration un jeu d' images recalées (étape 33) qui sont stockées alors dans la base d' images 16.
Comme indiqué précédemment, les données d' images peuvent être complétées par des données délivrées par d'autres types de capteurs afin de compléter les informations disponibles.
Lors de la phase 34 suivante, à la demande d'un utilisateur, les images stockées dans la base d' images 16, complétées le cas échéant par des données complémentaires ou une partie de telles données, peuvent être visualisées. Pour ce faire, l'unité centrale 15 propose à l 'utilisateur un certain nombre d'interfaces permettant de sélectionner des paramètres d' affichage, de choisir une ou plusieurs régions d' intérêt, et de naviguer d'une image à une autre au sein de la région d'intérêt, de choisir diverses zones d'un visage, ...

Claims

REVENDICATIONS
1. Procédé d' acquisition et de traitement de données pour la détection de l'évolution dans le temps de lésions évolutives, comprenant les étapes de : - acquisitions successives des données selon des modes d' acquisition différents, de sorte qu' à chaque instant d' acquisition, on forme un ensemble de données obtenues selon des modes d' acquisition respectifs ;
- stockage des données acquises dans une base de données ; et - visualisation des données par sélection et affichage des données sélectionnées sur un écran de visualisation, caractérisé en ce qu' au cours de l' étape de visualisation d'une donnée on insère dans une image en cours de visualisation au moins une donnée correspondante extraite de la base de données.
2. Procédé selon la revendication 1 , caractérisé en ce que les données comprennent des données d' image.
3. Procédé selon la revendication 2, caractérisé en ce que l'on forme successivement des images selon des modes d' éclairage respectifs différents, de sorte qu'à chaque instant de prise de vues on forme un ensemble d' images obtenues selon des modes d' éclairage respectifs, on stocke les images formées dans la base de données et l'on visualise les images par sélection et affichage des images sélectionnées sur un écran de visualisation.
4. Procédé selon l'une des revendications 2 et 3 , caractérisé en ce qu'au cours de l' étape de visualisation d'une image, on délimite une région d' intérêt (R) dans l' image et l'on insère dans l' image en cours de visualisation une zone (Z) correspondante d'une donnée extraite de la base de données.
5. Procédé selon l'une quelconque des revendications 2 à 4, caractérisé en ce que les images stockées en mémoire sont associées à des données relatives à un paramètre de la surface, et en ce que l' on insère simultanément une partie au moins desdites données d'une zone d' image exportée dans la région d' intérêt.
6. Procédé selon l'une quelconque des revendications 2 à 5 , caractérisé en ce que l' on insère dans l' image en cours de visualisation une zone correspondante d'une image formée selon un mode d'acquisition différent.
7. Procédé selon l'une quelconque des revendications 4 à 6, caractérisé en ce que la région d'intérêt (R) étant déplaçable dans l' image en cours de visualisation, on met à jour dynamiquement la portion (Z) de l 'image extraite de la base de données ( 16) de manière à la faire correspondre à la région d' intérêt (R) en cours de déplacement.
8. Procédé selon l'une quelconque des revendications 2 à 7, caractérisé en ce qu' il comprend une étape de traitement des images formées par mise en correspondance géométrique des images.
9. Procédé selon la revendication 8, caractérisé en ce que l' étape de traitement comprend la sélection d'une image de référence (Iref) et la modification géométrique de l' ensemble des images formées pour les faire correspondre à l' image de référence.
10. Procédé selon l'une des revendications 8 et 9, caractérisé en ce que l' étape de traitement comprend en outre la sélection d'un mode d' acquisition de référence et la modification géométrique de chaque image formée à partir des autres modes d' acquisition pour la faire correspondre à l' image formée à partir du mode d' acquisition de référence.
1 1. Procédé selon l'une quelconque des revendications 8 à 10, caractérisé en ce que l' étape de traitement comprend les étapes de : - calcul d'un ensemble de coefficients de similitude entre au moins une zone de l' image à traiter (I) et une ou plusieurs zones correspondantes de l'image de référence (Iref) ;
- calcul d'une fonction de transformation à partir des coefficients de similitude calculés ; et - application de la fonction de transformation à l' ensemble de l' image à traiter.
12. Procédé selon la revendication 1 1 , caractérisé en ce que l'on élabore un champ de vecteurs de similitudes (V) entre des zones respectives de l'image à traiter et de l' image de référence et l' on calcule la fonction de transformation à partir des champs de vecteurs élaborés.
13. Procédé selon l'une quelconque des revendications 8 à 12, caractérisé en ce que l' étape de traitement comprend en outre une modification de l' intensité de l' image traitée pour la faire correspondre à celle de l' image de référence.
14. Procédé selon l'une quelconque des revendications 8 à 13 , caractérisé en ce que l' étape de traitement comprend en outre une étape au cours de laquelle on applique sur l' image à traiter un maillage, on déforme le maillage au moyen de la fonction de transformation et l' on affiche le maillage déformé sur l' écran de visualisation.
15. Dispositif d' acquisition et de traitement de données pour la détection de l'évolution dans le temps de lésions évolutives, comprenant des moyens (12) d'acquisition des données adaptés pour l' acquisition successives des données selon des modes d' acquisition différents, de sorte qu' à chaque instant d'acquisition on forme un ensemble de données obtenues selon des modes d' acquisition respectifs, une base de données ( 16) pour le stockage de séquences de données ainsi acquises, un écran de visualisation pour la visualisation de données extraites de la base de données et une unité centrale de traitement ( 15) comprenant des moyens pour insérer dans une image en cours de visualisation au mo ins une donnée correspondante extraite de la base de données.
16. Dispositif selon la revendication 15 , caractérisé en ce que les données comprennent des données d' image.
17. Dispositif selon la revendication 16, caractérisé en ce qu' il comprend des moyens de prise de vues ( 12) associés à des moyens d' acquisition ( 14) adaptés conjointement pour la formation d' images successives selon des modes d' acquisition différents de sorte qu'à chaque instant de prise de vues on forme un ensemble d' images obtenues selon des modes d' acquisition différents, l'une unité centrale de traitement ( 15) étant associée à une interface homme-machine ( 17) comprenant des moyens pour délimiter une région d' intérêt (R) dans une image en cours de visualisation et des moyens pour insérer dans ladite image une zone correspondante d'une image extraite de la base de données.
18. Dispositif selon la revendication 17, caractérisé en ce que les moyens pour insérer dans ladite image une zone correspondante d'une donnée extraite de la base de données comprennent des moyens pour élaborer dynamiquement ladite zone en fonction d'un déplacement de la région d' intérêt dans l' image en cours de visualisation.
19. Dispositif selon l'une des revendications 17 et 18 , caractérisé en ce que l'unité centrale de traitement ( 15) comprend en outre des moyens (23) de transformation des images pour déformer géométriquement les images pour les faire correspondre à une image de référence.
20. Dispositif selon la revendication 19, caractérisé en ce que les moyens de transformation des images comprennent des moyens de sélection d'au moins une zone de calibrage (Zref) dans lesdites images, des moyens pour calculer un coefficient de similitude entre les zones de calibrage d'une image à déformer, d'une part, et de l'image de référence, d' autre part, et pour calculer une fonction de transformation à partir des coefficients calculés, et des moyens pour appliquer ladite fonction à des ensembles de l' image à déformer.
21. Dispositif selon l'une des revendications 19 et 20, caractérisé en ce que l'unité centrale ( 15) comprend des moyens de contrôle d'intensité adaptés pour modifier l'intensité de chaque image transformée pour la faire correspondre à celle de l' image de référence.
EP08805867A 2007-05-29 2008-05-28 Procede et dispositif d'acquisition et de traitement de donnees pour la detection de l'evolution dans le temps de lesions evolutives Withdrawn EP2149122A1 (fr)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
FR0755305A FR2916875B1 (fr) 2007-05-29 2007-05-29 Procede et dispositif d'acquisition et de traitement de donnees pour la detection de l'evolution dans le temps de lesions evolutives
PCT/FR2008/050923 WO2008152298A1 (fr) 2007-05-29 2008-05-28 Procede et dispositif d'acquisition et de traitement de donnees pour la detection de l'evolution dans le temps de lesions evolutives

Publications (1)

Publication Number Publication Date
EP2149122A1 true EP2149122A1 (fr) 2010-02-03

Family

ID=39363799

Family Applications (1)

Application Number Title Priority Date Filing Date
EP08805867A Withdrawn EP2149122A1 (fr) 2007-05-29 2008-05-28 Procede et dispositif d'acquisition et de traitement de donnees pour la detection de l'evolution dans le temps de lesions evolutives

Country Status (5)

Country Link
US (1) US20100284581A1 (fr)
EP (1) EP2149122A1 (fr)
CA (1) CA2685562A1 (fr)
FR (1) FR2916875B1 (fr)
WO (1) WO2008152298A1 (fr)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI471117B (zh) * 2011-04-29 2015-02-01 Nat Applied Res Laboratoires 可用於行動裝置之人臉膚質評估演算介面裝置
US9020192B2 (en) 2012-04-11 2015-04-28 Access Business Group International Llc Human submental profile measurement
US20160235355A1 (en) * 2013-03-29 2016-08-18 Galderma Research & Development Method for evaluating the severity of atrophic acne scars on a patient and device used to evaluate the distribution of acne scars
EP2989988B1 (fr) * 2014-08-29 2017-10-04 Samsung Medison Co., Ltd. Appareil d'affichage d'image ultrasonore et procede d'affichage d'une image ultrasonore

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
IL119767A (en) * 1993-08-13 1998-02-08 Sophis View Tech Ltd System and method for diagnosis of living tissue diseases
US6075879A (en) * 1993-09-29 2000-06-13 R2 Technology, Inc. Method and system for computer-aided lesion detection using information from multiple images
US6690840B1 (en) * 2000-02-08 2004-02-10 Tektronix, Inc. Image alignment with global translation and linear stretch
FR2830962B1 (fr) * 2001-10-12 2004-01-30 Inst Nat Rech Inf Automat Dispositif et methode de traitement d'image pour detection de lesions evolutives
JP2007072649A (ja) * 2005-09-06 2007-03-22 Fujifilm Corp 読影レポート作成装置
US7885443B2 (en) * 2005-11-14 2011-02-08 Hologic, Inc. Facilitating temporal comparison of medical images

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See references of WO2008152298A1 *

Also Published As

Publication number Publication date
FR2916875B1 (fr) 2009-09-04
CA2685562A1 (fr) 2008-12-18
US20100284581A1 (en) 2010-11-11
WO2008152298A1 (fr) 2008-12-18
FR2916875A1 (fr) 2008-12-05

Similar Documents

Publication Publication Date Title
EP2160717A2 (fr) Procede et dispositif d'acquisition et de traitement d'images pour la detection de lesions evolutives
US10201281B2 (en) System, method and article for normalization and enhancement of tissue images
US8804122B2 (en) Systems and methods for determining a surface profile using a plurality of light sources
AU2017217944B2 (en) Systems and methods for evaluating pigmented tissue lesions
EP0536357B1 (fr) Procede et dispositif d'aide a l'inspection d'un corps, notamment pour la tomographie
WO2017202634A1 (fr) Procédé d'élaboration d'un modèle déformable en trois dimensions d'un élément, et système associé
EP2149122A1 (fr) Procede et dispositif d'acquisition et de traitement de donnees pour la detection de l'evolution dans le temps de lesions evolutives
JP7308881B2 (ja) 再構成されたスペクトルを用いた2次元多層厚測定
CN110383136A (zh) 用于3d重构的系统和方法
EP4072794B1 (fr) Dispositif de definition d'une sequence de deplacements sur un modele generique
WO2015097239A1 (fr) Procédé d'analyse d'images du visage pour la détection d'un effet flush
Tosca et al. Development of a three-dimensional surface imaging system for melanocytic skin lesion evaluation
Wu et al. Recovering sensor spectral sensitivity from raw data
Yao et al. Surface reconstruction based on the camera relative irradiance
Lihacova et al. Challenges of automatic processing of large amount of skin lesion multispectral data
Zhang et al. The approach for quantification assessment for port-wine stains in three-dimensional and color space
WO2023242365A1 (fr) Procédé de génération d'un marqueur différentiel sur une représentation d'une portion du corps humain
FR3135552A1 (fr) Procédé de diagnostic de la peau par analyse faciale 3D
Kundu et al. Imaging platforms for registering and analyzing the skin microrelief structure
FR3137481A1 (fr) Procédé d’analyse cosmétique d’un visage
FR2997536A1 (fr) Procede et systeme d'estimation d'un indice de severite differentiel d'une pathologie exprimant une alteration cutanee
WO2010031747A1 (fr) Procede et systeme d'analyse de la peau
Barone et al. 3D Imaging Analysis of Chronic Wounds Through Geometry and Temperature Measurements
Luan et al. Viktor Chekh
FR2889640A1 (fr) Procede et outil de configuration d'au moins un systeme de videosurveillance intelligente

Legal Events

Date Code Title Description
PUAI Public reference made under article 153(3) epc to a published international application that has entered the european phase

Free format text: ORIGINAL CODE: 0009012

17P Request for examination filed

Effective date: 20091019

AK Designated contracting states

Kind code of ref document: A1

Designated state(s): AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HR HU IE IS IT LI LT LU LV MC MT NL NO PL PT RO SE SI SK TR

AX Request for extension of the european patent

Extension state: AL BA MK RS

17Q First examination report despatched

Effective date: 20100302

DAX Request for extension of the european patent (deleted)
STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: THE APPLICATION IS DEEMED TO BE WITHDRAWN

18D Application deemed to be withdrawn

Effective date: 20141202