FR3117643A1 - SYSTEMS AND METHODS FOR COUNTING, LOCATING AND VISUALIZING ACNE - Google Patents

SYSTEMS AND METHODS FOR COUNTING, LOCATING AND VISUALIZING ACNE Download PDF

Info

Publication number
FR3117643A1
FR3117643A1 FR2013002A FR2013002A FR3117643A1 FR 3117643 A1 FR3117643 A1 FR 3117643A1 FR 2013002 A FR2013002 A FR 2013002A FR 2013002 A FR2013002 A FR 2013002A FR 3117643 A1 FR3117643 A1 FR 3117643A1
Authority
FR
France
Prior art keywords
acne
occurrences
source image
model
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
FR2013002A
Other languages
French (fr)
Other versions
FR3117643B1 (en
Inventor
Yuze Zhang
Ruowei JIANG
Parham Aarabi
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
LOreal SA
Original Assignee
LOreal SA
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by LOreal SA filed Critical LOreal SA
Priority to FR2013002A priority Critical patent/FR3117643B1/en
Priority to EP21786871.0A priority patent/EP4196908A1/en
Priority to JP2023520280A priority patent/JP2023543627A/en
Priority to KR1020237011286A priority patent/KR20230058517A/en
Priority to PCT/EP2021/077204 priority patent/WO2022069754A1/en
Priority to US17/491,623 priority patent/US20220108445A1/en
Publication of FR3117643A1 publication Critical patent/FR3117643A1/en
Application granted granted Critical
Publication of FR3117643B1 publication Critical patent/FR3117643B1/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2413Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
    • G06F18/24133Distances to prototypes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2415Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/20Scenes; Scene-specific elements in augmented reality scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30088Skin; Dermal
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/03Recognition of patterns in medical or anatomical images

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Artificial Intelligence (AREA)
  • Probability & Statistics with Applications (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Quality & Reliability (AREA)
  • Medical Informatics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

Systèmes et procédés de comptage, localisation et visualisation d’acné L’invention concerne des systèmes, procédés et techniques assurant une localisation, un comptage et une visualisation d’acné. Une image est traitée à l’aide d’un modèle entraîné pour identifier des objets. Le modèle peut être un réseau à apprentissage profond (par exemple un réseau neuronal convolutif) configuré pour une classification d’objet avec une focalisation de détection sur de petits objets. L’image peut être une image faciale frontale ou de profil, traitée de bout en bout. Le modèle identifie et localise différents types d’acné. Des occurrences sont comptées et visualisées, telles que par annotation de l’image source. Un exemple d’annotation est une superposition identifiant un type et un emplacement de chaque occurrence. Des comptes par type d’acné permettent l’établissement d’un score. Un produit et/ou service peuvent être recommandés en réponse à l’identification de l’acné (par exemple le type, la localisation, le comptage et/ou un score). Systems and methods for counting, localizing and visualizing acne Systems, methods, and techniques for locating, counting, and visualizing acne are provided. An image is processed using a model trained to identify objects. The model may be a deep learning network (e.g. a convolutional neural network) configured for object classification with a detection focus on small objects. The image can be a frontal or profile facial image, processed end-to-end. The model identifies and localizes different types of acne. Occurrences are counted and visualized, such as by annotation of the source image. An example of an annotation is an overlay identifying a type and location of each occurrence. Accounts by type of acne allow the establishment of a score. A product and/or service may be recommended in response to acne identification (e.g. type, location, count and/or score).

Description

SYSTEMES ET PROCEDES DE COMPTAGE, LOCALISATION ET VISUALISATION D’ACNESYSTEMS AND METHODS FOR COUNTING, LOCATING AND VISUALIZING ACNE

DomaineDomain

La présente demande concerne les domaines du traitement d’image par ordinateur, des réseaux neuronaux convolutif et de la dermatologie et plus particulièrement des systèmes et procédés de comptage, localisation et visualisation d’acné et de systèmes et procédés de commerce électronique les utilisant.The present application relates to the fields of computer image processing, convolutional neural networks and dermatology and more particularly to systems and methods for counting, locating and displaying acne and to electronic commerce systems and methods using them.

ContexteContext

Les affections de la peau telles que l’acné touchent souvent le visage et d’autres zones du corps peuvent également présenter de telles affections. Dans le cas de l’acné, le sébum ou des cellules de peau morte obstruent un follicule provoquant des imperfections de types variés. Bien que répandue parmi les adolescents, elle survient également chez des personnes d’autres tranches d’âges. Avec une image faciale donnée, une tâche de localisation d’acné a pour but de détecter l’éventuelle présence d’acné dans le portrait facial.Skin conditions such as acne often affect the face and other areas of the body can also have such conditions. In the case of acne, sebum or dead skin cells clog a follicle causing blemishes of various types. Although common among teenagers, it also occurs in people of other age groups. With a given facial image, an acne localization task aims to detect the possible presence of acne in the facial portrait.

La localisation d’acné est utile dans des applications en aval liées à la dermatologie et à la visualisation d’image.Acne localization is useful in downstream applications related to dermatology and image visualization.

RésuméSummary

A cet effet, l’invention a pour objet un procédé comprenant :To this end, the subject of the invention is a method comprising:

- l’analyse d’une image source pour déterminer des emplacements respectifs d’occurrences d’acné ; et- analyzing a source image to determine respective locations of acne occurrences; And

- la visualisation des occurrences d’acné sur l’image source pour un affichage ;- visualization of acne occurrences on the source image for display;

- dans lequel l’image source est analysée à l’aide d’un modèle basé sur des surfaces paramétriques configuré pour :- in which the source image is analyzed using a model based on parametric surfaces configured to:

- le partitionnement de l’image source en surfaces paramétriques de peau,- the partitioning of the source image into parametric skin surfaces,

- la détection par focalisation sur de petits objets dans l’image source, et- detection by focusing on small objects in the source image, and

- la détermination d’occurrences d’acné et d’au moins un type d’acné dans des images sur la base de la détection par focalisation sur de petits objets dans l’image source ; et- determining occurrences of acne and at least one type of acne in images based on detection by focusing on small objects in the source image; And

- dans lequel les surfaces paramétriques sont déterminées en conformité avec un masque de peau.- in which the parametric surfaces are determined in accordance with a skin mask.

Suivant des modes particuliers de réalisation, le procédé comprend une ou plusieurs des caractéristiques suivantes, prises isolément ou suivant toutes les combinaisons techniquement possibles :According to particular embodiments, the method comprises one or more of the following characteristics, taken in isolation or in all technically possible combinations:

- le modèle est un modèle à réseau neuronal à apprentissage profond configuré pour une classification et une localisation d’objets et configuré pour traiter l’image sur un niveau de pixel, fonctionnant de bout en bout pour détecter directement un emplacement d’acné sans recadrer l’image source ;- the model is a deep learning neural network model configured for object classification and localization and configured to process the image on a pixel level, working end-to-end to directly detect an acne location without cropping the source image;

- le procédé est configuré en outre pour la génération de cases d’ancrage respectives fournissant des informations d’emplacement pour chacune des occurrences d’acné détectées, dans lequel un facteur de forme de case d’ancrage, à utiliser pour définir l’une des cases d’ancrage, est calculé à l’aide d’un groupement par k-moyennes à partir d’occurrences d’acné identifiées dans un ensemble de données d’images ;- the method is further configured for generating respective anchor boxes providing location information for each of the detected acne occurrences, wherein an anchor box form factor, to be used to define one anchor boxes, is calculated using k-means clustering from identified acne occurrences in an image dataset;

- la visualisation des occurrences de l’acné indique un emplacement respectif pour chacune des occurrences sur l’image source ainsi qu’un type respectif d’acné pour chacune des occurrences sur l’image source ;- the visualization of the occurrences of acne indicates a respective location for each of the occurrences on the source image as well as a respective type of acne for each of the occurrences on the source image;

- la visualisation de l’acné indique un type respectif d’acné pour chacune des occurrences sur l’image source ;- the visualization of acne indicates a respective type of acne for each of the occurrences on the source image;

- le procédé comprend en outre la détermination d’un compte des occurrences d’acné ;- the method further comprises determining a count of acne occurrences;

- le procédé comprend en outre l’obtention d’une recommandation pour un produit et/ou un service spécifique pour traiter les occurrences de l’acné ;- the method further comprises obtaining a recommendation for a specific product and/or service to treat the occurrences of acne;

- le procédé comprend en outre la communication avec un système de commerce électronique pour acheter le produit et/ou service ;- the method further comprises communicating with an electronic commerce system to purchase the product and/or service;

L’invention a également pour objet une procédé comprenant :The invention also relates to a method comprising:

- l’analyse d’une image source pour déterminer des emplacements respectifs d’occurrences d’acné par une détection focalisée sur de petits objets dans l’image source ; et la détection d’au moins un type d’acné dans l’image source ;- analyzing a source image to determine respective locations of acne occurrences by focused detection on small objects in the source image; and detecting at least one type of acne in the source image;

- la génération et la fourniture d’un score d’acné en réponse à un compte des occurrences ;- generating and providing an acne score in response to a count of occurrences;

- la génération d’une recommandation pour un produit et/ou service spécifique pour traiter les occurrences d’acné ; et- generation of a recommendation for a specific product and/or service to treat acne occurrences; And

- la génération d’une ou de plusieurs occurrences d’une visualisation virtuelle incluant les occurrences d’acné sur l’image source.- the generation of one or more occurrences of a virtual visualization including the occurrences of acne on the source image.

L’invention a également pour objet un système informatique comprenant un circuit configuré pour fournir :The invention also relates to a computer system comprising a circuit configured to provide:

- une interface pour recevoir une image source et renvoyer une image source annotée qui visualise des occurrences d’acné déterminées par un modèle configuré pour traiter l’image source ;- an interface for receiving a source image and returning an annotated source image that visualizes acne occurrences determined by a model configured to process the source image;

- un composant de recommandation configuré pour recommander un produit et/ou service pour traiter spécifiquement au moins certaines des occurrences d’acné ; et- a recommendation component configured to recommend a product and/or service to specifically treat at least some of the acne occurrences; And

- un composant de transaction de commerce électronique pour faciliter un achat du produit et/ou service ;- an electronic commerce transaction component to facilitate a purchase of the product and/or service;

dans lequel le modèle est configuré pour :where the model is configured for:

- la détection par focalisation sur de petits objets dans des images ; et- detection by focusing on small objects in images; And

- la détection d’au moins un type d’acné dans des images.- the detection of at least one type of acne in images.

Des systèmes, procédés et techniques sont proposés pour la localisation, le comptage et la visualisation d’acné en conformité avec des modes de réalisation. Une image est traitée à l’aide d’un modèle pour l’identification (la classification) d’objets. Dans un mode de réalisation, le modèle est un réseau neuronal convolutif (CNN) configuré pour une classification d’objets ayant une focalisation de détection sur de petits objets. Dans un mode de réalisation, l’image est une image faciale, en mode frontal ou de profil, traitée de bout en bout par le CNN, sans recadrage. Dans un mode de réalisation, le modèle identifie et localise différents types d’acné. Des occurrences d’acné sont comptées (par ex. par type) et visualisées, par exemple par annotation de l’image source. Un exemple d’annotation est une superposition identifiant un type et un emplacement de chaque occurrence. Des comptes par type d’acné permettent l’établissement d’un score. Dans un mode de réalisation, un produit et/ou service peuvent être recommandés en réponse à l’identification de l’acné (par ex. le type, la localisation, le comptage et/ou un score). Dans un mode de réalisation, un achat est facilité.Systems, methods, and techniques are provided for locating, counting, and visualizing acne in accordance with embodiments. An image is processed using a model for the identification (classification) of objects. In one embodiment, the model is a convolutional neural network (CNN) configured for object classification with a detection focus on small objects. In one embodiment, the image is a facial image, in frontal or profile mode, processed end-to-end by the CNN, without cropping. In one embodiment, the model identifies and locates different types of acne. Acne occurrences are counted (e.g. by type) and visualized, e.g. by annotating the source image. An example annotation is an overlay identifying a type and location of each occurrence. Accounts by type of acne allow the establishment of a score. In one embodiment, a product and/or service may be recommended in response to the identification of acne (e.g. type, location, count and/or score). In one embodiment, a purchase is facilitated.

Dans un mode de réalisation, il est proposé un procédé comprenant : l’analyse d’une image source pour déterminer des emplacements respectifs d’occurrences d’acné ; et la visualisation des occurrences d’acné sur l’image source pour un affichage ; dans lequel l’image source est analysée à l’aide d’un modèle configuré pour : la détection d’au moins un type d’acné dans des images ; et une détection par focalisation sur de petits objets dans les images.In one embodiment, a method is provided comprising: analyzing a source image to determine respective locations of acne occurrences; and visualizing acne occurrences on the source image for display; wherein the source image is analyzed using a model configured to: detect at least one type of acne in images; and detection by focusing on small objects in the images.

Dans un mode de réalisation, le modèle est un modèle à réseau neuronal à apprentissage profond configuré pour une classification et une localisation d’objets.In one embodiment, the model is a deep learning neural network model configured for object classification and localization.

Dans un mode de réalisation, le modèle est configuré pour traiter l’image sur un niveau de pixel, fonctionnant de bout en bout pour détecter directement un emplacement d’acné sans recadrage de l’image source.In one embodiment, the model is configured to process the image on a pixel level, working end-to-end to directly detect an acne location without cropping the source image.

Dans un mode de réalisation, le modèle génère des cases d’ancrage respectives fournissant des informations d’emplacement pour chacune des occurrences d’acné détectées.In one embodiment, the model generates respective anchor boxes providing location information for each of the detected acne occurrences.

Dans un mode de réalisation, un facteur de forme de case d’ancrage, à utiliser pour définir l’une des cases d’ancrage, est calculé à l’aide d’un groupement park-moyennes à partir d’occurrences d’acné identifiées dans un ensemble de données d’images.In one embodiment, an anchor box shape factor, to be used to define one of the anchor boxes, is computed using k -means clustering from occurrences of acne identified in an image dataset.

Dans un mode de réalisation, le modèle est basé sur des surfaces paramétriques et le procédé comprend la fourniture de surfaces paramétriques de peau à partir de l’image source au modèle pour un traitement pour détecter des occurrences d’acné.In one embodiment, the model is based on parametric surfaces and the method includes providing parametric surfaces of skin from the source image to the model for processing to detect occurrences of acne.

Dans un mode de réalisation, le modèle est basé sur des surfaces paramétriques et le procédé comprend la fourniture de surfaces paramétriques de peau à partir de l’image source au modèle pour un traitement pour détecter des occurrences d’acné, et dans lequel les surfaces paramétriques sont déterminées en conformité avec un masque de peau.In one embodiment, the model is based on parametric surfaces and the method includes providing parametric surfaces of skin from the source image to the model for processing to detect occurrences of acne, and wherein the surfaces parametric parameters are determined in accordance with a skin mask.

Dans un mode de réalisation, la visualisation des occurrences de l’acné indique un emplacement respectif pour chacune des occurrences sur l’image source.In one embodiment, the visualization of the acne occurrences indicates a respective location for each of the occurrences on the source image.

Dans un mode de réalisation, la visualisation de l’acné indique un type respectif d’acné pour chacune des occurrences sur l’image source.In one embodiment, the acne visualization indicates a respective type of acne for each of the occurrences in the source image.

Dans un mode de réalisation, l’au moins un type d’acné inclut une ou plusieurs de l’acné rétentionnelle, l’acné inflammatoire et l’acné pigmentaire.In one embodiment, the at least one type of acne includes one or more of retentional acne, inflammatory acne and pigmentary acne.

Dans un mode de réalisation, le procédé comprend la détermination d’un compte des occurrences d’acné.In one embodiment, the method includes determining a count of acne occurrences.

Dans un mode de réalisation, le procédé comprend l’obtention d’une recommandation pour un produit et/ou un service spécifique pour traiter les occurrences de l’acné.In one embodiment, the method includes obtaining a recommendation for a specific product and/or service to treat occurrences of acne.

Dans un mode de réalisation, le procédé comprend la communication avec un système de commerce électronique pour acheter le produit et/ou service.In one embodiment, the method includes communicating with an e-commerce system to purchase the product and/or service.

Dans un mode de réalisation, l’image source comprend une image faciale en mode frontal ou en mode de profil.In one embodiment, the source image comprises a facial image in frontal mode or in profile mode.

Dans un mode de réalisation, le procédé comprend l’acquisition de l’image source.In one embodiment, the method includes acquiring the source image.

Dans un mode de réalisation, il est proposé un procédé comprenant : l’analyse d’une image source pour déterminer des emplacements respectifs d’occurrences d’acné ; et la génération et la fourniture d’un score d’acné en réponse à un compte des occurrences ; dans lequel l’image source est analysée à l’aide d’un modèle configuré pour : la détection par focalisation sur de petits objets dans des images ; et la détection d’au moins un type d’acné dans des images.In one embodiment, a method is provided comprising: analyzing a source image to determine respective locations of acne occurrences; and generating and providing an acne score in response to a count of the occurrences; in which the source image is analyzed using a model configured for: detection by focusing on small objects in images; and detecting at least one type of acne in images.

Dans un mode de réalisation, le score d’acné est en réponse à un ou plusieurs parmi l’emplacement, le compte, et le type d’acné.In one embodiment, the acne score is in response to one or more of location, account, and type of acne.

Dans un mode de réalisation, le procédé comprend la génération d’une recommandation pour un produit et/ou service spécifique pour traiter les occurrences d’acné.In one embodiment, the method includes generating a recommendation for a specific product and/or service to treat acne occurrences.

Dans un mode de réalisation, le procédé comprend la visualisation des occurrences d’acné sur l’image source.In one embodiment, the method includes visualizing occurrences of acne on the source image.

Dans un mode de réalisation, il est proposé un dispositif informatique comprenant une circuiterie configurée pour réaliser un procédé selon l’un quelconque des modes de réalisation.In one embodiment, there is provided a computing device comprising circuitry configured to perform a method according to any of the embodiments.

Dans un mode de réalisation, il est proposé un système informatique comprenant une circuiterie configurée pour fournir : une interface pour recevoir une image source et renvoyer une image source annotée qui visualise des occurrences d’acné déterminées par un modèle configuré pour traiter l’image source ; dans lequel le modèle est configuré pour : la détection par focalisation sur de petits objets dans des images ; et la détection d’au moins un type d’acné dans des images.In one embodiment, a computer system is provided comprising circuitry configured to provide: an interface for receiving a source image and returning an annotated source image that visualizes occurrences of acne determined by a model configured to process the source image ; wherein the model is configured for: detection by focusing on small objects in images; and detecting at least one type of acne in images.

Dans un mode de réalisation, le système informatique est configuré pour fournir : un composant de recommandation configuré pour recommander un produit et/ou service pour traiter spécifiquement au moins certaines des occurrences d’acné ; et, un composant de transaction de commerce électronique pour faciliter un achat du produit et/ou service.In one embodiment, the computer system is configured to provide: a recommender component configured to recommend a product and/or service to specifically treat at least some of the acne occurrences; and, an electronic commerce transaction component to facilitate a purchase of the product and/or service.

[Figs. 1A, 1B et 1C] Les figures 1A, 1B et 1C sont des images faciales annotées à l’aide d’une visualisation pour montrer des occurrences d’acné par type et emplacement, en conformité avec un mode de réalisation.[Figs. 1A, 1B and 1C] Figures 1A, 1B and 1C are facial images annotated using a visualization to show occurrences of acne by type and location, in accordance with one embodiment.

[Fig. 2] La figure 2 est une illustration d’un exemple d’un masque de peau basé sur des repères faciaux à utiliser lors du traitement d’une image faciale en conformité avec un mode de réalisation.[Fig. 2] Fig. 2 is an illustration of an example of a skin mask based on facial landmarks for use when processing a facial image in accordance with one embodiment.

[Fig. 3] La figure 3 est une illustration d’une image faciale avec une visualisation d’acné et une visualisation de masque en conformité avec un mode de réalisation.[Fig. 3] Figure 3 is an illustration of a facial image with acne visualization and mask visualization in accordance with one embodiment.

[Fig. 4] La figure 4 est un schéma de réseau de commerce électronique, en conformité avec un mode de réalisation, montrant un dispositif informatique client configuré pour détecter des occurrences d’acné dans une image faciale source et obtenir une recommandation pour un produit et/ou une recommandation de service et pour acheter ceux-ci.[Fig. 4] Figure 4 is an electronic commerce network diagram, in accordance with one embodiment, showing a client computing device configured to detect occurrences of acne in a source facial image and obtain a recommendation for a product and/or a service recommendation and to purchase these.

[Fig. 5] La figure 5 est un schéma fonctionnel d’un dispositif informatique en conformité avec un mode de réalisation.[Fig. 5] Figure 5 is a block diagram of a computing device in accordance with one embodiment.

[Fig. 6] La figure 6 est un organigramme d’opérations en conformité avec un mode de réalisation.[Fig. 6] Fig. 6 is a flowchart of operations according to one embodiment.

Description détailléedetailed description

En conformité avec un mode de réalisation, il est montré et décrit un modèle configuré pour traiter une image source afin de détecter des occurrences d’acné. Le modèle est configuré pour déterminer des emplacements respectifs pour les occurrences d’acné, et ainsi réaliser une tâche de localisation d’acné. Dans un mode de réalisation, le modèle est configuré pour renvoyer des cadres d’objet ou des coordonnées. Dans un mode de réalisation, le modèle est également configuré pour classifier les occurrences en types particuliers d’acné. Dans un mode de réalisation, l’image source est une image faciale complète.In accordance with one embodiment, there is shown and described a model configured to process a source image to detect occurrences of acne. The model is configured to determine respective locations for acne occurrences, and thereby perform an acne location task. In one embodiment, the model is configured to return object frames or coordinates. In one embodiment, the model is also configured to classify occurrences into particular types of acne. In one embodiment, the source image is a full facial image.

Dans un mode de réalisation, le modèle est un modèle à apprentissage profond. Dans un mode de réalisation, le modèle implique une focalisation sur de petits objets.In one embodiment, the model is a deep learning model. In one embodiment, the model involves focusing on small objects.

Dans un mode de réalisation, le modèle est de bout en bout et fonctionne sur un niveau de pixel, ce qui signifie que le modèle traite une image entière (par ex. d’un visage) et effectue directement des détections d’acné sur l’image sans aucun recadrage.In one embodiment, the model is end-to-end and operates on a pixel level, meaning the model processes an entire image (e.g. of a face) and directly performs acne detections on the image. image without any cropping.

Dans la description qui suit, divers modes de réalisation d’un modèle pour traiter des images sources sont décrits, où un premier groupe de modes de réalisation (« premiers modes de réalisation de modèle » d’un « premier type de modèle ») sont basés sur un réseau à apprentissage profond de détection d’objets YOLO modifiés et un second groupe de modes de réalisation (« seconds modes de réalisation de modèle » d’un « second type de modèle ») sont basés sur un réseau à apprentissage profond basé sur des surfaces paramétriques. (Voir J. Redmon and A. Farhadi, YOLOv3 : An Incremental Improvement, arXiv:1804.02767, 8 avril 2018 URL:arxiv.org/abs/1804.02767, ci-après dénommé « YOLOv3 »).In the following description, various embodiments of a model for processing source images are described, where a first group of embodiments ("first model embodiments" of a "first type of model") are based on a modified YOLO object detection deep learning network and a second group of embodiments ("second model embodiments" of a "second type of model") are based on a deep learning network based on parametric surfaces. (See J. Redmon and A. Farhadi, YOLOv3: An Incremental Improvement, arXiv:1804.02767, April 8, 2018 URL: arxiv.org/abs/1804.02767 , hereinafter referred to as "YOLOv3").

Il est entendu que diverses particularités décrites en association avec un mode de réalisation de l’un des types de modèle sont applicables à un mode de réalisation du second type de modèle. A titre d’exemple, mais sans limitation, des particularités de localisation d’acné, de détection par type d’acné, de comptage d’acné (par ex. par type), et de visualisation d’acné sont applicables aux deux types de modèle. Dans des modes de réalisation, les premier et second modes de réalisation de modèle sont utiles pour traiter une image faciale complète, qu’elle soit frontale ou de profil, sans recadrage. Dans des modes de réalisation, les premier et second modes de réalisation de modèle sont utiles pour traiter une image faciale complète, guidés par un masque de peau généré à partir de l’image de visage. Tandis que certaines de ces particularités concernent les opérations des modes de réalisation des modèles eux-mêmes telles que des particularités de détection d’acné (par ex. la localisation et la classification), d’autres particularités telles que le comptage, la visualisation, etc. sont des opérations associées à un traitement fourni en sortie à partir d’un modèle. Ces particularités ainsi que d’autres sont communes entre les modes de réalisation de modèle.It is understood that various features described in association with an embodiment of one of the model types are applicable to an embodiment of the second model type. By way of example, but not limitation, features of locating acne, detecting by type of acne, counting acne (e.g., by type), and viewing acne are applicable to both types. of model. In embodiments, the first and second model embodiments are useful for processing a full facial image, whether frontal or in profile, without cropping. In embodiments, the first and second model embodiments are useful for processing a complete facial image, guided by a skin mask generated from the face image. While some of these features relate to the operations of the model embodiments themselves such as acne detection features (e.g. location and classification), other features such as counting, viewing, etc are operations associated with a process provided as output from a model. These and other features are common among model embodiments.

Premiers modes de réalisation de modèleEarly model embodiments

Les figures 1A, 1B et 1C montrent des exemples de visualisation d’acné à la suite d’une analyse d’images sources respectives à l’aide du modèle, en conformité avec un mode de réalisation, où trois types d’acné sont détectés et visualisés. Les types incluent l’acné rétentionnelle, l’acné inflammatoire et l’acné pigmentaire. Les types d’acné qui peuvent être détectés dépendent des données d’entraînement utilisées lors de l’entraînement du modèle. Cela signifie que le modèle lui-même possède une capacité d’expansion pour apprendre et détecter d’autres types d’acné si des données d’entraînement applicables sont fournies. Il est entendu que, dans un mode de réalisation, des types d’acné moins nombreux peuvent faire l’objet d’un entraînement en vue d’une détection.Figures 1A, 1B and 1C show examples of visualization of acne following analysis of respective source images using the model, in accordance with one embodiment, where three types of acne are detected and viewed. Types include retentional acne, inflammatory acne, and pigmentary acne. The types of acne that can be detected depend on the training data used when training the model. This means that the model itself has an expansion capability to learn and detect other types of acne if applicable training data is provided. It is understood that in one embodiment fewer types of acne may be trained for detection.

Comme montré, en conformité avec un mode de réalisation, le modèle prend également en charge la détection d’acné sur trois vues faciales (modes profil/côté gauche, profil/côté droit et frontal) de l’entrée. Le modèle, dans ce mode de réalisation, est invariable en termes de point de vue et peut traiter des images de l’un quelconque des points de vue/modes.As shown, in accordance with one embodiment, the model also supports acne detection on three facial views (profile/left side, profile/right side, and frontal modes) of the input. The model, in this embodiment, is viewpoint-invariant and can process images from any of the viewpoints/modes.

Les figures 1A, 1B et 1C sont des images simulées en noir et blanc (BW) 100, 102 et 104 montrant des images sources annotées visualisant des occurrences d’acné, en conformité avec un mode de réalisation. Les images 100, 102 et 104 sont converties à partir d’images couleur originales et éditées à des fins de conformité à la demande de brevet, même si des images couleur sont utilisées, dans le mode de réalisation, en pratique de sorte à présenter une image plus fidèle du sujet. L’image 100 est une vue de côté (profil) gauche, l’image 102 est une vue de côté (profil) droit et l’image 104 est une vue frontale.Figures 1A, 1B and 1C are simulated black and white (BW) images 100, 102 and 104 showing annotated source images visualizing occurrences of acne, in accordance with one embodiment. Images 100, 102 and 104 are converted from original color images and edited for patent compliance purposes, even though color images are used, in the embodiment, in practice so as to present a more faithful image of the subject. Image 100 is a left side (profile) view, image 102 is a right side (profile) view, and image 104 is a front view.

Dans le mode de réalisation, l’annotation à trois vues se focalise intentionnellement sur des parties spécifiques du visage sur chaque vue. Pour exemple, la vue frontale 104 annote de l’acné autour de la bouche et au centre de l’image car elle est plus visible sur cette vue. De manière similaire, les vues de côté 100 et 102 annotent de l’acné autour des tempes où la vue frontale 104 ne le fait pas. Dans le mode de réalisation, les données d’entraînement sont définies (marquées) de cette manière pour les vues respectives et le modèle est entraîné à identifier des données vis-à-vis à ces emplacements en conséquence.In the embodiment, the three-view annotation intentionally focuses on specific parts of the face on each view. For example, the frontal view 104 annotates acne around the mouth and in the center of the image because it is more visible on this view. Similarly, side views 100 and 102 annotate acne around the temples where frontal view 104 does not. In the embodiment, the training data is defined (marked) in this way for the respective views and the model is trained to identify opposite data at these locations accordingly.

Dans le mode de réalisation, des occurrences sont marquées avec un type 106, une mesure de confiance de détection (par ex. une valeur numérique) 108 et un cadre d’objet 110. L’acné peut être adjacente de manière rapprochée sur un visage humain et ainsi les marquages peuvent se chevaucher lorsqu’ils sont visualisés à une échelle particulière. Dans un mode de réalisation (bien que non montré dans les exemples BW), un type d’acné peut être distingué à l’aide de différentes couleurs pour les marquages ou par le biais d’autres moyens. D’autres types de marquage peuvent être utilisés (par ex. des cadres d’objet à codes couleur sans texte), etc. Dans le présent exemple, le type d’acné est représenté comme « infl » (inflammatoire), « rete » (rétentionnel) et « pigm » (de pigmentation). En termes de mesure de confiance de détection, la valeur est sur une échelle de 0 à 1 de sorte qu’une mesure de 0,58 représente une confiance de 58 % du fait que l’occurrence détectée est de l’acné. Dans le mode de réalisation, un filtrage supplémentaire est utilisé pour effectuer une sélection parmi les occurrences d’acné détectées pour une visualisation. Par exemple, un seuil de 50 % est utilisé pour visualiser des occurrences au seuil ou au-dessus du seuil. Le seuil peut être amené à varier.In the embodiment, occurrences are marked with a type 106, a detection confidence measure (e.g., numeric value) 108, and an object frame 110. Acne may be closely adjacent on a face human and thus markings may overlap when viewed at a particular scale. In one embodiment (although not shown in the BW examples), a type of acne can be distinguished using different colors for the markings or by other means. Other types of marking can be used (e.g. color-coded object frames without text), etc. In this example, the type of acne is represented as "infl" (inflammatory), "rete" (retention) and "pigm" (pigmentation). In terms of a detection confidence measure, the value is on a scale of 0 to 1 so that a measure of 0.58 represents 58% confidence that the detected occurrence is acne. In the embodiment, additional filtering is used to select from detected acne occurrences for viewing. For example, a threshold of 50% is used to view occurrences at or above the threshold. The threshold may vary.

Structure type de premier modèleTypical structure of first model

Dans un mode de réalisation, l’architecture principale du modèle est basée sur un algorithme de détection d’objets YOLOv3.In one embodiment, the main architecture of the model is based on a YOLOv3 object detection algorithm.

Prédiction (emplacement) de cadre d’objetObject frame prediction (location)

En bref, YOLOv3 prédit des cadres d’objet à l’aide de groupes de dimensions sous la forme de cases d’ancrage, prédisant quatre coordonnées (t x ,t y ,t h ,t w ) pour chaque cadre d’objet (par ex. parfois dénommé ici « bbox »). Un cadre peut être décalé d’un coin supérieur gauche de l’image de (c x , c y ). La largeur et la hauteur du cadre sont prédites sous la forme de décalages par rapport à des centroïdes de groupe (σ(t x ), σ(t y )). Des coordonnées de centre du cadre sont prédites par rapport à l’emplacement de l’application de filtre à l’aide d’une fonction sigmoïde. Une perte par somme des carrés de l’erreur est utilisée pendant l’entraînement.In short, YOLOv3 predicts object frames using dimension groups in the form of anchor boxes, predicting four coordinates ( t x , t y , th , t w ) for each object frame ( sometimes referred to herein as "bbox"). A frame can be offset from an upper left corner of the image by ( c x , c y ). The frame width and height are predicted as offsets from cluster centroids (σ( t x ), σ( t y )). Frame center coordinates are predicted with respect to the location of the filter application using a sigmoid function. A sum-of-squares-error loss is used during training.

YOLOv3 décrit une prédiction d’un score de caractère d’objet (« objectness ») pour chaque cadre d’objet à l’aide d’une régression logistique. Un score doit être de 1 si le préalable de cadre d’objet chevauche un objet de réalité de terrain plus que tout autre préalable de cadre d’objet. Si le préalable de cadre d’objet n’est pas le meilleur, mais chevauche un objet de réalité de terrain de plus d’un certain seuil, la prédiction est ignorée, à l’aide d’un seuil de 0,5. Un préalable de cadre d’objet est attribué dans YOLOv3 pour chaque objet de réalité de terrain. Si un préalable de cadre d’objet n’est pas attribué à un objet de réalité de terrain, cela n’occasionne aucune perte de prédictions de coordonnées ou de classe, mais seulement de caractère d’objet.YOLOv3 describes a prediction of an objectness score for each object frame using logistic regression. A score must be 1 if the object frame prerequisite overlaps a ground reality object more than any other object frame prerequisite. If the object frame prerequisite is not the best, but overlaps a ground-truth object by more than a certain threshold, the prediction is ignored, using a threshold of 0.5. An object framework prerequisite is assigned in YOLOv3 for each ground truth object. If an object frame prerequisite is not assigned to a ground reality object, there is no loss of coordinate or class predictions, only object character.

Prédiction de classe (par ex, prédiction d’objet ou acné par type)Class prediction (eg, object prediction or acne by type)

Une classification de marquage multiple est utilisée pour une prédiction de classe pour chaque cadre via des classificateurs logistiques indépendants. Des prédictions de classe sont entraînées à l’aide d’une perte d’entropie croisée binaire.Multiple marking classification is used for class prediction for each frame via independent logistic classifiers. Class predictions are trained using binary cross-entropy loss.

YOLOv3 décrit des prédictions de cadre sur trois échelles. A partir d’un extracteur de particularité de base, plusieurs couches convolutives sont ajoutées. La dernière de celles-ci prédit un tenseur 3-d codant un cadre d’objet, un caractère d’objet, et des prédictions de classe. En conséquence, pour 3 cadres à chaque échelle, le tenseur estNxNx 3* (4 + 1 + 80) pour les 4 décalages de cadre d’objet, 1 prédiction de caractère d’objet, et 80 prédictions de classe.YOLOv3 describes frame predictions on three scales. From a basic feature extractor, several convolutional layers are added. The last of these predicts a 3-d tensor encoding object frame, object character, and class predictions. Accordingly, for 3 frames at each scale, the tensor is N x N x 3* (4 + 1 + 80) for the 4 object frame offsets, 1 object character prediction, and 80 class predictions.

Ensuite, la carte de caractéristiques de 2 couches précédentes est suréchantillonnée de 2x et une carte de caractéristique antérieure est fusionnée avec les caractéristiques suréchantillonnées à l’aide d’une concaténation. Quelques couches convolutives supplémentaires sont ajoutées pour traiter la carte de caractéristique combinée. Un tenseur similaire est prédit à deux fois la taille. Une approche similaire est utilisée à nouveau pour prédire un troisième tenseur pour la troisième échelle, combiner le calcul informatique de préalables ainsi que des caractéristiques affinées issues d’un traitement antérieur. Le groupement park-moyennesest utilisé pour déterminer les préalables de cadres d’objet où 9 groupes et 3 échelles sont choisis de manière arbitraire et les groupes sont divisés de manière régulière sur toutes les échelles.Then the feature map of previous 2 layers is oversampled by 2x and a previous feature map is merged with the oversampled features using concatenation. A few more convolutional layers are added to process the combined feature map. A similar tensor is predicted at twice the size. A similar approach is used again to predict a third tensor for the third scale, combining computer calculation of priors as well as refined features from prior processing. Grouping by k - means is used to determine object frame prerequisites where 9 groups and 3 scales are chosen arbitrarily and the groups are evenly divided across all scales.

Le réseau fédérateur pour l’extraction de caractéristiques décrit dans YOLOv3 est un réseau convolutif à 53 couches nommé DARKNET-53.The backbone network for feature extraction described in YOLOv3 is a 53-layer convolutional network named DARKNET-53.

ModificationAmendment

En conformité avec un mode de réalisation donné ici, le modèle divulgué dans YOLOv3 est modifié pour une focalisation sur de plus petits objets par :In accordance with an embodiment given here, the model disclosed in YOLOv3 is modified to focus on smaller objects by:

  • réduction de la taille du réseau fédérateur ;reduction in the size of the backbone network;
  • retenue d’une seule couche de détection YOLO et recalcul de la taille (facteur de forme) de case d’ancrage etretention of a single YOLO detection layer and recalculation of the size (shape factor) of the anchor box and
  • réglage fin du modèle à la meilleure performance sur l’ensemble de données d’entraînement pour la présente tâche de localisation d’acné.Fine-tuning the model to the best performance on the training dataset for the present acne localization task.

Lors de la retenue d’une seule couche de détection YOLO, une prédiction est réalisée à un niveau d’échelle dans le mode de réalisation. Ainsi, dans le mode de réalisation, la couche de détection YOLO est la couche qui gère une prédiction de cadres d’objet. Elle reçoit une caractéristique (par ex. une sortie des couches de réseau fédérateur) et fournit en sortie un caractère d’objet, une prédiction de classe et un emplacement de bbox. La couche elle-même n’a pas de limite sur le nombre de prédictions. Dans un mode de réalisation, durant une inférence, la couche va fournir en sortie un plus grand nombre de cadres prédits. Ceux-ci sont filtrés à l’aide d’une suppression non maximale (NMS) avec un seuil de confiance établi manuellement.When retaining a single YOLO detection layer, prediction is performed at a scale level in the embodiment. Thus, in the embodiment, the YOLO detection layer is the layer that handles a prediction of object frames. It receives a feature (e.g. an output from backbone layers) and outputs an object character, class prediction, and bbox location. The layer itself has no limit on the number of predictions. In one embodiment, during an inference, the layer will output a greater number of predicted frames. These are filtered using non-maximal suppression (NMS) with a manually established confidence threshold.

Dans le mode de réalisation, un filtrage utilisant une NMS est axé, au moins en partie, sur le filtrage de détections redondantes sur la même occurrence d’acné. Lorsque le modèle prédit deux cadres ou plus sur la même acné, la NMS élimine par filtrage les occurrences avec une confiance inférieure et conserve le cadre de confiance la plus élevée sur l’occurrence spécifique.In the embodiment, filtering using NMS is focused, at least in part, on filtering out redundant detections on the same occurrence of acne. When the model predicts two or more frames on the same acne, the NMS filters out occurrences with lower confidence and retains the higher confidence frame on the specific occurrence.

Dans un mode de réalisation, le modèle est entraîné pour prédire trois classes d’objets pour les 3 types d’acné respectifs. Il n’existe pas de classe supplémentaire ou en arrière-plan car YOLO ne fait pas de prédiction d’arrière-plan (par ex. YOLOv3 ne dessine pas de cadre d’objet sur un arrière-plan ni n’indique qu’il s’agit de l’arrière-plan. YOLOv3 prédit uniquement les classes cibles). Le nombre et les types de classes peuvent être facilement ajustés pour s’adapter au format des données. Par exemple, si davantage de classes d’objets (par ex. l’acné ou d’autres objets) ont été identifiées dans les données, le modèle pourrait être ajusté et entraîné pour prédire davantage de classes.In one embodiment, the model is trained to predict three object classes for the respective 3 types of acne. There is no additional or background class as YOLO does not do background prediction (e.g. YOLOv3 does not draw an object frame on a background or indicate that it this is the background. YOLOv3 only predicts target classes). The number and types of classes can be easily adjusted to fit the data format. For example, if more object classes (e.g. acne or other objects) were identified in the data, the model could be adjusted and trained to predict more classes.

Vis-à-vis du réglage, dans un mode de réalisation, diverses opérations ont été réalisées incluant : 1) l’augmentation de données intensive comprenant : la conversion d’images en espace couleur HSV et l’ajout de tremblement de couleur aléatoire (changement aléatoire de la valeur dans une plage) sur les canaux de saturation et de valeur ; et la transformation affine aléatoire sur l’image ; 2) l’utilisation d’un ordonnanceur de cadence d’apprentissage multi-étape ; et 3) l’utilisation d’un algorithme d’évolution pour faire évoluer les hyper-paramètres à partir des augmentations ci-dessus par entraînement en multiples séries et sélection itérative de la meilleure installation.With respect to tuning, in one embodiment, various operations have been performed including: 1) intensive data augmentation including: converting images to HSV color space and adding random color dither ( random value change within a range) on saturation and value channels; and the random affine transformation on the image; 2) the use of a multi-step learning rate scheduler; and 3) the use of an evolution algorithm to evolve the hyper-parameters from the above augmentations by multiple-run training and iterative selection of the best setup.

Dans un mode de réalisation, comme décrit dans YOLOv3, le facteur de forme de case d’ancrage est calculé à l’aide d’un groupement park-moyennes d’occurrences d’acné identifiées dans l’ensemble de données d’image (d’entraînement) (par ex. comme annoté par un examinateur humain (par ex. et expert)). C’est-à-dire que les cases d’ancrage sont groupées en termes de facteur de forme à l’aide d’opérations de groupement park-moyennes. Des cases d’ancrage sont utilisées pour guider la prédiction de cadre d’objet dans YOLOv3. Dans d’autres approches, des opérations peuvent trouver une surface paramétrique de l’image qui contient potentiellement l’objet cible, puis prédire un cadre d’objet autour de l’objet. Mais il s’agit d’une tâche assez exigeante sur le plan du calcul informatique.In one embodiment, as described in YOLOv3, the anchor box aspect ratio is calculated using k -means clustering of acne occurrences identified in the image data set (training) (eg as annotated by a human reviewer (eg and expert)). That is, the anchor boxes are grouped in terms of shape factor using k -means grouping operations. Anchor boxes are used to guide object frame prediction in YOLOv3. In other approaches, operations can find a parametric surface of the image that potentially contains the target object and then predict an object frame around the object. But this is quite a computationally demanding task.

Il est entendu que la technique a été développée de sorte qu’il a été déterminé qu’il n’était pas nécessaire de prédire une case brute car l’ensemble de données doit avoir certaines caractéristiques intrinsèques. A titre d’exemple, un ensemble de données de voiture doit toujours avoir une bbox rectangulaire longue et un ensemble de données de visage doit avoir une bbox proche du carré. A l’aide de ces principes, l’ensemble de données d’image est évalué pour grouper la taille de la bbox et trouver certaines tailles communes qui sont partagées. Ces tailles sont utilisées en tant que cases d’ancrage. Il suffit alors au modèle de prédire le décalage par rapport à la case d’ancrage, ce qui permet d’éviter un gros travail de calcul informatique. Dans un mode de réalisation, l’algorithme utilisé suit la même approche. L’algorithme obtient d’abord l’ensemble des cadres d’objet à partir de l’annotation d’entraînement, extrait et formate les cases sous la forme de paires de données (largeur, hauteur), puis utilise desk-moyennes (une technique de groupement pour diviser des données enkgroupes individuels) pour trouver les centroïdes de groupe. Le nombre de groupes (k) est établi manuellement, et il doit être cohérent avec la couche YOLO qui admet un certain nombre de cases d’ancrage. Dans un mode de réalisation,k= 5 pour le modèle.It is understood that the technique was developed such that it was determined that there was no need to predict a raw box as the data set must have certain intrinsic characteristics. For example, a car dataset should always have a long rectangular bbox and a face dataset should have a near-square bbox. Using these principles, the image dataset is evaluated to cluster the size of the bbox and find some common sizes that are shared. These sizes are used as anchor boxes. It is then enough for the model to predict the offset with respect to the anchor box, which makes it possible to avoid a lot of computer calculation work. In one embodiment, the algorithm used follows the same approach. The algorithm first gets the set of object frames from the training annotation, extracts and formats the boxes as data pairs (width, height), then uses k -means ( a clustering technique for dividing data into k individual clusters) to find the cluster centroids. The number of groups ( k ) is established manually, and it must be coherent with the YOLO layer which admits a certain number of anchor boxes. In one embodiment, k = 5 for the model.

Le tableau 1 montre une structure de modèle par couche, en conformité avec un mode de réalisation, à la suite des modifications ainsi décrites.Table 1 shows a model structure per layer, in accordance with one embodiment, following the modifications thus described.

CoucheLayer TypeKind FiltresFilters Taille/EtendueSize/Extent EntréeEntrance SortieExit 00 ConvolutifConvolutional 1616 3x3/13x3/1 1024x1024x31024x1024x3 1024x1024x161024x1024x16 11 MaxpoolMaxpool 2x2/22x2/2 1024x1024x161024x1024x16 512x512x16512x512x16 22 ConvolutifConvolutional 3232 3x3/13x3/1 512x512x16512x512x16 512x512x32512x512x32 33 MaxpoolMaxpool 2x2/22x2/2 512x512x32512x512x32 256x256x32256x256x32 44 ConvolutifConvolutional 6464 3x3/13x3/1 256x256x32256x256x32 256x256x64256x256x64 55 MaxpoolMaxpool 2x2/22x2/2 256x256x64256x256x64 128x128x64128x128x64 66 ConvolutifConvolutional 128128 3x3/13x3/1 128x128x64128x128x64 128x128x128128x128x128 77 MaxpoolMaxpool 2x2/22x2/2 128x128x128128x128x128 64x64x12864x64x128 88 ConvolutifConvolutional 256256 3x3/13x3/1 64x64x12864x64x128 64x64x25664x64x256 99 MaxpoolMaxpool 2x2/22x2/2 64x64x25664x64x256 32x32x25632x32x256 1010 ConvolutifConvolutional 512512 3x3/13x3/1 32x32x25632x32x256 32x32x51232x32x512 1111 MaxpoolMaxpool 2x2/12x2/1 32x32x51232x32x512 32x32x51232x32x512 1212 ConvolutifConvolutional 10241024 3x3/13x3/1 32x32x51232x32x512 32x32x102432x32x1024 1313 ConvolutifConvolutional 128128 1x1/11x1/1 32x32x102432x32x1024 32x32x12832x32x128 1414 Sur-échantillonOversample 2x2/12x2/1 32x32x12832x32x128 64x64x12864x64x128 1515 Raccourci
(14, 8)
Shortcut
(14, 8)
Sorties de couches 14 et 8 concaténéesConcatenated layer 14 and 8 outputs
1616 ConvolutifConvolutional 256256 3x3/13x3/1 64x64x38464x64x384 64x64x25664x64x256 1717 ConvolutifConvolutional 2424 1x1/11x1/1 64x64x25664x64x256 64x64x2464x64x24 1818 YOLOYOLO

Un modèle en soi, ne prédit pas un compte total des occurrences d’objets (par ex. l’acné) par classe ou dans l’agrégat directement. Ainsi, un compte par classe ou agrégat peut être déterminé par comptage respectif des occurrences d’acné par classe à partir de prédictions (sorties) du modèle, par exemple, après filtrage des prédictions, tel que par l’utilisation d’une suppression non maximale.A model by itself does not predict a total count of object occurrences (e.g. acne) per class or in the aggregate directly. Thus, a count per class or aggregate may be determined by respective counting of acne occurrences per class from predictions (outputs) of the model, for example, after filtering the predictions, such as by the use of non maximum.

Une comparaison du compte déterminé à partir de prédictions à un compte effectué des réalités de terrain peut être utilisée pour évaluer le modèle. Des métriques de détection d’objet communes dépendent de la façon dont on définit ce qui compte comme une « réponse pertinente » et un « élément non trouvé ». Souvent, un seuil de rapport de chevauchement (intersection/union) est utilisé, mais ce seuil peut être établi arbitrairement à une valeur élevée ou basse, ce qui influence significativement l’exactitude des chiffres.A comparison of the count determined from predictions to a count made from ground truths can be used to evaluate the model. Common object detection metrics depend on how one defines what counts as a "relevant response" and an "item not found". Often an overlap ratio threshold (intersection/union) is used, but this threshold can be set arbitrarily high or low, which significantly influences the accuracy of the figures.

Dans un mode de réalisation, des comptes sont générés et utilisés comme un moyen d’évaluer la performance du modèle.In one embodiment, counts are generated and used as a means of evaluating model performance.

Dans un mode de réalisation, des comptes sont générés à partir d’une utilisation de temps d’inférence du modèle à utiliser dans des tâches en aval. Au lieu (ou en plus) de prédire les emplacements précis de l’acné, une API pour le modèle peut être configurée pour déterminer des comptes. Des applications en aval peuvent utiliser des comptes ou même des scores qui sont basés sur des comptes prédits pour des tâches telles que l’estimation de sévérité d’affection de peau, la recommandation de produit et/ou service, etc.In one embodiment, counts are generated from model inference time usage for use in downstream tasks. Instead of (or in addition to) predicting precise acne locations, an API for the model can be configured to determine counts. Downstream applications may use counts or even scores that are based on predicted counts for tasks such as skin condition severity rating, product and/or service recommendation, etc.

Ensemble de donnéesDataset

Un ensemble de données d’images faciales qui contient 348 images faciales de 116 sujets différents (3 vues par sujet) a été recueilli. Un groupe de dermatologues a marqué les images et identifié toute acné visible pouvant appartenir à l’un quelconque des trois types : acné inflammatoire, acné rétentionnelle, et acné pigmentaire. L’acné identifiée a ensuite été sauvegardée au format de coordonnée du point de centre pour définir des réalités de terrain pour un entraînement et une mise à l’essai, etc.A facial image dataset that contains 348 facial images of 116 different subjects (3 views per subject) was collected. A panel of dermatologists tagged the images and identified any visible acne that could belong to any of three types: inflammatory acne, retentional acne, and acne pigmentosa. The identified acne was then saved in center point coordinate format to set ground realities for training and testing etc.

Dans un mode de réalisation, un groupe de trois dermatologues (experts) a examiné et annoté un ensemble d’images. Chaque expert a annoté l’ensemble des images et identifié les trois types d’acné. Dans un mode de réalisation, les données annotées (les trois versions d’annotation) ont été fusionnées en conformité avec les étapes suivantes :In one embodiment, a group of three (expert) dermatologists reviewed and annotated a set of images. Each expert annotated all of the images and identified the three types of acne. In one embodiment, the annotated data (the three annotation versions) were merged according to the following steps:

fusion des trois versions. Le nombre total de cadres après cette étape est la simple addition de ceux des trois annotations d’origine.merging of the three versions. The total number of frames after this step is the simple addition of those from the original three annotations.

Filtrage de cadres redondants sur la base d’une logique similaire à NMS. A savoir, si le rapport I/U (intersection/union) de deux cadres est plus grand qu’un certain seuil, utilisation du cadre plus grand en tant que réalité de terrain (GT). Si de multiples cadres se chevauchent et ont tous un rapport I/U élevé, utilisation du cadre le plus grand en tant que GT.Filtering of redundant frames based on logic similar to NMS. That is, if the I/U (intersection/union) ratio of two frames is larger than a certain threshold, use the larger frame as the ground truth (GT). If multiple frames overlap and all have a high I/U ratio, use the larger frame as the GT.

EvaluationAssessment

La performance de la localisation d’acné a été mesurée sur la base de métriques de détection d’objet communes. Elle inclut un score de Précision (P), de Rappel (R), mAP et F1. Il est à noter que les scores mAP et F1 sont des formulations directes basées sur la Précision et le Rappel. L’évaluation de performance pour la tâche de localisation est montrée dans le tableau 2.Acne localization performance was measured based on common object detection metrics. It includes a Precision (P), Recall (R), mAP and F1 score. Note that the mAP and F1 scores are direct formulations based on Precision and Recall. The performance evaluation for the localization task is shown in Table 2.

ClasseClass ImagesPictures CiblesTargets PP RR mAPmAP F1F1 ensembletogether 6969 18601860 0,2250.225 0,5680.568 0,3130.313 0,3220.322 pigmpigment 6969 796796 0,2330.233 0,5310.531 0,2670.267 0,3240.324 inflinfluence 6969 275275 0,2460.246 0,6360.636 0,4430.443 0,3550.355 retestay 6969 784784 0,1970.197 0,5360.536 0,230.23 0,2880.288

Les abréviations suivantes pour les trois types d’acné évalués dans le modèle actuel sont utilisées dans le tableau 2 : pigm = pigmentation, infl = inflammation, rete = rétentionnelle et où P = Précision, R = Rappel.The following abbreviations for the three types of acne assessed in the current model are used in Table 2: pigm = pigmentation, infl = inflammation, rete = retentional, and where P = Precision, R = Recall.

Le même modèle est évalué vis-à-vis de la tâche de comptage et les résultats sont montrés comme suit dans le tableau 3 :The same model is evaluated against the counting task and the results are shown as follows in Table 3:

PigmentationPigmentation InflammatoireInflammatory RétentionnelleRetentional Pourcentage < 5Percentage < 5 0,507250.50725 0,826090.82609 0,565220.56522 Erreur par classeError by class 6,0586,058 2,46382.4638 5,23195.2319 Erreur moyenneAverage error 4,5845410634.584541063

L’erreur calculée est l’erreur absolue (|#Prédit - #Réalité de terrain|). Les métriques par rapport auxquelles l’évaluation est réalisée sont un pourcentage < 5 (c’est-à-dire le rapport des cas d’essai montrant une erreur absolue < 5 ?), une erreur par classe et une erreur moyenne de l’ensemble des classes.The calculated error is the absolute error (|#Predicted - #Ground reality|). The metrics against which the assessment is performed are percentage < 5 (i.e. the ratio of test cases showing absolute error < 5?), error per class, and mean error of the set of classes.

Même si les modes de réalisation ci-dessus sont décrits en rapport avec le traitement d’une image faciale entière, dans un mode de réalisation, un masque de peau peut être défini, par exemple, à l’aide de repères faciaux, pour indiquer des portions de l’image qui représentent la peau. Des modes de réalisation de premier modèle ci-dessus peuvent traiter les portions de peau d’une image faciale comme indiqué par le masque de peau.Although the above embodiments are described in relation to processing an entire facial image, in one embodiment a skin mask may be defined, for example, using facial landmarks, to indicate portions of the image that represent the skin. First model embodiments above may process the skin portions of a facial image as indicated by the skin mask.

Dans un mode de réalisation, des opérations peuvent refuser une image qui n’inclut pas un visage et ne pas traiter l’image pour une localisation et un compte d’acné. Dans un mode de réalisation, par exemple, des opérations peuvent traiter l’image pour situer des repères faciaux qui sont refusés ou traiter davantage l’image en conséquence.In one embodiment, operations may reject an image that does not include a face and not process the image for location and acne count. In one embodiment, for example, operations may process the image to locate facial landmarks that are denied or further process the image accordingly.

Modes de réalisation de secondSecond embodiments modèle –model - Localisation d’acné basée sur des surfaces paramétriquesAcne localization based on parametric surfaces

Un inconvénient possible de l’approche basée sur Yolo des premiers modes de réalisation ci-dessus réside dans le fait que des annotations bruyantes peuvent entraîner des résultats médiocres. Par conséquent, des modes de réalisation de second modèle sont proposés en conformité avec une approche basée sur des surfaces paramétriques qui localise des boutons d’acné. Dans un mode de réalisation, une approche basée sur des surfaces paramétriques est appliquée à une image de visage complète. Dans un mode de réalisation, une approche basée sur des surfaces paramétriques est appliquée à l’aide d’un masque de peau pour traiter une ou plusieurs portions de l’image de visage.A possible drawback of the Yolo-based approach of the first embodiments above is that noisy annotations can lead to poor results. Therefore, second model embodiments are provided in accordance with a parametric surface-based approach that localizes acne pimples. In one embodiment, a parametric surface-based approach is applied to a full face image. In one embodiment, a parametric surface-based approach is applied using a skin mask to process one or more portions of the face image.

Par exemple, dans un mode de réalisation axé sur un masque, à un temps d’inférence, une image source d’un visage (par ex. une image d’autoportrait) est prétraitée par un détecteur de repères faciaux pour définir un masque de peau pour le visage. Un exemple d’un masque de peau 200 basé sur les repères est montré sur la figure 2 où des portions de masque sont blanches et montrent des régions à traiter pour l’acné et des portions sans masque sont noires montrant des régions qui ne sont pas traitées. Dans le présent exemple, le masque 200 montre un composant de visage supérieur 202 pour le front, un composant de zone T 204 au-dessus de l’arête du nez, et un composant de visage inférieur 206 pour les joues, la ligne de mâchoire et le menton, où des portions sont omises pour une région d’œil (par ex. 208), une région de nez inférieure 210 et une région de lèvre 212. L’arrière-plan autour du visage est également omis du masque.For example, in a mask-driven embodiment, at inference time, a source image of a face (e.g., a self-portrait image) is preprocessed by a facial landmark detector to define a mask of facial skin. An example of a skin mask 200 based on the benchmarks is shown in Figure 2 where portions of the mask are white showing areas to be treated for acne and portions without a mask are black showing areas which are not. processed. In this example, mask 200 shows an upper face component 202 for the forehead, a T-zone component 204 above the bridge of the nose, and a lower face component 206 for the cheeks, jaw line and the chin, where portions are omitted for an eye region (eg, 208), a lower nose region 210, and a lip region 212. The background around the face is also omitted from the mask.

A un temps d’inférence, dans le mode de réalisation lié à un masque, des surfaces paramétriques de résolution sont créées au sein du masque de peau généré par balayage du coin supérieur gauche au coin inférieur droit, avec une étendue d’un tiers (⅓) de largeur de surface paramétrique. La largeur de surface paramétrique est normalisée par définition de celle-ci en tant que largeur du visage divisée par 15. Chaque surface paramétrique est amenée à traverser un réseau neuronal convolutif entraîné (c'est-à-dire un mode de réalisation de second modèle) décrit ci-dessous. Dans un mode de réalisation, le modèle fournit en sortie une liste de probabilités des classes suivantes : inflammatoire, rétentionnelle, pigmentée (trois types ou classes d’acné) et peau saine. Dans un mode de réalisation, une suppression non maximale (NMS) est appliquée pour sélectionner les meilleurs cadres parmi les candidats d’acné détectés renvoyés.At inference time, in the mask-bound embodiment, resolution parametric surfaces are created within the generated skin mask by scanning from the upper left corner to the lower right corner, with an extent of one-third ( ⅓) of parametric surface width. The parametric surface width is normalized by defining it as the width of the face divided by 15. Each parametric surface is passed through a trained convolutional neural network (i.e. a second model embodiment ) described below. In one embodiment, the model outputs a list of probabilities of the following classes: inflammatory, retentional, pigmented (three types or classes of acne), and healthy skin. In one embodiment, non-maximal suppression (NMS) is applied to select the best frames from the returned detected acne candidates.

Dans un mode de réalisation non lié à un masque, des opérations similaires sont réalisées à l’aide de surfaces paramétriques pour traiter l’image faciale entière, par exemple, incluant des portions sans peau telles qu’un arrière-plan, les cheveux, les yeux et les lèvres. Par exemple, à un temps d’inférence, dans le mode de réalisation non lié à un masque, des surfaces paramétriques de résolution sont créées au sein de l’image entière par balayage du coin supérieur gauche au coin inférieur droit, avec une étendue d’un tiers (⅓) de largeur de surface paramétrique, comme décrit. Chaque surface paramétrique est amenée à passer à travers un réseau neuronal convolutif entraîné (c'est-à-dire un mode de réalisation de second modèle) décrit ci-dessous. Dans un mode de réalisation, le modèle fournit en sortie une liste de probabilités des classes suivantes : inflammatoire, rétentionnelle, pigmentée (trois types ou classes d’acné) et peau saine. Dans un mode de réalisation, une suppression non maximale (NMS) est appliquée pour sélectionner les meilleurs cadres parmi les candidats d’acné détectés renvoyés. La classe peau saine donne au classificateur une option autre que l’une des trois classes d’acné.In a non-mask embodiment, similar operations are performed using parametric surfaces to process the entire facial image, for example, including skinless portions such as background, hair, eyes and lips. For example, at inference time, in the non-mask-bound embodiment, resolution parametric surfaces are created within the entire image by scanning from upper left to lower right, with an extent of 'one-third (⅓) parametric surface width, as described. Each parametric surface is passed through a trained convolutional neural network (i.e. a second model embodiment) described below. In one embodiment, the model outputs a list of probabilities of the following classes: inflammatory, retentional, pigmented (three types or classes of acne), and healthy skin. In one embodiment, non-maximal suppression (NMS) is applied to select the best frames from the returned detected acne candidates. The healthy skin class gives the classifier an option other than one of the three acne classes.

Dans un mode de réalisation, les cadres sélectionnés sont utiles pour réaliser un compte d’acné, et à l’aide de l’image source, une visualisation d’acné. Dans un mode de réalisation, un filtre est appliqué pour effectuer une sélection entre ces occurrences des meilleurs cadres d’acné détectée à l’aide d’une mesure de confiance seuil. Par exemple, des occurrences détectées au seuil ou au-dessus du seuil (ou seulement celles au-dessus du seuil) sont comptées et/ou visualisées.In one embodiment, the selected frames are useful for performing an acne count, and using the source image, an acne visualization. In one embodiment, a filter is applied to select between these occurrences of the best frames of acne detected using a threshold confidence measure. For example, occurrences detected at the threshold or above the threshold (or only those above the threshold) are counted and/or visualized.

En conformité avec un mode de réalisation, la figure 3 est une illustration d’un instantané 300 montrant une image faciale source 302 qui est annotée pour visualiser l’acné (par ex. 304, 306 et 308). L’instantané 300 montre également l’image source annotée pour montrer le masque de peau 310 applicable (ici, délimité par une ligne discontinue) déterminé pour le visage. Sur la figure 3, l’acné est visualisée à l’aide de cercles autour d’un point de centre du cadre de chaque occurrence détectée d’acné qui doit être visualisée. Dans un mode de réalisation, en pratique, les cercles sont de couleurs différentes ou de valeurs d’échelle de gris différentes pour effectuer distinguer les 3 classes d’acné. Dans la présente illustration, les cercles sont distingués à l’aide d’un style de ligne non discontinue (par ex. 304) ou de l’un de deux styles de ligne discontinue (par ex. 306, et 308). Dans un mode de réalisation, le masque de peau n’est pas visualisé (non montré). Le masque de peau peut ne pas être visualisé parce qu’il n’a pas été utilisé ou parce qu’il a été utilisé, mais on ne souhaite pas le montrer.In accordance with one embodiment, Fig. 3 is an illustration of a snapshot 300 showing a source facial image 302 that is annotated to visualize acne (eg, 304, 306, and 308). Snapshot 300 also shows the source image annotated to show the applicable skin mask 310 (here, bounded by a broken line) determined for the face. In Figure 3, acne is visualized using circles around a center point of the frame of each detected occurrence of acne that is to be visualized. In one embodiment, in practice, the circles are of different colors or of different gray scale values to distinguish between the 3 classes of acne. In this illustration, circles are distinguished using a non-broken line style (eg 304) or one of two broken line styles (eg 306, and 308). In one embodiment, the skin mask is not visualized (not shown). The skin mask may not be visible because it has not been used or because it has been used, but we do not want to show it.

Structure type de second modèle et entraînementSecond model type structure and training

Dans un mode de réalisation, un modèle basé sur des surfaces paramétriques comprend une architecture de réseau résiduelle (par exemple, RestNet-50, ayant 50 couches de réseau neuronal) et trois couches entièrement connectées où une fonction d’activation linéaire rectifiée (par ex. LeakyReLU (unité linéaire rectifiée avec fuite)) est entrelacée entre des couches entièrement connectées (FC) adjacentes. Les couches finales apparaissent comme FC1-> LeakyRelu1 -> FC2 -> LeakyRelu2 -> FC3. (Voir, He, Kaiming ; Zhang, Xiangyu ; Ren, Shaoqing ; Sun, Jian (12-10-2015). « Deep Residual Learning for Image Recognition ». arXiv :1512.03385.)In one embodiment, a model based on parametric surfaces includes a residual network architecture (e.g., RestNet-50, having 50 neural network layers) and three fully connected layers where a rectified linear activation function (e.g. LeakyReLU (leaky rectified linear unit) is interleaved between adjacent fully connected (FC) layers. The final layers appear as FC1->LeakyRelu1 -> FC2 -> LeakyRelu2 -> FC3. (See, He, Kaiming; Zhang, Xiangyu; Ren, Shaoqing; Sun, Jian (2015-10-12). “Deep Residual Learning for Image Recognition”. arXiv:1512.03385.)

Pour créer un ensemble de données de modèle basé sur des surfaces paramétriques, en conformité avec un mode de réalisation, 2 450 surfaces paramétriques saines et 3 577 surfaces paramétriques d’acné (des surfaces paramétriques incluant des occurrences de l’une quelconque des trois classes d’acné précédemment décrites ici) ont été respectivement échantillonnées à partir des images de visage complètes de l’ensemble de données décrit ci-dessus en référence aux modes de réalisation de premier modèle. Dans une phase d’entraînement, un réseau est entraîné avec une fonction de perte d’entropie croisée standard, une augmentation de données incluant une transformation affine aléatoire, un retournement horizontal aléatoire et une permutation de canal.To create a model dataset based on parametric surfaces, in accordance with one embodiment, 2450 healthy parametric surfaces and 3577 acne parametric surfaces (parametric surfaces including occurrences of any of the three classes previously described here) were respectively sampled from the full face images of the data set described above with reference to the first model embodiments. In a training phase, a network is trained with a standard cross-entropy loss function, data augmentation including random affine transformation, random horizontal flip, and channel permutation.

Dans un mode de réalisation, des images frontales ont été utilisées pour le masquage et l’annotation.In one embodiment, frontal images were used for masking and annotation.

Pour traiter une image source afin de détecter des occurrences d’acné, par type, en conformité avec un mode de réalisation où un masque est utilisé, l’image source est traitée à l’aide d’une détection de repère pour définir un masque applicable, définissant des régions du visage ayant de la peau pour une analyse. En conformité avec le masque applicable, une pluralité de surfaces paramétriques chevauchantes (en réponse à une taille et une étendue de surface paramétrique) sont extraites de l’image de peau et traitées par le modèle. Le modèle produit une liste de probabilités des classes suivantes : inflammatoire, rétentionnelle, pigmentée (trois types ou classes d’acné) et peau saine. Le masque axe des opérations pour ignorer les yeux, les lèvres, les cheveux, l’arrière-plan dans l’image source. De multiples occurrences détectées de la même acné sont filtrées pour sélectionner une/la meilleure occurrence (par ex. à l’aide d’une NMS). Un second filtre est appliqué pour sélectionner des occurrences détectées ayant au moins un niveau de confiance minimal.To process a source image to detect occurrences of acne, by type, in accordance with an embodiment where a mask is used, the source image is processed using marker detection to define a mask applicable, defining regions of the face having skin for analysis. In accordance with the applicable mask, a plurality of overlapping parametric surfaces (responsive to a parametric surface size and extent) are extracted from the skin image and processed by the model. The model produces a list of probabilities of the following classes: inflammatory, retentional, pigmented (three types or classes of acne) and healthy skin. Mask axis operations to ignore eyes, lips, hair, background in source image. Multiple detected occurrences of the same acne are filtered to select one/the best occurrence (e.g. using an NMS). A second filter is applied to select detected occurrences having at least a minimum confidence level.

De manière similaire à ce qui a été décrit en référence à des modes de réalisation du premier modèle, dans un mode de réalisation utilisant un type de second modèle, des occurrences détectées d’acné par type sont comptées. Dans un mode de réalisation, un score est calculé informatiquement. Dans un mode de réalisation, l’acné détectée est visualisée en association avec une image source. Dans un mode de réalisation, le masque est visualisé en association avec l’image source, montrant les régions de la peau qui ont été traitées.Similar to what has been described with reference to embodiments of the first model, in one embodiment using a type of second model, detected occurrences of acne per type are counted. In one embodiment, a score is computed. In one embodiment, the detected acne is visualized in association with a source image. In one embodiment, the mask is visualized in association with the source image, showing the regions of the skin that have been processed.

Applications en avalDownstream applications

La description suivante concerne l’un quelconque des modes de réalisation de premier modèle et des modes de réalisation de second modèle. Ainsi, en conformité avec les modes de réalisation, des opérations d’analyse utilisent un modèle qui peut être configuré pour fournir en sortie des emplacements d’occurrences d’acné détectées dans une image source (par ex. de la peau telle que sur un visage en mode frontal ou de profil) où différents types d’acné (classes d’objets) peuvent être distingués par le modèle. Une analyse ou d’autres opérations de détermination peuvent compter les occurrences, par exemple, pour déterminer un compte agrégé et/ou un compte pour chaque type.The following description relates to any of the first model embodiments and second model embodiments. Thus, in accordance with the embodiments, analysis operations use a model that can be configured to output locations of detected acne occurrences in a source image (e.g., of skin such as on a face in frontal or profile mode) where different types of acne (object classes) can be distinguished by the model. Analysis or other determination operations may count occurrences, for example, to determine an aggregate count and/or count for each type.

L’emplacement, le type et/ou le compte définissent des données d’acné qui sont utiles dans des applications en aval. Dans un mode de réalisation, les occurrences de l’acné sont visualisées sur l’image source ou affichées à l’aide d’opérations de visualisation. Dans un mode de réalisation, l’image source est annotée (par ex. à l’aide de superpositions ou d’autres techniques) pour indiquer un emplacement. Dans un exemple, l’emplacement est constitué d’emplacements respectifs pour chacune des occurrences sur l’image source. Des opérations de visualisation, dans un mode de réalisation, indiquent un type respectif d’acné pour chacune des occurrences sur l’image source. Des opérations de visualisation, dans un mode de réalisation, fournissent un affichage du compte.Location, type, and/or account define acne data that is useful in downstream applications. In one embodiment, the occurrences of acne are visualized on the source image or displayed using visualization operations. In one embodiment, the source image is annotated (eg, using overlays or other techniques) to indicate a location. In one example, the location consists of respective locations for each of the instances on the source image. Visualization operations, in one embodiment, indicate a respective type of acne for each of the occurrences on the source image. View operations, in one embodiment, provide a view of the count.

Des données d’acné (par ex. le compte et le type (la classification)) sont utiles pour prédire des scores d’affection de peau dans des opérations. Par exemple, plus d’acné rétentionnelle et moins d’acné inflammatoire indiquent une sévérité plus modérée et inversement.Acne data (e.g. count and type (grading)) are useful for predicting skin condition scores in operations. For example, more retentional acne and less inflammatory acne indicate more moderate severity and vice versa.

Dans un mode de réalisation, sur la base de données d’acné et/ou des informations dérivées de celles-ci (par ex. des scores) des opérations recommandent des produits et/ou des services pour cibler l’acné. Des opérations (par ex. des opérations de commerce électronique) facilitent un achat, en conformité avec un mode de réalisation.In one embodiment, based on acne data and/or information derived therefrom (eg, scores) operations recommend products and/or services to target acne. Transactions (eg, e-commerce transactions) facilitate a purchase, in accordance with one embodiment.

Dans un mode de réalisation, des opérations de visualisation guident l’application d’un produit, par exemple, à l’aide de l’emplacement pour indiquer où effectuer l’application. Dans un exemple, l’image source est utilisée dans la visualisation pour fournir un tutoriel spécifique de l’utilisateur via une interface utilisateur graphique (GUI).In one embodiment, visualization operations guide application of a product, for example, using location to indicate where to apply. In one example, the source image is used in the visualization to provide a user-specific tutorial through a graphical user interface (GUI).

Divers paradigmes et systèmes informatiques peuvent être envisagés pour des applications pratiques du modèle et de sa sortie. Dans un exemple, un réseau d’ordinateur comporte au moins un dispositif informatique client (par ex. pour un dermatologue ou un consommateur) et un système informatique de commerce électronique Web. Dans le mode de réalisation, le dispositif informatique client est activé pour déterminer des occurrences d’acné dans une image source et obtenir une recommandation pour un produit et/ou une recommandation de service et acheter ceux-ci.Various paradigms and computational systems can be considered for practical applications of the model and its output. In one example, a computer network includes at least one client computing device (eg, for a dermatologist or consumer) and a web-based electronic commerce computing system. In the embodiment, the client computing device is enabled to determine occurrences of acne in a source image and obtain a recommendation for a product and/or a service recommendation and purchase the same.

Un modèle pour analyser des images sources et fournir des données d’acné en tant que sortie peut être configuré pour une exécution à durée d’exécution sur un dispositif utilisateur ou sur un serveur ou un autre dispositif distant. Une application peut être configurée pour obtenir une image source et utiliser le modèle pour générer des données d’acné. Les données d’acné peuvent être utilisées pour fournir un ou plusieurs parmi un diagnostic tel qu’un score d’acné, une visualisation de l’acné sur l’image source et une recommandation pour un produit ou service pour traiter spécifiquement l’acné.A model for analyzing source images and providing acne data as output may be configured for run-time execution on a user device or on a server or other remote device. An application can be configured to obtain a source image and use the model to generate acne data. Acne data may be used to provide one or more of a diagnosis such as an acne score, a visualization of acne on the source image, and a recommendation for a product or service to specifically treat acne .

La figure 4 est un schéma fonctionnel d’un exemple de réseau d’ordinateur 400 dans lequel un dispositif informatique 402 à utiliser personnelle mis en fonctionnement par un utilisateur 404 est en communication, via un réseau de communications 406, avec des dispositifs informatiques serveurs situés à distance, à savoir un serveur 408 et un serveur 410. Dans un mode de réalisation, l’utilisateur 404 est un consommateur. La figure montre également un second utilisateur 412 et un deuxième dispositif informatique 414 configuré pour une communication via un réseau de communications 406. Dans un mode de réalisation, le second utilisateur 410 est un dermatologue. Dans un mode de réalisation, le serveur 408 est configuré pour fournir une instance du modèle (418) pour traiter des images afin de générer des données d’acné et une recommandation pour un produit et/ou service pour traiter l’acné. Le serveur 408, dans un mode de réalisation, génère un score d’acné et une recommandation à partir de données d’acné reçues (par ex. sans avoir traité l’image elle-même). Dans un mode de réalisation, le serveur 408 génère des données d’acné comprenant des données de localisation pour chaque occurrence d’acné détectée telles qu’à utiliser pour visualiser l’acné. Dans un mode de réalisation, le serveur 408 génère la visualisation de façon à la fournir à un autre dispositif pour un affichage. Dans un mode de réalisation, le serveur 408 génère des données d’acné comprenant un compte par type (par ex. sans visualisation), de façon à générer un score.Figure 4 is a block diagram of an exemplary computer network 400 in which a user operated personal computing device 402 404 is in communication, via a communications network 406, with server computing devices located remotely, namely a server 408 and a server 410. In one embodiment, the user 404 is a consumer. The figure also shows a second user 412 and a second computing device 414 configured for communication via a communications network 406. In one embodiment, the second user 410 is a dermatologist. In one embodiment, server 408 is configured to provide an instance of the model (418) for processing images to generate acne data and a recommendation for a product and/or service to treat acne. Server 408, in one embodiment, generates an acne score and recommendation from received acne data (e.g., without having processed the image itself). In one embodiment, server 408 generates acne data including location data for each detected acne occurrence such as to be used to visualize acne. In one embodiment, server 408 generates the visualization to provide it to another device for display. In one embodiment, server 408 generates acne data including one count per type (eg, non-viewing), to generate a score.

Dans un mode de réalisation, le serveur 410 fournit une interface de commerce électronique pour l’achat de produits et/ou services, par exemple, tels que recommandés par le serveur 408.In one embodiment, server 410 provides an e-commerce interface for purchasing products and/or services, for example, as recommended by server 408.

Dans un mode de réalisation, le dispositif informatique 402 est destiné à une utilisation personnelle par l’utilisateur 404 et n’est pas disponible pour le public. Toutefois, des services provenant du serveur sont disponibles pour le public. Ici, le public comprend des utilisateurs et/ou clients enregistrés, etc. Un dispositif informatique 416 disponible pour le public, tel qu’on peut en trouver dans un magasin traditionnel, est également couplé au réseau 406.In one embodiment, computing device 402 is intended for personal use by user 404 and is not available to the public. However, services from the server are available to the public. Here, the audience includes registered users and/or customers, etc. A publicly available computing device 416, such as can be found in a traditional store, is also coupled to the 406 network.

Le dispositif informatique 402 est configuré pour réaliser une localisation d’acné, etc., comme décrit ici, à savoir évaluer un emplacement d’acné et déterminer un compte, etc. Dans le mode de réalisation, un modèle (CNN) 418 est stocké et utilisé sur un dispositif informatique de bord 402. Dans le mode de réalisation, une seconde instance du modèle 418 est stockée au niveau du serveur 408 et fournie pour une utilisation par d’autres dispositifs informatiques telle que via un service en nuage, un service Web, etc. pour une analyse d’image(s) reçue(s) depuis un dispositif informatique (par ex. 416, etc.).Computing device 402 is configured to perform acne location, etc., as described herein, i.e., assess acne location and determine count, etc. In the embodiment, a model (CNN) 418 is stored and used on an edge computing device 402. In the embodiment, a second instance of the model 418 is stored at server 408 and provided for use by other users. other computing devices such as via cloud service, web service, etc. for analysis of image(s) received from a computing device (e.g. 416, etc.).

Le dispositif informatique 402 est configuré pour communiquer avec le serveur 408, par exemple pour fournir des données d’acné (qui peuvent inclure des données de score) et pour recevoir des recommandations de produit/service en réponse aux données d’acné et/ou à d’autres informations concernant l’utilisateur, par ex. l’âge, le sexe, etc. Le dispositif informatique 402 (ou le serveur 408 en son nom) est configuré pour communiquer avec le serveur 410 afin d’obtenir des services de commerce électronique pour acheter le(s) produit(s) et/ou service(s) recommandé(s).Computing device 402 is configured to communicate with server 408, for example, to provide acne data (which may include score data) and to receive product/service recommendations in response to the acne data and/or to other information about the user, e.g. age, sex, etc. Computing device 402 (or server 408 on its behalf) is configured to communicate with server 410 to obtain e-commerce services to purchase the recommended product(s) and/or service(s). ).

Le dispositif informatique 402 est montré sous la forme d’un dispositif mobile portatif (par ex. un téléphone intelligent ou une tablette). Toutefois, le dispositif physique peut être un autre dispositif informatique tel qu’un ordinateur portable, un ordinateur de bureau, un poste de travail, etc. La localisation et le comptage d’acné, etc., tels que décrits ici peuvent être mis en œuvre sur d’autres types de dispositif informatique. Les dispositifs informatiques 402, 414 et 416 peuvent être configurés à l’aide d’une ou de plusieurs applications natives ou applications sur navigateur, par exemple.Computing device 402 is shown as a hand-held mobile device (e.g., smart phone or tablet). However, the physical device can be another computing device such as a laptop, desktop computer, workstation, etc. Locating and counting acne, etc., as described herein can be implemented on other types of computing device. Computing devices 402, 414, and 416 can be configured using one or more native applications or browser-based applications, for example.

Le dispositif informatique 402, dans le mode de réalisation, comprend un dispositif utilisateur, par exemple, pour acquérir une ou plusieurs images telles qu’une photo de la peau, en particulier un visage, et traiter les une ou plusieurs images afin de générer des données d’acné respectives, etc. Ces activités sont indiquées comme une réalisation de diagnostic de peau. Un diagnostic de peau peut être réalisé en association avec un plan de traitement de peau où des images sont acquises périodiquement et analysées pour déterminer des scores de peau tels que pour l’acné, comme décrit. Les scores peuvent être stockés (localement, à distance ou les deux) et comparés entre des sessions, par exemple pour montrer des tendances, une amélioration, etc. Des scores de peau et/ou des images de peau peuvent être accessibles par l’utilisateur 404 du dispositif informatique 402 et mis à disposition (par ex. via le serveur 408 ou communiqués (électroniquement) d’une autre manière via le réseau de communication 406) d’un autre utilisateur (par ex. un second utilisateur 412) du système d’ordinateur 400 tel qu’un dermatologue. Le deuxième dispositif informatique 414 peut également réaliser un diagnostic de peau, comme décrit. Il peut recevoir des images depuis une source distante (par ex. le dispositif informatique 402, ou le serveur 408, etc.) et/ou peut capturer des images via un capteur optique (par ex. une caméra) couplé à celui-ci ou de toute autre manière. Le modèle 418 peut être stocké et utilisé à partir du deuxième dispositif informatique 414 ou du serveur 408, comme décrit.The computing device 402, in the embodiment, includes a user device, for example, for acquiring one or more images such as a photo of the skin, in particular a face, and processing the one or more images in order to generate respective acne data, etc. These activities are indicated as a realization of skin diagnosis. A skin diagnosis can be performed in conjunction with a skin treatment plan where images are acquired periodically and analyzed to determine skin scores such as for acne, as described. Scores can be stored (locally, remotely or both) and compared between sessions, for example to show trends, improvement, etc. Skin scores and/or skin images may be accessed by user 404 of computing device 402 and made available (e.g., via server 408 or otherwise (electronically) communicated via the communication network 406) of another user (eg, a second user 412) of computer system 400 such as a dermatologist. The second computing device 414 can also perform skin diagnosis, as described. It may receive images from a remote source (e.g., computing device 402, or server 408, etc.) and/or may capture images via an optical sensor (e.g., camera) coupled thereto or any other way. Template 418 can be stored and used from second computing device 414 or server 408, as described.

Une application peut être fournie pour réaliser le diagnostic de peau, suggérer un ou plusieurs produits et surveiller des changements de peau à la suite d’une ou de plusieurs applications du produit (qui peut définir des sessions de traitement dans un plan de traitement) sur une période temporelle. L’application d’ordinateur peut prévoir un flux opérationnel tel qu’une série d’interfaces utilisateur graphiques (GUI) d’instructions et/ou d’autres interfaces utilisateur, qui sont typiquement interactives et reçoivent une entrée d’utilisateur, pour réaliser l’une quelconque des activités suivantes :An application can be provided to perform skin diagnosis, suggest one or more products and monitor skin changes following one or more product applications (which can define treatment sessions in a treatment plan) on a time period. The computer application may provide an operational flow such as a series of graphical user interfaces (GUIs) of instructions and/or other user interfaces, which are typically interactive and receive user input, to perform any of the following activities:

  • un diagnostic de peau tel que pour l’acné ;a skin diagnosis such as for acne;
  • une recommandation de produit telle que pour un plan de traitement ;a product recommendation such as for a treatment plan;
  • un achat de produit ou une autre acquisition ;a product purchase or other acquisition;
  • un rappel, une instruction et/ou un enregistrement (par ex. une journalisation) d’application de produit pour des sessions de traitement respectives ;a product application reminder, instruction and/or record (e.g. logging) for respective treatment sessions;
  • un diagnostic de peau ultérieur (par ex. un ou plusieurs suivis) ; etsubsequent skin diagnosis (e.g. one or more follow-ups); And
  • une présentation de résultats (par ex. des résultats comparatifs) ;a presentation of results (eg comparative results);

telles qu’en conformité avec un calendrier de plan de traitement pour surveiller l’évolution d’un plan de traitement de peau. L’une quelconque de ces activités peut générer des données qui peuvent être stockées à distance, par exemple pour un examen par l’utilisateur 412, pour un examen par un autre individu, pour une agrégation avec d’autres données de l’utilisateur (par ex. pour mesurer de manière agrégée l’efficacité de plan de traitement), etc.such as in accordance with a treatment plan schedule to monitor the progress of a skin treatment plan. Any of these activities can generate data that can be stored remotely, e.g., for review by user 412, for review by another individual, for aggregation with other user data ( e.g. to measure in aggregate the effectiveness of treatment plans), etc.

Des résultats comparatifs (par ex. des résultats avant et après) peuvent être présentés via le dispositif informatique 402, pendant et/ou au moment de l’achèvement, etc. d’un plan de traitement. Comme on l’a noté, des aspects de diagnostic de peau peuvent être réalisés sur le dispositif informatique 402 ou par un dispositif couplé à distance (par ex. un serveur dans le nuage ou un autre agencement).Comparative results (e.g., before and after results) may be presented via the computing device 402, during and/or at the time of completion, etc. of a treatment plan. As noted, aspects of skin diagnosis can be performed on computing device 402 or by a remotely coupled device (e.g., cloud server or other arrangement).

La figure 5 est un schéma fonctionnel du dispositif informatique 402, en conformité avec un ou plusieurs aspects de la présente divulgation. Le dispositif informatique 402 comprend un ou plusieurs processeurs 502, un ou plusieurs dispositifs d’entrée 504, un dispositif E/S basé sur la gestuelle 506, une ou plusieurs unités de communication 508 et un ou plusieurs dispositifs de sortie 510. Le dispositif informatique 402 inclut également un ou plusieurs dispositifs de stockage 512 stockant un ou plusieurs modules et/ou des données. Dans un mode de réalisation, les modules incluent un modèle 418, une application 516 ayant des composants pour une interface utilisateur graphique (GUI 518) et/ou un flux opérationnel pour une surveillance de traitement (par ex. un moniteur de traitement 520), une acquisition d’image 522 (par ex. une interface) et un sélecteur de traitement/produit 530 (par ex. une interface). Les données peuvent inclure une ou plusieurs images pour un traitement (par ex. image 524), des données de diagnostic 526 (par ex. des données d’acné, des scores respectifs, l’ethnie, le sexe ou d’autres données d’utilisateur), des données de traitement 528 telles que des données de journalisation liées à des traitements spécifiques, des plans de traitement avec des calendriers tels que pour des rappels, etc.)Figure 5 is a block diagram of computing device 402, in accordance with one or more aspects of the present disclosure. The computing device 402 includes one or more processors 502, one or more input devices 504, a gesture-based I/O device 506, one or more communication units 508, and one or more output devices 510. The computing device 402 also includes one or more storage devices 512 storing one or more modules and/or data. In one embodiment, the modules include a model 418, an application 516 having components for a graphical user interface (GUI 518) and/or an operational flow for process monitoring (e.g., process monitor 520), an image acquisition 522 (eg an interface) and a process/product selector 530 (eg an interface). The data may include one or more images for treatment (e.g., image 524), diagnostic data 526 (e.g., acne data, respective scores, ethnicity, gender, or other diagnostic data). (user), treatment data 528 such as log data related to specific treatments, treatment plans with schedules such as for reminders, etc.)

L’application 516 fournit la fonctionnalité pour acquérir une ou plusieurs images telles qu’une vidéo et traiter les images afin de déterminer un diagnostic de peau avec un réseau neuronal profond tel que fourni par le modèle 418.The 516 application provides the functionality to acquire one or more images such as video and process the images to determine a skin diagnosis with a deep neural network as provided by the 418 model.

Le(s) dispositif(s) de stockage 512 peut (peuvent) stocker des modules supplémentaires tels qu’un système d’exploitation 532 et d’autres modules (non montrés) incluant des modules de communication ; des modules de traitement graphique (par ex. pour une GPU de processeurs 502) ; un module de carte ; un module de contacts ; un module d’agenda ; un module de photos/galerie ; un éditeur de photos (image/multimédia) ; un lecteur multimédia ; et/ou un module de diffusion en continu ; des applications de réseaux sociaux ; un module de navigateur ; etc. Les dispositifs de stockage peuvent être indiqués ici en tant qu’unités de stockage.The storage device(s) 512 can store additional modules such as an operating system 532 and other modules (not shown) including communication modules; graphics processing modules (eg for a GPU of 502 processors); a card module; a contact module; a diary module; a photo/gallery module; a photo editor (image/multimedia); a media player; and/or a streaming module; social networking applications; a browser module; etc Storage devices can be listed here as storage units.

Des canaux de communication 538 peuvent coupler chacun des composants 502, 504, 506, 508, 510, 512, et des modules quelconques (par ex. 418 et 516) pour des communications entre composants, que ce soit en communication, physiquement et/ou opérationnellement. Dans certains exemples, les canaux de communication 338 peuvent inclure un bus système, une connexion en réseau, une structure de données de communication inter-processus, ou tout autre procédé de communication de données.Communication channels 538 may couple each of components 502, 504, 506, 508, 510, 512, and any modules (e.g., 418 and 516) for communications between components, whether in communication, physically and/or operationally. In some examples, the communication channels 338 may include a system bus, a network connection, an inter-process communication data structure, or any other data communication method.

Les un ou plusieurs processeurs 502 peuvent mettre en œuvre une fonctionnalité et/ou exécuter des instructions au sein du dispositif informatique 402. Par exemple, les processeurs 502 peuvent être configurés pour recevoir des instructions et/ou des données depuis les dispositifs de stockage 512 afin d’exécuter la fonctionnalité des modules montrés sur la figure 5, entre autres (par ex. le système d’exploitation, les applications, etc.). Le dispositif informatique 402 peut stocker des données/informations sur les dispositifs de stockage 512. Une partie de la fonctionnalité est décrite davantage ci-après. Il est entendu que des opérations peuvent ne pas s’inscrire exactement au sein des modules 418 et 516 de la figure 5 de sorte qu’un module puisse apporter une aide à la fonctionnalité d’un autre.The one or more processors 502 may implement functionality and/or execute instructions within the computing device 402. For example, the processors 502 may be configured to receive instructions and/or data from the storage devices 512 to to execute the functionality of the modules shown in Figure 5, among others (eg the operating system, applications, etc.). Computing device 402 can store data/information on storage devices 512. Some of the functionality is described further below. It is understood that operations may not fit exactly within the modules 418 and 516 of FIG. 5 so that one module can provide support for the functionality of another.

Un code de programme d’ordinateur pour réaliser des opérations peut être écrit dans toute combinaison d’un ou de plusieurs langages de programmation, par ex. un langage de programmation orienté objet tel que Java, Smalltalk, C++ ou similaire, ou un langage de programmation procédural classique, tel que le langage de programmation « C » ou des langages de programmation similaires.Computer program code for performing operations may be written in any combination of one or more programming languages, e.g. an object-oriented programming language such as Java, Smalltalk, C++ or the like, or a conventional procedural programming language, such as the "C" programming language or similar programming languages.

Le dispositif informatique 402 peut générer une sortie pour un affichage sur un écran d’un dispositif E/S basé sur la gestuelle 506 ou dans certains exemples, pour un affichage par un projecteur, un moniteur ou un autre dispositif d’affichage. Il est entendu que le dispositif E/S basé sur la gestuelle 506 peut être configuré à l’aide d’une variété de technologies (par ex. en rapport avec des capacités d’entrée : écran tactile résistif, un écran tactile à onde acoustique de surface, un écran tactile capacitif, un écran tactile à capacité projective, un écran sensible à la pression, un écran tactile de reconnaissance d’impulsion acoustique, ou une autre technologie d’écran sensible à la présence ; et en rapport avec des capacités de sortie : affichage à cristaux liquides (LCD), affichage à diode électroluminescente (LED), affichage à diode électroluminescente organique (OLED), affichage à matrice de points, encre électronique, ou affichage monochrome ou couleur similaire).Computing device 402 may generate output for display on a screen of gesture-based I/O device 506 or in some instances, for display by a projector, monitor, or other display device. It is understood that the gesture-based I/O device 506 may be configured using a variety of technologies (e.g., related to input capabilities: resistive touch screen, acoustic wave touch screen surface, capacitive touchscreen, projectively capacitive touchscreen, pressure-sensitive screen, acoustic pulse recognition touchscreen, or other presence-sensitive screen technology; and relating to capabilities output: liquid crystal display (LCD), light-emitting diode (LED) display, organic light-emitting diode (OLED) display, dot-matrix display, e-ink, or similar monochrome or color display).

Dans les exemples décrits ici, le dispositif E/S basé sur la gestuelle 506 inclut un dispositif d’écran tactile capable de recevoir en entrée une interaction tactile ou une gestuelle d’un utilisateur interagissant avec l’écran tactile. Cette gestuelle peut inclure une gestuelle de tapotement, une gestuelle de glissement ou de balayage, une gestuelle de frappe, une gestuelle de pause (par ex. où un utilisateur touche un même emplacement de l’écran pendant au moins une période temporelle seuil) où l’utilisateur touche ou pointe vers un ou plusieurs emplacements du dispositif E/S basé sur la gestuelle 506. Le dispositif E/S basé sur la gestuelle 506 peut également inclure une gestuelle sans tapotement. Le dispositif E/S basé sur la gestuelle 506 peut fournir en sortie ou afficher des informations, telles qu’une interface utilisateur graphique, à un utilisateur. Le dispositif E/S basé sur la gestuelle 506 peut présenter diverses applications, fonctions et capacités du dispositif informatique 402 incluant, par exemple, l’application 516 pour acquérir des images, voir des images, traiter les images et afficher de nouvelles images, des applications de messagerie, des communications téléphoniques, des applications de contact et d’agenda, des applications de navigation Web, des applications de jeu, des applications de livre électronique et des applications financières, de paiement et d’autres applications ou fonctions entre autres.In the examples described herein, the gesture-based I/O device 506 includes a touch screen device capable of receiving as input a touch interaction or a gesture from a user interacting with the touch screen. This gesture may include a tapping gesture, a swiping or swiping gesture, a typing gesture, a pause gesture (e.g. where a user touches the same location on the screen for at least a threshold time period) or the user touches or points to one or more locations of the gesture-based I/O device 506. The gesture-based I/O device 506 may also include a non-tapping gesture. Gesture-based I/O device 506 may output or display information, such as a graphical user interface, to a user. Gesture-based I/O device 506 may present various applications, functions, and capabilities of computing device 402 including, for example, application 516 for acquiring images, viewing images, processing images, and displaying new images, messaging applications, telephone communications, contact and calendar applications, web browsing applications, gaming applications, e-book applications and financial, payment and other applications or functions among others.

Bien que la présente divulgation illustre et évoque un dispositif E/S basé sur la gestuelle 506 principalement sous la forme d’un dispositif d’écran d’affichage avec des capacités E/S (par ex. un écran tactile), d’autres exemples de dispositifs E/S basés sur la gestuelle peuvent être utilisés qui peuvent détecter un déplacement et qui peuvent ne pas comprendre un écran en soi. Dans ce cas, le dispositif informatique 402 inclut un écran d’affichage ou est couplé à un appareil d’affichage pour présenter de nouvelles images et des GUI de l’application 516. Le dispositif informatique 402 peut recevoir une entrée basée sur la gestuelle depuis un pavé de pointage/pavé tactile, une ou plusieurs caméras, ou un autre dispositif d’entrée sensible à une présence ou une gestuelle, où la présence signifie des aspects de présence d’un utilisateur incluant par exemple un mouvement de tout ou partie de l’utilisateur.Although this disclosure illustrates and discusses a gesture-based I/O device 506 primarily as a display screen device with I/O capabilities (e.g., a touch screen), others Examples of gesture-based I/O devices can be used which can detect motion and which may not include a screen per se. In this case, computing device 402 includes a display screen or is coupled to a display device to present new images and application GUIs 516. Computing device 402 may receive gesture-based input from a pointing pad/touchpad, one or more cameras, or other input device responsive to presence or gesture, where presence means aspects of a user's presence including for example movement of all or part of the user.

Une ou plusieurs unités de communication 508 peuvent communiquer avec des dispositifs externes (par ex. le serveur 408, le serveur 410, le deuxième dispositif informatique 412) comme aux fins telles que décrites et/ou à d’autres fins (par ex. une impression) telles que via un réseau de communications 404 par émission et/ou réception de signaux de réseau sur les un ou plusieurs réseaux. Les unités de communication peuvent inclure diverses antennes et/ou cartes d’interface réseau, puces (par ex. satellite de positionnement mondial (GPS)), etc. pour des communications sans fil et/ou filaires.One or more communication units 508 may communicate with external devices (e.g., server 408, server 410, second computing device 412) as for the purposes as described and/or for other purposes (e.g., a printing) such as via a communications network 404 by transmitting and/or receiving network signals on the one or more networks. Communication units may include various antennas and/or network interface cards, chips (e.g. Global Positioning Satellite (GPS)), etc. for wireless and/or wired communications.

Les dispositifs d’entrée 504 et les dispositifs de sortie 510 peuvent inclure un ou plusieurs quelconques boutons, commutateurs, dispositifs de pointage, caméras, un clavier, un microphone, un ou plusieurs capteurs (par ex, biométriques, etc.), un haut-parleur, une sonnette, une ou plusieurs lumières, un dispositif haptique (vibrant), etc. Un ou plusieurs de ceux-ci peuvent être couplés via un bus série universel (USB) ou un autre canal de communication (par ex. 338). Une caméra (un dispositif d’entrée 504) peut être orientée vers l’avant (c'est-à-dire sur un même côté) pour permettre à un utilisateur de capturer une (des) image(s) à l’aide de la caméra tout en regardant le dispositif E/S basé sur la gestuelle 506 pour prendre un « selfie » (autoportrait).Input devices 504 and output devices 510 may include one or more any buttons, switches, pointing devices, cameras, a keyboard, a microphone, one or more sensors (e.g., biometrics, etc.), a monitor -speaker, a bell, one or more lights, a haptic (vibrating) device, etc. One or more of these may be coupled via a universal serial bus (USB) or other communication channel (eg 338). A camera (an input device 504) may be facing forward (i.e., same side) to allow a user to capture image(s) using the camera while looking at the gesture-based I/O device 506 to take a "selfie" (self-portrait).

Les un ou plusieurs dispositifs de stockage 512 peuvent prendre des formes et/ou configurations différentes, par exemple, telles qu’une mémoire à court terme ou une mémoire à long terme. Les dispositifs de stockage 512 peuvent être configurés pour un stockage à court terme d’informations comme une mémoire volatile, qui ne conserve pas de contenus stockés lorsque l’alimentation électrique est retirée. Des exemples de mémoire volatile incluent une mémoire vive (RAM), une mémoire vive dynamique (DRAM), une mémoire vive statique (SRAM), etc. Les dispositifs de stockage 512, dans certains exemples, incluent également un ou plusieurs supports de stockage lisibles par ordinateur, par exemple, pour stocker de plus grandes quantités d’informations que la mémoire volatile et/ou pour stocker ces informations à long terme, conserver des informations lorsque l’alimentation électrique est retirée. Des exemples de mémoire non volatile incluent des disques durs magnétiques, des disques optiques, des disquettes, des mémoires flash, ou des formes de mémoire électriquement programmables (EPROM) ou de mémoire électriquement effaçable et programmable (EEPROM).The one or more storage devices 512 may take different shapes and/or configurations, for example, such as short-term memory or long-term memory. 512 storage devices can be configured for short-term storage of information such as volatile memory, which does not retain stored contents when power is removed. Examples of volatile memory include random access memory (RAM), dynamic random access memory (DRAM), static random access memory (SRAM), etc. Storage devices 512, in some examples, also include one or more computer-readable storage media, for example, to store larger amounts of information than volatile memory and/or to store that information long-term, retain information when the power supply is removed. Examples of nonvolatile memory include magnetic hard disks, optical disks, floppy disks, flash memories, or forms of electrically programmable memory (EPROM) or electrically erasable and programmable memory (EEPROM).

Dans un mode de réalisation, comme on l’a noté, d’autres dispositifs informatiques orientés utilisateur (par ex. 414 et 416) sont configurés de manière similaire au dispositif informatique 402. Dans un mode de réalisation, pour un utilisateur dermatologue, l’application 516 est configurée différemment, par exemple, avec une fonctionnalité pour travailler avec de multiples patients. Dans un mode de réalisation, pour un dispositif situé en magasin, l’application 516 est configurée différemment, par exemple, avec une fonctionnalité pour travailler avec de multiples consommateurs, pour l’enseigne du magasin, etc.In one embodiment, as noted, other user-facing computing devices (e.g., 414 and 416) are configured similarly to computing device 402. In one embodiment, for a dermatologist user, the he 516 application is configured differently, for example, with functionality to work with multiple patients. In one embodiment, for a device located in a store, the application 516 is configured differently, for example, with functionality for working with multiple consumers, for store branding, etc.

Dans un autre exemple, un modèle de réseau 418 est situé à distance et un dispositif informatique (par ex. l’un quelconque de 402, 414 et 416) est activé via l’application 516 telle que configurée de manière appropriée, pour communiquer une image pour un traitement et un renvoi de données de diagnostic (par ex. des données d’acné). Dans un tel exemple, l’application 516 est configurée pour réaliser ces activités.In another example, a network model 418 is located remotely and a computing device (e.g., any of 402, 414, and 416) is activated via application 516 as appropriately configured, to communicate a image for processing and returning diagnostic data (eg acne data). In such an example, application 516 is configured to perform these activities.

Bien que non montré, un dispositif informatique peut être configuré sous la forme d’un environnement d’entraînement pour entraîner le modèle de réseau neuronal 514 par exemple à l’aide du réseau tel que montré sur la figure 5 ainsi qu’avec des données d’entraînement et/ou d’essai appropriées.Although not shown, a computing device may be configured as a training environment to train the neural network model 514 for example using the network as shown in Fig. 5 together with data appropriate training and/or test.

Le modèle 418 peut être adapté à une architecture légère pour un dispositif informatique qui est un dispositif mobile (par ex. un téléphone intelligent ou une tablette) ayant moins de ressources de traitement qu’un dispositif « plus grand » tel qu’un ordinateur portable, un ordinateur de bureau, un poste de travail, un serveur ou un autre dispositif informatique de génération comparable.Model 418 can be adapted to a lightweight architecture for a computing device which is a mobile device (e.g. smart phone or tablet) having less processing resources than a "larger" device such as a laptop , desktop computer, workstation, server, or other computing device of comparable generation.

Bien que non montrés en détail, les dispositifs serveurs montrés sont des dispositifs informatiques similaires en termes de construction de base (des processeurs, dispositifs de stockage, dispositifs de communication, dispositifs d’entrée et sortie) au dispositif informatique 402, mais sous la forme d’un dispositif côté serveur. C’est-à-dire, souvent, les dispositifs serveurs ne sont pas configurés avec un matériel orienté consommateur, et ont moins de dispositifs d’entrée et sortie, moins d’applications utilisateur, une E/S orientée serveur, etc.Although not shown in detail, the server devices shown are computing devices similar in basic construction (processors, storage devices, communication devices, input and output devices) to computing device 402, but in the form of a server-side device. That is, often server devices are not configured with consumer-oriented hardware, and have fewer input and output devices, fewer user applications, server-oriented I/O, etc.

La figure 6 est un organigramme d’opérations 600 en conformité avec un mode de réalisation.Figure 6 is a flowchart of operations 600 in accordance with one embodiment.

En 602, une image source (de visage) est reçue. Par exemple, l’image source est une image d’autoportrait capturée par une caméra d’un dispositif informatique.At 602, a source (face) image is received. For example, the source image is a self-portrait image captured by a camera of a computing device.

Les opérations en 604 sont facultatives et montrées dans un style en ligne discontinue.Operations in 604 are optional and shown in a dashed line style.

Un masque de peau de visage est déterminé à utiliser afin de guider un traitement d’image.A face skin mask is determined to be used in order to guide an image processing.

En 606, les opérations traitent l’image de visage à l’aide d’un modèle pour générer des occurrences localisées d’acné par type (par ex. l’une de trois classes). Dans un mode de réalisation, le modèle est configuré pour : la détection d’au moins un type d’acné dans des images ; et la détection par focalisation sur de petits objets dans des images. Dans un mode de réalisation le modèle est un mode de réalisation de premier modèle. Dans un mode de réalisation le modèle est un mode de réalisation de second modèle. Dans un mode de réalisation, le traitement est guidé par un masque de peau tel que produit par les opérations en 604.At 606, the operations process the face image using a model to generate localized occurrences of acne by type (e.g., one of three classes). In one embodiment, the model is configured to: detect at least one type of acne in images; and detection by focusing on small objects in images. In one embodiment the model is a first model embodiment. In one embodiment the model is a second model embodiment. In one embodiment, the treatment is guided by a skin mask as produced by the operations at 604.

En 608, les occurrences détectées sont filtrées comme décrit ci-dessus pour sélectionner de meilleures localisations et des occurrences avec des niveaux de confiance plus élevés. Ainsi, l’acné détectée finale est déterminée, par type.At 608, the detected occurrences are filtered as described above to select better locations and occurrences with higher confidence levels. Thus, the final detected acne is determined, by type.

En 610, un compte est déterminé, par type. En 610, un score est généré, par exemple, représentant une mesure de sévérité. En 612, l’acné détectée finale est visualisée en association avec l’image source. Par exemple, l’image est annotée pour montrer l’acné détectée finale par type. Dans un mode de réalisation, l’image a des annotations superposées sur celle-ci. En 612, le score est présenté.At 610, an account is determined, by type. At 610, a score is generated, for example, representing a measure of severity. At 612, the final detected acne is viewed in association with the source image. For example, the image is annotated to show the final detected acne by type. In one embodiment, the image has annotations superimposed on it. At 612, the score is presented.

En 614, une recommandation est obtenue. En 614, la recommandation est présentée. Dans un mode de réalisation, le score est fourni à un service de commerce électronique pour générer la recommandation pour un produit et/ou service.In 614, a recommendation is obtained. In 614, the recommendation is presented. In one embodiment, the score is provided to an e-commerce service to generate the recommendation for a product and/or service.

Dans un mode de réalisation, les opérations 600 peuvent être réalisées par un seul dispositif informatique (par ex. le dispositif 402), en communication avec un autre dispositif (par ex. 408 et/ou 410), le cas échéant.In one embodiment, operations 600 may be performed by a single computing device (eg, device 402), in communication with another device (eg, 408 and/or 410), as appropriate.

Dans un mode de réalisation, les opérations sont réalisées par plus d’un dispositif informatique (par ex. 402, 408 et 410). Par exemple, les opérations en 606 comprennent la communication de l’image source à un dispositif informatique 408 fournissant le modèle en tant que service. Ce dispositif informatique 408 peut également filtrer (étape 608). Ce dispositif 408 peut également compter l’acné (étape 610). Ce dispositif 408 peut également visualiser l’acné (étape 612) et renvoyer l’image source sur laquelle sont superposés la visualisation et le compte et/ou un score (par ex. pour une présentation par le dispositif 402). Un troisième dispositif informatique 410 peut fournir la recommandation, par exemple, en réponse à une interrogation incluant le score. Dans les opérations 600, les étapes indiquées ici peuvent être divisées en plus d’une étape ou combinées en des étapes moins nombreuses.In one embodiment, operations are performed by more than one computing device (eg, 402, 408, and 410). For example, operations at 606 include communicating the source image to a computing device 408 providing the model as a service. This computing device 408 can also filter (step 608). This device 408 can also count acne (step 610). This device 408 can also visualize the acne (step 612) and return the source image on which the visualization and the count and/or a score are superimposed (e.g. for a presentation by the device 402). A third computing device 410 may provide the recommendation, for example, in response to a query including the score. In 600 operations, the steps shown here can be divided into more than one step or combined into fewer steps.

La mise en œuvre pratique peut inclure l’une quelconque ou l’ensemble des particularités décrites ici. Ces aspects, particularités et diverses combinaisons ainsi que d’autres peuvent être exprimés sous forme de procédés, d’appareil, de systèmes, de moyens pour réaliser des fonctions, de produits de programme, et d’autres manières, combinant les particularités décrites ici. Un certain nombre de modes de réalisation ont été décrits. Néanmoins, il est entendu que diverses modifications peuvent être apportées sans s’écarter de l’esprit et du cadre des processus et techniques décrits ici. De plus, d’autres étapes peuvent être prévues, ou des étapes peuvent être éliminées, du processus décrit, et d’autres composants peuvent être ajoutés aux systèmes décrits, ou retirés de ceux-ci. En conséquence, d’autres modes de réalisation sont inclus dans le cadre des revendications suivantes.Practical implementation may include any or all of the features described here. These and other aspects, features, and various combinations may be expressed as methods, apparatus, systems, means for performing functions, program products, and other ways, combining the features described herein . A number of embodiments have been described. Nevertheless, it is understood that various modifications may be made without departing from the spirit and scope of the processes and techniques described herein. Additionally, other steps may be included in, or steps may be eliminated from, the described process, and other components may be added to, or removed from, the described systems. Accordingly, other embodiments are included within the scope of the following claims.

Tout au long de la description et des revendications de ce mémoire, les mots « comprendre », « contenir » et leurs variations signifient « incluant, mais sans limitation » et ils ne sont pas destinés à exclure (et n’excluent pas) d’autres composants, nombres entiers ou étapes. Tout au long de ce mémoire, le singulier englobe le pluriel sauf indication contraire du contexte. En particulier, lorsque l’article indéfini est utilisé, le mémoire doit être entendu comme envisageant une pluralité ainsi qu’une singularité, sauf indication contraire du contexte.Throughout the specification and claims of this specification, the words "include", "contain" and variations thereof mean "including, but not limited to" and they are not intended to exclude (and do not exclude) other components, integers or steps. Throughout this thesis, the singular includes the plural unless the context indicates otherwise. In particular, when the indefinite article is used, the memoir should be understood as considering a plurality as well as a singularity, unless the context indicates otherwise.

Les particularités, nombres entiers, caractéristiques, ou groupes décrits conjointement avec un aspect, mode de réalisation, ou exemple particulier de l’invention doivent être entendus comme applicables à tout autre aspect, mode de réalisation ou exemple à moins d’une incompatibilité entre eux. L’ensemble des particularités divulguées ici (y compris les revendications, l’abrégé et les dessins joints), et/ou l’ensemble des étapes de tout procédé ou processus ainsi divulgué, peuvent être combinées en toute combinaison, à l’exception des combinaisons où au moins certaines de ces particularités et/ou étapes sont mutuellement exclusives. L’invention n’est pas limitée aux détails de l’un quelconque des exemples ou modes de réalisation précités. L’invention s’étend à toute nouvelle particularité ou nouvelle combinaison de particularité des particularités divulguées dans ce mémoire (y compris les revendications, l’abrégé et les dessins joints) ou à toute nouvelle étape, ou toute nouvelle combinaison, des étapes de tout procédé ou processus divulgué.The features, integers, characteristics, or groups described in conjunction with a particular aspect, embodiment, or example of the invention are intended to apply to any other aspect, embodiment, or example unless there is an inconsistency between them. . All of the features disclosed herein (including the claims, abstract and accompanying drawings), and/or all of the steps of any method or process so disclosed, may be combined in any combination, except combinations where at least some of these features and/or steps are mutually exclusive. The invention is not limited to the details of any of the aforementioned examples or embodiments. The invention extends to any new feature or new combination of features of the features disclosed in this specification (including the claims, the abstract and the accompanying drawings) or to any new step, or any new combination, of the steps of any method or process disclosed.

Claims (10)

Procédé comprenant :
l’analyse d’une image source pour déterminer des emplacements respectifs d’occurrences d’acné ; et
la visualisation des occurrences d’acné sur l’image source pour un affichage ;
dans lequel l’image source est analysée à l’aide d’un modèle basé sur des surfaces paramétriques configuré pour :
le partitionnement de l’image source en surfaces paramétriques de peau,
la détection par focalisation sur de petits objets dans l’image source, et
la détermination d’occurrences d’acné et d’au moins un type d’acné dans des images sur la base de la détection par focalisation sur de petits objets dans l’image source ; et
dans lequel les surfaces paramétriques sont déterminées en conformité avec un masque de peau.
Process comprising:
analyzing a source image to determine respective locations of acne occurrences; And
visualizing acne occurrences on the source image for display;
where the source image is analyzed using a model based on parametric surfaces configured to:
the partitioning of the source image into parametric skin surfaces,
detection by focusing on small objects in the source image, and
determining occurrences of acne and at least one type of acne in images based on detection by focusing on small objects in the source image; And
wherein the parametric surfaces are determined in accordance with a skin mask.
Procédé selon la revendication 1, dans lequel le modèle est un modèle à réseau neuronal à apprentissage profond configuré pour une classification et une localisation d’objets et configuré pour traiter l’image sur un niveau de pixel, fonctionnant de bout en bout pour détecter directement un emplacement d’acné sans recadrer l’image source.A method according to claim 1, wherein the model is a deep learning neural network model configured for object classification and localization and configured to process the image on a pixel level, working end-to-end to directly detect an acne location without cropping the source image. Procédé selon la revendication 1, configuré en outre pour :
la génération de cases d’ancrage respectives fournissant des informations d’emplacement pour chacune des occurrences d’acné détectées ;
dans lequel un facteur de forme de case d’ancrage, à utiliser pour définir l’une des cases d’ancrage, est calculé à l’aide d’un groupement park-moyennes à partir d’occurrences d’acné identifiées dans un ensemble de données d’images.
A method according to claim 1, further configured to:
generating respective anchor boxes providing location information for each of the detected acne occurrences;
wherein an anchor box shape factor, to be used to define one of the anchor boxes, is computed using clustering by k -means from identified acne occurrences in a image data set.
Procédé selon la revendication 1, dans lequel la visualisation des occurrences de l’acné indique un emplacement respectif pour chacune des occurrences sur l’image source.A method according to claim 1, wherein the visualization of the occurrences of acne indicates a respective location for each of the occurrences on the source image. Procédé selon la revendication 1, dans lequel la visualisation de l’acné indique un type respectif d’acné pour chacune des occurrences sur l’image source.A method according to claim 1, wherein the visualization of acne indicates a respective type of acne for each of the occurrences in the source image. Procédé selon la revendication 1, comprenant en outre la détermination d’un compte des occurrences d’acné.A method according to claim 1, further comprising determining a count of acne occurrences. Procédé selon la revendication 1, comprenant en outre l’obtention d’une recommandation pour un produit et/ou un service spécifique pour traiter les occurrences de l’acné.A method according to claim 1, further comprising obtaining a recommendation for a specific product and/or service to treat the occurrences of acne. Procédé selon la revendication 1, comprenant en outre la communication avec un système de commerce électronique pour acheter le produit et/ou service.A method according to claim 1, further comprising communicating with an electronic commerce system to purchase the product and/or service. Procédé comprenant :
l’analyse d’une image source pour déterminer des emplacements respectifs d’occurrences d’acné par une détection focalisée sur de petits objets dans l’image source ; et la détection d’au moins un type d’acné dans l’image source ;
la génération et la fourniture d’un score d’acné en réponse à un compte des occurrences ;
la génération d’une recommandation pour un produit et/ou service spécifique pour traiter les occurrences d’acné ; et
la génération d’une ou de plusieurs occurrences d’une visualisation virtuelle incluant les occurrences d’acné sur l’image source.
Process comprising:
analyzing a source image to determine respective locations of acne occurrences by focused detection on small objects in the source image; and detecting at least one type of acne in the source image;
generating and providing an acne score in response to a count of occurrences;
generating a recommendation for a specific product and/or service to treat acne occurrences; And
generating one or more occurrences of a virtual visualization including the acne occurrences on the source image.
Système informatique comprenant un circuit configuré pour fournir :
une interface pour recevoir une image source et renvoyer une image source annotée qui visualise des occurrences d’acné déterminées par un modèle configuré pour traiter l’image source ;
un composant de recommandation configuré pour recommander un produit et/ou service pour traiter spécifiquement au moins certaines des occurrences d’acné ; et
un composant de transaction de commerce électronique pour faciliter un achat du produit et/ou service ;
dans lequel le modèle est configuré pour :
la détection par focalisation sur de petits objets dans des images ; et
la détection d’au moins un type d’acné dans des images.
A computer system comprising a circuit configured to provide:
an interface for receiving a source image and returning an annotated source image that visualizes occurrences of acne determined by a model configured to process the source image;
a recommender component configured to recommend a product and/or service to specifically treat at least some of the acne occurrences; And
an e-commerce transaction component to facilitate a purchase of the product and/or service;
where the model is configured for:
detection by focusing on small objects in images; And
detecting at least one type of acne in images.
FR2013002A 2020-10-02 2020-12-10 SYSTEMS AND METHODS FOR COUNTING, LOCALIZATION AND VISUALIZATION OF ACNE Active FR3117643B1 (en)

Priority Applications (6)

Application Number Priority Date Filing Date Title
FR2013002A FR3117643B1 (en) 2020-12-10 2020-12-10 SYSTEMS AND METHODS FOR COUNTING, LOCALIZATION AND VISUALIZATION OF ACNE
EP21786871.0A EP4196908A1 (en) 2020-10-02 2021-10-01 Systems and methods for acne counting, localization and visualization
JP2023520280A JP2023543627A (en) 2020-10-02 2021-10-01 Systems and methods for counting, locating and visualizing acne
KR1020237011286A KR20230058517A (en) 2020-10-02 2021-10-01 Systems and methods for acne counting, localization and visualization
PCT/EP2021/077204 WO2022069754A1 (en) 2020-10-02 2021-10-01 Systems and methods for acne counting, localization and visualization
US17/491,623 US20220108445A1 (en) 2020-10-02 2021-10-01 Systems and methods for acne counting, localization and visualization

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
FR2013002A FR3117643B1 (en) 2020-12-10 2020-12-10 SYSTEMS AND METHODS FOR COUNTING, LOCALIZATION AND VISUALIZATION OF ACNE
FR2013002 2020-12-10

Publications (2)

Publication Number Publication Date
FR3117643A1 true FR3117643A1 (en) 2022-06-17
FR3117643B1 FR3117643B1 (en) 2024-05-17

Family

ID=75278112

Family Applications (1)

Application Number Title Priority Date Filing Date
FR2013002A Active FR3117643B1 (en) 2020-10-02 2020-12-10 SYSTEMS AND METHODS FOR COUNTING, LOCALIZATION AND VISUALIZATION OF ACNE

Country Status (1)

Country Link
FR (1) FR3117643B1 (en)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112037162A (en) * 2019-05-17 2020-12-04 华为技术有限公司 Facial acne detection method and equipment

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112037162A (en) * 2019-05-17 2020-12-04 华为技术有限公司 Facial acne detection method and equipment

Non-Patent Citations (5)

* Cited by examiner, † Cited by third party
Title
HANG: "Assessing the Severity of Acne via Cell Phone Selfie Images Using A Deep Learning Model", CSE DEVELOPER BLOG, 5 February 2019 (2019-02-05), pages 1 - 12, XP055757159, Retrieved from the Internet <URL:https://devblogs.microsoft.com/cse/2019/02/05/assessing-the-severity-of-acne-via-cell-phone-selfie-images-using-a-deep-learning-model/> [retrieved on 20201207] *
JUNAYED MASUM SHAH ET AL: "AcneNet - A Deep CNN Based Classification Approach for Acne Classes", 2019 12TH INTERNATIONAL CONFERENCE ON INFORMATION & COMMUNICATION TECHNOLOGY AND SYSTEM (ICTS), IEEE, 18 July 2019 (2019-07-18), pages 203 - 208, XP033622378, DOI: 10.1109/ICTS.2019.8850935 *
RASHATAPRUCKSA KULADECH ET AL: "Acne Detection with Deep Neural Networks", 2020 2ND INTERNATIONAL CONFERENCE ON IMAGE PROCESSING AND MACHINE VISION, 5 August 2020 (2020-08-05), New York, NY, USA, pages 53 - 56, XP055832085, ISBN: 978-1-4503-8841-2, Retrieved from the Internet <URL:http://dx.doi.org/10.1145/3421558.3421566> [retrieved on 20210816], DOI: 10.1145/3421558.3421566 *
VOIR J. REDMONA. FARHADI, AN IN-CREMENTAL IMPROVEMENT, 8 April 2018 (2018-04-08)
XIAOLEI SHEN ET AL: "An Automatic Diagnosis Method of Facial Acne Vulgaris Based on Convolutional Neural Network", SCIENTIFIC REPORTS, vol. 8, no. 1, 11 April 2018 (2018-04-11), XP055757536, DOI: 10.1038/s41598-018-24204-6 *

Also Published As

Publication number Publication date
FR3117643B1 (en) 2024-05-17

Similar Documents

Publication Publication Date Title
US20220122299A1 (en) System and method for image processing using deep neural networks
JP7395604B2 (en) Automatic image-based skin diagnosis using deep learning
US11497267B2 (en) Systems and methods for full body measurements extraction
US10019653B2 (en) Method and system for predicting personality traits, capabilities and suggested interactions from images of a person
US9443144B2 (en) Methods and systems for measuring group behavior
US11908128B2 (en) Systems and methods to process images for skin analysis and to visualize skin analysis
Lee et al. Revisiting blind photography in the context of teachable object recognizers
US9361705B2 (en) Methods and systems for measuring group behavior
US20220108445A1 (en) Systems and methods for acne counting, localization and visualization
FR3117643A1 (en) SYSTEMS AND METHODS FOR COUNTING, LOCATING AND VISUALIZING ACNE
Nautiyal et al. An automated technique for criminal face identification using biometric approach
Adiani et al. Evaluation of webcam-based eye tracking for a job interview training platform: Preliminary results
AU2021100211A4 (en) Predict Gender: Detect Faces and Predict their Gender, Age and Country Using Machine Learning Programming
CN116964642A (en) System and method for acne counting, localization and visualization
US20220027605A1 (en) Systems and Methods for Measuring Attention and Engagement of Video Subjects
Samuel Mathew et al. A Deep Learning Approach for Real-Time Analysis of Attendees’ Engagement in Public Events
Thomaz et al. Acquisition and Analysis of Camera Sensor Data (Lifelogging)
Song Combating Involuntary Information Leakage in Video Conferences Using Computer Vision Algorithms
López-López et al. Augmenting the LSA technique to evaluate ubicomp environments
Jain et al. Low-cost gaze detection with real-time ocular movements using coordinate-convolutional neural networks
WO2021003574A1 (en) Systems and methods to process images for skin analysis and to visualize skin analysis
Rao Partition based face recognition system
Sharma et al. Digital Eye Strain Detection By Applying Deep Learning Technique To Categories Of Images
Saumell y Ortoneda Emotion detection in real-time on an Android Smartphone
BOUBLAL et al. Detect Spoofing Using Convolutional Neural Network

Legal Events

Date Code Title Description
PLFP Fee payment

Year of fee payment: 2

PLSC Publication of the preliminary search report

Effective date: 20220617

PLFP Fee payment

Year of fee payment: 3

PLFP Fee payment

Year of fee payment: 4