JP2023534328A - Color spot prediction method, device, equipment and storage medium - Google Patents

Color spot prediction method, device, equipment and storage medium Download PDF

Info

Publication number
JP2023534328A
JP2023534328A JP2022540760A JP2022540760A JP2023534328A JP 2023534328 A JP2023534328 A JP 2023534328A JP 2022540760 A JP2022540760 A JP 2022540760A JP 2022540760 A JP2022540760 A JP 2022540760A JP 2023534328 A JP2023534328 A JP 2023534328A
Authority
JP
Japan
Prior art keywords
image
color
target
speckle
prediction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2022540760A
Other languages
Japanese (ja)
Other versions
JP7385046B2 (en
Inventor
斉子銘
劉興雲
羅家禎
陳福興
李志陽
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Xiamen Meitueve Technology Co Ltd
Original Assignee
Xiamen Meitueve Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Xiamen Meitueve Technology Co Ltd filed Critical Xiamen Meitueve Technology Co Ltd
Publication of JP2023534328A publication Critical patent/JP2023534328A/en
Application granted granted Critical
Publication of JP7385046B2 publication Critical patent/JP7385046B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/171Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/0475Generative networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/094Adversarial learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/30ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for calculating health indices; for individual health risk assessment
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30088Skin; Dermal
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02PCLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
    • Y02P90/00Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
    • Y02P90/30Computing systems specially adapted for manufacturing

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Artificial Intelligence (AREA)
  • Data Mining & Analysis (AREA)
  • Biomedical Technology (AREA)
  • Multimedia (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Medical Informatics (AREA)
  • Biophysics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computational Linguistics (AREA)
  • Molecular Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Human Computer Interaction (AREA)
  • Databases & Information Systems (AREA)
  • Public Health (AREA)
  • Quality & Reliability (AREA)
  • Epidemiology (AREA)
  • Primary Health Care (AREA)
  • Pathology (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)

Abstract

Figure 2023534328000001

本発明は、色斑予測方法、装置、設備及び記憶媒体を提供し、画像認識処理の技術分野に属する。当該方法は、被予測画像を取得するステップと、被予測画像を事前に訓練して取得した色斑予測モデルに入力して予測処理を行い、色斑予測モデルが完全畳み込み敵対的生成ネットワークモデルであるステップと、色斑予測モデルにより色斑予測結果グラフを取得するステップとを含む。本発明は、ユーザーの顔の皮膚の色斑変化状況を予測することができる。
【選択図】図1

Figure 2023534328000001

The present invention provides a color spot prediction method, apparatus, equipment, and storage medium, and belongs to the technical field of image recognition processing. The method includes the step of acquiring a predicted image, inputting the predicted image to a pre-trained color speckle prediction model to perform prediction processing, wherein the color speckle prediction model is a fully convolutional adversarial generative network model. and obtaining a color speckle prediction result graph by the color speckle prediction model. The present invention is capable of predicting the mottling change of the user's facial skin.
[Selection drawing] Fig. 1

Description

[関連出願]
本発明は、2021年06月24日付け中国知的財産局に提出された、出願番号が2021107071008であり、発明名称が「色斑予測方法、装置、設備及び記憶媒体」である中国特許出願の優先権を主張し、その全ての内容が本明細書に記載されている。
[Related Application]
The present invention is based on the patent application in China filed with the Intellectual Property Office of China on June 24, 2021, with application number 2021107071008 and titled "Method, Apparatus, Equipment and Storage Medium for Color Spot Prediction". Priority is claimed, the entire contents of which are incorporated herein.

本発明は、画像認識及び生成の技術分野に属し、より詳しくは、色斑予測方法、装置、設備及び記憶媒体に関する。 The present invention belongs to the technical field of image recognition and generation, and more particularly relates to a color spot prediction method, apparatus, equipment and storage medium.

加齢に伴い、顔の皮膚は、老化や病気などの問題を抱える。老化や病気などの問題の発生を防ぎ、早期の予防を実現するために、通常、顔の将来の変化を予測する必要がある。
従来技術における皮膚の変化の予測については、皮膚のたるみの程度、しわの程度などを予測するのが一般的に行われているが、色斑変化の予測は未だに実現できていない。そのため、ユーザーが将来の一定期間の皮膚の色斑変化を捉えるために、色斑変化を予測できる技術の開発は必要である。
With aging, the skin of the face suffers from problems such as aging and disease. In order to prevent the occurrence of problems such as aging and diseases and achieve early prevention, it is usually necessary to predict future changes in the face.
Regarding the prediction of skin changes in the prior art, the degree of sagging of the skin, the degree of wrinkles, etc. are generally predicted, but the prediction of color mottling change has not yet been realized. Therefore, it is necessary to develop a technology that can predict changes in skin color mottling in order for users to capture changes in skin color mottling over a certain period of time in the future.

本発明は、ユーザーの顔の皮膚の色斑変化の予測を実現できる、色斑予測方法、装置、設備及び記憶媒体を提供する。
本発明の実施形態では、色斑予測方法を提供している。当該方法は、被予測画像を取得するステップと、被予測画像を、事前に訓練して取得した色斑予測モデルに入力して、予測処理を行うステップであって、色斑予測モデルは、完全畳み込み敵対的生成ネットワークモデルである、ステップと、色斑予測モデルにより、色斑予測結果グラフを取得するステップとを含む。
好ましくは、被予測画像を事前に訓練して取得した色斑予測モデルに入力して予測処理を行う前に、被予測画像中の色斑情報を決定するステップであって、色斑情報は、色斑の位置及び類別を含む、ステップと、被予測画像中の色斑情報に基づいて、被予測画像に対して前処理を行い、前処理後のマルチフレーム画像を取得するステップであって、マルチフレーム画像は、無色斑の画像及び色斑類別を標識した画像を含む、ステップと、を含む。被予測画像を事前に訓練して取得した色斑予測モデルに入力し、予測処理を行うステップは、前処理後のマルチフレーム画像を、事前に訓練して取得した色斑予測モデルに入力し、予測処理を行うステップを含む。
好ましくは、被予測画像を事前に訓練して取得した色斑予測モデルに入力し、予測処理を行う前に、目標被処理画像を取得するステップであって、目標被処理画像は色斑情報を含むステップと、目標被処理画像に基づいて、複数の目標チャンネル画像を決定するステップであって、目標チャンネル画像は、色斑情報を除去した多チャンネル画像及び色斑類別チャンネル画像を含むステップと、複数の前記目標チャンネル画像及び目標ノイズ画像を組み合わせて、一緒に、訓練される神経ネットワーク構造に入力して、訓練された色斑予測モデルを取得するステップであって、目標ノイズ画像は、ランダムに生成されたノイズ画像であるステップとをさらに含む。
好ましくは、目標被処理画像に基づいて、複数の目標チャンネル画像を決定するステップは、目標被処理画像中の色斑情報を決定するステップと、目標被処理画像中の色斑情報に基づいて、目標被処理画像に対して、色斑除去処理を行い、色斑情報を除去した目標被処理画像を取得するステップとを含む。
好ましくは、目標被処理画像に基づいて、複数の目標チャンネル画像を決定するステップは、目標被処理画像に対して色斑検出処理を行い、色斑類別チャンネル画像を取得するステップを含む。
好ましくは、目標被処理画像に対して色斑検出処理を行い、色斑類別チャンネル画像を取得するステップは、目標被処理画像中の各類別の色斑情報の位置を決定するステップと、色斑情報の位置に、色斑情報に対応する類別のグレイ階調情報を設定し、色斑類別チャンネル画像を取得するステップとを含む。
好ましくは、複数の目標チャンネル画像及び目標ノイズ画像を組み合わせて、一緒に、訓練される神経ネットワーク構造に入力して、訓練された色斑予測モデルを取得するステップの前に、前記方法は、目標チャンネル画像及び前記目標ノイズ画像のそれぞれに対して、正規化処理を行い、目標入力画像を取得するステップを含み、複数の目標チャンネル画像及び目標ノイズ画像を、訓練される神経ネットワーク構造に入力し、訓練された色斑予測モデルを取得するステップは、目標入力画像を訓練される神経ネットワーク構造に入力し、訓練された色斑予測モデルを取得するステップを含む。
本発明の別の実施形態は、色斑予測装置を提供している。当該装置は、取得モジュールと予測モジュールと出力モジュールとを備え、取得モジュールは、被予測画像を取得するように用いられ、予測モジュールは、被予測画像を、事前に訓練して取得した色斑予測モデルに入力し、予測処理を行うように用いられ、前記色斑予測モデルは、完全畳み込み敵対的生成ネットワークモデルであり、出力モジュールは、前記色斑予測モデルにより、色斑予測結果グラフを取得するように用いられる。
好ましくは、当該装置は、前処理モジュールと、他の予測モジュールとを備え、前処理モジュールは、被予測画像中の色斑情報であって、前記色斑情報は、色斑の位置及び類別を含む色斑情報を決定し、被予測画像中の色斑情報に基づいて、前記被予測画像に対して前処理を行い、前処理後のマルチフレーム画像であって、前記マルチフレーム画像は、無色斑の画像及び色斑類別を標識した画像を取得するように用いられ、他の予測モジュールは、前処理後の前記マルチフレーム画像を、事前に訓練して取得した色斑予測モデルに入力し、予測処理を行うように用いられる。
好ましくは、前処理モジュールは、さらに、目標被処理画像を取得し、目標被処理画像に基づいて、複数の目標チャンネル画像をそれぞれ決定し、複数の目標チャンネル画像及び目標ノイズ画像を組み合わせて、一緒に、訓練される神経ネットワーク構造に入力して、訓練された色斑予測モデルを取得するように用いられ、目標被処理画像には前記色斑情報が含まれており、目標チャンネル画像は、前記色斑情報を除去した多チャンネル画像及び色斑類別チャンネル画像を含み、目標ノイズ画像は、ランダムに生成されたノイズ画像である。
好ましくは、前処理モジュールは、目標被処理画像中の前記色斑情報を決定し、目標被処理画像中の前記色斑情報に基づいて、目標被処理画像に対して、色斑除去処理を行い、色斑情報を除去した目標被処理画像を取得するように用いられる。
好ましくは、前処理モジュールは、目標被処理画像に対して色斑検出処理を行い、色斑類別チャンネル画像を取得するように用いられる。
好ましくは、前処理モジュールは、目標被処理画像中の各種別の色斑情報の位置を決定し、色斑情報の位置に、色斑情報に対応する種別のグレイ階調情報を設定し、色斑類別チャンネル画像を取得するように用いられる。
好ましくは、前処理モジュールは、目標チャンネル画像及び前記目標ノイズ画像のそれぞれに対して、正規化処理を行い、目標入力画像を取得し、目標入力画像を訓練される神経ネットワーク構造に入力して、訓練された色斑予測モデルを取得するように用いられる。
本発明の別の実施形態では、コンピュータデバイスを提供している。当該コンピュータデバイスは、メモリーとプロセッサーとを備え、メモリーには、プロセッサーで実行されるコンピュータプログラムを格納しており、プロセッサーがコンピュータプログラムを実行すると、前記色斑予測方法のステップを実行する。
本発明の別の実施形態では、コンピュータ可読記憶媒体を提供している。コンピュータ可読記憶媒体には、コンピュータプログラムを格納し、コンピュータプログラムがプロセッサーによって実行されると、前記色斑予測方法のステップを実行する。
The present invention provides a color blemish prediction method, apparatus, equipment, and storage medium that can realize prediction of color blemish changes on the skin of a user's face.
Embodiments of the present invention provide a color spot prediction method. The method includes a step of obtaining a predicted image, and a step of inputting the predicted image to a color spot prediction model obtained by training in advance to perform prediction processing, wherein the color spot prediction model is completely It is a convolutional adversarial generative network model; and obtaining a chroma prediction result graph by the chroma prediction model.
Preferably, the step of determining color speckle information in the predicted image before inputting the predicted image to a pre-trained color speckle prediction model to perform prediction processing, wherein the color speckle information is A step of preprocessing the predicted image based on the color spot information in the predicted image to obtain a preprocessed multi-frame image, comprising: the multi-frame image includes an image of achromatic speckles and an image labeled with color speckles. The step of inputting the predicted image into a pre-trained and acquired color spot prediction model and performing prediction processing includes inputting the preprocessed multi-frame image into a pre-trained and acquired color spot prediction model, It includes the step of performing a prediction process.
Preferably, the step of inputting the predicted image into a pre-trained and obtained color speckle prediction model and obtaining a target image before performing the prediction process, wherein the target image contains color speckle information. determining a plurality of target channel images based on the target processed image, the target channel images comprising a multi-channel image with speckle information removed and a speckle classified channel image; combining a plurality of said target channel images and target noise images and inputting them together into a neural network structure to be trained to obtain a trained chroma prediction model, wherein the target noise images are randomly selected from is the generated noise image.
Preferably, based on the target processed image, determining the plurality of target channel images comprises determining speckle information in the target processed image; and based on the speckle information in the target processed image, a step of performing a color spot removal process on the target image to be processed, and obtaining a target image from which the color spot information has been removed.
Preferably, the step of determining a plurality of target channel images based on the target processed image includes performing a speckle detection process on the target processed image to obtain a speckle classified channel image.
Preferably, the step of performing the color speckle detection process on the target processed image to obtain the color speckle classified channel image includes the step of determining the position of each category of color speckle information in the target processed image; setting the gray-scale information of the gradation corresponding to the chroma information at the position of the information to obtain the chroma-classified channel image.
Preferably, before the step of combining a plurality of target channel images and target noise images and jointly inputting them into a neural network structure to be trained to obtain a trained chroma prediction model, the method comprises: obtaining a target input image by performing a normalization process on each of the channel images and the target noise image, inputting a plurality of target channel images and target noise images into a neural network structure to be trained; Obtaining a trained chroma prediction model includes inputting a target input image into a neural network structure to be trained to obtain a trained chroma prediction model.
Another embodiment of the present invention provides a chroma predictor. The apparatus comprises an acquisition module, a prediction module, and an output module, wherein the acquisition module is used to acquire a predicted image, and the prediction module applies the predicted image to the pre-trained color speckle prediction. input to the model and used to perform prediction processing, the color speckle prediction model is a fully convolutional adversarial generative network model, and the output module obtains a color speckle prediction result graph according to the color speckle prediction model is used as
Preferably, the apparatus comprises a preprocessing module and another prediction module, wherein the preprocessing module is color speckle information in a predicted image, the color speckle information includes color speckle location and classification. color speckle information is determined, preprocessing is performed on the predicted image based on the color speckle information in the predicted image, and a multi-frame image after preprocessing, wherein the multi-frame image is Another prediction module is used to obtain an image of mottling and an image labeled with mottling classification, and another prediction module inputs the pre-processed multi-frame image into a pre-trained and acquired mottling prediction model. , is used to perform the prediction process.
Preferably, the preprocessing module further obtains a target processed image, respectively determines a plurality of target channel images based on the target processed image, combines the plurality of target channel images and the target noise image, and Second, it is used to obtain a trained chroma prediction model by inputting a neural network structure to be trained, the target processed image contains the chroma information, and the target channel image is the The target noise image is a randomly generated noise image, including the multi-channel image and the color-speckled channel image from which color speckle information has been removed.
Preferably, the preprocessing module determines the color speckle information in the target processed image, and performs color speckle removal processing on the target processed image based on the color speckle information in the target processed image. , are used to obtain the target processed image with mottle information removed.
Preferably, the preprocessing module is used to perform speckle detection processing on the target processed image to obtain a speckle classified channel image.
Preferably, the preprocessing module determines the position of each type of color speckle information in the target processed image, sets the type of grayscale information corresponding to the color speckle information at the position of the color speckle information, and sets the color It is used to acquire a mottled channel image.
Preferably, the preprocessing module performs a normalization process on each of the target channel image and the target noise image to obtain a target input image, inputs the target input image to a neural network structure to be trained, It is used to obtain a trained chroma prediction model.
Another embodiment of the present invention provides a computing device. The computer device includes a memory and a processor, the memory stores a computer program executed by the processor, and the processor executes the computer program to perform the steps of the color spot prediction method.
Another embodiment of the invention provides a computer-readable storage medium. A computer readable storage medium stores a computer program, and when the computer program is executed by a processor, it performs the steps of the color spot prediction method.

本発明の実施形態は、少なくとも、以下の効果を有する。
本発明の実施形態によって提供される色斑予測方法、装置、設備及び記憶媒体では、被予測画像を取得し、被予測画像を事前に訓練して取得した色斑予測モデルに入力して予測処理を行い、ここでは、色斑予測モデルが完全畳み込み敵対的生成ネットワークモデルであり、さらに、色斑予測モデルにより、色斑予測結果グラフを取得することができる。また、完全畳み込み敵対的生成ネットワーク構造を色斑予測モジュールとして使用することによって、皮膚色斑の変化状況に対して予測処理を行い、ユーザーに皮膚色斑の変化傾向を知らせることができる。
Embodiments of the present invention have at least the following effects.
In the color spot prediction method, device, equipment and storage medium provided by the embodiments of the present invention, a predicted image is obtained, and the predicted image is input to a color spot prediction model obtained by pre-training to perform prediction processing. , where the color blemish prediction model is a fully convolutional generative adversarial network model, and further, the color blemish prediction model can obtain a color blemish prediction result graph. In addition, by using the fully convolutional adversarial generation network structure as the blemish prediction module, it is possible to perform prediction processing on the change of skin blemish and inform the user of the change trend of skin blemish.

本発明の実施形態における技術的解決策をより明確に説明するために、以下、実施形態に関する図面を参照しながら詳細を説明する。なお、以下の図面は、本発明のいくつかの実施形態を例として示しており、本発明を限定するものではない。本発明の趣旨を逸脱しない限りにおいて、その構成及び制御は適宜変更可能であり、当業者にとっては、本明細書に提示した図面により容易に得られるものである。
本発明の実施形態によって提供される色斑予測方法のフローチャート図1である。 本発明の実施形態によって提供される色斑予測方法のフローチャート図2である。 本発明の実施形態によって提供される色斑予測方法のフローチャート図3である。 本発明の実施形態によって提供される色斑予測方法のフローチャート図4である。 本発明の実施形態によって提供される色斑予測方法のフローチャート図5である。 本発明の実施形態によって提供される色斑予測方法のフローチャート図6である。 本発明の実施形態によって提供される色斑予測装置の構造概念図である。 本発明の実施形態によって提供されるコンピュータデバイスの構造概念図である。
To describe the technical solutions in the embodiments of the present invention more clearly, the details are described below with reference to the drawings of the embodiments. It should be noted that the following drawings illustrate some embodiments of the invention by way of example and are not intended to limit the invention. The configuration and control can be changed as appropriate without departing from the gist of the present invention, and can be easily obtained by those skilled in the art from the drawings presented in this specification.
FIG. 1 is a flowchart of a chroma prediction method provided by an embodiment of the present invention; Fig. 2 is a flow chart of a color spot prediction method provided by an embodiment of the present invention; Fig. 3 is a flow chart of a color spot prediction method provided by an embodiment of the present invention; FIG. 4 is a flow chart of a color spot prediction method provided by an embodiment of the present invention; FIG. 5 is a flow chart of a color spot prediction method provided by an embodiment of the present invention; FIG. 6 is a flow chart of a chroma prediction method provided by an embodiment of the present invention; 1 is a structural conceptual diagram of a color spot prediction device provided by an embodiment of the present invention; FIG. 1 is a structural conceptual diagram of a computer device provided by an embodiment of the present invention; FIG.

本発明の実施形態の目的、技術的解決策および利点をより明確にするために、以下、本発明の実施形態を示す図面を参照しながら、本発明の詳細を説明する。なお、以下に示す実施形態は、本発明に関する実施形態の一部であり、以下の内容では、すべての実施形態を記載していない。また、本明細書の図面に記載されている内容及び図示されている本発明の実施形態における構成要素は、様々な異なる構成で配置及び変更することができる。
そのため、添付の図面に提供される本発明の実施形態に関する説明は、本願の特許請求の範囲を限定するためのものではなく、例示として実施形態を記載するものである。また、本願の実施形態に基づいて、当業者が改良又は変更したすべての実施形態は、本願の特許請求の範囲に含まれる。
なお、添付の図面では、同様の要素に、同様の符号や記載を付与しており、例えば、ある図面において定義された符号や記載などは、ほかの図面でも同様な要素を指していることを留意されたい。また、特定の説明がない限り、その要素に関する定義及び解釈について詳細を省略することができる。
また、本願明細書の内容において、「第1」、「第2」、「第3」などの用語は、説明を区別するためにのみ使用され、相対的な重要性を示すまたは示唆する意味ではない。
なお、従来技術では、顔の皮膚の色斑変化を予測する方法はなく、本発明の実施形態では、将来のある期間後の顔の皮膚色斑の変化状況を予測でき、これによって、ユーザーが自分の顔の色斑変化を予知することができる。
以下、本発明の実施形態によって提供される色斑予測方法の実行プロセスの詳細について説明する。
To make the objectives, technical solutions and advantages of the embodiments of the present invention clearer, the details of the present invention are hereinafter described with reference to the drawings showing the embodiments of the present invention. In addition, the embodiment shown below is a part of embodiment regarding this invention, and all the embodiments are not described in the following contents. Also, the components of the embodiments of the invention described and illustrated in the drawings herein can be arranged and changed in a variety of different configurations.
Accordingly, the description of the embodiments of the present invention provided in the accompanying drawings are not intended to limit the scope of the claims herein, but rather to describe the embodiments by way of example. In addition, all embodiments improved or modified by persons skilled in the art based on the embodiments of the present application are included in the scope of the claims of the present application.
In the accompanying drawings, similar elements are given similar symbols and descriptions, and for example, symbols and descriptions defined in one drawing refer to similar elements in other drawings. Please note. Also, unless otherwise specified, details regarding definitions and interpretations of the elements may be omitted.
Also, in the context of this specification, terms such as "first", "second", "third" are used only to distinguish descriptions and are not intended to indicate or imply relative importance. do not have.
In addition, in the prior art, there is no method for predicting changes in facial skin color mottling, and in an embodiment of the present invention, it is possible to predict changes in facial skin color mottling after a certain period of time in the future. It is possible to predict changes in color spots on one's face.
The details of the execution process of the color spot prediction method provided by the embodiments of the present invention are described below.

図1は、本発明の実施形態によって提供される色斑予測方法のフローチャート図1である。図1に示すように、当該方法は、以下のステップを含む。 FIG. 1 is a flowchart diagram 1 of a color spot prediction method provided by an embodiment of the present invention. As shown in FIG. 1, the method includes the following steps.

S110:被予測画像を取得するする。 S110: Acquire a predicted image.

被予測画像は、例えば、ユーザーの写真、顔画像など、色斑予測を実行する必要がある皮膚に対応する任意の画像である。当該画像は、トリミング後のプリセットサイズに対応する画像であっても良い。 The predicted image is any image corresponding to the skin for which color mottle prediction needs to be performed, such as a user's photograph, face image, for example. The image may be an image corresponding to a preset size after trimming.

当該方法の実行主体は、コンピュータデバイスにおける関連プログラムであり、具体的に、例えば、皮膚予測機器のプリセットプログラム、電子洗顔器具の機能などが挙げられるが、ここでは特に限定されず、実際の需要に応じて設定することができる。
また、被予測画像は、他のデバイスからコンピュータデバイスに送信した画像や、コンピュータデバイスが撮影装置などにより撮影して取得した画像であっても良く、ここでは特に限定されない。
S120:被予測画像を、事前に訓練して取得した色斑予測モデルに入力し、予測処理を行う。
The execution subject of the method is a related program in a computer device, and specifically includes, for example, a preset program of a skin prediction device, a function of an electronic facial cleansing device, etc., but is not particularly limited here. can be set accordingly.
Also, the predicted image may be an image transmitted from another device to the computer device, or an image captured by the computer device using an imaging device or the like, and is not particularly limited here.
S120: The image to be predicted is input to a pre-trained and acquired color spot prediction model, and prediction processing is performed.

色斑予測モデルは、完全畳み込み敵対的生成ネットワークモデルである。 The chroma prediction model is a fully convolutional generative adversarial network model.

別の実施形態では、被予測画像を決定した後、被予測画像は、事前に訓練された色斑予測モデルに入力されて、予測処理を行うことができる。当該色斑予測モデルは、事前に訓練して取得した完全畳み込み敵対的生成ネットワークモデルである。 In another embodiment, after determining the predicted image, the predicted image can be input to a pre-trained mottle prediction model for prediction processing. The color spot prediction model is a pre-trained and acquired fully convolutional generative adversarial network model.

当該色斑予測モデルは、前記コンピュータデバイスによって、事前に訓練して取得したものでも良く、他の電子デバイスによってコンピュータデバイスに送信されたものであっても良い。なお、ここでは特に限定されない。 The color spot prediction model may be obtained by training in advance by the computer device, or may be transmitted to the computer device by another electronic device. In addition, it is not specifically limited here.

完全畳み込み敵対的生成ネットワークモデルは、複数の畳み込みニューラルネットワークで構成された敵対的生成ネットワークである。敵対的生成ネットワークは、生成モデル(Generative Model)と識別モデル(Discriminative Model)の相互作用(ゲーム理論による学習)を通じて良好的な出力を生成するネットワークモデルである。 A fully convolutional generative adversarial network model is a generative adversarial network composed of multiple convolutional neural networks. A generative adversarial network is a network model that produces good output through interaction (learning by game theory) of a generative model and a discriminative model.

S130:色斑予測モデルに基づいて、色斑予測結果グラフを取得する。 S130: Acquire a color blemish prediction result graph based on the color blemish prediction model.

別の実施形態では、色斑予測モデルにより予測処理を行った後、色斑予測結果グラフを取得することができる。色斑予測結果グラフは、被予測画像における顔の皮膚が一定の期間を経った後の色斑の変化を表示することができ、具体的な期間数値は、実際の需要に応じて設定することができるが、ここでは特に限定されない。 In another embodiment, a color blemish prediction result graph can be obtained after performing prediction processing using a color blemish prediction model. The color blemish prediction result graph can display the changes in color blemish of the facial skin in the predicted image after a certain period of time, and the specific period value can be set according to actual needs. However, it is not particularly limited here.

好ましくは、色斑予測結果グラフは、複数の色斑変化の状況を含み、前記色斑変化の状況は、被予測画像中の顔の皮膚の色斑が異なる期間後変化した色斑の状況である。 Preferably, the color blemish prediction result graph includes a plurality of color blemish change states, and the color blemish change state is a color blemish state in which the color blemish of the facial skin in the predicted image changes after different periods of time. be.

本発明の実施形態によって提供される1つの色斑予測方法では、被予測画像を取得し、被予測画像を、事前に訓練して取得した色斑予測モデル(ここでは、色斑予測モデルが完全畳み込み敵対的生成ネットワークモデルである)に入力して予測処理を行い、色斑予測モデルにより、色斑予測結果グラフを得ることができる。完全畳み込み敵対的生成ネットワーク構造を色斑予測モジュールとして使用することで、皮膚色斑の将来の変化を予測処理することができるので、ユーザーは、皮膚色斑の変化傾向を予知することができる。 One chroma prediction method provided by an embodiment of the present invention is to obtain a predicted image, and apply the predicted image to a pre-trained chroma prediction model (here, the chroma prediction model is fully It is a convolutional adversarial generation network model), prediction processing is performed, and a color speckle prediction result graph can be obtained by the color speckle prediction model. By using the fully convolutional adversarial generation network structure as the blemish prediction module, the future changes of skin blemishes can be predicted and processed, so that the user can predict the changing trend of skin blemishes.

以下、本発明の実施形態によって提供される色斑予測方法の別の実行プロセスについて、詳細に説明する。 Another execution process of the color spot prediction method provided by the embodiments of the present invention is described in detail below.

図2は、本発明の実施形態によって提供される色斑予測方法のフローチャート図2である。図2に示すように、被予測画像を、事前に訓練して取得した色斑予測モデルに入力し、予測処理を行う前に、以下のステップを実行しても良い。 FIG. 2 is a flowchart diagram 2 of a color spot prediction method provided by an embodiment of the present invention. As shown in FIG. 2, the to-be-predicted image may be input to a pre-trained and acquired color-spot prediction model, and the following steps may be performed prior to the prediction process.

S210:被予測画像内の色斑情報を決定する。 S210: Determine color spot information in the predicted image.

色斑情報は、色斑の位置及び類別を含む。 The speckle information includes the location and classification of the speckle.

色斑情報は、当該被予測画像における皮膚上の色斑情報であり、具体的に、例えば、当該被予測画像における皮膚上の各色斑の位置や類別などが挙げられる。各色斑の位置について、座標範囲の形式で記録することができ、色斑の類別は、標識の形式で記録することができる。 The color spot information is color spot information on the skin in the predicted image, and specifically includes, for example, the position and classification of each color spot on the skin in the predicted image. The location of each speck can be recorded in the form of a coordinate range, and the speck classification can be recorded in the form of a label.

好ましくは、事前に設定された色斑識別アルゴリズムを使用して被予測画像内の色斑情報を取得及び決定することができる。 Preferably, a preset chroma identification algorithm can be used to obtain and determine the chroma information in the predicted image.

S220:被予測画像内の色斑情報に基づいて、被予測画像を前処理し、前処理後のマルチフレーム画像を取得する。 S220: Based on the color spot information in the predicted image, preprocess the predicted image to obtain a preprocessed multi-frame image.

マルチフレーム画像は、無色斑の画像及び色斑類別を標識した画像を含む。 The multi-frame image includes an image of achromatic speckles and an image labeled with color speckles.

別の実施形態では、被予測画像の前処理は、色斑除去処理及び色斑決定処理を含む。色斑除去処理によって、前記無色斑の画像、即ち、色斑情報を有しない被予測画像を取得することができる。色斑決定処理によって、色斑類別を標識した画像を取得することができる。なお、当該画像の色斑類別は、異なるグレイ階調値で表すことができる。 In another embodiment, the preprocessing of the predicted image includes color speckle removal processing and color speckle determination processing. By the color spot removal process, it is possible to acquire the colorless image, that is, the predicted image without color spot information. The mottling determination process can obtain an image labeled with mottling classification. Note that the color mottling classification of the image can be represented by different grayscale values.

被予測画像を、事前に訓練して取得した色斑予測モデルに入力し、予測処理を行うステップは、さらに、以下のステップを含んでも良い。 The step of inputting the predicted image to the pre-trained and acquired color spot prediction model and performing the prediction process may further include the following steps.

S230:前処理後のマルチフレーム画像を、事前に訓練して取得した色斑予測モデルに入力、予測処理を行う。 S230: The pre-processed multi-frame image is input to a pre-trained and acquired color spot prediction model for prediction processing.

別の実施形態では、上記の複数の前処理後のマルチフレーム画像をそれぞれ決定した後、これらの画像を組み合わせて、事前に訓練して取得した色斑予測モデルに一緒に入力し、予測を行い、対応の予測結果を取得することができる。 In another embodiment, after determining each of the above multiple pre-processed multi-frame images, these images are combined and input together into a pre-trained and acquired color spot prediction model for prediction. , corresponding prediction results can be obtained.

以下、本発明の実施形態によって提供される色斑予測方法の実行プロセスについて詳細を説明する。 Hereinafter, the execution process of the color spot prediction method provided by the embodiments of the present invention will be described in detail.

図3は、本発明の実施形態によって提供される色斑予測方法のフローチャート図3である。図3に示すように、被予測画像を事前に訓練して取得した色斑予測モデルに入力して予測処理を行う前に、以下のステップをさらに含んでも良い。 FIG. 3 is a flowchart diagram 3 of a color spot prediction method provided by an embodiment of the present invention. As shown in FIG. 3, the following steps may be further included before inputting the predicted image to the pre-trained color spot prediction model and performing the prediction process.

S310:目標被処理画像を取得する。 S310: Obtain a target processed image.

目標被処理画像には、色斑情報が含まれても良い。 The target image to be processed may include mottle information.

目標被処理画像は、色斑予測モデルを訓練するために使用されるサンプル画像であり、当該サンプル画像には、皮膚の画像を有し、皮膚の画像には、色斑情報が含まれている。 The target processed image is a sample image used to train the mottle prediction model, the sample image comprising an image of the skin, the skin image containing the mottle information. .

目標被処理画像は、事前に収集された多数のサンプル画像(例えば、ネットワークなどを介してダウンロードされた顔色斑の画像など)であるが、本発明はこれに限定されない。 The target image to be processed is a large number of pre-collected sample images (eg, images of complexion blemishes downloaded via a network, etc.), but the present invention is not limited thereto.

S320:目標被処理画像に基づいて、複数の目標チャンネル画像をそれぞれ決定する。 S320: Determining a plurality of target channel images respectively based on the target processed image.

目標チャンネル画像は、色斑情報を除去した多チャンネル画像及び色斑類別チャンネル画像を含む。
別の実施形態では、目標被処理画像のそれぞれに対して、処理を行い、複数の目標チャンネル画像を取得する。色斑情報を除去した多チャンネル画像は、目標被処理画像に対して色斑除去処理を行って取得するものであり、前記無色斑の画像を取得する方式と同じである。色斑類別チャンネル画像は、目標被処理画像に対して、色斑識別を行って取得するものであり、前記色斑類別を標識した画像を取得する方式と同じである。
S330:複数の目標チャンネル画像及び目標ノイズ画像を組み合わせて、一緒に、訓練される神経ネットワーク構造に入力して、訓練された色斑予測モデルを取得する。
目標ノイズ画像は、ランダムに生成されたノイズ画像である。
別の実施形態では、上述した複数の目標チャンネル画像を取得した後、これらの目標チャンネル画像及び事前に生成された目標ノイズ画像を組み合わせて、一緒に、訓練される神経ネットワーク構造に入力して訓練する。これによって、訓練後、上述した色斑予測モデルを取得することができる。
以下、本発明の実施形態によって提供される色斑予測方法の具体的な実行プロセスについて説明する。
The target channel image includes a multi-channel image with speckle information removed and a speckle-classified channel image.
In another embodiment, for each target processed image, processing is performed to obtain multiple target channel images. The multi-channel image from which color speckle information has been removed is obtained by performing color speckle removal processing on the target image to be processed, and the method is the same as that for obtaining the colorless speckle image. The color speckle-classified channel image is obtained by performing color speckle identification on the target image to be processed, and is the same as the method of obtaining the image labeled with the color speckle class.
S330: Combine multiple target channel images and target noise images and input them together into a trained neural network structure to obtain a trained chroma prediction model.
The target noise image is a randomly generated noise image.
In another embodiment, after acquiring a plurality of target channel images as described above, these target channel images and pre-generated target noise images are combined together to input and train a neural network structure to be trained. do. By this, after training, the color spot prediction model described above can be obtained.
A specific execution process of the color spot prediction method provided by the embodiments of the present invention will be described below.

図4は、本発明の実施形態によって提供される色斑予測方法のフローチャート図4である。図4に示すように、目標被処理画像に基づいて、複数の目標チャンネル画像をそれぞれ決定するステップは、さらに、以下のステップを含んでも良い。 FIG. 4 is a flowchart diagram 4 of a color spot prediction method provided by an embodiment of the present invention. Determining each of the plurality of target channel images based on the target processed image, as shown in FIG. 4, may further include the following steps.

S410:目標被処理画像中の色斑情報を決定する。 S410: Determining color spot information in the target processed image.

好ましくは、目標被処理画像を決定した後、上記色斑情報を決定することができる。具体的に、前述した色斑識別の方式によって色斑情報の決定を実現することができる。 Preferably, the mottle information can be determined after determining the target processed image. Specifically, determination of color spot information can be realized by the method of color spot identification described above.

S420:目標被処理画像中の色斑情報に基づいて、目標被処理画像に対して色斑除去処理を行い、色斑情報を除去した目標被処理画像を取得する。 S420: Based on the color speckle information in the target image to be processed, color speckle removal processing is performed on the target image to be processed to obtain the target image from which the color speckle information is removed.

好ましくは、上記色斑情報を取得した後、色斑情報に基づいて、色斑除去処理を行う。目標被処理画像内のすべての色斑情報を除去し、目標被処理画像を取得する。目標被処理画像には、色斑情報が含まれていない。 Preferably, after obtaining the color spot information, color spot removal processing is performed based on the color spot information. All color mottle information in the target processed image is removed to obtain the target processed image. The target processed image does not contain speckle information.

別の実施形態では、目標被処理画像を取得した後、チャンネル処理を行い、赤、緑、青の3色のカラーチャンネルをそれぞれ取得することができる。具体的に、色斑情報を除去した赤チャンネル画像、色斑情報を除去した緑チャンネル画像、色斑情報を除去した青チャンネル画像を取得することができる。 In another embodiment, after obtaining the target processed image, channel processing may be performed to obtain each of the three color channels of red, green, and blue. Specifically, it is possible to acquire a red-channel image from which color-spot information is removed, a green-channel image from which color-spot information is removed, and a blue-channel image from which color-spot information is removed.

目標被処理画像に基づいて、複数の目標チャンネル画像を決定するステップは、以下のステップをさらに含んでも良い。 Determining the plurality of target channel images based on the target processed image may further include the following steps.

目標被処理画像に対して色斑検出処理を行い、色斑類別チャンネル画像を取得する。 A color speckle detection process is performed on the target image to be processed to obtain a color speckle classified channel image.

好ましくは、上記目標被処理画像を取得した後、当該画像に対して色斑検出処理を行い、色斑類別チャンネル画像をさらに取得することができる。この過程について、以下のとおりである。 Preferably, after obtaining the target image to be processed, the image may be subjected to color speckle detection processing to further obtain a color speckle classified channel image. This process is as follows.

図5は、本発明の実施形態によって提供される色斑予測方法のフローチャート図5である。図5に示すように、目標被処理画像に対して色斑検出処理を行い、色斑類別チャンネル画像を取得するステップでは、以下のステップをさらに含む。 FIG. 5 is a flow chart diagram 5 of a chroma prediction method provided by an embodiment of the present invention. As shown in FIG. 5, the step of performing color speckle detection processing on the target processed image to obtain a color speckle classified channel image further includes the following steps.

S510:目標被処理画像内の各類別の色斑情報の位置を決定する。 S510: Determine the location of each category of mottling information in the target processed image.

好ましくは、色斑識別の方式によって、目標被処理画像内の各類別の色斑の位置を決定することができる。 Preferably, the method of color speckle identification can determine the location of each class of color specks in the target processed image.

S520:色斑情報の位置に、色斑情報に対応する類別のグレイ階調情報を設定し、色斑類別チャンネル画像を取得する。 S520: Set the gray level information of the classification corresponding to the color speckle information at the position of the color speckle information, and acquire the color speckle classified channel image.

好ましくは、各類別の色斑位置を取得した後、対応の位置に、対応のグレイ階調値を設定することができる。異なる類別の色斑に、異なるグレイ階調値により特徴つけられる。当該グレイ階調値を有する特定の位置及び範囲は、当該色斑の位置及び色斑のサイズを表示することができる。画像内の各類別の色斑情報に対応するグレイ階調情報を決定して設定すると、上記の色斑類別チャンネル画像を取得することができる。これは、具体的に、異なるグレイ階調で表現された異なる色斑の類別のチャンネル画像である。 Preferably, after obtaining each class of color spot location, the corresponding location can be set with the corresponding gray scale value. Different classes of mottling are characterized by different grayscale values. A particular location and range with that grayscale value can indicate the location and size of the speckle. After determining and setting the gray-level information corresponding to each category of mottle information in the image, the above mottle-categorized channel image can be obtained. This is specifically a channel image with different color mottles represented in different shades of gray.

以下、本発明の実施形態によって提供される色斑予測方法の別の実行プロセスについて詳細を説明する。 Another execution process of the color spot prediction method provided by the embodiments of the present invention is described in detail below.

図6は、本発明の実施形態によって提供される色斑予測方法のフローチャート図6である。図6に示すように、複数の目標チャンネル画像及び目標ノイズ画像を組み合わせて、一緒に、訓練される神経ネットワーク構造に入力して、訓練された色斑予測モデルを取得する前に、当該方法は、さらに以下のステップを含むことができる。 FIG. 6 is a flow chart diagram 6 of a chroma prediction method provided by an embodiment of the present invention. As shown in FIG. 6, before combining a plurality of target channel images and target noise images and inputting them together into a neural network structure to be trained to obtain a trained chroma prediction model, the method is , may further include the following steps.

S610:目標チャンネル画像及び目標ノイズ画像のそれぞれに対して正規化処理を行い、目標入力画像を取得する。 S610: Normalize each of the target channel image and the target noise image to obtain a target input image.

好ましくは、上述した、複数の目標チャンネル画像及び目標ノイズ画像を組み合わせて、一緒に、訓練される神経ネットワーク構造に入力して取得した訓練された色斑予測モデルでは、目標チャンネル画像は、前述した色斑情報を除去した赤チャンネル画像、色斑情報を除去した緑チャンネル画像、色斑情報を除去した青チャンネル画像、及び色斑類別チャンネル画像を含み、この4類別の画像は、目標ノイズ画像と組み合わせて、5チャンネル画像を取得することができる。これらを一緒に訓練される神経ネットワーク構造に入力して、訓練された色斑予測モデルを取得することができる。 Preferably, in the above-described trained chroma prediction model obtained by combining a plurality of target channel images and target noise images and inputting them together into a neural network structure to be trained, the target channel image is including a red channel image with speckle information removed, a green channel image with speckle information removed, a blue channel image with speckle information removed, and a color speckle classified channel image; In combination, a 5-channel image can be acquired. These can be input together into a trained neural network structure to obtain a trained chroma prediction model.

好ましくは、正規化処理では、目標チャンネル画像内の色斑情報を除去した赤チャンネル画像、色斑情報を除去した緑チャンネル画像、色斑情報を除去した青チャンネル画像、及び上述した目標ノイズ画像を(-1,1)の区間に正規化することができる。色斑類別チャンネル画像を(0,1)の区間に正規化することは、
Preferably, in the normalization process, a red channel image with color speckle information removed in the target channel image, a green channel image with color speckle information removed, a blue channel image with color speckle information removed, and the above-described target noise image. It can be normalized to the interval (-1,1). Normalizing the speckle-classified channel image to the (0,1) interval is

この式において、Imgは0~255区間の三チャンネル画像であり、
In this formula, Img is a three-channel image from 0 to 255,

また、複数の目標チャンネル画像及び目標ノイズ画像を組み合わせて、一緒に、訓練される神経ネットワーク構造に入力し、訓練された色斑予測モデルを取得するステップでは、さらに、以下のステップを含むことができる。 Also, the step of combining a plurality of target channel images and target noise images and inputting them together into a neural network structure to be trained to obtain a trained chroma prediction model may further include the following steps: can.

S620:目標入力画像を訓練される神経ネットワーク構造に入力し、訓練された色斑予測モデルを取得する。 S620: Input the target input image into the neural network structure to be trained to obtain a trained color spot prediction model.

好ましくは、上述した目標入力画像を取得した後、目標入力画像を上述した神経ネットワーク構造に入力し、訓練された色斑予測モデルを取得することができる。 Preferably, after obtaining the above target input image, the target input image can be input into the above neural network structure to obtain a trained mottle prediction model.

以下、本発明の実施形態に使用される色斑予測モデルの構造について詳細を説明する。 Details of the structure of the color spot prediction model used in the embodiment of the present invention will be described below.

当該モデルでは、エンコーディング-デコーディング構造を使用しており、デコーディング部のアップサンプリングは、最近傍のアップサンプリング+畳み込み層の組合せを使用しており、出力層の活性化関数はTanhであり、具体的な構造関係は表1に示されている The model uses an encoding-decoding structure, the upsampling of the decoding unit uses a combination of nearest neighbor upsampling + convolutional layers, the activation function of the output layer is Tanh, Specific structural relationships are shown in Table 1

なお、Leakyreluは、深層学習における従来の活性化関数の1種であり、negativeslopeは、当該活性化関数の1つ構成パラメーターであり、khは、畳み込みカーネルの高さであり、kwは、畳み込みカーネルの幅であり、paddingは、畳み込み演算中のフィーチャマップ拡張のピクセル値(pixel value)であり、strideは、畳み込みのステップサイズであり、groupは、畳み込みカーネルのグループ数であり、scale_factor、 Modeはいずれも、アップサンプリング層のパラメーターである。scale_factorは、アップサンプリングが2倍となったときのサイズを表し、Mode=nearestは、最近傍方式のアップサンプリングを使用することを表す。 Leakyrelu is a type of conventional activation function in deep learning, negative slope is one configuration parameter of the activation function, kh is the height of the convolution kernel, and kw is the convolution kernel padding is the pixel value of the feature map extension during the convolution operation, stride is the convolution step size, group is the number of groups in the convolution kernel, scale_factor, Mode is Both are parameters of the upsampling layer. scale_factor represents the size when upsampling is doubled, and Mode=nearest represents using nearest neighbor upsampling.

好ましくは、当該モデルには、判別ネットワーク部が含まれ、異なる解像度の実画像及び偽画像をそれぞれ判別することができる本発明の実施形態では、3つのスケールの判別器を使用して、512x512,256x256,128x128解像度の画像を判別する。異なる解像度の画像に対して以下のダウンサンプリングによって取得することができる。 Preferably, the model includes a discriminant network portion, and in an embodiment of the present invention that can discriminate between real and false images of different resolutions, respectively, three scales of discriminators are used, 512x512, A 256x256, 128x128 resolution image is discriminated. Images of different resolutions can be obtained by the following downsampling.

好ましくは、当該モデルは訓練中に20000サンプルを設定でき、各サンプルの画像に対して、ロバスト性を向上させることができるために、複数の利得(例えば、反転、回転、平行移動、アフィン変換、露出、コントラスト調整、ぼかしなど)を実行することができる。 Preferably, the model can be set to 20000 samples during training, and for each sample image, multiple gains (e.g. flips, rotations, translations, affine transformations, exposure, contrast adjustment, blurring, etc.).

好ましくは、ネットワーク訓練の最適化アルゴリズムは、Adamアルゴリズムを使用し、生成ネットワークの学習率が0.0002であり、判別ネットワークの学習率が0.0001である。 Preferably, the optimization algorithm for network training uses the Adam algorithm, with a learning rate of 0.0002 for the generator network and a learning rate of 0.0001 for the discriminant network.

好ましくは、当該モデルの損失関数の計算式は、以下である
Generateは、ネットワークの出力であり、GTは、目標生成の画像である。L、Lは、損失関数であり、Lvggは、知覚損失函数(Perceptual Loss)であり、Ladvは、生成的敵対的損失関数である。Lperceptualは、知覚lossであり、知覚lossは、ネットワークの出力(生成図)generate及びGTを別のネットワークに入力し、対応する層の特徴テンソルを抽出し、特徴テンソル間の差を計算することを意味する。ここでは、iは、i番目のサンプルである。
Preferably, the formula for the loss function of the model is
Generate is the output of the network and GT is the target generated image. L 1 , L 2 are loss functions, L vgg is the Perceptual Loss, and L adv is the generative adversarial loss function. Lperceptual is the perceptual loss, which refers to inputting the network's output (generative diagram) generate and GT into another network, extracting the feature tensors of the corresponding layers, and computing the difference between the feature tensors. means. where i is the i-th sample.

以下、本発明によって提供される色斑予測方法を実行する装置、設備及び記憶媒体について詳細を説明する。具体的な実行プロセス及び技術的な効果は、上記の内容を参照することができ、ここでは詳細を省略する。 Hereinafter, the apparatus, equipment and storage medium for executing the color spot prediction method provided by the present invention will be described in detail. The specific implementation process and technical effects can be referred to the above content, and the details are omitted here.

図7は、本発明の実施形態によって提供される色斑予測装置の構造概念図である。図7に示すように、当該装置は、取得モジュール100、予測モジュール200、及び出力モジュール300を備える。 FIG. 7 is a structural conceptual diagram of a color spot prediction device provided by an embodiment of the present invention. As shown in FIG. 7, the device comprises an acquisition module 100 , a prediction module 200 and an output module 300 .

取得モジュール100は、被予測画像を取得するために構成される。 Acquisition module 100 is configured to acquire a predicted image.

予測モジュール200は、被予測画像を事前に訓練して取得した色斑予測モデルに入力して予測処理を行うために構成され、色斑予測モデルは、完全畳み込み敵対的生成ネットワークモデルである。 The prediction module 200 is configured to input the predicted image to a pre-trained and acquired color speckle prediction model for prediction processing, and the color speckle prediction model is a fully convolutional generative adversarial network model.

出力モジュール300は、色斑予測モデルによって色斑予測結果グラフを取得するために構成される。 The output module 300 is configured to obtain a color speckle prediction result graph by the color speckle prediction model.

好ましくは、当該装置は、前処理モジュール400をさらに備える。前処理モジュール400は、被予測画像中の色斑情報を決定するために構成される。色斑情報は、色斑の位置及び類別を含む。被予測画像中の色斑情報に基づいて、被予測画像を前処理し、前処理後のマルチフレーム画像を取得する。マルチフレーム画像は、無色斑の画像及び色斑類別を標識した画像を含む。また、予測モジュール200は、前処理後のマルチフレーム画像を事前に訓練して取得した色斑予測モデルに入力し予測処理を行うように構成されても良い。 Preferably, the device further comprises a pretreatment module 400 . The pre-processing module 400 is configured to determine mottle information in the predicted image. The speckle information includes the location and classification of the speckle. Based on the color spot information in the predicted image, the predicted image is preprocessed to obtain a preprocessed multi-frame image. The multi-frame image includes an image of achromatic speckles and an image labeled with color speckles. Also, the prediction module 200 may be configured to perform prediction processing by inputting the pre-processed multi-frame image into a color spot prediction model obtained by training in advance.

好ましくは、前処理モジュール400は、目標被処理画像を取得するために構成されても良い。目標被処理画像は、色斑情報を含む。目標被処理画像に基づいて、複数の目標チャンネル画像を決定する。目標チャンネル画像は、色斑情報を除去した多チャンネル画像及び色斑類別チャンネル画像を含む。複数の目標チャンネル画像及び目標ノイズ画像を組み合わせて、一緒に、訓練される神経ネットワーク構造に入力し、訓練された色斑予測モデルを取得する。目標ノイズ画像はランダムに生成されたノイズ画像である。 Preferably, the preprocessing module 400 may be configured to obtain the target processed image. The target processed image includes color mottle information. A plurality of target channel images are determined based on the target processed image. The target channel image includes a multi-channel image with speckle information removed and a speckle-classified channel image. A plurality of target channel images and target noise images are combined and input together into a trained neural network structure to obtain a trained chroma prediction model. The target noise image is a randomly generated noise image.

好ましくは、前処理モジュール400は、目標被処理画像中の色斑情報を決定するように用いられても良い。目標被処理画像中の色斑情報に基づいて、目標被処理画像に対して、色斑除去処理を行い、色斑情報を除去した目標被処理画像を取得する。色斑情報を除去した目標被処理画像に対して、チャンネル処理を行い、色斑情報を除去した多チャンネル画像を取得することができる。 Preferably, the pre-processing module 400 may be used to determine mottle information in the target processed image. Based on the color spot information in the target image to be processed, color spot removal processing is performed on the target image to be processed, and a target image to be processed from which the color spot information is removed is obtained. Channel processing can be performed on the target image from which the color spot information has been removed, and a multi-channel image from which the color spot information has been removed can be obtained.

好ましくは、前処理モジュール400は、目標被処理画像に対して色斑検出処理を行い、色斑類別チャンネル画像を取得するように用いられても良い。 Preferably, the pre-processing module 400 may be used to perform speckle detection processing on the target processed image to obtain a speckle classified channel image.

好ましくは、前処理モジュール400は、目標被処理画像中の各種別の色斑情報の位置を決定するように用いられても良い。色斑情報の位置に、色斑情報に対応する種別のグレイ階調情報を設定し、色斑類別チャンネル画像を取得することができる。 Preferably, the pre-processing module 400 may be used to determine the location of each type of speckle information in the target processed image. By setting gray gradation information of a type corresponding to the color speckle information at the position of the color speckle information, a channel image classified by color speckle type can be acquired.

好ましくは、前処理モジュール400は、目標チャンネル画像及び目標ノイズ画像のそれぞれに対して正規化処理を行い、目標入力画像を取得するように用いられても良い。また、目標入力画像を訓練される神経ネットワーク構造に入力して、訓練された色斑予測モデルを取得する。 Preferably, the pre-processing module 400 may be used to perform a normalization process on each of the target channel image and the target noise image to obtain a target input image. Also, the target input image is input into the neural network structure to be trained to obtain a trained color spot prediction model.

上述した装置は、前述した実施形態によって提供される方法を実現し、その実施原理及び技術的な効果は類似しており、ここでは詳細を省略する。
以上のモジュールは、上記方法を実行する1つ又は複数の集積回路に実装されるように構成されても良い。例えば、1つ又は複数の特定の集積回路(Application Specific Integrated Circuit,ASIC)、又は、1つ又は複数のマイクロプロセッサー、又は、1つ又は複数のフィールドプログラマブルゲートアレイ(Field Programmable Gate Array、FPGA)などが挙げられる。また、上記のあるモジュールは、処理要素スケジューラコードの形で実装される場合、当該処理要素は、汎用のプロセッサー(例えば、中央処理装置(Central Processing Unit、CPU)または他のプログラムコードを呼び出すことができるプロセッサーなど)である。また、これらのモジュールを統合して、システムオンチップ(system-on-a-chip、SOC)の形式で実装することができる。
図8は、本発明の実施形態によって提供されるコンピュータデバイスの構造概念図である。図8に示すように、コンピュータデバイスは、メモリー500及びプロセッサー600を備える。メモリー500には、プロセッサー600で実行されるコンピュータプログラムを格納している。プロセッサー600がコンピュータプログラムを実行すると、上述した色斑予測方法のステップを実行する。
本発明のある実施形態では、コンピュータ可読記憶媒体を提供している。記憶媒体にはコンピュータプログラムを格納しており、当該コンピュータプログラムがプロセッサーによって実行されると、上述した色斑予測方法のステップを実行する。
本発明によって提供されるいくつかの実施形態において、開示される装置および方法は、他の方法でも実施されても良い。上記の装置に関する実施形態は、例示にすぎず、例えば、ユニットの分割は、論理機能の分割にすぎず、実際の実装では、他の分割方法を使用しても良い。また、複数のユニットまたは要素は、別のシステムに組み合わせたり、統合したりすることができる。一部の構成を省略したり、その機能を実行しなかったりすることもできる。また、相互又は直接結合、通信接続は、いくつかのインターフェース、デバイスまたはユニットの間接結合または通信接続を介して、電気的、機械的または他の形態であっても良い。
個別要素として記述されているユニットは、物理的に分離されている場合とされていない場合があり、ユニットとして示されている要素は、物理的なユニットであり、またはそうでない場合であってもよく、さらに、1つの場所に配置されているか、複数のネットワークユニットに分散されることも可能である。ユニットのいくつかまたはすべては、この実施形態における解決策の目的を達成するための実際の必要性に従って選択されることができる。
さらに、本発明の各実施形態における各機能ユニットは、1つの処理ユニットに統合されても良く、各ユニットが物理的に単独で存在するか、または2つ以上のユニットが1つのユニットに統合されても良い。また、上記の統合ユニットは、ハードウェアの形で実装することも、ハードウェアとソフトウェアの機能ユニットの形で実装することもできる。
ソフトウェア機能ユニットの形で実装された上記の統合ユニットは、コンピュータ可読記憶媒体に格納することができる。また、上記のソフトウェア機能ユニットは、記憶媒体に格納されており、コンピュータデバイス(パーソナルコンピュータ、サーバー、ネットワークデバイスなど)またはプロセッサー(processor)を機能にするためのいくつかのコマンドが含まれている。これによって、本発明の様々な実施形態の方法を実行することができる。前記記憶媒体は、USBメモリー、外付けハードディスク、読み取り専用メモリー(Read-Only Memory、ROM)、ランダムアクセスメモリー(Random Access Memory、RAM)、磁ディスク又は光学ディスクなどプログラムコードを格納できる様々な記憶媒体を含む。
上述した内容は、本出願の特定の実施形態に過ぎず、本願特許請求の範囲はこれに限定されない。また、本出願に開示される技術範囲に精通している当業者は、変更または改良を容易に考えることができる。その変更及び改良はいずれも、本願の特許請求の範囲内に含まれている。本願の保護を請求している範囲は、特許請求の範囲に従うものとする。
上記の説明は、本出願の好ましい実施形態にすぎず、本出願を限定することを意図するものではない。当業者にとって、本出願は、様々な修正および変更をすることができる。また、本発明の技術的な思想から逸脱なく、同等の変更、交換又は改善はいずれも、本願特許請求の範囲に含まれている。
The above-described apparatus implements the method provided by the above-described embodiments, and its implementation principle and technical effects are similar, and the details are omitted here.
The above modules may be configured to be implemented in one or more integrated circuits for performing the above methods. For example, one or more specific integrated circuits (Application Specific Integrated Circuit, ASIC), or one or more microprocessors, or one or more field programmable gate arrays (FPGA), etc. are mentioned. Also, when certain modules described above are implemented in the form of processing element scheduler code, the processing element may invoke a general-purpose processor (e.g., Central Processing Unit (CPU)) or other program code. available processors). Also, these modules can be integrated and implemented in the form of a system-on-a-chip (SOC).
FIG. 8 is a structural conceptual diagram of a computer device provided by an embodiment of the present invention. As shown in FIG. 8, the computing device comprises memory 500 and processor 600 . Memory 500 stores computer programs that are executed by processor 600 . When the processor 600 executes the computer program, it performs the steps of the color mottling prediction method described above.
An embodiment of the present invention provides a computer-readable storage medium. A computer program is stored in the storage medium, and when the computer program is executed by the processor, the above steps of the color spot prediction method are executed.
In some embodiments provided by the present invention, the disclosed apparatus and methods may also be implemented in other ways. The above device embodiments are only examples, for example, the division of units is only the division of logical functions, and other division methods may be used in actual implementations. Also, multiple units or elements may be combined or integrated into another system. Some configurations may be omitted or not perform their function. Also, a mutual or direct coupling or communicative connection may be electrical, mechanical or otherwise through an indirect coupling or communicative connection of some interface, device or unit.
Units described as separate elements may or may not be physically separate, and elements depicted as units may or may not be physical units. Well, it can also be co-located or distributed over multiple network units. Some or all of the units can be selected according to actual needs to achieve the purpose of the solution in this embodiment.
Furthermore, each functional unit in each embodiment of the present invention may be integrated into one processing unit, each unit physically exists alone, or two or more units are integrated into one unit. can be Also, the integration unit described above can be implemented in the form of hardware or in the form of a functional unit of hardware and software.
The above integrated units implemented in the form of software functional units can be stored in a computer readable storage medium. Also, the software functional unit described above is stored on a storage medium and includes several commands for making a computer device (personal computer, server, network device, etc.) or processor functional. This allows the methods of various embodiments of the invention to be carried out. The storage medium includes USB memory, external hard disk, read-only memory (ROM), random access memory (RAM), magnetic disk, optical disk, and various other storage media capable of storing program code. including.
What has been described above are only specific embodiments of the present application, and the claims of the present application are not limited thereto. Also, modifications or improvements can be easily conceived by those skilled in the art who are familiar with the technical scope disclosed in the present application. All such modifications and improvements are included within the scope of the claims of this application. The scope of protection claimed in this application shall follow the scope of the claims.
The above descriptions are only preferred embodiments of the present application and are not intended to limit the present application. For those skilled in the art, this application is susceptible to various modifications and changes. Any equivalent change, replacement or improvement without departing from the technical idea of the present invention is included in the claims of the present application.

本発明は、色斑予測方法、装置、設備及び記憶媒体を提供する。当該方法は、被予測画像を取得するステップと、被予測画像を事前に訓練して取得した色斑予測モデルに入力して予測処理を行い、当該色斑予測モデルが完全畳み込み敵対的生成ネットワークモデルであるステップと、色斑予測モデルにより、色斑予測結果グラフを取得するステップとを含む。本発明は、ユーザーの顔の皮膚の色斑変化状況を予測することができる。
また、本発明の色斑予測方法、装置、設備及び記憶媒体は再現性があり、且つ、様々な産業用途に使用できる。例えば、本発明の色斑予測方法、装置、設備及び記憶媒体は、画像認識処理を必要とする分野で使用することができる。
The present invention provides a color spot prediction method, apparatus, equipment and storage medium. The method includes the steps of acquiring a predicted image, inputting the predicted image to a pre-trained color speckle prediction model to perform prediction processing, and the color speckle prediction model is a fully convolutional generative adversarial network model. and obtaining a color spot prediction result graph by the color spot prediction model. The present invention is capable of predicting the mottling change of the user's facial skin.
Moreover, the color spot prediction method, apparatus, equipment, and storage medium of the present invention have reproducibility and can be used for various industrial applications. For example, the color spot prediction method, apparatus, equipment, and storage medium of the present invention can be used in fields requiring image recognition processing.

Claims (16)

被予測画像を取得するステップと、
前記被予測画像を、事前に訓練して取得した色斑予測モデルに入力し、予測処理を行うステップであって、前記色斑予測モデルは、完全畳み込み敵対的生成ネットワークモデルである、ステップと、
前記色斑予測モデルにより、色斑予測結果グラフを取得するステップと、を含むことを特徴とする色斑予測方法。
obtaining a predicted image;
inputting the predicted image to a pre-trained color speckle prediction model to perform prediction processing, wherein the color speckle prediction model is a fully convolutional generative adversarial network model;
and obtaining a color spot prediction result graph from the color spot prediction model.
前記被予測画像を、事前に訓練して取得した色斑予測モデルに入力し、予測処理を行う前に、
前記被予測画像中の色斑情報を決定するステップであって、前記色斑情報は、色斑の位置及び類別を含む、ステップと、
前記被予測画像中の色斑情報に基づいて、前記被予測画像に対して前処理を行い、前処理後のマルチフレーム画像を取得するステップであって、前記マルチフレーム画像は、無色斑の画像及び色斑類別を標識した画像を含む、ステップと、をさらに含み、
前記被予測画像を、事前に訓練して取得した色斑予測モデルに入力して、予測処理を行うステップは、
前記前処理後のマルチフレーム画像を、事前に訓練して取得した色斑予測モデルに入力し、予測処理を行うステップを含む、ことを特徴とする請求項1に記載の方法。
Before inputting the predicted image to a color spot prediction model obtained by training in advance and performing prediction processing,
determining color speckle information in the predicted image, wherein the color speckle information includes color speckle location and classification;
A step of performing preprocessing on the predicted image based on color spot information in the predicted image to obtain a preprocessed multi-frame image, wherein the multi-frame image has no color spots. including the image and the image labeled with the color mottling classification;
The step of performing prediction processing by inputting the predicted image to a color spot prediction model obtained by training in advance,
2. The method of claim 1, further comprising inputting the pre-processed multi-frame image into a pre-trained color spot prediction model for prediction processing.
前記被予測画像を、事前に訓練して取得した色斑予測モデルに入力して、予測処理を行う前に、
目標被処理画像を取得するステップであって、前記目標被処理画像は色斑情報を含むステップと、
前記目標被処理画像に基づいて、複数の目標チャンネル画像を決定するステップであって、前記目標チャンネル画像は、色斑情報を除去した多チャンネル画像及び色斑類別チャンネル画像を含むステップと、
複数の前記目標チャンネル画像及び目標ノイズ画像を組み合わせて、一緒に、訓練される神経ネットワーク構造に入力して、訓練された色斑予測モデルを取得するステップであって、前記目標ノイズ画像は、ランダムに生成されたノイズ画像であるステップと、をさらに含む、ことを特徴とする請求項1又は2に記載の方法。
Before performing prediction processing by inputting the predicted image to a color spot prediction model obtained by training in advance,
obtaining a target processed image, said target processed image including color mottle information;
determining a plurality of target channel images based on the target processed image, the target channel images comprising a multi-channel image with speckle information removed and a speckle classified channel image;
combining a plurality of the target channel images and the target noise images and inputting them together into a trained neural network structure to obtain a trained chroma prediction model, wherein the target noise images are random 3. A method according to claim 1 or 2, further comprising the step of being a noise image generated in .
前記目標被処理画像に基づいて、複数の目標チャンネル画像を決定するステップは、
前記目標被処理画像中の色斑情報を決定するステップと、
前記目標被処理画像中の色斑情報に基づいて、前記目標被処理画像に対して、色斑除去処理を行い、色斑情報を除去した目標被処理画像を取得するステップとを含む、ことを特徴とする請求項3に記載の方法。
determining a plurality of target channel images based on the target processed image,
determining mottling information in the target processed image;
and obtaining a target processed image from which the color spot information is removed by performing a color spot removal process on the target image to be processed based on the color spot information in the target image to be processed. 4. A method according to claim 3.
前記目標被処理画像に基づいて、複数の目標チャンネル画像を決定するステップは、
前記目標被処理画像に対して色斑検出処理を行い、前記色斑類別チャンネル画像を取得するステップを含む、ことを特徴とする請求項3又は4に記載の方法。
determining a plurality of target channel images based on the target processed image,
5. A method according to claim 3 or 4, comprising performing a speckle detection process on the target processed image to obtain the speckle classified channel image.
前記目標被処理画像に対して色斑検出処理を行い、前記色斑類別チャンネル画像を取得するステップは、
前記目標被処理画像中の各類別の色斑情報の位置を決定するステップと、
前記色斑情報の位置に、前記色斑情報に対応する類別のグレイ階調情報を設定し、前記色斑類別チャンネル画像を取得するステップとを含む、ことを特徴とする請求項5に記載の方法。
The step of performing color speckle detection processing on the target image to be processed and acquiring the color speckle-classified channel image includes:
determining the location of each category of mottling information in the target processed image;
6. The method according to claim 5, further comprising the step of: setting grayscale information corresponding to the color speckle information at the position of the color speckle information, and acquiring the color speckle classified channel image. Method.
前記複数の前記目標チャンネル画像及び目標ノイズ画像を組み合わせて、一緒に、訓練される神経ネットワーク構造に入力して、訓練された色斑予測モデルを取得するステップの前に、前記方法は、
前記目標チャンネル画像及び前記目標ノイズ画像のそれぞれに対して、正規化処理を行い、目標入力画像を取得するステップを含み、
前記複数の前記目標チャンネル画像及び目標ノイズ画像を、訓練される神経ネットワーク構造に入力し、訓練された色斑予測モデルを取得するステップは、
前記目標入力画像を訓練される神経ネットワーク構造に入力し、訓練された色斑予測モデルを取得するステップを含む、ことを特徴とする請求項3~請求項6のいずれか1つに記載の方法。
Before combining and jointly inputting the plurality of target channel images and target noise images into a neural network structure to be trained to obtain a trained chroma prediction model, the method comprises:
obtaining a target input image by performing a normalization process on each of the target channel image and the target noise image;
inputting the plurality of target channel images and target noise images into a neural network structure to be trained to obtain a trained chroma prediction model;
A method according to any one of claims 3 to 6, characterized in that it comprises inputting the target input image into a neural network structure to be trained to obtain a trained color spot prediction model. .
色斑予測装置であって、取得モジュールと、予測モジュールと、出力モジュールとを備え、
前記取得モジュールは、被予測画像を取得するように用いられ、
前記予測モジュールは、前記被予測画像を、事前に訓練して取得した色斑予測モデルに入力し、予測処理を行うように用いられ、前記色斑予測モデルは、完全畳み込み敵対的生成ネットワークモデルであり、
前記出力モジュールは、前記色斑予測モデルにより、色斑予測結果グラフを取得するように用いられる、ことを特徴とする色斑予測装置。
A color spot prediction device comprising an acquisition module, a prediction module, and an output module,
the acquisition module is used to acquire a predicted image;
The prediction module is used to input the predicted image to a pre-trained and acquired color speckle prediction model to perform prediction processing, and the color speckle prediction model is a fully convolutional adversarial generative network model. can be,
The color spot prediction device, wherein the output module is used to obtain a color spot prediction result graph by the color spot prediction model.
前記色斑予測装置は、前処理モジュールと、他の予測モジュールとを備え、
前記前処理モジュールは、
前記被予測画像中の色斑情報であって、前記色斑情報は、色斑の位置及び類別を含む色斑情報を決定し、
前記被予測画像中の色斑情報に基づいて、前記被予測画像に対して前処理を行い、前処理後のマルチフレーム画像であって、前記マルチフレーム画像は、無色斑の画像及び色斑類別を標識した画像を取得するように用いられ、
前記他の予測モジュールは、
前記前処理後の前記マルチフレーム画像を、事前に訓練して取得した色斑予測モデルに入力し、予測処理を行うように用いられる、ことを特徴とする請求項8に記載の色斑予測装置。
The color spot prediction device includes a preprocessing module and another prediction module,
The pretreatment module is
color speckle information in the predicted image, wherein the color speckle information determines the color speckle information including the position and classification of the color speckle;
Preprocessing is performed on the predicted image based on color spot information in the predicted image, and a preprocessed multi-frame image is obtained, wherein the multi-frame image includes an image of colorless spots and an image of color spots. used to obtain an image labeled classification,
The other prediction module is
9. The color spot prediction device according to claim 8, wherein the multi-frame image after the preprocessing is input to a color spot prediction model obtained by training in advance and used to perform prediction processing. .
前記前処理モジュールは、さらに、
目標被処理画像を取得し、
前記目標被処理画像に基づいて、複数の目標チャンネル画像をそれぞれ決定し、
複数の前記目標チャンネル画像及び目標ノイズ画像を組み合わせて、一緒に、訓練される神経ネットワーク構造に入力して、訓練された色斑予測モデルを取得するように用いられ、
前記目標被処理画像には前記色斑情報が含まれており、
前記目標チャンネル画像は、前記色斑情報を除去した多チャンネル画像及び色斑類別チャンネル画像を含み、
前記目標ノイズ画像は、ランダムに生成されたノイズ画像である、ことを特徴とする請求項9に記載の色斑予測装置。
The pretreatment module further comprises:
obtain a target processed image;
determining each of a plurality of target channel images based on the target processed image;
a plurality of said target channel images and target noise images are combined and used to jointly input into a trained neural network structure to obtain a trained chroma prediction model;
the target image to be processed includes the color spot information;
the target channel image includes a multi-channel image from which the color speckle information has been removed and a color speckle classified channel image;
10. The color spot prediction device according to claim 9, wherein the target noise image is a randomly generated noise image.
前記前処理モジュールは、さらに、
前記目標被処理画像中の前記色斑情報を決定し、
前記目標被処理画像中の前記色斑情報に基づいて、前記目標被処理画像に対して、色斑除去処理を行い、色斑情報を除去した目標被処理画像を取得するように用いられる、ことを特徴とする請求項10に記載の色斑予測装置。
The pretreatment module further comprises:
determining the color mottling information in the target processed image;
Based on the color speckle information in the target image, the target image is subjected to color speckle removal processing to obtain a target image from which the color speckle information is removed. The color spot prediction device according to claim 10, characterized by:
前記前処理モジュールは、さらに、
前記目標被処理画像に対して色斑検出処理を行い、色斑類別チャンネル画像を取得するように用いられる、ことを特徴とする請求項10又は請求項11に記載の色斑予測装置。
The pretreatment module further comprises:
12. The color speckle prediction apparatus according to claim 10, wherein the color speckle prediction apparatus is used to perform color speckle detection processing on the target image to be processed to obtain a color speckle classified channel image.
前記前処理モジュールは、さらに、
前記目標被処理画像中の各種別の色斑情報の位置を決定し、
前記色斑情報の位置に、前記色斑情報に対応する種別のグレイ階調情報を設定し、前記色斑類別チャンネル画像を取得するように用いられる、ことを特徴とする請求項10~請求項12のいずれか1つに記載の色斑予測装置。
The pretreatment module further comprises:
determining the location of each type of color mottling information in the target processed image;
10. Claims 10 to 10, characterized in that gray gradation information of a type corresponding to the color speckle information is set at the position of the color speckle information, and used to acquire the color speckle classified channel image. 13. The color spot prediction device according to any one of 12.
前記前処理モジュールは、さらに、
前記目標チャンネル画像及び前記目標ノイズ画像のそれぞれに対して、正規化処理を行い、目標入力画像を取得し、
前記目標入力画像を訓練される神経ネットワーク構造に入力して、訓練された色斑予測モデルを取得するように用いられる、ことを特徴とする請求項10~請求項13のいずれか1つに記載の色斑予測装置。
The pretreatment module further comprises:
obtaining a target input image by performing normalization processing on each of the target channel image and the target noise image;
14. The method according to any one of claims 10 to 13, wherein the target input image is used to input a neural network structure to be trained to obtain a trained color spot prediction model. color spot prediction device.
コンピュータデバイスであって、メモリーとプロセッサーとを備え、前記メモリーには、前記プロセッサーで実行されるコンピュータプログラムを格納しており、前記プロセッサーが前記コンピュータプログラムを実行すると、請求項1~請求項7のいずれか1つに記載の前記色斑予測方法のステップを実行する、ことを特徴とするコンピュータデバイス。 A computer device comprising a memory and a processor, wherein the memory stores a computer program executed by the processor, and when the processor executes the computer program, the A computing device for performing the steps of the color spot prediction method according to any one. コンピュータ可読記憶媒体であって、前記コンピュータ可読記憶媒体には、コンピュータプログラムを格納し、前記コンピュータプログラムがプロセッサーによって実行されると、請求項1~請求項7のいずれか1つに記載の前記色斑予測方法のステップを実行する、ことを特徴とするコンピュータ可読記憶媒体。 A computer readable storage medium, said computer readable storage medium storing a computer program, said computer program being executed by a processor, said color according to any one of claims 1 to 7. A computer-readable storage medium for performing steps of a speckle prediction method.
JP2022540760A 2021-06-24 2021-11-23 Color spot prediction method, device, equipment and storage medium Active JP7385046B2 (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN202110707100.8A CN113379716B (en) 2021-06-24 2021-06-24 Method, device, equipment and storage medium for predicting color spots
CN202110707100.8 2021-06-24
PCT/CN2021/132553 WO2022267327A1 (en) 2021-06-24 2021-11-23 Pigmentation prediction method and apparatus, and device and storage medium

Publications (2)

Publication Number Publication Date
JP2023534328A true JP2023534328A (en) 2023-08-09
JP7385046B2 JP7385046B2 (en) 2023-11-21

Family

ID=77578969

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022540760A Active JP7385046B2 (en) 2021-06-24 2021-11-23 Color spot prediction method, device, equipment and storage medium

Country Status (4)

Country Link
JP (1) JP7385046B2 (en)
KR (1) KR20230001005A (en)
CN (1) CN113379716B (en)
WO (1) WO2022267327A1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113379716B (en) * 2021-06-24 2023-12-29 厦门美图宜肤科技有限公司 Method, device, equipment and storage medium for predicting color spots

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6792137B2 (en) * 2000-02-18 2004-09-14 Robert Kenet Method and device for skin cancer screening
JP4379603B2 (en) * 2004-09-02 2009-12-09 富士ゼロックス株式会社 Color processing apparatus, color processing program, and storage medium
CN101916334B (en) * 2010-08-16 2015-08-12 清华大学 A kind of skin Forecasting Methodology and prognoses system thereof
JP2012053813A (en) 2010-09-03 2012-03-15 Dainippon Printing Co Ltd Person attribute estimation device, person attribute estimation method and program
JP5950486B1 (en) 2015-04-01 2016-07-13 みずほ情報総研株式会社 Aging prediction system, aging prediction method, and aging prediction program
US10621771B2 (en) 2017-03-21 2020-04-14 The Procter & Gamble Company Methods for age appearance simulation
CN110163813B (en) * 2019-04-16 2022-02-01 中国科学院深圳先进技术研究院 Image rain removing method and device, readable storage medium and terminal equipment
CN110473177B (en) * 2019-07-30 2022-12-09 上海媚测信息科技有限公司 Skin pigment distribution prediction method, image processing system, and storage medium
CN112883756B (en) 2019-11-29 2023-09-15 哈尔滨工业大学(深圳) Age-converted face image generation method and countermeasure network model generation method
CN111429416B (en) * 2020-03-19 2023-10-13 深圳数联天下智能科技有限公司 Facial pigment spot recognition method and device and electronic equipment
CN112508812A (en) * 2020-12-01 2021-03-16 厦门美图之家科技有限公司 Image color cast correction method, model training method, device and equipment
CN112464885A (en) * 2020-12-14 2021-03-09 上海交通大学 Image processing system for future change of facial color spots based on machine learning
CN112614140A (en) * 2020-12-17 2021-04-06 深圳数联天下智能科技有限公司 Method and related device for training color spot detection model
CN112950569B (en) * 2021-02-25 2023-07-25 平安科技(深圳)有限公司 Melanoma image recognition method, device, computer equipment and storage medium
CN113379716B (en) * 2021-06-24 2023-12-29 厦门美图宜肤科技有限公司 Method, device, equipment and storage medium for predicting color spots

Also Published As

Publication number Publication date
JP7385046B2 (en) 2023-11-21
KR20230001005A (en) 2023-01-03
CN113379716A (en) 2021-09-10
WO2022267327A1 (en) 2022-12-29
CN113379716B (en) 2023-12-29

Similar Documents

Publication Publication Date Title
Fernandes et al. Predicting heart rate variations of deepfake videos using neural ode
Yang et al. MTD-Net: Learning to detect deepfakes images by multi-scale texture difference
CN110678875B (en) System and method for guiding a user to take a self-photograph
US9129149B2 (en) Information processing apparatus, method, and program
CN111814520A (en) Skin type detection method, skin type grade classification method, and skin type detection device
TW202014984A (en) Image processing method, electronic device, and storage medium
Bird et al. Cifake: Image classification and explainable identification of ai-generated synthetic images
CN112580521B (en) Multi-feature true and false video detection method based on MAML (maximum likelihood markup language) element learning algorithm
Levinshtein et al. Real-time deep hair matting on mobile devices
CN110956628B (en) Picture grade classification method, device, computer equipment and storage medium
CN114287878A (en) Diabetic retinopathy focus image identification method based on attention model
WO2019142127A1 (en) Method and system of creating multiple expression emoticons
Lewis et al. How we detect a face: A survey of psychological evidence
CN112330624A (en) Medical image processing method and device
Wang et al. Multi-exposure decomposition-fusion model for high dynamic range image saliency detection
JP2023534328A (en) Color spot prediction method, device, equipment and storage medium
KR20230028481A (en) High Resolution Controllable Face Aging Using Spatial Aware Conditional GANs
Khryashchev et al. Age estimation from face images: challenging problem for audience measurement systems
CN116912604A (en) Model training method, image recognition device and computer storage medium
CN112818774A (en) Living body detection method and device
Zhang et al. Artifact detection in endoscopic video with deep convolutional neural networks
US20220114403A1 (en) Fine-grained classification of retail products
CN115547488A (en) Early screening system and method based on VGG convolutional neural network and facial recognition autism
JP7362924B2 (en) Data augmentation-based spatial analysis model learning device and method
WO2023068956A1 (en) Method and system for identifying synthetically altered face images in a video

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220630

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230815

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230926

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231010

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231109

R150 Certificate of patent or registration of utility model

Ref document number: 7385046

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150