JP7067697B2 - 肌の検出方法及び電子デバイス - Google Patents
肌の検出方法及び電子デバイス Download PDFInfo
- Publication number
- JP7067697B2 JP7067697B2 JP2021501047A JP2021501047A JP7067697B2 JP 7067697 B2 JP7067697 B2 JP 7067697B2 JP 2021501047 A JP2021501047 A JP 2021501047A JP 2021501047 A JP2021501047 A JP 2021501047A JP 7067697 B2 JP7067697 B2 JP 7067697B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- area
- grayscale
- interest
- region
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000001514 detection method Methods 0.000 title claims description 90
- 239000011148 porous material Substances 0.000 claims description 310
- 238000000034 method Methods 0.000 claims description 125
- 230000008569 process Effects 0.000 claims description 53
- 230000011218 segmentation Effects 0.000 claims description 50
- 238000012545 processing Methods 0.000 claims description 38
- 238000010606 normalization Methods 0.000 claims description 27
- 238000004458 analytical method Methods 0.000 claims description 26
- 230000001815 facial effect Effects 0.000 claims description 26
- 238000005260 corrosion Methods 0.000 claims description 25
- 230000007797 corrosion Effects 0.000 claims description 25
- 206010000496 acne Diseases 0.000 claims description 23
- 238000006243 chemical reaction Methods 0.000 claims description 14
- 238000001914 filtration Methods 0.000 claims description 9
- 230000009466 transformation Effects 0.000 claims description 8
- 238000013139 quantization Methods 0.000 claims description 2
- 238000013461 design Methods 0.000 description 26
- 238000010586 diagram Methods 0.000 description 25
- 230000006870 function Effects 0.000 description 22
- 238000004891 communication Methods 0.000 description 21
- 238000007726 management method Methods 0.000 description 16
- 238000010295 mobile communication Methods 0.000 description 11
- 210000000988 bone and bone Anatomy 0.000 description 10
- 230000005236 sound signal Effects 0.000 description 10
- 238000012360 testing method Methods 0.000 description 10
- 230000003287 optical effect Effects 0.000 description 9
- 238000004590 computer program Methods 0.000 description 6
- 230000000694 effects Effects 0.000 description 6
- 238000012546 transfer Methods 0.000 description 6
- 238000005516 engineering process Methods 0.000 description 5
- 238000005286 illumination Methods 0.000 description 4
- 230000001960 triggered effect Effects 0.000 description 4
- 230000037303 wrinkles Effects 0.000 description 4
- 238000013528 artificial neural network Methods 0.000 description 3
- 238000013500 data storage Methods 0.000 description 3
- 210000001061 forehead Anatomy 0.000 description 3
- 238000003384 imaging method Methods 0.000 description 3
- 239000010985 leather Substances 0.000 description 3
- 230000033001 locomotion Effects 0.000 description 3
- 230000004044 response Effects 0.000 description 3
- 229920001621 AMOLED Polymers 0.000 description 2
- 206010005746 Blood pressure fluctuation Diseases 0.000 description 2
- 230000002159 abnormal effect Effects 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 2
- 230000003321 amplification Effects 0.000 description 2
- 238000013473 artificial intelligence Methods 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 239000003086 colorant Substances 0.000 description 2
- 239000000835 fiber Substances 0.000 description 2
- 210000003128 head Anatomy 0.000 description 2
- 230000007774 longterm Effects 0.000 description 2
- 238000003199 nucleic acid amplification method Methods 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 230000009467 reduction Effects 0.000 description 2
- 210000001260 vocal cord Anatomy 0.000 description 2
- 230000005355 Hall effect Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000003416 augmentation Effects 0.000 description 1
- 230000003796 beauty Effects 0.000 description 1
- 238000013529 biological neural network Methods 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 210000004556 brain Anatomy 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 230000001149 cognitive effect Effects 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 230000006835 compression Effects 0.000 description 1
- 238000007906 compression Methods 0.000 description 1
- 239000004020 conductor Substances 0.000 description 1
- 230000008878 coupling Effects 0.000 description 1
- 238000010168 coupling process Methods 0.000 description 1
- 238000005859 coupling reaction Methods 0.000 description 1
- 230000014509 gene expression Effects 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 238000009499 grossing Methods 0.000 description 1
- 230000003862 health status Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000001939 inductive effect Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 239000002184 metal Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 210000002569 neuron Anatomy 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 239000002096 quantum dot Substances 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 239000013589 supplement Substances 0.000 description 1
- 230000009469 supplementation Effects 0.000 description 1
- JLGLQAWTXXGVEM-UHFFFAOYSA-N triethylene glycol monomethyl ether Chemical compound COCCOCCOCCO JLGLQAWTXXGVEM-UHFFFAOYSA-N 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0012—Biomedical image inspection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/251—Fusion techniques of input or preprocessed data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/20—Image enhancement or restoration by the use of local operators
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/20—Image enhancement or restoration by the use of local operators
- G06T5/30—Erosion or dilatation, e.g. thinning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/50—Image enhancement or restoration by the use of more than one image, e.g. averaging, subtraction
-
- G06T5/70—
-
- G06T5/77—
-
- G06T5/94—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/136—Segmentation; Edge detection involving thresholding
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/28—Quantising the image, e.g. histogram thresholding for discrimination between background and foreground patterns
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/48—Extraction of image or video features by mapping characteristic values of the pattern into a parameter space, e.g. Hough transformation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/50—Extraction of image or video features by performing operations within image blocks; by using histograms, e.g. histogram of oriented gradients [HoG]; by summing image-intensity values; Projection analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/80—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
- G06V10/803—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of input or preprocessed data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
- G06V40/171—Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20024—Filtering details
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20092—Interactive image processing based on input by user
- G06T2207/20104—Interactive definition of region of interest [ROI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20212—Image combination
- G06T2207/20221—Image fusion; Image merging
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30088—Skin; Dermal
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
- G06T2207/30201—Face
Description
Wk=1―I_grayk/255
であり、I_graykは、関心のある領域の第2のグレースケール画像内のk番目のピクセルのグレースケール値を表す。
関心のある領域に対して第4のグレースケール処理を実行して、第4のグレースケール画像を取得し、第1のセグメンテーション閾値に基づいて第4のグレースケール画像内の対応するハイライト領域に対して二値化処理を実行して、ハイライト領域の二値画像を取得し、第2のセグメンテーション閾値に基づいて、第4のグレースケール画像内の対応する非ハイライト領域に対して二値化処理を実行して、非ハイライト領域の二値画像を取得するという態様で実施されてよい。
識別された毛穴の黒ずみに対応する画像を処理して、量子化された毛穴の黒ずみインジケータを取得し、量子化された毛穴の黒ずみインジケータに基づいて、関心のある領域の量子化された毛穴の黒ずみスコアを計算する。
[項目1]
肌の検出方法であって、
顔画像の関心のある領域を取得する段階と、
上記関心のある領域をハイライト領域と非ハイライト領域とに分割する段階と、
上記ハイライト領域の第1のセグメンテーション閾値及び上記非ハイライト領域の第2のセグメンテーション閾値を別々に判定する段階と、
上記第1のセグメンテーション閾値に基づいて、上記ハイライト領域の二値画像を取得し、上記第2のセグメンテーション閾値に基づいて、上記非ハイライト領域の二値画像を取得する段階と、
上記ハイライト領域の上記二値画像と上記非ハイライト領域の上記二値画像とを融合する段階と、
融合した画像に基づいて、上記関心のある領域に含まれる毛穴及び/又は毛穴の黒ずみを識別する段階と
を備える方法。
[項目2]
上記関心のある領域をハイライト領域と非ハイライト領域とに分割する上記段階は、
上記関心のある領域に対して第1のグレースケール処理を実行して、第1のグレースケール画像を取得する段階と、
上記第1のグレースケール画像に対して二値化処理を実行して、上記第1のグレースケール画像の二値画像を取得する段階と、
上記第1のグレースケール画像の上記二値画像に対して連結成分分析を実行して、少なくとも1つの第1の連結成分を取得する段階と、
上記少なくとも1つの第1の連結成分のうちの、エリアが第1の予め設定された閾値より小さい連結成分を取り除いて、上記ハイライト領域を取得する段階と
を有し、
上記関心のある領域内の上記ハイライト領域以外の領域は、上記非ハイライト領域である、項目1に記載の方法。
[項目3]
上記関心のある領域に対して第1のグレースケール処理を実行して、第1のグレースケール画像を取得する上記段階は、
上記関心のある領域に含まれるk番目のピクセルのピクセル値に、上記k番目のピクセルに対応する重み値を乗算する段階であって、上記k番目のピクセルに対応する上記重み値は、上記関心のある領域の第2のグレースケール画像内の上記k番目のピクセルの対応するグレースケール値に基づいて判定され、上記関心のある領域の上記第2のグレースケール画像は、上記関心のある領域に対してグレースケール変換を実行することにより取得され、kは、Lより小さいすべての正の整数をとり、Lは、上記関心のある領域に含まれるピクセルの数である、段階と、
上記関心のある領域に含まれる各ピクセルに対応する重み値を乗算することにより取得された画像に対してグレースケール変換を実行して、第3のグレースケール画像を取得する段階と、
上記変換を通じて取得された上記第3のグレースケール画像に対して最小-最大正規化を実行する段階と、
上記最小-最大正規化を通じて取得された上記第3のグレースケール画像に対してグレースケール反転処理を実行して、上記第1のグレースケール画像を取得する段階と
を有する、項目2に記載の方法。
[項目4]
上記第1のグレースケール画像の上記二値画像に対して連結成分分析を実行して、少なくとも1つの第1の連結成分を取得する上記段階は、
上記第1のグレースケール画像の上記二値画像に対して拡大及び/又は腐食処理を実行する段階と、
上記拡大及び/又は腐食処理を受けた上記二値画像における少なくとも1つの第1の連結成分を取得する段階と
を含む、項目2又は3に記載の方法。
[項目5]
上記ハイライト領域の第1のセグメンテーション閾値を判定する上記段階は、
上記関心のある領域に対して第4のグレースケール処理を実行して、第4のグレースケール画像を取得し、上記第4のグレースケール画像内の上記ハイライト領域に含まれるi番目のピクセルと、上記i番目のピクセルのN個の隣接するピクセルとのうちの最小のグレースケール値を取得する段階であって、iは、M1より小さい又はこれに等しいすべての正の整数をとり、M1は、上記ハイライト領域に含まれるピクセルの数であり、Nは、4の倍数に等しい、段階と、M1個の取得した最小のグレースケール値の平均値を上記第1のセグメンテーション閾値として用いる段階とを有する、項目1から4いずれか一項に記載の方法。
[項目6]
上記非ハイライト領域の第2のセグメンテーション閾値を判定する上記段階は、
上記関心のある領域に対して第4のグレースケール処理を実行して、第4のグレースケール画像を取得し、上記第4のグレースケール画像内の上記非ハイライト領域に含まれるj番目のピクセルと、上記j番目のピクセルのN個の隣接するピクセルとの最小のグレースケール値を取得する段階であって、jは、M2より小さい又はこれに等しいすべての正の整数をとり、M2は、上記非ハイライト領域に含まれるピクセルの数である、段階と、M2個の取得した最小のグレースケール値の平均値を上記第2のセグメンテーション閾値として用いる段階とを有する、項目1から4のいずれか一項に記載の方法。
[項目7]
融合した画像に基づいて、上記関心のある領域に含まれる毛穴及び/又は毛穴の黒ずみを識別する上記段階は、
上記融合した画像に対して腐食及び/又は拡大処理を実行する段階と、
上記腐食及び/又は拡大処理を受けた上記融合した画像に基づいて、上記関心のある領域に含まれる上記毛穴及び/又は上記毛穴の黒ずみを識別する段階と
を有する、項目1から6のいずれか一項に記載の方法。
[項目8]
融合した画像に基づいて、上記関心のある領域に含まれる毛穴及び/又は毛穴の黒ずみを識別する上記段階は
上記融合した画像からノーズシャドウ領域を除去する段階と、上記ノーズシャドウ領域が除去された上記融合した画像に基づいて、上記関心のある領域に含まれる上記毛穴及び/又は上記毛穴の黒ずみを判定する段階とを有する、項目1から7のいずれか一項に記載の方法。
[項目9]
上記ノーズシャドウ領域は、
上記関心のある領域に対して第4のグレースケール処理を実行して、第4のグレースケール画像を取得し、上記第4のグレースケール画像に対して二値化処理を実行して、上記第4のグレースケール画像の二値画像を取得し、
上記第4のグレースケール画像の上記二値画像に対して連結成分分析を実行して、少なくとも1つの第2の連結成分を取得し、
上記少なくとも1つの第2の連結成分の、エリアが第2の予め設定された閾値よりも小さい連結成分を取り除いて、上記ノーズシャドウ領域を取得する
方式で位置決めされる、項目8に記載の方法。
[項目10]
上記第4のグレースケール画像の上記二値画像に対して連結成分分析を実行して、少なくとも1つの第2の連結成分を取得する上記段階は、
上記第4のグレースケール画像の上記二値画像に対して拡大及び/又は腐食処理を実行する段階と、
上記第4のグレースケール画像の、上記拡大及び/又は腐食処理を受けた上記二値画像における少なくとも1つの第2の連結成分を取得する段階と
を含む、項目9に記載の方法。
[項目11]
上記関心のある領域に対して第4のグレースケール処理を実行して、第4のグレースケール画像を取得する上記段階は、
上記関心のある領域に対してグレースケール変換を実行して、上記第2のグレースケール画像を取得する段階と、
上記第2のグレースケール画像に対して最小-最大正規化を実行する段階と、
上記最小-最大正規化を受けた上記第2のグレースケール画像に対してガウス差分フィルタリングを実行して、フィルタリングされた画像を取得する段階と、
上記フィルタリングされた画像に対して最小-最大正規化を実行する段階と、
上記最小-最大正規化を受けた上記フィルタリングされた画像のヒストグラムを取得し、上記フィルタリングされた画像の上記ヒストグラムに基づいて、上記フィルタリングされた画像内の第1タイプのピクセルのグレースケール値を0に設定し、上記フィルタリングされた画像内の第2タイプのピクセルのグレースケール値を255に設定する段階と
を含み、
上記第1タイプのピクセルの上記グレースケール値は、上記フィルタリングされた画像内の他のピクセルの最小グレースケール値よりも小さい又はこれに等しく、上記フィルタリングされた画像内のピクセルの総数における上記第1タイプのピクセルの数のパーセンテージはa%であり、上記第2タイプのピクセルのグレースケール値は、上記フィルタリングされた画像内の他のピクセルの最大グレースケール値より大きい又はこれに等しく、上記フィルタリングされた画像内の上記ピクセルの総数における上記第2タイプのピクセルの数のパーセンテージはb%であり、a及びbは両方とも正の整数である、項目5、6及び9のいずれか一項に記載の方法。
[項目12]
融合した画像に基づいて、上記関心のある領域に含まれる毛穴及び/又は毛穴の黒ずみを識別する上記段階は、
上記融合した画像に含まれる少なくとも1つの第3の連結成分を取得し、それぞれの第3の連結成分に対応するパラメータを取得する段階であって、上記パラメータは、半径、円形度及び内部-外部の色バリエーション値のうちの少なくとも1つを有する、段階と、
それぞれの第3の連結成分に対応する上記パラメータに基づいて、上記第3の連結成分に対応する位置が毛穴又は毛穴の黒ずみであるかを識別する段階と
を含み、
上記円形度は、上記第3の連結成分の形状と円との間の類似度を表すために用いられ、上記内部-外部の色バリエーション値は、上記関心のある領域の位置で上記第3の連結成分に対応する内部ピクセル値と外部ピクセル値との間の差分又は割合である、項目1から11のいずれか一項に記載の方法。
[項目13]
上記方法は、さらに、
識別された毛穴に対応する画像を処理して、量子化された毛穴インジケータを取得する段階と、上記量子化された毛穴インジケータに基づいて、上記関心のある領域の量子化された毛穴スコアを計算する段階と、上記量子化された毛穴スコアを表示する段階とを備え、
上記量子化された毛穴インジケータは、毛穴エリアの割合、毛穴密度、平均の毛穴の内部-外部の色バリエーション値、及び、毛穴の内部-外部の色バリエーション値-重み付けされたエリアの割合のうちの少なくとも1つを有し、
上記毛穴エリアの割合は、上記関心のある領域のエリアに対する上記関心のある領域に含まれる毛穴の総面積の割合であり、上記毛穴密度は、上記関心のある領域の上記エリアに対する上記関心のある領域に含まれる毛穴の数の割合であり、上記平均の毛穴の内部-外部の色バリエーション値は、上記関心のある領域に含まれる上記毛穴の内部-外部の色バリエーション値の平均値であり、上記毛穴の内部-外部の色バリエーション値-重み付けされたエリアの上記割合は、上記関心のある領域に含まれる各毛穴の内部-外部の色バリエーション値を対応するエリアごとに乗算することにより取得されたすべての値を加算することにより取得された和の、上記関心のある領域の上記エリアに対する割合である、項目1から12のいずれか一項に記載の方法。
[項目14]
上記方法は、さらに、
識別された毛穴の黒ずみに対応する画像を処理して、量子化された毛穴の黒ずみインジケータを取得する段階と、上記量子化された毛穴の黒ずみインジケータに基づいて、上記関心のある領域の量子化された毛穴の黒ずみスコアを計算する段階と、上記量子化された毛穴の黒ずみスコアを表示する段階とを備え、
上記量子化された毛穴の黒ずみインジケータは、毛穴の黒ずみエリアの割合、毛穴の黒ずみの密度、平均の毛穴の黒ずみの内部-外部の色バリエーション値、及び、毛穴の黒ずみの内部-外部の色バリエーション値-重み付けされたエリアの割合のうちの少なくとも1つを有し、
上記毛穴の黒ずみエリアの割合は、上記関心のある領域の上記エリアに対する上記関心のある領域に含まれる毛穴の黒ずみの総面積の割合であり、上記毛穴の黒ずみの密度は、上記関心のある領域の上記エリアに対する上記関心のある領域に含まれる毛穴の黒ずみの数の割合であり、上記平均の毛穴の黒ずみの内部-外部の色バリエーション値は、上記関心のある領域に含まれる上記毛穴の黒ずみの内部-外部の色バリエーション値の平均値であり、上記毛穴の黒ずみの内部-外部の色バリエーション値-重み付けされたエリアの上記割合は、上記関心のある領域に含まれる各毛穴の黒ずみの内部-外部の色バリエーション値を対応するエリアごとに乗算することにより取得されたすべての値を加算することにより取得される和の、上記関心のある領域の上記エリアに対する割合である、項目1から13のいずれか一項に記載の方法。
[項目15]
プロセッサ及びメモリを備える電子デバイスであって、上記プロセッサは、上記メモリに連結されており、
上記メモリは、プログラム命令を格納するように構成され、
上記プロセッサは、上記メモリに格納されている上記プログラム命令を読み出して、本願の実施形態における項目1から14のいずれか一項に記載の方法を実施するように構成される、電子デバイス。
[項目16]
コンピュータ記憶媒体であって、上記コンピュータ記憶媒体は、プログラム命令を格納し、上記プログラム命令が電子デバイス上で動作する場合、上記電子デバイスは、項目1から14のいずれか一項に記載の方法を実行することが可能である、コンピュータ記憶媒体。
[項目17]
コンピュータプログラム製品であって、上記コンピュータプログラム製品が電子デバイスで動作する場合、上記電子デバイスは、項目1から14のいずれか一項に記載の方法を実行することが可能である、コンピュータプログラム製品。
[項目18]
チップであって、上記チップは、電子デバイス内のメモリに連結されており、上記電子デバイスが項目1から14のいずれか一項に記載の方法を実行することを可能にする、チップ。
Claims (15)
- 肌の検出方法であって、
顔画像の関心のある領域を取得する段階と、
前記関心のある領域をハイライト領域と非ハイライト領域とに分割する段階と、
前記ハイライト領域の第1のセグメンテーション閾値及び前記非ハイライト領域の第2のセグメンテーション閾値を別々に判定する段階と、
前記第1のセグメンテーション閾値に基づいて、前記ハイライト領域の二値画像を取得し、前記第2のセグメンテーション閾値に基づいて、前記非ハイライト領域の二値画像を取得する段階と、
前記ハイライト領域の前記二値画像と前記非ハイライト領域の前記二値画像とを融合する段階と、
融合した画像に基づいて、前記関心のある領域に含まれる毛穴及び/又は毛穴の黒ずみを識別する段階と
を備える方法。 - 前記関心のある領域をハイライト領域と非ハイライト領域とに分割する段階は、
前記関心のある領域に対して第1のグレースケール処理を実行して、第1のグレースケール画像を取得する段階と、
前記第1のグレースケール画像に対して二値化処理を実行して、前記第1のグレースケール画像の二値画像を取得する段階と、
前記第1のグレースケール画像の前記二値画像に対して連結成分分析を実行して、少なくとも1つの第1の連結成分を取得する段階と、
前記少なくとも1つの第1の連結成分のうちの、エリアが第1の予め設定された閾値より小さい連結成分を取り除いて、前記ハイライト領域を取得する段階と
を有し、
前記関心のある領域内の前記ハイライト領域以外の領域は、前記非ハイライト領域である、請求項1に記載の方法。 - 前記関心のある領域に対して第1のグレースケール処理を実行して、第1のグレースケール画像を取得する前記段階は、
前記関心のある領域に含まれるk番目のピクセルのピクセル値に、前記k番目のピクセルに対応する重み値を乗算する段階であって、前記k番目のピクセルに対応する前記重み値は、前記関心のある領域の第2のグレースケール画像内の前記k番目のピクセルの対応するグレースケール値に基づいて判定され、前記関心のある領域の前記第2のグレースケール画像は、前記関心のある領域に対してグレースケール変換を実行することにより取得され、kは、Lより小さいすべての正の整数をとり、Lは、前記関心のある領域に含まれるピクセルの数である、段階と、
前記関心のある領域に含まれる各ピクセルに対応する重み値を乗算することにより取得された画像に対してグレースケール変換を実行して、第3のグレースケール画像を取得する段階と、
前記グレースケール変換を通じて取得された前記第3のグレースケール画像に対して最小-最大正規化を実行する段階と、
前記最小-最大正規化を通じて取得された前記第3のグレースケール画像に対してグレースケール反転処理を実行して、前記第1のグレースケール画像を取得する段階と
を有する、請求項2に記載の方法。 - 前記第1のグレースケール画像の前記二値画像に対して連結成分分析を実行して、少なくとも1つの第1の連結成分を取得する前記段階は、
前記第1のグレースケール画像の前記二値画像に対して拡大及び/又は腐食処理を実行する段階と、
前記拡大及び/又は腐食処理を受けた前記二値画像における少なくとも1つの第1の連結成分を取得する段階と
を含む、請求項2又は3に記載の方法。 - 前記ハイライト領域の第1のセグメンテーション閾値を判定する前記段階は、
前記関心のある領域に対して第4のグレースケール処理を実行して、第4のグレースケール画像を取得し、前記第4のグレースケール画像内の前記ハイライト領域に含まれるi番目のピクセルと、前記i番目のピクセルのN個の隣接するピクセルとのうちの最小のグレースケール値を取得する段階であって、iは、M1より小さい又はこれに等しいすべての正の整数をとり、M1は、前記ハイライト領域に含まれるピクセルの数であり、Nは、4の倍数に等しい、段階と、M1個の取得した最小のグレースケール値の平均値を前記第1のセグメンテーション閾値として用いる段階とを有する、請求項1から4いずれか一項に記載の方法。 - 前記非ハイライト領域の第2のセグメンテーション閾値を判定する前記段階は、
前記関心のある領域に対して第4のグレースケール処理を実行して、第4のグレースケール画像を取得し、前記第4のグレースケール画像内の前記非ハイライト領域に含まれるj番目のピクセルと、前記j番目のピクセルのN個の隣接するピクセルとの最小のグレースケール値を取得する段階であって、jは、M2より小さい又はこれに等しいすべての正の整数をとり、M2は、前記非ハイライト領域に含まれるピクセルの数である、段階と、M2個の取得した最小のグレースケール値の平均値を前記第2のセグメンテーション閾値として用いる段階とを有する、請求項1から4のいずれか一項に記載の方法。 - 融合した画像に基づいて、前記関心のある領域に含まれる毛穴及び/又は毛穴の黒ずみを識別する前記段階は、
前記融合した画像に対して腐食及び/又は拡大処理を実行する段階と、
前記腐食及び/又は拡大処理を受けた前記融合した画像に基づいて、前記関心のある領域に含まれる前記毛穴及び/又は前記毛穴の黒ずみを識別する段階と
を有する、請求項1から6のいずれか一項に記載の方法。 - 融合した画像に基づいて、前記関心のある領域に含まれる毛穴及び/又は毛穴の黒ずみを識別する前記段階は
前記融合した画像からノーズシャドウ領域を除去する段階と、前記ノーズシャドウ領域が除去された前記融合した画像に基づいて、前記関心のある領域に含まれる前記毛穴及び/又は前記毛穴の黒ずみを判定する段階とを有する、請求項1から7のいずれか一項に記載の方法。 - 前記ノーズシャドウ領域は、
前記関心のある領域に対して第4のグレースケール処理を実行して、第4のグレースケール画像を取得し、前記第4のグレースケール画像に対して二値化処理を実行して、前記第4のグレースケール画像の二値画像を取得し、
前記第4のグレースケール画像の前記二値画像に対して連結成分分析を実行して、少なくとも1つの第2の連結成分を取得し、
前記少なくとも1つの第2の連結成分の、エリアが第2の予め設定された閾値よりも小さい連結成分を取り除いて、前記ノーズシャドウ領域を取得する
方式で位置決めされる、請求項8に記載の方法。 - 前記第4のグレースケール画像の前記二値画像に対して連結成分分析を実行して、少なくとも1つの第2の連結成分を取得する前記段階は、
前記第4のグレースケール画像の前記二値画像に対して拡大及び/又は腐食処理を実行する段階と、
前記第4のグレースケール画像の、前記拡大及び/又は腐食処理を受けた前記二値画像における少なくとも1つの第2の連結成分を取得する段階と
を含む、請求項9に記載の方法。 - 前記関心のある領域に対して第4のグレースケール処理を実行して、第4のグレースケール画像を取得する前記段階は、
前記関心のある領域に対してグレースケール変換を実行して、第2のグレースケール画像を取得する段階と、
前記第2のグレースケール画像に対して最小-最大正規化を実行する段階と、
前記最小-最大正規化を受けた前記第2のグレースケール画像に対してガウス差分フィルタリングを実行して、フィルタリングされた画像を取得する段階と、
前記フィルタリングされた画像に対して最小-最大正規化を実行する段階と、
前記最小-最大正規化を受けた前記フィルタリングされた画像のヒストグラムを取得し、前記フィルタリングされた画像の前記ヒストグラムに基づいて、前記フィルタリングされた画像内の第1タイプのピクセルのグレースケール値を0に設定し、前記フィルタリングされた画像内の第2タイプのピクセルのグレースケール値を255に設定する段階と
を含み、
前記第1タイプのピクセルの前記グレースケール値は、前記フィルタリングされた画像内の他のピクセルの最小グレースケール値よりも小さい又はこれに等しく、前記フィルタリングされた画像内のピクセルの総数における前記第1タイプのピクセルの数のパーセンテージはa%であり、前記第2タイプのピクセルのグレースケール値は、前記フィルタリングされた画像内の他のピクセルの最大グレースケール値より大きい又はこれに等しく、前記フィルタリングされた画像内の前記ピクセルの総数における前記第2タイプのピクセルの数のパーセンテージはb%であり、a及びbは両方とも正の整数である、請求項5、6及び9のいずれか一項に記載の方法。 - 融合した画像に基づいて、前記関心のある領域に含まれる毛穴及び/又は毛穴の黒ずみを識別する前記段階は、
前記融合した画像に含まれる少なくとも1つの第3の連結成分を取得し、それぞれの第3の連結成分に対応するパラメータを取得する段階であって、前記パラメータは、半径、円形度及び内部-外部の色バリエーション値のうちの少なくとも1つを有する、段階と、
それぞれの第3の連結成分に対応する前記パラメータに基づいて、前記第3の連結成分に対応する位置が毛穴又は毛穴の黒ずみであるかを識別する段階と
を含み、
前記円形度は、前記第3の連結成分の形状と円との間の類似度を表すために用いられ、前記内部-外部の色バリエーション値は、前記関心のある領域の位置で前記第3の連結成分に対応する内部ピクセル値と外部ピクセル値との間の差分又は割合である、請求項1から11のいずれか一項に記載の方法。 - 前記方法は、さらに、
識別された毛穴に対応する画像を処理して、量子化された毛穴インジケータを取得する段階と、前記量子化された毛穴インジケータに基づいて、前記関心のある領域の量子化された毛穴スコアを計算する段階と、前記量子化された毛穴スコアを表示する段階とを備え、
前記量子化された毛穴インジケータは、毛穴エリアの割合、毛穴密度、平均の毛穴の内部-外部の色バリエーション値、及び、毛穴の内部-外部の色バリエーション値-重み付けされたエリアの割合のうちの少なくとも1つを有し、
前記毛穴エリアの割合は、前記関心のある領域のエリアに対する前記関心のある領域に含まれる毛穴の総面積の割合であり、前記毛穴密度は、前記関心のある領域の前記エリアに対する前記関心のある領域に含まれる毛穴の数の割合であり、前記平均の毛穴の内部-外部の色バリエーション値は、前記関心のある領域に含まれる前記毛穴の内部-外部の色バリエーション値の平均値であり、前記毛穴の内部-外部の色バリエーション値-重み付けされたエリアの前記割合は、前記関心のある領域に含まれる各毛穴の内部-外部の色バリエーション値を対応するエリアごとに乗算することにより取得されたすべての値を加算することにより取得された和の、前記関心のある領域の前記エリアに対する割合である、請求項1から12のいずれか一項に記載の方法。 - 前記方法は、さらに、
識別された毛穴の黒ずみに対応する画像を処理して、量子化された毛穴の黒ずみインジケータを取得する段階と、前記量子化された毛穴の黒ずみインジケータに基づいて、前記関心のある領域の量子化された毛穴の黒ずみスコアを計算する段階と、前記量子化された毛穴の黒ずみスコアを表示する段階とを備え、
前記量子化された毛穴の黒ずみインジケータは、毛穴の黒ずみエリアの割合、毛穴の黒ずみの密度、平均の毛穴の黒ずみの内部-外部の色バリエーション値、及び、毛穴の黒ずみの内部-外部の色バリエーション値-重み付けされたエリアの割合のうちの少なくとも1つを有し、
前記毛穴の黒ずみエリアの割合は、前記関心のある領域の前記エリアに対する前記関心のある領域に含まれる毛穴の黒ずみの総面積の割合であり、前記毛穴の黒ずみの密度は、前記関心のある領域の前記エリアに対する前記関心のある領域に含まれる毛穴の黒ずみの数の割合であり、前記平均の毛穴の黒ずみの内部-外部の色バリエーション値は、前記関心のある領域に含まれる前記毛穴の黒ずみの内部-外部の色バリエーション値の平均値であり、前記毛穴の黒ずみの内部-外部の色バリエーション値-重み付けされたエリアの前記割合は、前記関心のある領域に含まれる各毛穴の黒ずみの内部-外部の色バリエーション値を対応するエリアごとに乗算することにより取得されたすべての値を加算することにより取得される和の、前記関心のある領域の前記エリアに対する割合である、請求項1から13のいずれか一項に記載の方法。 - プロセッサ及びメモリを備える電子デバイスであって、前記プロセッサは、前記メモリに連結されており、
前記メモリは、プログラム命令を格納するように構成され、
前記プロセッサは、前記メモリに格納されている前記プログラム命令を読み出して、請求項1から14のいずれか一項に記載の方法を実施するように構成される、電子デバイス。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810775975.X | 2018-07-16 | ||
CN201810775975 | 2018-07-16 | ||
PCT/CN2018/106232 WO2020015147A1 (zh) | 2018-07-16 | 2018-09-18 | 一种皮肤检测方法和电子设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021532461A JP2021532461A (ja) | 2021-11-25 |
JP7067697B2 true JP7067697B2 (ja) | 2022-05-16 |
Family
ID=69164999
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021501047A Active JP7067697B2 (ja) | 2018-07-16 | 2018-09-18 | 肌の検出方法及び電子デバイス |
Country Status (5)
Country | Link |
---|---|
US (1) | US11798162B2 (ja) |
EP (1) | EP3816932B1 (ja) |
JP (1) | JP7067697B2 (ja) |
CN (2) | CN111542856A (ja) |
WO (1) | WO2020015147A1 (ja) |
Families Citing this family (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018534703A (ja) * | 2015-09-10 | 2018-11-22 | エスワイエヌシー−アールエックス、リミテッド | 自動画像特徴除去 |
US11798162B2 (en) * | 2018-07-16 | 2023-10-24 | Honor Device Co., Ltd. | Skin detection method and electronic device |
CN112274110B (zh) * | 2020-10-10 | 2023-06-16 | 苏州万微光电科技有限公司 | 一种基于皮肤荧光图像的毛孔检测系统、装置及方法 |
CN112749708B (zh) * | 2021-01-28 | 2024-04-23 | 深圳艾摩米智能科技有限公司 | 面部雀斑检测分析方法、装置、计算机设备及存储介质 |
CN114468989B (zh) * | 2021-02-11 | 2022-11-25 | 先阳科技有限公司 | 组织成分测量方法、装置及可穿戴设备 |
CN113012162A (zh) * | 2021-03-08 | 2021-06-22 | 重庆金山医疗器械有限公司 | 一种内窥镜检查区域的清洁度检测方法、装置及相关设备 |
CN113447727B (zh) * | 2021-06-30 | 2022-12-09 | 武汉理工光科股份有限公司 | 基于光纤测振系统的油气管道上方雷电定位方法及装置 |
CN113786179A (zh) * | 2021-09-27 | 2021-12-14 | 北方工业大学 | 红外与光学图像融合的人体血压实时测量方法及装置 |
US20230196579A1 (en) * | 2021-12-16 | 2023-06-22 | The Gillette Company Llc | Digital imaging systems and methods of analyzing pixel data of an image of a skin area of a user for determining skin pore size |
CN115330878B (zh) * | 2022-10-18 | 2023-01-24 | 山东特联信息科技有限公司 | 一种罐车罐口视觉定位方法 |
CN117094993B (zh) * | 2023-10-18 | 2024-03-26 | 山东聚亨源环保科技有限公司 | 一种污水处理过程中沉淀检测方法 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001054013A (ja) | 1999-08-13 | 2001-02-23 | Fuji Photo Film Co Ltd | 撮像信号処理装置およびその処理方法 |
US20070236567A1 (en) | 2006-04-06 | 2007-10-11 | Eastman Kodak Company | Camera and method with additional evaluation image capture based on scene brightness changes |
CN106469302A (zh) | 2016-09-07 | 2017-03-01 | 成都知识视觉科技有限公司 | 一种基于人工神经网络的人脸肤质检测方法 |
CN107424167A (zh) | 2017-04-20 | 2017-12-01 | 深圳可思美科技有限公司 | 一种毛孔定位识别的方法和装置 |
Family Cites Families (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CA2985955C (en) | 2005-08-12 | 2020-07-07 | Tcms Transparent Beauty Llc | System and method for medical monitoring and treatment through cosmetic monitoring and treatment |
US9053524B2 (en) * | 2008-07-30 | 2015-06-09 | Fotonation Limited | Eye beautification under inaccurate localization |
US8520089B2 (en) * | 2008-07-30 | 2013-08-27 | DigitalOptics Corporation Europe Limited | Eye beautification |
US9317970B2 (en) * | 2010-01-18 | 2016-04-19 | Disney Enterprises, Inc. | Coupled reconstruction of hair and skin |
US8787663B2 (en) | 2010-03-01 | 2014-07-22 | Primesense Ltd. | Tracking body parts by combined color image and depth processing |
US9704057B1 (en) * | 2014-03-03 | 2017-07-11 | Accusoft Corporation | Methods and apparatus relating to image binarization |
CN105513036B (zh) * | 2014-09-26 | 2019-05-31 | 上海联影医疗科技有限公司 | 三维ct图像的分割方法及装置 |
CN104299011A (zh) * | 2014-10-13 | 2015-01-21 | 吴亮 | 一种基于人脸图像识别的肤质与皮肤问题识别检测方法 |
CN104586364B (zh) * | 2015-01-19 | 2019-07-09 | 武汉理工大学 | 一种肤质检测系统及方法 |
US10127672B2 (en) * | 2015-10-12 | 2018-11-13 | International Business Machines Corporation | Separation of foreground and background in medical images |
US10255484B2 (en) * | 2016-03-21 | 2019-04-09 | The Procter & Gamble Company | Method and system for assessing facial skin health from a mobile selfie image |
CN106529429B (zh) * | 2016-10-27 | 2019-08-16 | 中国计量大学 | 一种基于图像识别的面部皮肤分析系统 |
CN106650728B (zh) * | 2016-12-09 | 2019-06-21 | 浙江浩腾电子科技股份有限公司 | 一种阴影车牌图像二值化方法 |
CN106983493B (zh) * | 2017-03-04 | 2020-08-18 | 武汉嫦娥医学抗衰机器人股份有限公司 | 一种基于三光谱的皮肤图像处理方法 |
CN107392858B (zh) | 2017-06-16 | 2020-09-29 | Oppo广东移动通信有限公司 | 图像高光区域处理方法、装置和终端设备 |
CN108154510A (zh) * | 2018-01-17 | 2018-06-12 | 深圳市亿图视觉自动化技术有限公司 | 产品表面缺陷检测方法、装置及计算机可读存储介质 |
US11798162B2 (en) * | 2018-07-16 | 2023-10-24 | Honor Device Co., Ltd. | Skin detection method and electronic device |
WO2020041030A1 (en) * | 2018-08-21 | 2020-02-27 | The Procter & Gamble Company | Methods for identifying pore color |
CN111199171B (zh) * | 2018-11-19 | 2022-09-23 | 荣耀终端有限公司 | 一种皱纹检测方法和终端设备 |
WO2021226414A1 (en) * | 2020-05-08 | 2021-11-11 | The Procter & Gamble Company | Methods for identifying dendritic pores |
-
2018
- 2018-09-18 US US17/260,875 patent/US11798162B2/en active Active
- 2018-09-18 CN CN201880085343.9A patent/CN111542856A/zh active Pending
- 2018-09-18 EP EP18926606.7A patent/EP3816932B1/en active Active
- 2018-09-18 WO PCT/CN2018/106232 patent/WO2020015147A1/zh unknown
- 2018-09-18 CN CN202010962721.6A patent/CN112215802B/zh active Active
- 2018-09-18 JP JP2021501047A patent/JP7067697B2/ja active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001054013A (ja) | 1999-08-13 | 2001-02-23 | Fuji Photo Film Co Ltd | 撮像信号処理装置およびその処理方法 |
US20070236567A1 (en) | 2006-04-06 | 2007-10-11 | Eastman Kodak Company | Camera and method with additional evaluation image capture based on scene brightness changes |
CN106469302A (zh) | 2016-09-07 | 2017-03-01 | 成都知识视觉科技有限公司 | 一种基于人工神经网络的人脸肤质检测方法 |
CN107424167A (zh) | 2017-04-20 | 2017-12-01 | 深圳可思美科技有限公司 | 一种毛孔定位识别的方法和装置 |
Also Published As
Publication number | Publication date |
---|---|
US20210279445A1 (en) | 2021-09-09 |
JP2021532461A (ja) | 2021-11-25 |
CN112215802B (zh) | 2022-04-08 |
EP3816932B1 (en) | 2022-06-15 |
US11798162B2 (en) | 2023-10-24 |
CN111542856A (zh) | 2020-08-14 |
CN112215802A (zh) | 2021-01-12 |
EP3816932A4 (en) | 2021-08-11 |
WO2020015147A1 (zh) | 2020-01-23 |
EP3816932A1 (en) | 2021-05-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7067697B2 (ja) | 肌の検出方法及び電子デバイス | |
KR102548317B1 (ko) | 색소 검출 방법 및 전자 장치 | |
CN111543049B (zh) | 一种拍照方法及电子设备 | |
CN113542580B (zh) | 去除眼镜光斑的方法、装置及电子设备 | |
CN111566693B (zh) | 一种皱纹检测方法及电子设备 | |
CN111417982B (zh) | 一种色斑检测方法及电子设备 | |
WO2021052436A1 (zh) | 一种皮肤粗糙度检测方法及电子设备 | |
CN111557007B (zh) | 一种检测眼睛睁闭状态的方法及电子设备 | |
CN113391735A (zh) | 显示形态的调整方法、装置、电子设备及存储介质 | |
CN117726543A (zh) | 图像处理方法和装置 | |
CN117710695A (zh) | 图像数据的处理方法及电子设备 | |
CN113129220A (zh) | 图像处理方法及电子设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210222 |
|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A711 Effective date: 20210525 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220329 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220414 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7067697 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |