JP7067697B2 - 肌の検出方法及び電子デバイス - Google Patents

肌の検出方法及び電子デバイス Download PDF

Info

Publication number
JP7067697B2
JP7067697B2 JP2021501047A JP2021501047A JP7067697B2 JP 7067697 B2 JP7067697 B2 JP 7067697B2 JP 2021501047 A JP2021501047 A JP 2021501047A JP 2021501047 A JP2021501047 A JP 2021501047A JP 7067697 B2 JP7067697 B2 JP 7067697B2
Authority
JP
Japan
Prior art keywords
image
area
grayscale
interest
region
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021501047A
Other languages
English (en)
Other versions
JP2021532461A (ja
Inventor
ディン、シン
ドン、チェン
フー、ホンウェイ
ジアン、ヨンタオ
ガオ、ウェンメイ
Original Assignee
オナー デバイス カンパニー リミテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by オナー デバイス カンパニー リミテッド filed Critical オナー デバイス カンパニー リミテッド
Publication of JP2021532461A publication Critical patent/JP2021532461A/ja
Application granted granted Critical
Publication of JP7067697B2 publication Critical patent/JP7067697B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/251Fusion techniques of input or preprocessed data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/20Image enhancement or restoration by the use of local operators
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/20Image enhancement or restoration by the use of local operators
    • G06T5/30Erosion or dilatation, e.g. thinning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration by the use of more than one image, e.g. averaging, subtraction
    • G06T5/70
    • G06T5/77
    • G06T5/94
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/136Segmentation; Edge detection involving thresholding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/28Quantising the image, e.g. histogram thresholding for discrimination between background and foreground patterns
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/48Extraction of image or video features by mapping characteristic values of the pattern into a parameter space, e.g. Hough transformation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/50Extraction of image or video features by performing operations within image blocks; by using histograms, e.g. histogram of oriented gradients [HoG]; by summing image-intensity values; Projection analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • G06V10/803Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of input or preprocessed data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/171Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20024Filtering details
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20092Interactive image processing based on input by user
    • G06T2207/20104Interactive definition of region of interest [ROI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30088Skin; Dermal
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face

Description

本願は、2018年7月16日に中国特許庁に出願され、「肌の検出方法及び装置」と題する中国特許出願第201810775975.X号に対する優先権を主張し、その全体が参照により本明細書に組み込まれる。
本願は、画像処理技術の分野、特に、肌の検出方法及び電子デバイスに関する。
顔の肌状態の客観的な検出及び評価は、成長が著しい美容及び肌ケア市場において重要な役割を果たしている。現在のところ、顔の肌状態は、通常、専門の検出デバイスを用いることにより顔画像を分析することで検出及び評価される。専門の検出デバイスは、比較的高価であり、通常、専門の組織により用いられており、一般の人々に適していない。
今日では、モバイル端末の向上した撮像機能のおかげで、モバイル端末ベースの肌検出が可能となり、その結果、一般の人々が、モバイル端末を用いることにより肌の状態を検出できる。
顔検出は、毛穴の黒ずみの検出及び毛穴の検出を含む。現在のところ、毛穴の黒ずみ及び毛穴を検出するためにモバイル端末が用いられる場合、用いられる検出方式は、撮像した顔画像を特定の色空間に変換し、次に、閾値ベースのグローバルセグメンテーションを実行し、連結成分分析を実行して、特定のサイズに一致する特徴を検出結果として選択する。撮像した顔画像は、照明条件などの撮影環境因子による影響を受けやすい。そのため、適切なグローバル閾値を取得することが比較的難しい。これは、セグメンテーション結果にさらに影響を与え、検出結果に比較的大きな誤差が生じてしまう。
本願の実施形態は、照明条件に起因して、検出結果に比較的大きな誤差がある既存の問題を解決するために、肌の検出方法及び電子デバイスを提供する。
第1態様によれば、本願の実施形態は、肌の検出方法を提供し、方法は、顔画像の関心のある領域を取得する段階と、関心のある領域をハイライト領域と非ハイライト領域とに分割する段階と、ハイライト領域の第1のセグメンテーション閾値及び非ハイライト領域の第2のセグメンテーション閾値を別々に判定する段階と、第1のセグメンテーション閾値に基づいて、ハイライト領域の二値画像を取得し、第2のセグメンテーション閾値に基づいて、非ハイライト領域の二値画像を取得する段階と、ハイライト領域の二値画像と非ハイライト領域の二値画像とを融合する段階と、融合した画像に基づいて、関心のある領域に含まれる毛穴及び/又は毛穴の黒ずみを識別する段階とを含む。
本願の本実施形態において提供される解決手段によれば、関心のある領域は、顔の照明条件に基づいて、2つの領域に分割され、2つの領域に対応するセグメンテーション閾値がそれぞれ判定される。これにより、画像に対して1つのグローバル閾値しか用いられていない解決手段と比較して、検出精度を向上させる。
第1態様の可能な設計において、関心のある領域をハイライト領域と非ハイライト領域とに分割する段階は、関心のある領域に対して第1のグレースケール処理を実行して、第1のグレースケール画像を取得する段階と、第1のグレースケール画像に対して二値化処理を実行して、第1のグレースケール画像の二値画像を取得する段階と、第1のグレースケール画像の二値画像に対して連結成分分析を実行して、少なくとも1つの第1の連結成分を取得する段階と、少なくとも1つの第1の連結成分のうちの、エリアが第1の予め設定された閾値より小さい連結成分を取り除いて、ハイライト領域を取得する段階であって、関心のある領域内のハイライト領域以外の領域は非ハイライト領域である、段階とを含む。
上述した設計は、ハイライト領域及び非ハイライト領域を位置決めするためのシンプルな方式を提供する。
第1態様の可能な設計において、関心のある領域に対して第1のグレースケール処理を実行して、第1のグレースケール画像を取得する段階は、関心のある領域に含まれるk番目のピクセルのピクセル値にk番目のピクセルに対応する重み値を乗算する段階であって、k番目のピクセルに対応する重み値は、関心のある領域の第2のグレースケール画像内のk番目のピクセルの対応するグレースケール値に基づいて判定され、関心のある領域の第2のグレースケール画像は、関心のある領域に対してグレースケール変換を実行することにより取得され、kは、Lより小さいすべての正の整数をとり、Lは、関心のある領域に含まれるピクセルの数である、段階と、関心のある領域に含まれる各ピクセルに対応する重み値を乗算することにより取得された画像に対してグレースケール変換を実行して、第3のグレースケール画像を取得する段階と、変換を通じて取得した第3のグレースケール画像に対して最小-最大正規化を実行し、最小-最大正規化を通じて取得した第3のグレースケール画像に対してグレースケール反転処理を実行して、第1のグレースケール画像を取得する段階とを含む。
上述の設計によれば、グレースケール処理は、ハイライト領域の輪郭を描くので、その結果、ハイライト領域と非ハイライト領域との間の差異の程度が大きくなり、それにより、毛穴又は毛穴の黒ずみを検出する際の精度をさらに向上させる。
第1態様の可能な設計において、第1のグレースケール画像の二値画像に対して連結成分分析を実行して、少なくとも1つの第1の連結成分を取得する段階は、第1のグレースケール画像の二値画像に対して拡大及び/又は腐食処理を実行して、拡大及び/又は腐食処理を受けた二値画像における少なくとも1つの第1の連結成分を取得する段階を含む。
上述の設計によれば、グレースケール画像の二値画像に対して、拡大及び/又は腐食処理が実行され、それにより、それぞれの第1の連結成分の境界を平滑化する。
第1態様の可能な設計において、ハイライト領域の第1のセグメンテーション閾値を判定する段階は、関心のある領域に対して第4のグレースケール処理を実行して、第4のグレースケール画像を取得する段階と、第4のグレースケール画像内のハイライト領域に含まれるi番目のピクセル及びi番目のピクセルのN個の隣接するピクセルの最小のグレースケール値を取得する段階であって、iは、M1より小さい又はこれに等しいすべての正の整数をとり、M1は、ハイライト領域に含まれるピクセルの数であり、Nは、4の倍数に等しい、段階と、M1個の取得した最小のグレースケール値の平均値を第1のセグメンテーション閾値として用いる段階とを含む。
上述の設計によれば、ハイライト領域の第1のセグメンテーション閾値が判定される。これは、毛穴又は毛穴の黒ずみを検出する際の精度を向上させることに寄与する。
第1態様の可能な設計において、非ハイライト領域の第2のセグメンテーション閾値を判定する段階は、関心のある領域に対して第4のグレースケール処理を実行して、第4のグレースケール画像を取得し、第4のグレースケール画像の非ハイライト領域に含まれるj番目のピクセル及びj番目のピクセルのN個の隣接するピクセルの最小のグレースケール値を取得する段階であって、jは、M2より小さい又はこれに等しいすべての正の整数をとり、M2は、非ハイライト領域に含まれるピクセルの数である、段階と、M2個の取得した最小のグレースケール値の平均値を第2のセグメンテーション閾値として用いる段階とを含む。
上述の設計によれば、非ハイライト領域の第1のセグメンテーション閾値が判定される。これは、毛穴又は毛穴の黒ずみを検出する際の精度を向上させることに寄与する。
第1態様の可能な設計において、融合した画像に基づいて、関心のある領域に含まれる毛穴及び/又は毛穴の黒ずみを識別する段階は、融合した画像に対して腐食及び/又は拡大処理を実行する段階と、腐食及び/又は拡大処理を受けた融合した画像に基づいて、関心のある領域に含まれる毛穴及び/又は毛穴の黒ずみを識別する段階とを含む。
上述の設計によれば、融合した画像に対して腐食及び/又は拡大処理を実行することにより、融合した画像を平滑化できる。
第1態様の可能な設計において、融合した画像に基づいて、関心のある領域に含まれる毛穴及び/又は毛穴の黒ずみを識別する段階は、融合した画像からノーズシャドウ領域を除去する段階と、ノーズシャドウ領域が除去される融合した画像に基づいて、関心のある領域に含まれる毛穴及び/又は毛穴の黒ずみを判定する段階とを含む。
第1態様の可能な設計において、ノーズシャドウ領域は、関心のある領域に対して第4のグレースケール処理を実行して、第4のグレースケール画像を取得し、第4のグレースケール画像に対して二値化処理を実行して、第4のグレースケール画像の二値画像を取得し、第4のグレースケール画像の二値画像に対して連結成分分析を実行して、少なくとも1つの第2の連結成分を取得し、少なくとも1つの第2の連結成分のうちの、エリアが第2の予め設定された閾値よりも小さい連結成分を取り除いて、ノーズシャドウ領域を取得する方式で位置決めされる。
ノーズシャドウ領域における毛穴又は毛穴の黒ずみの誤検出が頻繁に発生する。そのため、上述の設計によれば、ノーズシャドウ領域が位置決めされ、毛穴の黒ずみ及び毛穴が判定される前に、ノーズシャドウ領域は関心のある領域から除去され、それにより、誤検出の割合を下げる。
第1態様の可能な設計において、第4のグレースケール画像の二値画像に対して連結成分分析を実行して、少なくとも1つの第2の連結成分を取得する段階は、第4のグレースケール画像の二値画像に対して拡大及び/又は腐食処理を実行して、第4のグレースケール画像の、拡大及び/又は腐食処理を受けた二値画像における少なくとも1つの第2の連結成分を取得する段階を含む。
第1態様の可能な設計において、関心のある領域に対して第4のグレースケール処理を実行して、第4のグレースケール画像を取得する段階は、関心のある領域に対してグレースケール変換を実行して、第2のグレースケール画像を取得する段階と、第2のグレースケール画像に対して最小-最大正規化を実行する段階と、最小-最大正規化を受けた第2のグレースケール画像に対してガウス差分フィルタリングを実行して、フィルタリングされた画像を取得する段階と、フィルタリングされた画像に対して最小-最大正規化を実行する段階と、最小-最大正規化を受けたフィルタリングされた画像のヒストグラムを取得し、フィルタリングされた画像のヒストグラムに基づいて、フィルタリングされた画像における第1タイプのピクセルのグレースケール値を0に設定する段階と、フィルタリングされた画像における第2タイプのピクセルのグレースケール値を255に設定する段階であって、第1タイプのピクセルのグレースケール値は、フィルタリングされた画像における他のピクセルの最小グレースケール値よりも小さい又はこれに等しく、フィルタリングされた画像内のピクセルの総数における第1タイプのピクセルの数のパーセンテージはa%であり、第2タイプのピクセルのグレースケール値は、フィルタリングされた画像における他のピクセルの最大グレースケール値より大きい又はこれに等しく、フィルタリングされた画像内のピクセルの総数における第2タイプのピクセルの数のパーセンテージはb%であり、a及びbは両方とも正の整数である、段階とを含む。これは、毛穴の黒ずみ又は毛穴を検出する際の精度を向上させることに寄与する。
第1態様の可能な設計において、融合した画像に基づいて、関心のある領域に含まれる毛穴及び/又は毛穴の黒ずみを識別する段階は、融合した画像に含まれる少なくとも1つの第3の連結成分を取得し、それぞれの第3の連結成分に対応するパラメータを取得する段階であって、パラメータは、半径、円形度及び内部-外部の色バリエーション値のうちの少なくとも1つを含む、段階と、それぞれの第3の連結成分に対応するパラメータに基づいて、第3の連結成分に対応する位置が毛穴又は毛穴の黒ずみであるかを識別する段階であって、円形度は、第3の連結成分の形状と円との間の類似度を表すために用いられ、内部-外部の色バリエーション値は、関心のある領域の位置における第3の連結成分に対応する内部ピクセル値と外部ピクセル値との間の差分又は割合である、段階とを含む。これは、毛穴の黒ずみ又は毛穴を検出する際の精度を向上させることに寄与する。
第1態様の可能な設計において、方法は、さらに、識別された毛穴に対応する画像を処理して、量子化された毛穴インジケータを取得する段階と、量子化された毛穴インジケータに基づいて、関心のある領域の量子化された毛穴スコアを計算する段階と、量子化された毛穴スコアを表示する段階とを含み、量子化された毛穴インジケータは、毛穴エリアの割合、毛穴密度、平均の毛穴の内部-外部の色バリエーション値、及び、毛穴の内部-外部の色バリエーション値-重み付けされたエリアの割合うちの少なくとも1つを含み、毛穴エリアの割合は、関心のある領域のエリアに対する関心のある領域に含まれる毛穴の総面積の割合であり、毛穴密度は、関心のある領域のエリアに対する関心のある領域に含まれる毛穴の数の割合であり、平均の毛穴の内部-外部の色バリエーション値は、関心のある領域に含まれる毛穴の内部-外部の色バリエーション値の平均値であり、毛穴の内部-外部の色バリエーション値-重み付けされたエリアの割合は、関心のある領域に含まれる各毛穴の内部-外部の色バリエーション値を対応するエリアで乗算することにより取得されるすべての値を加算することにより取得される和の、関心のある領域のエリアに対する割合である。
第1態様の可能な設計において、方法はさらに、識別された毛穴の黒ずみに対応する画像を処理して、量子化された毛穴の黒ずみインジケータを取得する段階と、量子化された毛穴の黒ずみインジケータに基づいて、関心のある領域の量子化された毛穴の黒ずみスコアを計算する段階と、量子化された毛穴の黒ずみスコアを表示する段階であって、量子化された毛穴の黒ずみインジケータは、毛穴の黒ずみエリアの割合、毛穴の黒ずみの密度、平均の毛穴の黒ずみの内部-外部の色バリエーション値、及び、毛穴の黒ずみの内部-外部の色バリエーション値-重み付けされたエリアの割合のうちの少なくとも1つを含む、段階と、毛穴の黒ずみエリアの割合は、関心のある領域のエリアに対する関心のある領域に含まれる毛穴の黒ずみの総面積の割合であり、毛穴の黒ずみの密度は、関心のある領域のエリアに対する関心のある領域に含まれる毛穴の黒ずみの数の割合であり、平均の毛穴の黒ずみの内部-外部の色バリエーション値は、関心のある領域に含まれる毛穴の黒ずみの内部-外部の色バリエーション値の平均値であり、毛穴の黒ずみの内部-外部の色バリエーション値-重み付けされたエリアの割合は、関心のある領域に含まれる各毛穴の黒ずみの内部-外部の色バリエーション値に対応するエリアを乗算することにより取得されるすべての値を加算することにより取得された和の、関心のある領域のエリアに対する割合である、段階とを含む。
量子化されたスコアは、複数の次元のインジケータを用いることにより判定される。これは、エリアのみを用いることにより量子化されたスコアを計算する既存の方法と比べて、より専門的で科学的である。
第1態様と同じ発明の概念に基づいて、第2態様によれば、本願の実施形態は、第1態様又は第1態様の設計のうちのいずれか1つに係る方法を実行するためのユニットを含む肌検出装置を提供する。
第3態様によれば、本願の実施形態は、プロセッサ及びメモリを含む電子デバイスを提供する。プロセッサは、メモリに連結され、メモリは、プログラム命令を格納するように構成され、プロセッサは、メモリに格納されたプログラム命令を読み出して、第1態様又は第1態様の可能な設計のうちのいずれか1つに係る方法を実施するように構成される。
第4態様によれば、本願の実施形態は、コンピュータ記憶媒体を提供する。コンピュータ記憶媒体は、プログラム命令を格納する。プログラム命令が電子デバイス上で動作する場合、電子デバイスは、第1態様又は第1態様の可能な設計のうちのいずれか1つに係る方法を実行することが可能である。
第5態様によれば、本願の実施形態は、コンピュータプログラム製品を提供する。コンピュータプログラム製品が電子デバイス上で動作する場合、電子デバイスは、第1態様又は第1態様の可能な設計のうちのいずれか1つに係る方法を実行することが可能である。
第6態様によれば、本願の実施形態は、チップを提供する。チップは、電子デバイス内のメモリに連結され、第1態様又は第1態様の可能な設計のうちのいずれか1つに係る方法を実行する。
さらに、第2態様から第6態様によりもたらされる技術的な効果については、第1態様の説明を参照されたい。ここで再び詳細が説明されることはない。
本願の実施形態では、「連結」は、2つの部品間の直接的又は間接的な相互の組み合わせを意味することを留意すべきである。
本願の実施形態に係る電子デバイスの概略構造図である。
本願の実施形態に係るユーザインタフェースの概略図である。
本願の実施形態に係る肌検出方法のフローチャートである。
本願の実施形態に係るプレビューユーザインタフェースの概略図である。 本願の実施形態に係るプレビューユーザインタフェースの概略図である。 本願の実施形態に係るプレビューユーザインタフェースの概略図である。
本願の実施形態に係る毛穴のROIの概略図である。
本願の実施形態に係る毛穴の黒ずみのROIの概略図である。
本願の実施形態に係るハイライト領域を位置決めする方法の概略図である。
本願の実施形態に係るハイライト領域マスクの概略図である。
本願の実施形態に係るハイライト領域のセグメンテーション閾値を判定する方法の概略フローチャートである。
本願の実施形態に係る非ハイライト領域のセグメンテーション閾値を判定する方法の概略フローチャートである。
本願の実施形態に係るピクセルの4つの隣接の概略図である。
本願の実施形態に係るピクセルの8つの隣接の概略図である。
本願の実施形態に係る第4のグレースケール処理の概略フローチャートである。
本願の実施形態に係るヒストグラムの概略図である。
本願の実施形態に係るノーズシャドウ領域を判定する方法の概略フローチャートである。
本願の実施形態に係る連結成分の内部及び外部の概略図である。
本願の実施形態に係る肌検出の概略フローチャートである。
本願の実施形態に係る毛穴のROIの概略図である。
本願の実施形態に係る毛穴のROIの第4のグレースケール画像の概略図である。
本願の実施形態に係るハイライト領域の概略図である。
本願の実施形態に係るハイライト領域の二値画像の概略図である。
本願の実施形態に係る非ハイライト領域の二値画像の概略図である。
本願の実施形態に係る融合した画像の二値画像の概略図である。
本願の実施形態に係るノーズシャドウ領域の概略図である。
本願の実施形態に係る毛穴の検出結果の概略図である。 本願の実施形態に係る毛穴の検出結果の概略図である。 本願の実施形態に係る毛穴の検出結果の概略図である。
本願の実施形態に係る毛穴の黒ずみの検出結果の概略図である。
本願の実施形態に係る肌質の分析報告お概略図である。
本願の実施形態に係る電子デバイス1600の概略図である。
本願において開示される実施形態は、電子デバイスに適用されることができる。本願のいくつかの実施形態において、電子デバイスは、パーソナルデジタルアシスタント及び/又は音楽プレーヤなどの機能を含むポータブル電子デバイス、例えば、携帯電話、タブレットコンピュータ、無線通信機能を有するウェアラブルデバイス(例えば、スマートウォッチ)又は車載デバイスであってよい。ポータブル電子デバイスの例示的な実施形態は、限定されるものではないが、iOS(登録商標)、Android(登録商標)、Microsoft(登録商標)又は別のオペレーティングシステムを用いるポータブル電子デバイスを含む。上述したポータブル電子デバイスは、代わりに、タッチ感受面(例えば、タッチパネル)などを有するラップトップコンピュータ(Laptop)であってよい。本願のいくつかの他の実施形態では、電子デバイスは、代わりに、タッチ感受面(例えば、タッチパネル)を有するデスクトップコンピュータであってよいことも理解されたい。
図1は、電子デバイス100の概略構造図である。
電子デバイス100は、プロセッサ110、外部メモリインタフェース120、内部メモリ121、ユニバーサルシリアルバス(universal serial bus、USB)インタフェース130、充電管理モジュール140、電源管理モジュール141、バッテリ142、アンテナ2、無線通信モジュール160、オーディオモジュール170、スピーカ170A、受信機170B、マイク170C、ヘッドセットインタフェース170D、センサモジュール180、キー190、モータ191、インジケータ192、カメラ193、及び、ディスプレイスクリーン194などを含んでよい。センサモジュール180は、周辺光センサ180Lを含む。さらに、センサモジュール180は、圧力センサ180A、ジャイロスコープセンサ180B、気圧センサ180C、磁気センサ180D、加速度センサ180E、距離センサ180F、光学式近接センサ180G、指紋センサ180H、温度センサ180J、タッチセンサ180K、及び、骨伝導センサ180Mなどをさらに含んでよい。いくつかの他の実施形態において、本願の本実施形態における電子デバイス100は、さらに、アンテナ1、モバイル通信モジュール150、及び、加入者識別モジュール(subscriber identification module、SIM)カードインタフェース195などを含んでよい。
プロセッサ110は、1つ又は複数の処理ユニットを含んでよい。例えば、プロセッサ110は、アプリケーションプロセッサ(application processor、AP)、モデムプロセッサ、グラフィックス処理ユニット(graphics processing unit、GPU)、画像信号プロセッサ(image signal processor、ISP)、コントローラ、メモリ、ビデオコーデック、デジタル信号プロセッサ(digital signal processor、DSP)、ベースバンドプロセッサ、及び/又は、ニューラルネットワークプロセッシングユニット(neural-network processing unit、NPU)を含んでよい。異なる処理ユニットは、独立したデバイスであってよい、又は、1つ又は複数のプロセッサに統合されてよい。
いくつかの実施形態において、プロセッサ110は、さらに、命令及びデータを格納するように構成されるメモリが設けられてよい。例えば、プロセッサ110内のメモリは、キャッシュメモリであってよい。メモリは、プロセッサ110により、最近用いられた命令又はデータ、又は、繰り返し用いられている命令又はデータを格納してよい。プロセッサ110が、再び命令又はデータを用いる必要がある場合、プロセッサ110は、メモリから命令又はデータを直接呼び出してよい。これにより、繰り返しのアクセスを回避し、プロセッサ110の待ち時間を減らし、それにより、システム効率を向上させる。
いくつかの他の実施形態において、プロセッサ110は、1つ又は複数のインタフェースをさらに含んでよい。例えば、インタフェースは、(universal serial bus、USB)インタフェース130であってよい。別の例として、インタフェースは、代わりに、インター集積回路(inter-integrated circuit、I2C)インタフェース、インター集積回路サウンド(inter-integrated circuit sound、I2S)インタフェース、パルス符号変調(pulse code modulation、PCM)インタフェース、汎用非同期送受信機(universal asynchronous receiver/transmitter、UART)インタフェース、モバイル業界プロセッサインタフェース(mobile industry processor interface、MIPI)、汎用入力/出力(general-purpose input/output、GPIO)インタフェース又は加入者識別モジュール(subscriber identity module、SIM)インタフェースであってよい。本願の本実施形態では、電子デバイス100の異なるモジュールは、インタフェースを通じて接続されてよく、その結果、電子デバイス100は、撮影及び処理などの異なる機能を実装できることが理解され得る。電子デバイス100におけるインタフェースの接続方式は、本願の本実施形態において限定されるものではないことに留意すべきである。
USBインタフェース130は、USB標準規格に準拠するインタフェースである。例えば、USBインタフェース130は、miniUSBインタフェース、microUSBインタフェース、及び、USBtypeCインタフェースなどを含んでよい。USBインタフェース130は、電子デバイス100を充電するために充電器に接続するように構成されてよく、電子デバイス100と周辺デバイスとの間でデータを伝送するように構成されてもよく、ヘッドセットを通じてオーディオを再生するために、ヘッドセットに接続するように構成されてもよい。インタフェースは、さらに、ARデバイスなどの別の電子デバイスに接続するように構成されてよい。
充電管理モジュール140は、充電器から充電入力を受信するように構成される。充電器は、無線の充電器であってよい、又は、有線の充電器であってよい。いくつかの有線充電方式の実施形態において、充電管理モジュール140は、USBインタフェース130を通じて有線の充電器から充電入力を受信してよい。いくつかの無線充電方式の実施形態において、充電管理モジュール140は、電子デバイス100の無線充電コイルから無線充電入力を受信してよい。充電管理モジュール140は、さらに、バッテリ142を充電しつつ、電源管理モジュール141を通じて電子デバイスに電力を供給してよい。
電源管理モジュール141は、バッテリ142、充電管理モジュール140及びプロセッサ110に接続するように構成される。電源管理モジュール141は、バッテリ142及び/又は充電管理モジュール140から入力及び/又は入力を受信して、プロセッサ110、内部メモリ121、外部メモリ、ディスプレイスクリーン194、カメラ193、及び、無線通信モジュール160などに電力を供給する。電源管理モジュール141は、さらに、バッテリ容量、バッテリサークル数及びバッテリヘルス状態(漏電又はインピーダンス)などのパラメータをモニタリングするように構成されてよい。いくつかの他の実施形態において、電源管理モジュール141は、代わりに、プロセッサ110に配置されてよい。いくつかの他の実施形態において、電源管理モジュール141及び充電管理モジュール140は、代わりに、同一のデバイスに配置されてよい。
電子デバイス100の無線通信機能は、アンテナ1、アンテナ2、モバイル通信モジュール150、無線通信モジュール160、モデムプロセッサ、及び、ベースバンドプロセッサなどを用いることにより実装されてよい。
アンテナ1及びアンテナ2は、電磁波信号を伝送及び受信するように構成される。電子デバイス100における各アンテナは、1つ又は複数の通信周波数帯をカバーするように構成されてよい。異なるアンテナが再使用されることで、アンテナの利用を改善し得る。例えば、アンテナ1は、無線ローカルエリアネットワークのダイバーシチアンテナとして再使用されてよい。いくつかの他の実施形態において、アンテナは、チューニングスイッチと組み合わせて用いられてよい。
モバイル通信モジュール150は、2G、3G、4G又は5Gなどを含む電子デバイス100に適用される無線通信解決手段を提供してよい。モバイル通信モジュール150は、少なくとも1つのフィルタ、スイッチ、電力増幅器、及び、低雑音増幅器(low noise amplifier、LNA)などを含んでよい。モバイル通信モジュール150は、アンテナ1を通じて電磁波を受信し、受信した電磁波に対してフィルタリング、増幅及び他の処理を実行し、処理した電磁波を復調用のモデムプロセッサに転送してよい。モバイル通信モジュール150は、さらに、モデムプロセッサにより変調された信号を増幅し、アンテナ1を用いることにより、増幅した信号を電磁波に変換し、アンテナ1を通じて電磁波を放射してよい。いくつかの実施形態において、モバイル通信モジュール150の少なくともいくつかの機能モジュールは、プロセッサ110に配置されてよい。いくつかの実施形態において、モバイル通信モジュール150の少なくともいくつかの機能モジュールは、プロセッサ110の少なくともいくつかのモジュールと同一のデバイスに配置されてよい。
モデムプロセッサは、変調器及び復調器を含んでよい。変調器は、送信対象の低周波数ベースバンド信号を中間周波数又は高周波数信号に変調するように構成される。変調器は、受信した電磁波信号を低周波数ベースバンド信号に復調するように構成される。そして、復調器は、復調を通じて取得した低周波数ベースバンド信号を処理用のベースバンドプロセッサに転送する。ベースバンドプロセッサにより処理された後に、低周波数ベースバンド信号は、アプリケーションプロセッサに転送される。アプリケーションプロセッサは、(限定されるものではないが、スピーカ170A及び受信機170Bを含む)オーディオデバイスを通じて音声信号を出力する、又は、ディスプレイスクリーン194を通じて画像又はビデオを表示する。いくつかの実施形態において、モデムプロセッサは、独立したデバイスであってよい。いくつかの他の実施形態において、モデムプロセッサは、プロセッサ110から独立してよく、モバイル通信モジュール150又は別の機能モジュールと同一のデバイスに配置される。
無線通信モジュール160は、電子デバイス100、例えば、無線ローカルエリアネットワーク(wireless local area networks、WLAN)(例えば、ワイヤレス・フィディリティ(wireless fidelity、Wi-Fi(登録商標)ネットワーク)、ブルートゥース(登録商標)(bluetooth(登録商標)、BT)、全球測位衛星システム(global navigation satellite system、GNSS)、周波数変調(frequency modulation、FM)、近距離無線通信(near field communication、NFC)及び赤外線(infrared、IR)技術に適用される無線通信解決手段を提供してよい。無線通信モジュール160は、少なくとも1つの通信処理モジュールと統合される1つ又は複数のデバイスであってよい。無線通信モジュール160は、アンテナ2を通じて電磁波信号を受信し、電磁波信号に対して周波数変調及びフィルタリング処理を実行し、処理した信号をプロセッサ110に送信する。無線通信モジュール160は、さらに、プロセッサ110から送信対象の信号を受信し、送信対象の信号に対して周波数変調及び増幅処理を実行し、アンテナ2を用いることにより、処理した送信対象の信号を電磁波に変換し、アンテナ2を通じて電磁波を放射してよい。
いくつかの実施形態において、電子デバイス100では、アンテナ1は、モバイル通信モジュール150に連結され、アンテナ2は、無線通信モジュール160に連結され、その結果、電子デバイス100は、無線通信技術を用いることにより、ネットワーク及び別のデバイスと通信できる。無線通信技術は、グローバルシステムフォーモバイルコミュニケーションズ(global system for mobile communications、GSM(登録商標))、汎用パケット無線サービス(general packet radio service、GPRS)、符号分割多元接続(code division multiple access、CDMA)、広域符号分割多元接続(wideband code division multiple access、WCDMA(登録商標))、時分割符号分割多元接続(time-division code division multiple access、TD-SCDMA)、ロングタームエボリューション(long term evolution、LTE)、BT、GNSS、WLAN、NFC、FM、IR、及び/又は、他の技術を含んでよい。GNSSは、グローバルポジショニングシステム(global positioning system、GPS)、全球測位衛星システム(global navigation satellite system、GLONASS)、北斗衛星導航系統(beidou navigation satellite system、BDS)、準天頂衛星システム(quasi-zenith satellite system、QZSS)、及び/又は、静止衛星型補強システム(satellite-based augmentation systems、SBAS)を含んでよい。
電子デバイス100は、GPU、ディスプレイスクリーン194及びアプリケーションプロセッサを用いることにより、表示機能を実施する。GPUは、画像処理用のマイクロプロセッサであり、ディスプレイスクリーン194及びアプリケーションプロセッサに接続される。GPUは、数学的及び幾何学的計算を実行するように構成され、グラフィックスレンダリングを実行するように構成される。プロセッサ110は、1つ又は複数のGPUを含み、プログラム命令を実行して、表示情報を生成又は変更してよい。
ディスプレイスクリーン194は、画像及びビデオなどを表示するように構成される。ディスプレイスクリーン194は、ディスプレイパネルを含む。ディスプレイパネルは、液晶ディスプレイ(liquid crystal display、LCD)、有機発光ダイオード(organic light-emitting diode、OLED)、アクティブマトリックス式有機発光ダイオード(active-matrix organic light emitting diode、AMOLED)、フレキシブル発光ダイオード(flex light-emitting diode、FLED)、miniLED、microLED、microOLED、又は、量子ドット発光ダイオード(quantum dot light emitting diodes、QLED)などを用いてよい。いくつかの実施形態において、電子デバイス100は、1つ又はN個のディスプレイスクリーン194を含んでよく、Nは、1より大きい正の整数である。
電子デバイス100は、ISP、カメラ193、ビデオコーデック、GPU、ディスプレイスクリーン194、及び、アプリケーションプロセッサなどを用いることにより、撮影機能を実施してよい。
ISPは、カメラ193によりフィードバックされるデータを処理するように構成される。例えば、撮影中、シャッタを開けた後に、照明がカメラの受光素子に転送され、光信号が電気信号に変換され、カメラの受光素子は、電気信号を処理用のISPに転送して、電気信号を人の目に見える画像に変換する。ISPは、さらに、ノイズ、明るさ及び肌の色に関して、画像に対してアルゴリズムベースの最適化を実行してよい。ISPは、さらに、撮影シナリオの露出及び色温度などのパラメータを最適化してよい。いくつかの実施形態において、ISPは、カメラ193に配置されてよい。
カメラ193は、静止画又はビデオを取り込むように構成される。対象の光学的画像は、レンズを通じて生成され、受光素子に投影される。受光素子は、電荷結合素子(charge coupled device、CCD)、又は、相補型金属酸化膜半導体(complementary metal-oxide-semiconductor、CMOS)ベースのフォトトランジスタであってよい。受光素子は、光信号を電気信号に変換し、デジタル画像信号に変換される電気信号をISPに転送する。ISPは、デジタル画像信号を処理用のDSPに出力する。DSPは、デジタル画像信号を標準的なRGB又はYUVフォーマットなどの画像信号に変換する。いくつかの実施形態において、電子デバイス100は、1つ又はN個のカメラ193を含んでよく、Nは、1より大きい正の整数である。
デジタル信号プロセッサは、デジタル信号を処理するように構成される。デジタル信号プロセッサは、デジタル画像信号を処理できるだけでなく、別のデジタル信号も処理できる。例えば、電子デバイス100が周波数を選択した場合、デジタル信号プロセッサは、周波数エネルギなどに対してフーリエ変換を実行するように構成される。
ビデオコーデックは、デジタルビデオを圧縮又は圧縮解除するように構成される。電子デバイス100は、1つ又は複数のタイプのビデオコーデックをサポートできる。このように、電子デバイス100は、複数のエンコーディングフォーマット、例えば、ムービングピクチャエクスパーツグループ(moving picture experts group、MPEG)-1、MPEG-2、MPEG-3及びMPEG-4でビデオを再生又は記録してよい。
NPUは、生物学的ニューラルネットワーク構造を用いることにより、例えば、人の脳のニューロン間の転送のモードを用いることにより、入力された情報を迅速に処理するニューラルネットワーク(neural-network、NN)演算プロセッサであり、さらに、継続的な自己学習を実行してよい。電子デバイス100のインテリジェントコグニティブなどのアプリケーション、例えば、画像認識、顔認識、音声認識、及び、テキスト理解はNPUを用いることにより実装され得る。
外部メモリインタフェース120は、電子デバイス100のストレージ機能を拡張するために、外部メモリカード(例えば、microSDカード)に接続するように構成されてよい。外部メモリカードは、外部メモリインタフェース120を通じてプロセッサ110と通信して、例えば、音楽、ビデオ及び他のファイルを外部メモリカードに格納するために、データストレージ機能を実装する。
内部メモリ121は、コンピュータ実行可能なプログラムコードを格納するように構成されてよく、実行可能なプログラムコードは命令を含む。プロセッサ110は、内部メモリ121に格納されている命令を動作させて、電子デバイス100のさまざま機能アプリケーション及びデータ処理を実行する。内部メモリ121は、プログラム記憶領域及びデータ記憶領域を含んでよい。プログラム記憶領域は、少なくとも1つの機能(例えば、音声再生機能又は画像再生機能)に必要なオペレーティングシステム及びアプリケーションプログラムなどを格納してよい。データ記憶領域は、電子デバイス100の使用中に作成されたデータ(例えば、オーディオデータ及び電話帳など)及び他のデータを格納してよい。さらに、内部メモリ121は、高速ランダムアクセスメモリを含んでよく、さらに、少なくとも1つの磁気ディスクストレージデバイス、少なくとも1つのフラッシュメモリデバイス、及び少なくとも1つのユニバーサルフラッシュストレージ(universal flash storage、UFS)などの不揮発性メモリを含んでよい。
電子デバイス100は、オーディオモジュール170、スピーカ170A、受信機170B、マイク170C、ヘッドセットインタフェース170D及びアプリケーションプロセッサなどを用いることにより、音楽再生及び録音などのオーディオ機能を実施してよい。
オーディオモジュール170は、デジタルオーディオ情報をアナログオーディオ信号出力に変換するように構成され、また、アナログオーディオ入力をデジタルオーディオ信号に変換するように構成される。オーディオモジュール170は、さらに、オーディオ信号をエンコーディング及びデコーディングするように構成されてよい。いくつかの実施形態において、オーディオモジュール170は、プロセッサ110に配置されてよい、又は、オーディオモジュール170のいくつかの機能モジュールは、プロセッサ110に配置されてよい。
「スピーカ」とも称されるスピーカ170Aは、電気的なオーディオ信号を音声信号に変換するように構成される。電子デバイス100は、スピーカ170Aを用いることにより、音楽を聞く又はハンズフリー電話に応答するために用いられてよい。
「イヤピース」とも称される受信機170Bは、電気的なオーディオ信号を音声信号に変換するように構成される。電子デバイス100において、呼び出し又は音声情報を受信した場合、人の耳の近くに受信機170Bを置くことにより音声を聞くことができる。
「音声管」又は「拡声器」とも称されるマイク170Cは、音声信号を電気信号に変換するように構成される。電話する又は音声情報を送信する場合、ユーザは、口の近くにマイク170Cを置いて話すことで、音声信号をマイク170Cに入力し得る。電子デバイス100は、少なくとも1つのマイク170Cが設けられてよい。いくつかの他の実施形態において、電子デバイス100は、2つのマイク170Cが設けられてよく、さらに、音声信号の収集に加えて、騒音低減機能を実装してよい。いくつかの他の実施形態において、電子デバイス100は、代わりに、音声信号の収集及び騒音低減を実施する3つ、4つ又はそれより多くのマイク170Cが設けられてよく、さらに、音源を識別して、指向性録音機能を実装してよい。
ヘッドセットインタフェース170Dは、有線のヘッドセットに接続するように構成される。ヘッドセットインタフェース170Dは、USBインタフェース130であってよい、又は、標準的な3.5mmオープンモバイル端末プラットフォーム(open mobile terminal platform、OMTP)インタフェース、又は、米国の標準的なセルラ通信業界団体(cellular telecommunications industry association of the USA、CTIA)インタフェースなどであってよい。
圧力センサ180Aは、圧力信号を感知するように構成され、圧力信号を電気信号に変換してよい。いくつかの実施形態において、圧力センサ180Aは、ディスプレイスクリーン194に配置されてよい。圧力センサ180Aは、多くのタイプ、例えば、抵抗性の圧力センサ、インダクティブ方式の圧力センサ、又は、容量性の圧力センサなどであってよい。容量性の圧力センサは、導電性材料を包含する少なくとも2つの平行なプレートを含んでよい。圧力センサ180Aに力が加えられた場合、電極間の静電容量が変化する。電子デバイス100は、静電容量の変化に基づいて、圧力の強度を判定する。ディスプレイスクリーン194にタッチ操作が加えられた場合、電子デバイス100は、圧力センサ180Aを用いることによりタッチ操作の強度を検出する。電子デバイス100はまた、圧力センサ180Aにより検出された信号に基づいて、タッチ位置を計算してよい。いくつかの実施形態において、同一のタッチ位置に加えられたが、異なるタッチ操作の強度を有するタッチ操作は、異なるオペレーション命令に対応し得る。例えば、SMSメッセージアプリケーションのアイコンに対して、第1の圧力閾値により小さいタッチ操作の強度を有するタッチ操作が加えられた場合、SMSメッセージを見るための命令が実行される。SMSメッセージアプリケーションのアイコンに対して、第1の圧力閾値より大きい又はこれに等しいタッチ操作の強度を有するタッチ操作が加えられた場合、SMSメッセージを作成するための命令が実行される。
ジャイロスコープセンサ180Bは、電子デバイス100の運動姿勢を判定するように構成されてよい。いくつかの実施形態において、ジャイロスコープセンサ180Bを用いることにより、3軸(すなわち、X、Y、及びZ軸)に対する電子デバイス100の角速度が判定されてよい。ジャイロスコープセンサ180Bは、撮影中の画像の安定化を実施するように構成されてよい。例えば、シャッタが押された場合、ジャイロスコープセンサ180Bは、電子デバイス100の揺れの角度を検出し、角度に基づいて、レンズモジュールにより補償される必要がある距離を計算して、レンズのカウンタモーションを通じて電子デバイス100の揺れを弱めることで、画像の安定化を実施する。ジャイロスコープセンサ180Bは、さらに、ナビゲーション及びモーション感知ゲームシナリオで用いられてよい。
気圧センサ180Cは、気圧を測定するように構成される。いくつかの実施形態において、電子デバイス100は、気圧センサ180Cにより測定された気圧値に基づいて、高度を計算して、ポジショニング及びナビゲーションを支援する。
磁気センサ180Dは、ホール効果センサを含む。電子デバイス100は、磁気センサ180Dを用いることにより、折り畳み式レザーケースの開閉を検出してよい。いくつかの実施形態において、電子デバイス100が折り畳み式携帯電話である場合、電子デバイス100は、磁気センサ180Dを用いることにより、クラムシェルの開閉を検出してよい。このように、レザーケースの検出された開/閉状態又はクラムシェルの検出された開/閉状態に基づいて、折り畳み式携帯電話が開いた場合の自動ロック解除などの特性が設定され得る。
加速度センサ180Eは、(通常、3軸に沿う)すべての方向における電子デバイス100の加速度の大きさを検出してよい。電子デバイス100が動いていない場合、加速度センサ180Eは、重力の大きさ及び向きを検出してよい。加速度センサ180Eは、さらに、電子デバイスの姿勢を識別するように構成されてよく、ランドスケープ/ポートレートモード切り替え、及び、歩数計などに適用される。
距離センサ180Fは、距離を測定するように構成される。電子デバイス100は、赤外線又はレーザ光線を用いることにより距離を測定してよい。いくつかの実施形態において、撮影シナリオでは、電子デバイス100は、距離センサ180Fを用いることにより距離を測定して、迅速なピント調節を実施してよい。
光学式近接センサ180Gは、発光ダイオード(LED)、及び、光検出器など、例えば、フォトダイオードを含んでよい。発光ダイオードは、赤外線発光ダイオードであってよい。電子デバイス100は、発光ダイオードを用いることにより赤外光を放射する。電子デバイス100は、フォトダイオードを用いることにより、近くの対象から反射した赤外光を検出する。検出した反射光が十分な場合、電子デバイス100は、電子デバイス100の近くに対象があると判定できる。検出した反射光が十分でない場合、電子デバイス100は、電子デバイス100の近くに対象が1つもないと判定できる。電子デバイス100は、光学式近接センサ180Gを用いることにより、呼び出しの間にユーザが耳の近くに電子デバイス100を保持していることを検出して、自動的に画面をオフにすることができ、それにより、電力を節約する。光学式近接センサ180Gは、レザーケースモード及びポケットモードにおいて、自動ロック解除及び画面ロックするために用いられてもよい。
周辺光センサ180Lは、周辺光の明るさを感知するように構成される。電子デバイス100は、周辺光の感知した明るさに基づいて、ディスプレイスクリーン194の明るさを適応的に調整してよい。周辺光センサ180Lは、撮影中のホワイトバランスを自動的に調整するように構成されてもよい。周辺光センサ180Lは、さらに、光学式近接センサ180Gと協調して、電子デバイス100がポケットにあるか否かを検出して、間違いによるタッチを防止するように構成されてよい。
指紋センサ180Hは、指紋を収集するように構成される。収集した指紋の特徴を用いることにより、電子デバイス100は、指紋を介したロック解除、アプリケーションロックへのアクセスし、指紋を介した写真の撮影、及び、指紋を介した呼び出しに対する応答などを実施してよい。
温度センサ180Jは、温度を検出するように構成される。いくつかの実施形態において、電子デバイス100は、温度センサ180Jを用いることにより温度を検出して、温度処理ポリシを実行する。例えば、温度センサ180Jにより報告された温度が閾値を超える場合、電子デバイス100は、温度センサ180Jの近くのプロセッサのパフォーマンスを低下させて、電力消費を減らし、熱保護を実施する。いくつかの他の実施形態において、温度が別の閾値より小さい場合、電子デバイス100は、バッテリ142を温めて、低温によりもたらされる電子デバイス100の異常電源オフを防止する。いくつかの他の実施形態において、温度がさらに別の閾値より小さい場合、電子デバイス100は、バッテリ142の出力電圧を上げて、低温によりもたらされる異常電源オフを防止する。
タッチセンサ180Kは、「タッチパネル」とも称される。タッチセンサ180Kは、ディスプレイスクリーン194に配置されてよく、タッチセンサ180K及びディスプレイスクリーン194は、「タッチ制御画面」とも称されるタッチ画面を形成する。タッチセンサ180Kは、タッチセンサ180Kの上又は近くに加えられたタッチ操作を検出するように構成される。タッチセンサは、タッチイベントタイプを判定するために、検出したタッチ操作をアプリケーションプロセッサに転送してよい。ディスプレイスクリーン194は、タッチ操作に関連する視覚的な出力を提供するために用いられてよい。いくつかの他の実施形態において、タッチセンサ180Kは、代わりに、ディスプレイスクリーン194とは異なる位置の電子デバイス100の表面に配置されてよい。
骨伝導センサ180Mは、振動信号を取得してよい。いくつかの実施形態において、骨伝導センサ180Mは、人の身体の声帯部分の骨振動の振動信号を取得してよい。骨伝導センサ180Mはまた、人の身体の脈拍に接触して、血圧変動信号を受信してよい。いくつかの実施形態において、骨伝導センサ180Mは、代わりに、骨伝導ヘッドセットを形成するために、ヘッドセットに設けられてよい。オーディオモジュール170は、骨伝導センサ180Mにより取得された人の身体の声帯部分の骨振動の振動信号を分析することを通じて、音声信号を取得して、音声機能を実施してよい。アプリケーションプロセッサは、骨伝導センサ180Mにより取得された血圧変動信号を分析することを通じて心拍情報を取得して、心拍検出機能を実施してよい。
キー190は、電源オン/オフキー、及び、ボリュームキーなどを含んでよい。キー190は、機械的なキーであってよい、又は、タッチキーであってよい。電子デバイス100は、キー入力を受信して、電子デバイス100のユーザ設定又は機能制御に関連するキー信号入力を生成してよい。
モータ191は、振動アラートを生成してよい。モータ191は、着信振動アラートを生成するように構成されてよく、タッチ振動フィードバックを提供するように構成されてもよい。例えば、異なるアプリケーション(例えば、撮影及びオーディオ再生)に対して加えられるタッチ操作は、異なる振動フィードバック効果に対応してよい。モータ191は、これに応じて、ディスプレイスクリーン194上の異なる領域に加えられるタッチ操作によって、異なる振動フィードバック効果を提供してもよい。異なるアプリケーションシナリオ(例えば、時間のリマインダ、情報の受信、アラーム及びゲーム)は、異なる振動フィードバック効果に対応してもよい。タッチ振動フィードバック効果は、カスタマイズされてもよい。
インジケータ192は、インジケータライトであってよく、充電状態及びバッテリレベルの変化を示すように構成されてよく、メッセージ、不在着信及び通知などを示すように構成されてもよい。
SIMカードインタフェース195は、SIMカードに接続するように構成される。SIMカードは、SIMカードインタフェース195に挿入され、SIMカードインタフェース195から引き出されて、電子デバイス100に接触又は分離した状態になり得る。電子デバイス100は、1つ又はN個のSIMカードインタフェースをサポートしてよく、Nは、1より大きい正の整数である。SIMカードインタフェース195は、nano-SIMカード、micro-SIMカード及びSIMカードなどをサポートできる。複数のカードは、同一のSIMカードインタフェース195に同時に挿入され得る。複数のカードは、同じタイプ又は異なるタイプのものであってよい。SIMカードインタフェース195は、異なるタイプのSIMカードと互換性があってもよい。SIMカードインタフェース195は、外部メモリカードと互換性があってもよい。電子デバイス100は、SIMカードを用いることによりネットワークとインタラクトして、呼び出し及びデータ通信などを実施する。いくつかの実施形態において、電子デバイス100は、eSIMカード、すなわち、組み込み式のSIMカードを用いる。eSIMカードは、電子デバイス100に組み込まれてよく、電子デバイス100から分離することができる。
本願の本実施形態において示される構造は、電子デバイス100に対して特定の制限を構成するものでないことが理解され得る。本願のいくつかの他の実施形態において、電子デバイス100は、図に示されるこれらより多く又はより少ないコンポーネントを含んでよい、いくつかのコンポーネントは組み合わせられてよい、いくつかのコンポーネントは分けられてよい、又は、異なるコンポーネント配置があってよい。示されるコンポーネントは、ハードウェア、ソフトウェア、又は、ソフトウェアとハードウェアとの組み合わせにより実装されてよい。
さらに、本願において、「少なくとも1つ」は、1つ又は複数を意味し、「複数」は、2つ又はそれより多くを意味することに留意すべきである。用語「及び/又は」は、関連する対象を説明するための関連する関係を説明し、3つの関係が存在し得ることを表す。例えば、A及び/又はBは、Aのみが存在する、A及びBの両方が存在する、及び、Bのみが存在するといった3つの場合を表してよく、A及びBはそれぞれ単数形でも複数形でもよい。符号「/」は、概して、関連する対象間の「又は」の関係を示す。「以下の少なくとも1つの(項目)」又はこれらの同様の表現は、これらの項目の任意の組み合わせを意味し、単一の項目、又は、複数の項目の任意の組み合わせを含む。例えば、a、b又はcのうちの少なくとも1つ(項目)は、a、b、c、a及びb、a及びc、b及びc、又は、a及びb及びcを表してよく、a、b及びcはそれぞれ単数形でも複数形でもよい。さらに、本願の説明において、「第1」及び「第2」などの用語は、説明における区別を目的としたものに過ぎず、相対的な重要度を示す又は暗示する、又は、順序を示す又は暗示するものと解釈されるべきではないことが理解されたい。
以下では、例として電子デバイス100を用いることにより、本願の実施形態を詳細に説明する。
本願の実施形態において、電子デバイスによりサポートされるアプリケーションプログラムは、カメラなどの撮影用のアプリケーションを含んでよいことを理解されたい。さらに、電子デバイスによりサポートされるアプリケーションプログラムは、描画、ゲーム、電話、ビデオプレーヤ、音楽プレーヤ、写真管理、ブラウザ、カレンダー及び時計などの複数の他のアプリケーションをさらに含んでよい。
本願の実施形態において、電子デバイスによりサポートされるアプリケーションは、肌検出アプリケーションをさらに含んでよい。肌検出アプリケーションは、撮像した顔画像を用いることにより、ユーザの顔の肌の特徴(例えば、しわ、毛穴、毛穴の黒ずみ、しみ及び顔の肌)を検出し、検出結果報告をユーザに提供してよい。例えば、検出結果報告は、顔の肌の特徴に対するスコア、及び、顔の肌の総合的な分析などに限定されることなく含んでよく、さらに、ユーザの顔画像を表示し、各特徴に関する検出結果に基づいて、顔画像において対応する問題点をマーキングしてよく、例えば、鼻の頭の領域内の毛穴の黒ずみをマーキングする、額の領域にあるしわをマーキングする、及び、頬の領域にあるしみをマーキングする。検出結果報告は、ユーザインタフェース上でユーザに示されてよいことが理解され得る。例えば、検出結果報告は、図2に示されるユーザインタフェース200上に示されてよく、合成スコア、肌年齢、毛穴、毛穴の黒ずみ、小じわ、しみ及び赤みの領域に対するスコアを含む。いくつかの他の実施形態において、ユーザインタフェース200は、さらに、仮想ボタン201、仮想ボタン202、仮想ボタン203、仮想ボタン204、及び、仮想ボタン205を含んでよい。例として仮想ボタン201を用いて、電子デバイス100は、仮想ボタン201に対する操作に応答して、ディスプレイスクリーン194上に毛穴に関する特別なケアアドバイスを表示する。仮想ボタン202、仮想ボタン203、仮想ボタン204及び仮想ボタン205の機能については、仮想ボタン201の機能を参照されたい。ここで再び詳細が説明されることはない。
電子デバイスを用いることにより、ユーザの顔の肌のより正確な検出を可能にするために、例えば、本願の実施形態におけるユーザの肌検出の解決手段では、撮影状況検出モジュール、画質検出モジュール、関心のある領域(region of interest、ROI)検出モジュール及び肌の特徴検出モジュール、結果分析モジュールなどがプロセッサ110に統合されてよい。いくつかの実施形態において、撮影状況検出モジュール、画質検出モジュール、関心のある領域(region of interest、ROI)検出モジュール、肌の特徴検出モジュール及び結果分析モジュールなどは、プロセッサ110内のアプリケーションプロセッサに統合されてよい。いくつかの他の実施形態において、人工知能(artificial intelligence、AI)チップがプロセッサ110に統合され、撮影状況検出モジュール、画質検出モジュール、関心のある領域(region of interest、ROI)検出モジュール、肌の特徴検出モジュール及び結果分析モジュールなどは、AIチップに統合されて、ユーザの肌検出を実施してよい。
撮影状況検出モジュールは、必要とされる撮影状況下で写真を撮影するようにユーザをガイドして、撮像した画像が要件を満たすことを保証するために、現在の撮影状況を検出してよく、それにより、画像に基づいた肌検出の精度を保証する。例えば、必要とされる撮影状況は、十分な周辺光があること、顔と電子デバイスとの間に適切な距離(例えば、約25cm)があること、顔が適切な姿勢に保たれていること、目を開けたり閉じたりしていること、眼鏡を外さなければならないこと、できるだけ前髪を額にかからないようにすること、及び、焦点が正しいこと、明らかな揺れがないことなどである。
撮影状況検出モジュールが撮影状況の検出に成功した後に、プロセッサ110は、スマートな照明補足を可能にする。例えば、撮影状況検出モジュールは、現在の撮影状況が要件を満たす場合、検出に成功したと判定する。具体的には、本願の実施形態において、電子デバイスは、異なる顔の肌の特徴検出要件を満たすように、異なる照明補足モード(例えば、フラッシュモード又はフラッシュライトモード)を用いて、ユーザの顔に対する照明を補ってよい。ユーザの顔に対して、照明が補われた後に、プロセッサ110は、カメラ193を制御して、ユーザの顔を撮影して、ユーザの顔画像を取得してよい。
画質検出モジュールは、撮像した画像が異なる顔の肌の特徴検出要件を満たすことを保証するために、顔画像の品質を検出してよい。
画像の品質が要件を満たすことを画質検出モジュールが検出した後に、ROI検出モジュールは、顔画像内の検出対象のROIを判定してよい。例えば、毛穴の黒ずみのROIは、鼻の頭にある小さな領域である。
肌の特徴検出モジュールは、判定されたROIにおける顔の肌の特徴を別々に検出してよく、例えば、肌のしわ、毛穴、毛穴の黒ずみ、しみ、赤みの領域及び脂っぽさの程度などを検出する。
結果分析モジュールは、肌の特徴検出モジュールにより検出された顔の肌の特徴に関する検出結果を分析し、それぞれの肌の特徴の各検出項目のスコア及びランクなどを提供してよい。
さらに、いくつかの実施形態において、プロセッサ110は、さらに、画像処理モジュールと統合されてよい。画像処理モジュールは、ROI検出モジュール及び肌の特徴検出モジュールなどのために後続の処理を実行するために、撮像した顔画像に対して圧縮及びクロップなどを実行してよい。
顔画像に関する分析結果を出力する、又は、各検出項目のスコアなどを出力するために、プロセッサ110は、さらに、検出後に取得された(例えば、鼻の頭の領域内の毛穴の黒ずみをマーキングし、額の領域にあるしわをマーキングし、頬の領域にあるしみをマーキングした特徴に関する検出結果が顔画像に位置決めされている領域、及び、各検出項目のスコアなどを含む)検出報告をディスプレイスクリーン194に表示してよく、その結果、ユーザは、検出報告を見ることができ、それにより、ユーザエクスペリエンスを改善する。
発明者は、肌検出中に、顔に対する不均一な照明に起因して、二値化処理に適したグローバル閾値を取得することが比較的難しいことを発見した。暗い場所を基準として用いることにより閾値が判定される場合、明るい場所では、(誤検出に起因して)非常に多くの毛穴又は毛穴の黒ずみが検出され得る。明るい場所を基準として用いることにより閾値が判定される場合、暗い場所では、(検出不足に起因して)ごくわずかな毛穴しか検出されない又は毛穴が全く検出されない可能性がある。閾値の値は、照明又は人の姿勢がわずかに変化した場合に影響を与える可能性があり、それにより、検出結果間の一貫性に影響を与える。
これを考慮して、本願の実施形態は、毛穴の黒ずみ及び/又は毛穴を検出する肌の検出方法及び端末デバイスを提供する。ROI領域は、顔に対する光反射の状態に基づいてハイライト領域及び非ハイライト領域に分割され、二値化処理のために、2つの領域について閾値がそれぞれ判定され、そして、毛穴の黒ずみ及び/又は毛穴が判定される。
図3Aは、本願の実施形態に係る肌検出方法の概略フローチャートである。方法は、以下の段階を含む。肌の検出方法は、上述した電子デバイス100により実行されてよく、例えば、電子デバイス100内のプロセッサ110により実行されてよい。
S301.顔画像の関心のある領域を取得する。
可能な例では、本願の本実施形態において提供される肌の検出方法は、肌テストアプリケーションに適用され得る。肌テストアプリケーションを用いることにより顔画像が取得され、本願の本実施形態において提供される肌の検出方法は、顔画像に基づいて実行される。図3B-1から図3B-3に示されるように、電子デバイス100のディスプレイスクリーン194は、肌テストアプリケーションのアイコン300を表示する。アイコン300に対する操作を検出した場合、アイコン300に対する操作に応答して、電子デバイス100は、ディスプレイスクリーン194上に肌テストアプリケーションのユーザインタフェース310を表示する。肌テストアプリケーションのユーザインタフェース310は肌テストボタン311を含む。電子デバイス100は、肌テストボタン311に対する操作を検出する。肌テストボタン311に対する操作に応答して、ディスプレイスクリーン194は、カメラアプリケーションの撮影プレビューインタフェース320を表示する。撮影プレビューインタフェース320は、カメラ193により収集された画像を表示するように構成される。例えば、撮影プレビューインタフェース320は、プレビュー領域321を含んでよい。プレビュー領域321は、カメラ193により収集された画像を表示するように構成される。カメラ193により収集された画像は、ユーザの顔画像であってよいことを理解されたい。さらに、カメラ193は、電子デバイス100のフロントカメラであってよい、又は、電子デバイス100のリアカメラであってよい。いくつかの実施形態において、撮影品質を改善するために、フロントカメラの解像度がリアカメラの解像度より低い場合、カメラ193は、電子デバイス100のリアカメラである。撮影品質をさらに改善するために、周辺光が撮影状況を満たす場合、電子デバイス100は、カメラ193により収集された画像を自動的に撮影して、顔画像を取得する。本願の本実施形態における肌テストボタン311は、撮影ボタンと称されてもよく、本願の本実施形態は、肌テストボタン311の名称を限定するものではないことに留意すべきである。
別の可能な例では、顔画像は、代わりに、電子デバイスにすでに格納されている画像であってよい。
例えば、顔画像が取得された後に、顔の特徴位置特定方法が用いられ、顔画像は、さらに、関心のある領域(ROI)を取得するためにセグメント化される。図4Aに示されるように、毛穴の識別中、毛穴のROIは、顔の2つの側にある2つの頬及び鼻の領域を含む。図4Bに示されるように、毛穴の黒ずみの識別中、毛穴の黒ずみのROIは、鼻の領域を含む。
S302.関心のある領域をハイライト領域と非ハイライト領域とに分割する。
例えば、顔に対する不均一な照明に起因して、顔に対する光反射が顔画像内で変化するので、これに基づいて、関心のある領域は、ハイライト領域及び非ハイライト領域に分割される。
S303.ハイライト領域の第1のセグメンテーション閾値及び非ハイライト領域の第2のセグメンテーション閾値を別々に判定する。
S304.第1のセグメンテーション閾値に基づいてハイライト領域の二値画像を取得し、第2のセグメンテーション閾値に基づいて非ハイライト領域の二値画像を取得する。
S305.ハイライト領域の二値画像及び非ハイライト領域の二値画像を融合する。
S306.融合した画像に基づいて、関心のある領域に含まれる毛穴及び/又は毛穴の黒ずみを識別する。
本願の本実施形態において提供される肌の検出方法によれば、関心のある領域がハイライト領域及び非ハイライト領域に分割され、判定されたセグメンテーション閾値が2つの領域に割り当てられ、当該領域に対応するセグメンテーション閾値を用いることにより、各領域に対して二値化処理が実行される。関心のある領域に対して1つのセグメンテーション閾値が判定される解決手段と比較して、これは、セグメンテーション閾値に対する照明の影響を回避でき、それにより、毛穴及び/又は毛穴の黒ずみを検出する際の精度を向上させる。
可能な実施例では、段階S306において、関心のある領域に含まれる毛穴及び/又は毛穴の黒ずみが、融合した画像に基づいて識別された場合、融合した画像に対して、腐食及び/又は拡大処理がまず実行されてよく、腐食及び/又は拡大処理を受けた融合した画像に基づいて、関心のある領域に含まれる毛穴及び/又は毛穴の黒ずみが識別される。
腐食処理は、対象の境界ポイントを取り除いて、ターゲットを減らすことができ、構造要素よりも小さいノイズポイントを取り除くことができ、拡大処理は、対象と接触するすべての背景ポイントを対象に組み込んで、ターゲットを拡張し、それにより、ターゲット内の穴を埋めることを留意すべきである。
例えば、腐食前の拡大処理は、融合した画像に対して実行されてよく、拡大前の腐食処理は、融合した画像に対して実行されてよい。腐食前の拡大処理は、画像上のわずかなノイズを取り除いて、対象の境界を滑らかにすることができる。拡大前の腐食処理は、対象内のわずかな穴を埋めて、対象の境界を滑らかにすることができる。
可能な実施例において、関心のある領域をハイライト領域と非ハイライト領域とに分割する、すなわち、ハイライト領域と非ハイライト領域を位置決めする段階S302は、以下の方式で実施されてよい。図5Aに示されるように、方式は、以下の段階を含む。
S501.関心のある領域に対して第1のグレースケール処理を実行して、第1のグレースケール画像を取得する。
実現可能な例において、グレースケール変換は、第1のグレースケール画像を取得するために、関心のある領域に対して直接実行されてよい。
例えば、グレースケール変換方法は、線形変換、区分線形変換、又は、非線形変換などであってよい。
別の実現可能な例において、関心のある領域に対して第1のグレースケール処理を実行する段階は、以下の方式で実施されてよい。
A1.関心のある領域に含まれるk番目のピクセルのピクセル値に、k番目のピクセルに対応する重み値を乗算する。
k番目のピクセルに対応する重み値は、関心のある領域の第2のグレースケール画像内のk番目のピクセルの対応するグレースケール値に基づいて判定されてよく、関心のある領域の第2のグレースケール画像は、関心のある領域に対してグレースケール変換を実行することにより取得され、kは、Lより小さいすべての正の整数をとり、Lは、関心のある領域に含まれるピクセルの数である。
例えば、Wは、k番目のピクセルに対応する重み値を表し、
=1―I_gray/255
であり、I_grayは、関心のある領域の第2のグレースケール画像内のk番目のピクセルのグレースケール値を表す。
関心のある領域の第2のグレースケール画像は、関心のある領域に対してグレースケール変換を実行することにより取得されてよい。
A2.対応する重み値に、関心のある領域に含まれる各ピクセルに対応する重み値を乗算することにより取得された画像に対してグレースケール変換を実行して、第3のグレースケール画像を取得する。
A3.変換を通じて取得された第3のグレースケール画像に対して最小-最大正規化を実行する。
A4.最小-最大正規化を通じて取得された第3のグレースケール画像に対してグレースケール反転処理を実行して、第1のグレースケール画像を取得する。
例えば、黒の背景上に取得したハイライト領域を白で表示するために、最小-最大正規化は、第3のグレースケール画像を実行して、第3のグレースケール画像の最小-最大正規化された画像を取得してよく、最小-最大正規化された画像は255から減算され、そして、グレースケール反転処理が実行される。255から最小-最大正規化された画像を減算することは、255から最小-最大正規化された画像内のピクセルのピクセル値を減算することにより取得された値をピクセルのピクセル値として用いることである。
グレースケール反転は、画像のグレースケール範囲に対して、線形又は非線形ネゲーション演算を実行して、グレースケールに関する入力画像とは反対の画像を生成することであることに留意すべきである。
A1からA4における第1のグレースケール処理の後に、ハイライト領域の輪郭が描かれ、それにより、ハイライト領域とハイライト領域との間の差異の程度を大きくする。
S502.第1のグレースケール画像に対して二値化処理を実行して、第1のグレースケール画像の二値画像を取得する。
S503.第1のグレースケール画像の二値画像に対して連結成分分析を実行して、少なくとも1つの第1の連結成分を取得する。
S504.少なくとも1つの第1の連結成分のうちの、エリアが第1の予め設定された閾値より小さい連結成分を取り除いて、ハイライト領域を取得し、関心のある領域内のハイライト領域以外の領域は、非ハイライト領域である。
例えば、第1のグレースケール画像の二値画像に対して連結成分分析を実行して、少なくとも1つの第1の連結成分を取得する段階S502は、以下の方式で実施されてよい。
B1.第1のグレースケール画像の二値画像に対して拡大及び/又は腐食処理を実行する。
B2.拡大及び/又は腐食処理を受けた二値画像内の少なくとも1つの第1の連結成分を取得する。
図5Bに示されるように、例として毛穴のROIを用いて、ホワイト領域がハイライト領域に位置決めされる。具体的には、鼻の頭及び右側の頬のみがハイライト領域を含み、他の領域は非ハイライト領域である。
可能な実施例では、段階S303において、ハイライト領域の第1のセグメンテーション閾値を判定する段階は、図6Aに示されるように、以下の方式で実施されてよい。
S601a.関心のある領域に対して第4のグレースケール処理を実行して、第4のグレースケール画像を取得する。
S602a.第4のグレースケール画像内のハイライト領域に含まれるi番目のピクセル及びi番目のピクセルのN個の隣接するピクセルの最小のグレースケール値を取得し、iは、M1より小さい又はこれに等しいすべての正の整数をとり、M1は、ハイライト領域に含まれるピクセルの数であり、Nは、4の倍数に等しく、特に、4つの隣接及び8個の隣接、16個の隣接などがサポートされる。
図7Aに示されるように、ピクセルp(x、y)の4つの隣接するピクセルは、(x+1、y)、(x-1、y)、(x-1、y+1)及び(x、y+1)を含む。図7Bに示されるように、ピクセルp(x、y)の8個の隣接するピクセルは、(x+1、y)、(x-1、y)、(x、y+1)、(x+1、y+1)、(x+1、y-1)、(x-1、y+1)及び(x-1,y-1)を含む。
S603a.M1個の取得した最小のグレースケール値の平均値を第1のセグメンテーション閾値として用いる。
可能な実施例では、段階S303において、非ハイライト領域の第1のセグメンテーション閾値を判定する段階は、図6Bに示されるような方式で実施されてよい。
S601b.関心のある領域に対して第4のグレースケール処理を実行して、第4のグレースケール画像を取得する。
S602b.第4のグレースケール画像内の非ハイライト領域に含まれるj番目のピクセル及びj番目のピクセルのN個の隣接するピクセルのうちの最小のグレースケール値を取得し、jは、M2より小さい又はこれに等しいすべての正の整数をとり、M2は、非ハイライト領域に含まれるピクセルの数である。
S603b.M2個の取得した最小のグレースケール値の平均値を第2のセグメンテーション閾値として用いる。
可能な実施例では、関心のある領域に対して第4のグレースケール処理を実行する段階は、図8Aに示されるように、以下の段階を含んでよい。
S801.関心のある領域に対してグレースケール変換を実行して、第2のグレースケール画像を取得する。
S802.第2のグレースケール画像に対して最小-最大正規化を実行する、すなわち、第2のグレースケール画像のピクセルを[0、255]に正規化する。
S803.最小-最大正規化を受けた第2のグレースケール画像に対してガウス差分フィルタリングを実行して、フィルタリングされた画像を取得する。すなわち、最小-最大正規化を受けた第2のグレースケール画像に対して、2回の異なる程度のガウスフィルタリングを実行し、差を計算して、ガウス差分フィルタリング後に取得したフィルタリングされた画像を取得する。
ガウス差分フィルタリングを通じて、第2のグレースケール画像内の毛穴又は毛穴の黒ずみを際立たせることができる。
S804.フィルタリングされた画像に対して最小-最大正規化を実行する。
S805.最小-最大正規化を受けたフィルタリングされた画像のヒストグラムを取得し、フィルタリングされた画像のヒストグラムに基づいて、フィルタリングされた画像内の第1タイプのピクセルのグレースケール値を0に設定し、フィルタリングされた画像内の第2タイプのピクセルのグレースケール値を255に設定する。
第1タイプのピクセルのグレースケール値は、フィルタリングされた画像内の他のピクセルの最小グレースケール値よりも小さい又はこれに等しく、フィルタリングされた画像内のピクセルの総数における第1タイプのピクセルの数のパーセンテージはa%であり、第2タイプのピクセルのグレースケール値は、フィルタリングされた画像内の他のピクセルの最大グレースケール値より大きい又はこれに等しく、フィルタリングされた画像内のピクセルの総数における第2タイプのピクセルの数のパーセンテージはb%であり、a及びbは両方とも正の整数である。他のピクセルは、第1タイプのピクセル及び第2タイプのピクセル以外のフィルタリングされた画像に含まれるピクセルである。
画像内の第1タイプのピクセル及び第2タイプのピクセルは、例として、図8Bに示されるヒストグラムを用いることにより説明される。例えば、画像内のピクセルの総数は1000であり、a及びbの両方とも2である。第1タイプのピクセルは、グレースケール値が0である1つのピクセル、グレースケール値が1である2つのピクセル、グレースケール値が2である3つのピクセル、グレースケール値が3である10個のピクセル、及び、グレースケール値が4である4つのピクセルを含む。グレースケール値が4である6つのピクセルがある。そのため、6つのピクセルから任意の4つのピクセルが第1タイプのピクセルとして選択されてよい。他のピクセルの最小のグレースケール値は4であり、第1タイプのピクセルのグレースケール値はすべて4より小さい又はこれに等しい。第2タイプのピクセルは、グレースケール値が255である1つのピクセル、グレースケール値が254である12個のピクセル、グレースケール値が253である7個のピクセルを含む。他のピクセルの最大グレースケール値は252であり、第2タイプのピクセルのグレースケール値はすべて252より大きい。
発明者は、本願に関する研究を行ったときに、ノーズシャドウ領域における毛穴又は毛穴の黒ずみの誤検出が頻繁に発生することを発見した。誤検出の割合を減らすために、ノーズシャドウ領域が位置決めされてよく、ノーズシャドウ領域は、毛穴の黒ずみ及び毛穴が判定される前に関心のある領域から除去されてよい。これを考慮して、融合した画像に基づいて、関心のある領域に含まれる毛穴及び/又は毛穴の黒ずみが識別された場合、ノーズシャドウ領域は、融合した画像から除去されてよく、ノーズシャドウ領域が除去された融合した画像に基づいて、関心のある領域に含まれる毛穴及び/又は毛穴の黒ずみが判定される。
実現可能な例では、ノーズシャドウ領域は、図9に示されるような方式で位置決めされてよい。
S901.関心のある領域に対して第4のグレースケール処理を実行して、第4のグレースケール画像を取得し、第4のグレースケール画像に対して二値化処理を実行して、第4のグレースケール画像の二値画像を取得する。関心のある領域に対して第4のグレースケール処理を実行する処理については、図8Aについての上述した説明を参照されたい。ここで再び詳細が説明されることはない。
S902.第4のグレースケール画像の二値画像に対して連結成分分析を実行して、少なくとも1つの第2の連結成分を取得する。
オプションで、第4のグレースケール画像の二値画像に対して連結成分分析を実行して、少なくとも1つの第2の連結成分を取得する段階S902は、第4のグレースケール画像の二値画像に対して拡大及び/又は腐食処理を実行して、第4のグレースケール画像の、拡大及び/又は腐食処理を受けた二値画像における少なくとも1つの第2の連結成分を取得する段階を含んでよい。例えば、第4のグレースケール画像の二値画像に対して、拡大前の腐食処理又は腐食前の拡大が実行されてよい。
S903.少なくとも1つの第2の連結成分のうちの、エリアが第2の予め設定された閾値よりも小さい連結成分を取り除いてノーズシャドウ領域を取得する。
可能な実施例において、第1のセグメンテーション閾値に基づいて、ハイライト領域の二値画像を取得し、第2のセグメンテーション閾値に基づいて、非ハイライト領域の二値画像を取得するS304は、
関心のある領域に対して第4のグレースケール処理を実行して、第4のグレースケール画像を取得し、第1のセグメンテーション閾値に基づいて第4のグレースケール画像内の対応するハイライト領域に対して二値化処理を実行して、ハイライト領域の二値画像を取得し、第2のセグメンテーション閾値に基づいて、第4のグレースケール画像内の対応する非ハイライト領域に対して二値化処理を実行して、非ハイライト領域の二値画像を取得するという態様で実施されてよい。
ハイライト領域のセグメンテーション閾値及び非ハイライト領域のセグメンテーション閾値を判定し、ノーズシャドウ領域を位置決めし、及び、ハイライト領域の二値画像及び非ハイライト領域の二値画像を取得している間に、第4のグレースケール画像を取得するために、関心のある領域に対して第4のグレースケール処理が実行されてよいことに留意すべきである。このオペレーションは、本願の本実施形態において1度のみ実行されてよく、第4のグレースケール画像は、バッファされ、必要なときにバッファからフェッチされる。
可能な実施例において、融合した画像に基づいて、関心のある領域に含まれる毛穴及び/又は毛穴の黒ずみを識別する段階S306は、以下の方式で実施されてよい。
D1.融合した画像に含まれる少なくとも1つの第3の連結成分を取得し、それぞれの第3の連結成分に対応するパラメータを取得し、パラメータは、半径、円形度及び内部-外部の色バリエーション値のうちの少なくとも1つを含み、円形度は、第3の連結成分の形状と円との間の類似度を表すために用いられる。
ノーズシャドウ領域を除去するオペレーションの間に、融合した画像に基づいて、関心のある領域に含まれる毛穴及び/又は毛穴の黒ずみを識別する段階は、ノーズシャドウ領域が除去された融合した画像に含まれる少なくとも1つの第3の連結成分を取得する段階を含むことに留意すべきである。
融合した画像に対して連結成分分析が実行され、半径、円形度又は内部-外部の色バリエーション値のそれぞれの第3の連結成分が計算及び記録される。
例えば、Oは、i番目の第3の連結成分の円形度を表し、O=4π×領域/周長である。第3の連結成分の形状は、より円に近い形状であり、Oは1に近づく。式において、エリアは、第3の連結成分のエリアであり、周長は第3の連結成分の周長である。
例えば、i番目の第3の連結成分の内部-外部の色バリエーション値は、Vで表される。
第3の連結成分の内部-外部の色バリエーション値は、以下の方式に限定されることなく、以下の方式で判定されてよい。
第1の可能な実施例は以下のとおりである。
i番目の第3の連結成分について、オリジナルのROI画像における第3の連結成分、それぞれ、3つのチャネルR、G及びBにおけるすべての対応するピクセルの最小値(又は、平均値)がまず計算され、In_R、In_G及びIn_Bとして示される。そして、i番目の第3の連結成分は、1つの円(又は、N個の円)により外側に拡大され、3つのチャネルR、G及びBにおけるそれぞれにおける1つの円(又は、N個の円)内のピクセルの平均値が計算され、Out_R、Out_G及びOut_Bとして示される。図10における図を例として用いると、最も内側にある矩形が連結成分を表す。連結成分が1つの円により拡大される場合、矩形の中心によりカバーされるピクセルの平均値は、チャネルR、G及びBのそれぞれにおいて、計算されてよい。2つの円により連結成分が拡大された場合、チャネルR、G及びBのそれぞれにおける最も外側の円にある矩形によりカバーされるピクセルの平均値が計算されてよい。最後に、i番目の第3の連結成分について、(Out_R-In_R)+(Out_G-In_G)+(Out_B-In_B)の値が計算され、連結成分の内部-外部の色バリエーション値として、すなわち、V=(Out_R-In_R)+(Out_G-In_G)+(Out_B-In_B)として用いられる。
第2の可能な実施例は以下のとおりである。
3つのチャネルにおける第3の連結成分の内部から外部の色の割合の和は、第3の連結成分の内部-外部の色バリエーション値:V=(In_R/Out_R)+(In_G/Out_G)+(In_B/Out_B)として用いられる。
第3の可能な実施例は以下のとおりである。
(ROIに対応する第2のグレースケール画像又は第4のグレースケール画像であってよい)ROIのグレースケール画像内の、それぞれの第3の連結成分に対応するすべてのピクセルについてのグレースケール値の最小値(又は、平均値)が計算され、In_Grayとして示される。そして、それぞれの第3の連結成分は、1つの円(又は、N個の円)により外側に拡大され、1つの円(又は、N個の円)内のピクセルのグレースケール値の平均値が計算され、Out_Grayとして示される。(Out_Gray-In_Gray)が計算され、第3の連結成分の内部-外部の色バリエーション値として、すなわち、V=(Out_Gray-In_Gray)として用いられる。
第4の可能な実施例は以下のとおりである。
ROIのグレースケール画像の内部から外部の色の割合は、In_Gray/Out_Grayとして計算され、第3の連結成分の内部-外部の色バリエーション値、すなわち、V=In_Gray/Out_Grayとして用いられる。
D2.それぞれの第3の連結成分に対応するパラメータに基づいて、第3の連結成分に対応する位置が毛穴又は毛穴の黒ずみであるかを識別する。
上述した連結成分分析及びさまざまなインジケータの計算に基づいた、効果的な毛穴/毛穴の黒ずみの判定、すなわち、毛穴が検出され、条件1を満たす第3の連結成分が毛穴として判定され、毛穴の黒ずみが検出され、条件2を満たす第3の連結成分が毛穴の黒ずみとして判定される。例えば、条件1は以下のとおりであってよい。半径は、[A1、B1]の範囲内であり、内部-外部の色バリエーション値は、C1より大きく、円形度は、D1より大きい。条件2は以下のとおりであってよい。半径は、[A2、B2]の範囲内にあり、内部-外部の色バリエーション値は、C2より大きく、円形度は、D2より大きい。
ROIに含まれる毛穴又は毛穴の黒ずみが識別された後に、毛穴又は毛穴の黒ずみの量子化されたスコアが計算されてよい。
例えば、毛穴の量子化されたスコアは、以下の方式で判定されてよい。識別された毛穴に対応する画像を処理して、量子化された毛穴インジケータを取得し、量子化された毛穴インジケータに基づいて、関心のある領域の量子化された毛穴スコアを計算し、量子化された毛穴スコアを表示する。
量子化された毛穴インジケータは、毛穴エリアの割合、毛穴密度、平均の毛穴の内部-外部の色バリエーション値、及び、毛穴の内部-外部の色バリエーション値-重み付けされたエリアの割合のうちの少なくとも1つを含む。
毛穴エリアの割合は、ROIのエリアに対する関心のある領域に含まれ毛穴の総面積の割合である。すなわち、
Figure 0007067697000001
である。 式において、
Figure 0007067697000002
は、毛穴エリアの割合を表し、
Figure 0007067697000003
は、j番目の毛穴のエリアを表し、PO1は、ROIのエリアを表し、n1は、毛穴の数を表す。
毛穴密度は、関心のある領域のエリアに対する関心のある領域に含まれる毛穴の数の割合である。すなわち、
Figure 0007067697000004
であり、
Figure 0007067697000005
は、毛穴密度を表す。
平均の毛穴の内部-外部の色バリエーション値は、関心のある領域に含まれる毛穴の内部-外部の色バリエーション値の平均値である。すなわち、
Figure 0007067697000006
であり、
Figure 0007067697000007
は、平均の毛穴の内部-外部の色バリエーション値を表し、
Figure 0007067697000008
は、j番目の毛穴の内部-外部の色バリエーション値を表す。
毛穴の内部-外部の色バリエーション値を判定する方式については、連結成分の内部-外部の色バリエーション値を計算するための方式の説明を参照されたい。
毛穴の内部-外部の色バリエーション値-重み付けされたエリアの割合は、関心のある領域に含まれる各毛穴の内部-外部の色バリエーション値に対応するエリアを乗算することにより取得されたすべての値を加算することにより取得される和の、関心のある領域のエリアに対する割合である。すなわち、
Figure 0007067697000009
であり、
Figure 0007067697000010
毛穴の内部-外部の色バリエーション値-重み付けされたエリアの割合を表す。
例えば、
Figure 0007067697000011
であり、w1からw5は、重み値である。
例えば、毛穴の黒ずみの量子化されたスコアは、以下の方式で判定されてよい。
識別された毛穴の黒ずみに対応する画像を処理して、量子化された毛穴の黒ずみインジケータを取得し、量子化された毛穴の黒ずみインジケータに基づいて、関心のある領域の量子化された毛穴の黒ずみスコアを計算する。
量子化された毛穴の黒ずみインジケータは、毛穴の黒ずみエリアの割合、毛穴の黒ずみの密度、平均の毛穴の黒ずみの内部-外部の色バリエーション値、及び、毛穴の黒ずみの内部-外部の色バリエーション値-重み付けされたエリアの割合のうちの少なくとも1つを含む。
毛穴の黒ずみエリアの割合は、ROIのエリアに対する関心のある領域に含まれる毛穴の黒ずみの総面積の割合である。すなわち、
Figure 0007067697000012
であり、
Figure 0007067697000013
は、毛穴の黒ずみエリアの割合を表し、
Figure 0007067697000014
は、k番目の毛穴の黒ずみのエリアを表し、PO1は、ROIのエリアを表し、n2は、毛穴の黒ずみの数を表す。
毛穴の黒ずみの密度は、関心のある領域のエリアに対する関心のある領域に含まれる毛穴の黒ずみの数の割合である。すなわち、
Figure 0007067697000015
であり、
Figure 0007067697000016
は、毛穴の黒ずみの密度を表す。
平均の毛穴の黒ずみの内部-外部の色バリエーション値は、関心のある領域に含まれる毛穴の黒ずみの内部-外部の色バリエーション値の平均値である。すなわち、
Figure 0007067697000017
であり、
Figure 0007067697000018
は、平均の毛穴の黒ずみの内部-外部の色バリエーション値を表し、
Figure 0007067697000019
k番目の毛穴の黒ずみの内部-外部の色バリエーション値を表す。
毛穴の黒ずみの内部-外部の色バリエーション値を判定するための方式については、連結成分の内部-外部の色バリエーション値を計算するための方式の説明を参照されたい。
毛穴の黒ずみの内部-外部の色バリエーション値-重み付けされたエリアの割合は、関心のある領域に含まれる各毛穴の黒ずみの内部-外部の色バリエーション値に、対応するエリアを乗算することにより取得されたすべての値を加算することにより取得される和の、関心のある領域のエリアに対する割合である。すなわち、
Figure 0007067697000020
であり、
Figure 0007067697000021
は、毛穴の黒ずみの内部-外部の色バリエーション値-重み付けされたエリアの割合を表す。
例えば、
Figure 0007067697000022
であり、y1からy5は、重み値である。
以下では、図11に示されるような毛穴の検出を例として用いることにより、肌検出処理を説明する。
例えば、図12Aに示されるように、画像を取得し、毛穴のROIを取得する。図12Bに示されるように、ROIに対してグレースケール前処理を実行し、毛穴のROIに対して第4のグレースケール処理を実行して、毛穴のROIの第4のグレースケール画像を取得する。これは、図8Aに示される処理を用いることにより実施されてよい。毛穴のROIのハイライト領域を位置決めする、すなわち、ハイライト領域マスク、例えば、図12Cに示されるハイライト領域を取得する。これは、図5Aに示される処理を用いることにより実施されてよい。毛穴のROIの非ハイライト領域を位置決めする。毛穴のROIに対応する第4のグレースケール画像に基づいて、ハイライト領域の第1のセグメンテーション閾値を判定し、非ハイライト領域の第2のセグメンテーション閾値を判定する。これは、図6A及び図6Bに示される処理を用いることにより実施されてよい。第1のセグメンテーション閾値に基づいて、毛穴のROIに対応する第4のグレースケール画像に対して二値化処理を実行して、図12Dに示されるようなハイライト領域の二値画像を取得する。第2のセグメンテーション閾値に基づいて、毛穴のROIの第4のグレースケール画像に対して二値化処理を実行して、図12Eに示されるような非ハイライト領域の二値画像を取得する。ハイライト領域の二値画像と非ハイライト領域の二値画像とを融合して、図12Fに示されるような融合した画像を取得する。毛穴のROIに対応する第4のグレースケール画像に基づいて、ノーズシャドウ領域を位置決めして、図12Gに示されるようなノーズシャドウ領域を取得する。ノーズシャドウ領域が除去された融合した画像を取得し、ノーズシャドウ領域が除去された融合した画像内のROIに含まれる毛穴に基づいて、毛穴の量子化されたスコアを判定する。
図13A、図13B及び図13Cは、毛穴の検出結果についての3つの例を示す。図14は、毛穴の黒ずみの検出結果の4つの例を示す。
可能な実施例では、例えば、プロセッサ110は、本願に係る肌の検出方法を実行する。毛穴及び/又は毛穴の黒ずみを識別し、量子化された毛穴スコア及び量子化された毛穴の黒ずみスコアを判定した後、プロセッサ110は、量子化された毛穴スコア及び量子化された毛穴の黒ずみスコアを、ディスプレイスクリーン194示されるユーザインタフェースに表示してよい。例えば、図2に示されるように、量子化された毛穴の黒ずみスコア及び量子化された毛穴スコアは、ディスプレイスクリーン194に示されるユーザインタフェースに表示される。
本願の本実施形態において提供される肌の検出方法を用いることにより、毛穴及び/又は毛穴の黒ずみが検出された後、さらに、検出結果報告がユーザに提供されてよい。検出結果報告は、限定されるものではないが、量子化された毛穴スコア、量子化された毛穴の黒ずみスコア、肌ケア、アドバイス及びグラフィカルな結果などを含んでよい。ユーザの顔画像は、ディスプレイスクリーン194に示されるユーザインタフェースに表示されてよく、毛穴の黒ずみ及び毛穴は、異なる表示方式で顔画像上にマーキングされる。検出結果報告は、図15に示されるユーザインタフェース1500に示されるレポートであってよい。図2に示される仮想ボタン201または202をユーザがタップしたことを電子デバイス100が検出した場合に、ユーザインタフェース1500の提示がトリガされてよい、又は、ユーザインタフェース上に、量子化された毛穴の黒ずみスコア又は量子化された毛穴スコアが配置されている表示領域をユーザがタップしたことを電子デバイス100が検出した場合に、トリガされてよい。例として、図2に示されるユーザインタフェース200を用いて、ディスプレイスクリーン194上でエントリ「毛穴の黒ずみ69ポイント」が配置されている表示領域をユーザがタップしたことを電子デバイス100が検出した場合に、ユーザインタフェース1500の表示がトリガされる。もちろん、ユーザインタフェース1500の提示は、代わりに、別の方式でトリガされてよい。ユーザインタフェース1200の提示をトリガするための方式は、本願の本実施形態において特に限定されるものではない。
上述された実施形態は、組み合わせて用いられてよい、又は、独立して用いられてよい。
本願において提供される上述された実施形態において、本願の本実施形態において提供される方法は、電子デバイスが実行主体であるという観点から説明されている。本願の本実施形態において提供される方法における機能を実装するために、電子デバイスは、ハードウェア構造及び/又はソフトウェアモジュールを含み、ハードウェア構造、ソフトウェアモジュール、又は、ハードウェア構造とソフトウェアモジュールとの組み合わせの形式で上述の機能を実装してよい。上述の機能の特定の機能がハードウェア構造、ソフトウェアモジュール、又は、ハードウェア構造とソフトウェアモジュールとの組み合わせの方式で実装されるかは、特定のアプリケーション、及び、技術的な解決手段の設計制約条件に依存する。
同一の概念に基づいて、図16は、本願に係る電子デバイス1600を示す。例えば、電子デバイス1600は、少なくとも1つのプロセッサ1610及びメモリ1620を含み、さらに、ディスプレイスクリーン1630及びカメラ1640を含んでよい。プロセッサ1610は、メモリ1620に連結され、ディスプレイスクリーン1630は、カメラ1640に連結される。本願の本実施形態において、連結は、装置、ユニット又はモジュール間の間接的な連結又は通信接続である。連結は、電気的、機械的又は他の形式であってよく、装置、ユニット又はモジュール間で情報をやり取りするために用いられる。
具体的には、メモリ1620は、プログラム命令を格納するように構成され、カメラ1640は、画像を取り込むように構成され、ディスプレイスクリーン1630は、カメラ1640が撮影を開始した場合、撮影プレビューインタフェースを表示するように構成され、撮影プレビューインタフェースは、カメラ1640により収集された画像を含む。ディスプレイスクリーン1630は、さらに、上述された実施形態において言及されたユーザインタフェース、例えば、図2に示されるユーザインタフェース、図4Aに示されるインタフェース、図10に示されるユーザインタフェース、図11に示されるユーザインタフェース、及び、図12に示されるユーザインタフェースを表示するように構成されてよい。プロセッサ1610は、メモリ1620に格納されているプログラム命令を呼び出して実行し、図3Aに示される肌の検出方法における段階を実行するように構成される。
電子デバイス1600は、本願の実施形態に係る図3Aに示される肌の検出方法を実施するように構成され得ることを理解されたい。関連する特徴については、上述した説明を参照されたい。ここで再び詳細が説明されることはない。
当業者であれば、本願の実施形態は、ハードウェア、ファームウェア又はこれらの組み合わせにより実装され得ることを明確に理解し得る。本発明がソフトウェアにより実装される場合、上述の機能は、コンピュータ可読媒体に格納されてよい、又は、コンピュータ可読媒体内の1つ又は複数の命令又はコードとして伝送されてよい。コンピュータ可読媒体は、コンピュータ記憶媒体及び通信媒体を含み、通信媒体は、コンピュータプログラムがある場所から別の場所へ伝送されることを可能にする任意の媒体を含む。記憶媒体は、コンピュータにアクセス可能な任意の利用可能な媒体であってよい。例として、かつ、限定するものではなく、コンピュータ可読媒体は、RAM、ROM、電気的消去可能プログラマブルリードオンリメモリ(electrically erasable programmable read only memory、EEPROM)、コンパクトディスクリードオンリメモリ(compact disc read-only memory、CD-ROM)又は別のコンパクトディスクメモリ、磁気ディスク記憶媒体又は別の磁気ストレージデバイス、又は、命令又はデータ構造形式を有する予測されるプログラムコードを搬送又は格納するために用いられることができ、コンピュータによりアクセスできる任意の他の媒体を含んでよい。さらに、任意の接続がコンピュータ可読媒体として適宜規定されてよい。例えば、同軸ケーブル、光ファイバ/ケーブル、ツイストペア、デジタル加入者線(digital subscriber line、DSL)、又は、赤外線、無線及びマイクロ波などの無線技術を使用して、ソフトウェアがウェブサイト、サーバ、又は別のリモートソースから送信された場合、同軸ケーブル、光ファイバ/ケーブル、ツイストペア、DSL、又は、赤外線、無線、及びマイクロ波などの無線技術は、それらが属する媒体の固定に含まれる。本願の実施形態により用いられるディスク(disk)及びディスク(disc)は、コンパクトディスク(compact disc、CD)、レーザディスク、光ディスク、デジタルビデオディスク(digital video disc、DVD)、フロッピディスク及びBlu-ray(登録商標)ディスクを含み、diskは、概して、磁気手段によりデータをコピーし、discは、レーザ手段により光学的にデータをコピーする。上述した組み合わせはまた、コンピュータ可読媒体の保護範囲に含まれるべきである。
要約すると、上述したものは、本願の実施形態に過ぎず、本願の保護範囲を制限することを目的としたものではない。本願の開示に基づいた任意の修正、同等の置換、改良は、本願の保護範囲に含まれるものとする。
[項目1]
肌の検出方法であって、
顔画像の関心のある領域を取得する段階と、
上記関心のある領域をハイライト領域と非ハイライト領域とに分割する段階と、
上記ハイライト領域の第1のセグメンテーション閾値及び上記非ハイライト領域の第2のセグメンテーション閾値を別々に判定する段階と、
上記第1のセグメンテーション閾値に基づいて、上記ハイライト領域の二値画像を取得し、上記第2のセグメンテーション閾値に基づいて、上記非ハイライト領域の二値画像を取得する段階と、
上記ハイライト領域の上記二値画像と上記非ハイライト領域の上記二値画像とを融合する段階と、
融合した画像に基づいて、上記関心のある領域に含まれる毛穴及び/又は毛穴の黒ずみを識別する段階と
を備える方法。
[項目2]
上記関心のある領域をハイライト領域と非ハイライト領域とに分割する上記段階は、
上記関心のある領域に対して第1のグレースケール処理を実行して、第1のグレースケール画像を取得する段階と、
上記第1のグレースケール画像に対して二値化処理を実行して、上記第1のグレースケール画像の二値画像を取得する段階と、
上記第1のグレースケール画像の上記二値画像に対して連結成分分析を実行して、少なくとも1つの第1の連結成分を取得する段階と、
上記少なくとも1つの第1の連結成分のうちの、エリアが第1の予め設定された閾値より小さい連結成分を取り除いて、上記ハイライト領域を取得する段階と
を有し、
上記関心のある領域内の上記ハイライト領域以外の領域は、上記非ハイライト領域である、項目1に記載の方法。
[項目3]
上記関心のある領域に対して第1のグレースケール処理を実行して、第1のグレースケール画像を取得する上記段階は、
上記関心のある領域に含まれるk番目のピクセルのピクセル値に、上記k番目のピクセルに対応する重み値を乗算する段階であって、上記k番目のピクセルに対応する上記重み値は、上記関心のある領域の第2のグレースケール画像内の上記k番目のピクセルの対応するグレースケール値に基づいて判定され、上記関心のある領域の上記第2のグレースケール画像は、上記関心のある領域に対してグレースケール変換を実行することにより取得され、kは、Lより小さいすべての正の整数をとり、Lは、上記関心のある領域に含まれるピクセルの数である、段階と、
上記関心のある領域に含まれる各ピクセルに対応する重み値を乗算することにより取得された画像に対してグレースケール変換を実行して、第3のグレースケール画像を取得する段階と、
上記変換を通じて取得された上記第3のグレースケール画像に対して最小-最大正規化を実行する段階と、
上記最小-最大正規化を通じて取得された上記第3のグレースケール画像に対してグレースケール反転処理を実行して、上記第1のグレースケール画像を取得する段階と
を有する、項目2に記載の方法。
[項目4]
上記第1のグレースケール画像の上記二値画像に対して連結成分分析を実行して、少なくとも1つの第1の連結成分を取得する上記段階は、
上記第1のグレースケール画像の上記二値画像に対して拡大及び/又は腐食処理を実行する段階と、
上記拡大及び/又は腐食処理を受けた上記二値画像における少なくとも1つの第1の連結成分を取得する段階と
を含む、項目2又は3に記載の方法。
[項目5]
上記ハイライト領域の第1のセグメンテーション閾値を判定する上記段階は、
上記関心のある領域に対して第4のグレースケール処理を実行して、第4のグレースケール画像を取得し、上記第4のグレースケール画像内の上記ハイライト領域に含まれるi番目のピクセルと、上記i番目のピクセルのN個の隣接するピクセルとのうちの最小のグレースケール値を取得する段階であって、iは、M1より小さい又はこれに等しいすべての正の整数をとり、M1は、上記ハイライト領域に含まれるピクセルの数であり、Nは、4の倍数に等しい、段階と、M1個の取得した最小のグレースケール値の平均値を上記第1のセグメンテーション閾値として用いる段階とを有する、項目1から4いずれか一項に記載の方法。
[項目6]
上記非ハイライト領域の第2のセグメンテーション閾値を判定する上記段階は、
上記関心のある領域に対して第4のグレースケール処理を実行して、第4のグレースケール画像を取得し、上記第4のグレースケール画像内の上記非ハイライト領域に含まれるj番目のピクセルと、上記j番目のピクセルのN個の隣接するピクセルとの最小のグレースケール値を取得する段階であって、jは、M2より小さい又はこれに等しいすべての正の整数をとり、M2は、上記非ハイライト領域に含まれるピクセルの数である、段階と、M2個の取得した最小のグレースケール値の平均値を上記第2のセグメンテーション閾値として用いる段階とを有する、項目1から4のいずれか一項に記載の方法。
[項目7]
融合した画像に基づいて、上記関心のある領域に含まれる毛穴及び/又は毛穴の黒ずみを識別する上記段階は、
上記融合した画像に対して腐食及び/又は拡大処理を実行する段階と、
上記腐食及び/又は拡大処理を受けた上記融合した画像に基づいて、上記関心のある領域に含まれる上記毛穴及び/又は上記毛穴の黒ずみを識別する段階と
を有する、項目1から6のいずれか一項に記載の方法。
[項目8]
融合した画像に基づいて、上記関心のある領域に含まれる毛穴及び/又は毛穴の黒ずみを識別する上記段階は
上記融合した画像からノーズシャドウ領域を除去する段階と、上記ノーズシャドウ領域が除去された上記融合した画像に基づいて、上記関心のある領域に含まれる上記毛穴及び/又は上記毛穴の黒ずみを判定する段階とを有する、項目1から7のいずれか一項に記載の方法。
[項目9]
上記ノーズシャドウ領域は、
上記関心のある領域に対して第4のグレースケール処理を実行して、第4のグレースケール画像を取得し、上記第4のグレースケール画像に対して二値化処理を実行して、上記第4のグレースケール画像の二値画像を取得し、
上記第4のグレースケール画像の上記二値画像に対して連結成分分析を実行して、少なくとも1つの第2の連結成分を取得し、
上記少なくとも1つの第2の連結成分の、エリアが第2の予め設定された閾値よりも小さい連結成分を取り除いて、上記ノーズシャドウ領域を取得する
方式で位置決めされる、項目8に記載の方法。
[項目10]
上記第4のグレースケール画像の上記二値画像に対して連結成分分析を実行して、少なくとも1つの第2の連結成分を取得する上記段階は、
上記第4のグレースケール画像の上記二値画像に対して拡大及び/又は腐食処理を実行する段階と、
上記第4のグレースケール画像の、上記拡大及び/又は腐食処理を受けた上記二値画像における少なくとも1つの第2の連結成分を取得する段階と
を含む、項目9に記載の方法。
[項目11]
上記関心のある領域に対して第4のグレースケール処理を実行して、第4のグレースケール画像を取得する上記段階は、
上記関心のある領域に対してグレースケール変換を実行して、上記第2のグレースケール画像を取得する段階と、
上記第2のグレースケール画像に対して最小-最大正規化を実行する段階と、
上記最小-最大正規化を受けた上記第2のグレースケール画像に対してガウス差分フィルタリングを実行して、フィルタリングされた画像を取得する段階と、
上記フィルタリングされた画像に対して最小-最大正規化を実行する段階と、
上記最小-最大正規化を受けた上記フィルタリングされた画像のヒストグラムを取得し、上記フィルタリングされた画像の上記ヒストグラムに基づいて、上記フィルタリングされた画像内の第1タイプのピクセルのグレースケール値を0に設定し、上記フィルタリングされた画像内の第2タイプのピクセルのグレースケール値を255に設定する段階と
を含み、
上記第1タイプのピクセルの上記グレースケール値は、上記フィルタリングされた画像内の他のピクセルの最小グレースケール値よりも小さい又はこれに等しく、上記フィルタリングされた画像内のピクセルの総数における上記第1タイプのピクセルの数のパーセンテージはa%であり、上記第2タイプのピクセルのグレースケール値は、上記フィルタリングされた画像内の他のピクセルの最大グレースケール値より大きい又はこれに等しく、上記フィルタリングされた画像内の上記ピクセルの総数における上記第2タイプのピクセルの数のパーセンテージはb%であり、a及びbは両方とも正の整数である、項目5、6及び9のいずれか一項に記載の方法。
[項目12]
融合した画像に基づいて、上記関心のある領域に含まれる毛穴及び/又は毛穴の黒ずみを識別する上記段階は、
上記融合した画像に含まれる少なくとも1つの第3の連結成分を取得し、それぞれの第3の連結成分に対応するパラメータを取得する段階であって、上記パラメータは、半径、円形度及び内部-外部の色バリエーション値のうちの少なくとも1つを有する、段階と、
それぞれの第3の連結成分に対応する上記パラメータに基づいて、上記第3の連結成分に対応する位置が毛穴又は毛穴の黒ずみであるかを識別する段階と
を含み、
上記円形度は、上記第3の連結成分の形状と円との間の類似度を表すために用いられ、上記内部-外部の色バリエーション値は、上記関心のある領域の位置で上記第3の連結成分に対応する内部ピクセル値と外部ピクセル値との間の差分又は割合である、項目1から11のいずれか一項に記載の方法。
[項目13]
上記方法は、さらに、
識別された毛穴に対応する画像を処理して、量子化された毛穴インジケータを取得する段階と、上記量子化された毛穴インジケータに基づいて、上記関心のある領域の量子化された毛穴スコアを計算する段階と、上記量子化された毛穴スコアを表示する段階とを備え、
上記量子化された毛穴インジケータは、毛穴エリアの割合、毛穴密度、平均の毛穴の内部-外部の色バリエーション値、及び、毛穴の内部-外部の色バリエーション値-重み付けされたエリアの割合のうちの少なくとも1つを有し、
上記毛穴エリアの割合は、上記関心のある領域のエリアに対する上記関心のある領域に含まれる毛穴の総面積の割合であり、上記毛穴密度は、上記関心のある領域の上記エリアに対する上記関心のある領域に含まれる毛穴の数の割合であり、上記平均の毛穴の内部-外部の色バリエーション値は、上記関心のある領域に含まれる上記毛穴の内部-外部の色バリエーション値の平均値であり、上記毛穴の内部-外部の色バリエーション値-重み付けされたエリアの上記割合は、上記関心のある領域に含まれる各毛穴の内部-外部の色バリエーション値を対応するエリアごとに乗算することにより取得されたすべての値を加算することにより取得された和の、上記関心のある領域の上記エリアに対する割合である、項目1から12のいずれか一項に記載の方法。
[項目14]
上記方法は、さらに、
識別された毛穴の黒ずみに対応する画像を処理して、量子化された毛穴の黒ずみインジケータを取得する段階と、上記量子化された毛穴の黒ずみインジケータに基づいて、上記関心のある領域の量子化された毛穴の黒ずみスコアを計算する段階と、上記量子化された毛穴の黒ずみスコアを表示する段階とを備え、
上記量子化された毛穴の黒ずみインジケータは、毛穴の黒ずみエリアの割合、毛穴の黒ずみの密度、平均の毛穴の黒ずみの内部-外部の色バリエーション値、及び、毛穴の黒ずみの内部-外部の色バリエーション値-重み付けされたエリアの割合のうちの少なくとも1つを有し、
上記毛穴の黒ずみエリアの割合は、上記関心のある領域の上記エリアに対する上記関心のある領域に含まれる毛穴の黒ずみの総面積の割合であり、上記毛穴の黒ずみの密度は、上記関心のある領域の上記エリアに対する上記関心のある領域に含まれる毛穴の黒ずみの数の割合であり、上記平均の毛穴の黒ずみの内部-外部の色バリエーション値は、上記関心のある領域に含まれる上記毛穴の黒ずみの内部-外部の色バリエーション値の平均値であり、上記毛穴の黒ずみの内部-外部の色バリエーション値-重み付けされたエリアの上記割合は、上記関心のある領域に含まれる各毛穴の黒ずみの内部-外部の色バリエーション値を対応するエリアごとに乗算することにより取得されたすべての値を加算することにより取得される和の、上記関心のある領域の上記エリアに対する割合である、項目1から13のいずれか一項に記載の方法。
[項目15]
プロセッサ及びメモリを備える電子デバイスであって、上記プロセッサは、上記メモリに連結されており、
上記メモリは、プログラム命令を格納するように構成され、
上記プロセッサは、上記メモリに格納されている上記プログラム命令を読み出して、本願の実施形態における項目1から14のいずれか一項に記載の方法を実施するように構成される、電子デバイス。
[項目16]
コンピュータ記憶媒体であって、上記コンピュータ記憶媒体は、プログラム命令を格納し、上記プログラム命令が電子デバイス上で動作する場合、上記電子デバイスは、項目1から14のいずれか一項に記載の方法を実行することが可能である、コンピュータ記憶媒体。
[項目17]
コンピュータプログラム製品であって、上記コンピュータプログラム製品が電子デバイスで動作する場合、上記電子デバイスは、項目1から14のいずれか一項に記載の方法を実行することが可能である、コンピュータプログラム製品。
[項目18]
チップであって、上記チップは、電子デバイス内のメモリに連結されており、上記電子デバイスが項目1から14のいずれか一項に記載の方法を実行することを可能にする、チップ。

Claims (15)

  1. 肌の検出方法であって、
    顔画像の関心のある領域を取得する段階と、
    前記関心のある領域をハイライト領域と非ハイライト領域とに分割する段階と、
    前記ハイライト領域の第1のセグメンテーション閾値及び前記非ハイライト領域の第2のセグメンテーション閾値を別々に判定する段階と、
    前記第1のセグメンテーション閾値に基づいて、前記ハイライト領域の二値画像を取得し、前記第2のセグメンテーション閾値に基づいて、前記非ハイライト領域の二値画像を取得する段階と、
    前記ハイライト領域の前記二値画像と前記非ハイライト領域の前記二値画像とを融合する段階と、
    融合した画像に基づいて、前記関心のある領域に含まれる毛穴及び/又は毛穴の黒ずみを識別する段階と
    を備える方法。
  2. 前記関心のある領域をハイライト領域と非ハイライト領域とに分割する段階は、
    前記関心のある領域に対して第1のグレースケール処理を実行して、第1のグレースケール画像を取得する段階と、
    前記第1のグレースケール画像に対して二値化処理を実行して、前記第1のグレースケール画像の二値画像を取得する段階と、
    前記第1のグレースケール画像の前記二値画像に対して連結成分分析を実行して、少なくとも1つの第1の連結成分を取得する段階と、
    前記少なくとも1つの第1の連結成分のうちの、エリアが第1の予め設定された閾値より小さい連結成分を取り除いて、前記ハイライト領域を取得する段階と
    を有し、
    前記関心のある領域内の前記ハイライト領域以外の領域は、前記非ハイライト領域である、請求項1に記載の方法。
  3. 前記関心のある領域に対して第1のグレースケール処理を実行して、第1のグレースケール画像を取得する前記段階は、
    前記関心のある領域に含まれるk番目のピクセルのピクセル値に、前記k番目のピクセルに対応する重み値を乗算する段階であって、前記k番目のピクセルに対応する前記重み値は、前記関心のある領域の第2のグレースケール画像内の前記k番目のピクセルの対応するグレースケール値に基づいて判定され、前記関心のある領域の前記第2のグレースケール画像は、前記関心のある領域に対してグレースケール変換を実行することにより取得され、kは、Lより小さいすべての正の整数をとり、Lは、前記関心のある領域に含まれるピクセルの数である、段階と、
    前記関心のある領域に含まれる各ピクセルに対応する重み値を乗算することにより取得された画像に対してグレースケール変換を実行して、第3のグレースケール画像を取得する段階と、
    前記グレースケール変換を通じて取得された前記第3のグレースケール画像に対して最小-最大正規化を実行する段階と、
    前記最小-最大正規化を通じて取得された前記第3のグレースケール画像に対してグレースケール反転処理を実行して、前記第1のグレースケール画像を取得する段階と
    を有する、請求項2に記載の方法。
  4. 前記第1のグレースケール画像の前記二値画像に対して連結成分分析を実行して、少なくとも1つの第1の連結成分を取得する前記段階は、
    前記第1のグレースケール画像の前記二値画像に対して拡大及び/又は腐食処理を実行する段階と、
    前記拡大及び/又は腐食処理を受けた前記二値画像における少なくとも1つの第1の連結成分を取得する段階と
    を含む、請求項2又は3に記載の方法。
  5. 前記ハイライト領域の第1のセグメンテーション閾値を判定する前記段階は、
    前記関心のある領域に対して第4のグレースケール処理を実行して、第4のグレースケール画像を取得し、前記第4のグレースケール画像内の前記ハイライト領域に含まれるi番目のピクセルと、前記i番目のピクセルのN個の隣接するピクセルとのうちの最小のグレースケール値を取得する段階であって、iは、M1より小さい又はこれに等しいすべての正の整数をとり、M1は、前記ハイライト領域に含まれるピクセルの数であり、Nは、4の倍数に等しい、段階と、M1個の取得した最小のグレースケール値の平均値を前記第1のセグメンテーション閾値として用いる段階とを有する、請求項1から4いずれか一項に記載の方法。
  6. 前記非ハイライト領域の第2のセグメンテーション閾値を判定する前記段階は、
    前記関心のある領域に対して第4のグレースケール処理を実行して、第4のグレースケール画像を取得し、前記第4のグレースケール画像内の前記非ハイライト領域に含まれるj番目のピクセルと、前記j番目のピクセルのN個の隣接するピクセルとの最小のグレースケール値を取得する段階であって、jは、M2より小さい又はこれに等しいすべての正の整数をとり、M2は、前記非ハイライト領域に含まれるピクセルの数である、段階と、M2個の取得した最小のグレースケール値の平均値を前記第2のセグメンテーション閾値として用いる段階とを有する、請求項1から4のいずれか一項に記載の方法。
  7. 融合した画像に基づいて、前記関心のある領域に含まれる毛穴及び/又は毛穴の黒ずみを識別する前記段階は、
    前記融合した画像に対して腐食及び/又は拡大処理を実行する段階と、
    前記腐食及び/又は拡大処理を受けた前記融合した画像に基づいて、前記関心のある領域に含まれる前記毛穴及び/又は前記毛穴の黒ずみを識別する段階と
    を有する、請求項1から6のいずれか一項に記載の方法。
  8. 融合した画像に基づいて、前記関心のある領域に含まれる毛穴及び/又は毛穴の黒ずみを識別する前記段階は
    前記融合した画像からノーズシャドウ領域を除去する段階と、前記ノーズシャドウ領域が除去された前記融合した画像に基づいて、前記関心のある領域に含まれる前記毛穴及び/又は前記毛穴の黒ずみを判定する段階とを有する、請求項1から7のいずれか一項に記載の方法。
  9. 前記ノーズシャドウ領域は、
    前記関心のある領域に対して第4のグレースケール処理を実行して、第4のグレースケール画像を取得し、前記第4のグレースケール画像に対して二値化処理を実行して、前記第4のグレースケール画像の二値画像を取得し、
    前記第4のグレースケール画像の前記二値画像に対して連結成分分析を実行して、少なくとも1つの第2の連結成分を取得し、
    前記少なくとも1つの第2の連結成分の、エリアが第2の予め設定された閾値よりも小さい連結成分を取り除いて、前記ノーズシャドウ領域を取得する
    方式で位置決めされる、請求項8に記載の方法。
  10. 前記第4のグレースケール画像の前記二値画像に対して連結成分分析を実行して、少なくとも1つの第2の連結成分を取得する前記段階は、
    前記第4のグレースケール画像の前記二値画像に対して拡大及び/又は腐食処理を実行する段階と、
    前記第4のグレースケール画像の、前記拡大及び/又は腐食処理を受けた前記二値画像における少なくとも1つの第2の連結成分を取得する段階と
    を含む、請求項9に記載の方法。
  11. 前記関心のある領域に対して第4のグレースケール処理を実行して、第4のグレースケール画像を取得する前記段階は、
    前記関心のある領域に対してグレースケール変換を実行して、第2のグレースケール画像を取得する段階と、
    前記第2のグレースケール画像に対して最小-最大正規化を実行する段階と、
    前記最小-最大正規化を受けた前記第2のグレースケール画像に対してガウス差分フィルタリングを実行して、フィルタリングされた画像を取得する段階と、
    前記フィルタリングされた画像に対して最小-最大正規化を実行する段階と、
    前記最小-最大正規化を受けた前記フィルタリングされた画像のヒストグラムを取得し、前記フィルタリングされた画像の前記ヒストグラムに基づいて、前記フィルタリングされた画像内の第1タイプのピクセルのグレースケール値を0に設定し、前記フィルタリングされた画像内の第2タイプのピクセルのグレースケール値を255に設定する段階と
    を含み、
    前記第1タイプのピクセルの前記グレースケール値は、前記フィルタリングされた画像内の他のピクセルの最小グレースケール値よりも小さい又はこれに等しく、前記フィルタリングされた画像内のピクセルの総数における前記第1タイプのピクセルの数のパーセンテージはa%であり、前記第2タイプのピクセルのグレースケール値は、前記フィルタリングされた画像内の他のピクセルの最大グレースケール値より大きい又はこれに等しく、前記フィルタリングされた画像内の前記ピクセルの総数における前記第2タイプのピクセルの数のパーセンテージはb%であり、a及びbは両方とも正の整数である、請求項5、6及び9のいずれか一項に記載の方法。
  12. 融合した画像に基づいて、前記関心のある領域に含まれる毛穴及び/又は毛穴の黒ずみを識別する前記段階は、
    前記融合した画像に含まれる少なくとも1つの第3の連結成分を取得し、それぞれの第3の連結成分に対応するパラメータを取得する段階であって、前記パラメータは、半径、円形度及び内部-外部の色バリエーション値のうちの少なくとも1つを有する、段階と、
    それぞれの第3の連結成分に対応する前記パラメータに基づいて、前記第3の連結成分に対応する位置が毛穴又は毛穴の黒ずみであるかを識別する段階と
    を含み、
    前記円形度は、前記第3の連結成分の形状と円との間の類似度を表すために用いられ、前記内部-外部の色バリエーション値は、前記関心のある領域の位置で前記第3の連結成分に対応する内部ピクセル値と外部ピクセル値との間の差分又は割合である、請求項1から11のいずれか一項に記載の方法。
  13. 前記方法は、さらに、
    識別された毛穴に対応する画像を処理して、量子化された毛穴インジケータを取得する段階と、前記量子化された毛穴インジケータに基づいて、前記関心のある領域の量子化された毛穴スコアを計算する段階と、前記量子化された毛穴スコアを表示する段階とを備え、
    前記量子化された毛穴インジケータは、毛穴エリアの割合、毛穴密度、平均の毛穴の内部-外部の色バリエーション値、及び、毛穴の内部-外部の色バリエーション値-重み付けされたエリアの割合のうちの少なくとも1つを有し、
    前記毛穴エリアの割合は、前記関心のある領域のエリアに対する前記関心のある領域に含まれる毛穴の総面積の割合であり、前記毛穴密度は、前記関心のある領域の前記エリアに対する前記関心のある領域に含まれる毛穴の数の割合であり、前記平均の毛穴の内部-外部の色バリエーション値は、前記関心のある領域に含まれる前記毛穴の内部-外部の色バリエーション値の平均値であり、前記毛穴の内部-外部の色バリエーション値-重み付けされたエリアの前記割合は、前記関心のある領域に含まれる各毛穴の内部-外部の色バリエーション値を対応するエリアごとに乗算することにより取得されたすべての値を加算することにより取得された和の、前記関心のある領域の前記エリアに対する割合である、請求項1から12のいずれか一項に記載の方法。
  14. 前記方法は、さらに、
    識別された毛穴の黒ずみに対応する画像を処理して、量子化された毛穴の黒ずみインジケータを取得する段階と、前記量子化された毛穴の黒ずみインジケータに基づいて、前記関心のある領域の量子化された毛穴の黒ずみスコアを計算する段階と、前記量子化された毛穴の黒ずみスコアを表示する段階とを備え、
    前記量子化された毛穴の黒ずみインジケータは、毛穴の黒ずみエリアの割合、毛穴の黒ずみの密度、平均の毛穴の黒ずみの内部-外部の色バリエーション値、及び、毛穴の黒ずみの内部-外部の色バリエーション値-重み付けされたエリアの割合のうちの少なくとも1つを有し、
    前記毛穴の黒ずみエリアの割合は、前記関心のある領域の前記エリアに対する前記関心のある領域に含まれる毛穴の黒ずみの総面積の割合であり、前記毛穴の黒ずみの密度は、前記関心のある領域の前記エリアに対する前記関心のある領域に含まれる毛穴の黒ずみの数の割合であり、前記平均の毛穴の黒ずみの内部-外部の色バリエーション値は、前記関心のある領域に含まれる前記毛穴の黒ずみの内部-外部の色バリエーション値の平均値であり、前記毛穴の黒ずみの内部-外部の色バリエーション値-重み付けされたエリアの前記割合は、前記関心のある領域に含まれる各毛穴の黒ずみの内部-外部の色バリエーション値を対応するエリアごとに乗算することにより取得されたすべての値を加算することにより取得される和の、前記関心のある領域の前記エリアに対する割合である、請求項1から13のいずれか一項に記載の方法。
  15. プロセッサ及びメモリを備える電子デバイスであって、前記プロセッサは、前記メモリに連結されており、
    前記メモリは、プログラム命令を格納するように構成され、
    前記プロセッサは、前記メモリに格納されている前記プログラム命令を読み出して、請求項1から14のいずれか一項に記載の方法を実施するように構成される、電子デバイス。
JP2021501047A 2018-07-16 2018-09-18 肌の検出方法及び電子デバイス Active JP7067697B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN201810775975.X 2018-07-16
CN201810775975 2018-07-16
PCT/CN2018/106232 WO2020015147A1 (zh) 2018-07-16 2018-09-18 一种皮肤检测方法和电子设备

Publications (2)

Publication Number Publication Date
JP2021532461A JP2021532461A (ja) 2021-11-25
JP7067697B2 true JP7067697B2 (ja) 2022-05-16

Family

ID=69164999

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021501047A Active JP7067697B2 (ja) 2018-07-16 2018-09-18 肌の検出方法及び電子デバイス

Country Status (5)

Country Link
US (1) US11798162B2 (ja)
EP (1) EP3816932B1 (ja)
JP (1) JP7067697B2 (ja)
CN (2) CN111542856A (ja)
WO (1) WO2020015147A1 (ja)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018534703A (ja) * 2015-09-10 2018-11-22 エスワイエヌシー−アールエックス、リミテッド 自動画像特徴除去
US11798162B2 (en) * 2018-07-16 2023-10-24 Honor Device Co., Ltd. Skin detection method and electronic device
CN112274110B (zh) * 2020-10-10 2023-06-16 苏州万微光电科技有限公司 一种基于皮肤荧光图像的毛孔检测系统、装置及方法
CN112749708B (zh) * 2021-01-28 2024-04-23 深圳艾摩米智能科技有限公司 面部雀斑检测分析方法、装置、计算机设备及存储介质
CN114468989B (zh) * 2021-02-11 2022-11-25 先阳科技有限公司 组织成分测量方法、装置及可穿戴设备
CN113012162A (zh) * 2021-03-08 2021-06-22 重庆金山医疗器械有限公司 一种内窥镜检查区域的清洁度检测方法、装置及相关设备
CN113447727B (zh) * 2021-06-30 2022-12-09 武汉理工光科股份有限公司 基于光纤测振系统的油气管道上方雷电定位方法及装置
CN113786179A (zh) * 2021-09-27 2021-12-14 北方工业大学 红外与光学图像融合的人体血压实时测量方法及装置
US20230196579A1 (en) * 2021-12-16 2023-06-22 The Gillette Company Llc Digital imaging systems and methods of analyzing pixel data of an image of a skin area of a user for determining skin pore size
CN115330878B (zh) * 2022-10-18 2023-01-24 山东特联信息科技有限公司 一种罐车罐口视觉定位方法
CN117094993B (zh) * 2023-10-18 2024-03-26 山东聚亨源环保科技有限公司 一种污水处理过程中沉淀检测方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001054013A (ja) 1999-08-13 2001-02-23 Fuji Photo Film Co Ltd 撮像信号処理装置およびその処理方法
US20070236567A1 (en) 2006-04-06 2007-10-11 Eastman Kodak Company Camera and method with additional evaluation image capture based on scene brightness changes
CN106469302A (zh) 2016-09-07 2017-03-01 成都知识视觉科技有限公司 一种基于人工神经网络的人脸肤质检测方法
CN107424167A (zh) 2017-04-20 2017-12-01 深圳可思美科技有限公司 一种毛孔定位识别的方法和装置

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA2985955C (en) 2005-08-12 2020-07-07 Tcms Transparent Beauty Llc System and method for medical monitoring and treatment through cosmetic monitoring and treatment
US9053524B2 (en) * 2008-07-30 2015-06-09 Fotonation Limited Eye beautification under inaccurate localization
US8520089B2 (en) * 2008-07-30 2013-08-27 DigitalOptics Corporation Europe Limited Eye beautification
US9317970B2 (en) * 2010-01-18 2016-04-19 Disney Enterprises, Inc. Coupled reconstruction of hair and skin
US8787663B2 (en) 2010-03-01 2014-07-22 Primesense Ltd. Tracking body parts by combined color image and depth processing
US9704057B1 (en) * 2014-03-03 2017-07-11 Accusoft Corporation Methods and apparatus relating to image binarization
CN105513036B (zh) * 2014-09-26 2019-05-31 上海联影医疗科技有限公司 三维ct图像的分割方法及装置
CN104299011A (zh) * 2014-10-13 2015-01-21 吴亮 一种基于人脸图像识别的肤质与皮肤问题识别检测方法
CN104586364B (zh) * 2015-01-19 2019-07-09 武汉理工大学 一种肤质检测系统及方法
US10127672B2 (en) * 2015-10-12 2018-11-13 International Business Machines Corporation Separation of foreground and background in medical images
US10255484B2 (en) * 2016-03-21 2019-04-09 The Procter & Gamble Company Method and system for assessing facial skin health from a mobile selfie image
CN106529429B (zh) * 2016-10-27 2019-08-16 中国计量大学 一种基于图像识别的面部皮肤分析系统
CN106650728B (zh) * 2016-12-09 2019-06-21 浙江浩腾电子科技股份有限公司 一种阴影车牌图像二值化方法
CN106983493B (zh) * 2017-03-04 2020-08-18 武汉嫦娥医学抗衰机器人股份有限公司 一种基于三光谱的皮肤图像处理方法
CN107392858B (zh) 2017-06-16 2020-09-29 Oppo广东移动通信有限公司 图像高光区域处理方法、装置和终端设备
CN108154510A (zh) * 2018-01-17 2018-06-12 深圳市亿图视觉自动化技术有限公司 产品表面缺陷检测方法、装置及计算机可读存储介质
US11798162B2 (en) * 2018-07-16 2023-10-24 Honor Device Co., Ltd. Skin detection method and electronic device
WO2020041030A1 (en) * 2018-08-21 2020-02-27 The Procter & Gamble Company Methods for identifying pore color
CN111199171B (zh) * 2018-11-19 2022-09-23 荣耀终端有限公司 一种皱纹检测方法和终端设备
WO2021226414A1 (en) * 2020-05-08 2021-11-11 The Procter & Gamble Company Methods for identifying dendritic pores

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001054013A (ja) 1999-08-13 2001-02-23 Fuji Photo Film Co Ltd 撮像信号処理装置およびその処理方法
US20070236567A1 (en) 2006-04-06 2007-10-11 Eastman Kodak Company Camera and method with additional evaluation image capture based on scene brightness changes
CN106469302A (zh) 2016-09-07 2017-03-01 成都知识视觉科技有限公司 一种基于人工神经网络的人脸肤质检测方法
CN107424167A (zh) 2017-04-20 2017-12-01 深圳可思美科技有限公司 一种毛孔定位识别的方法和装置

Also Published As

Publication number Publication date
US20210279445A1 (en) 2021-09-09
JP2021532461A (ja) 2021-11-25
CN112215802B (zh) 2022-04-08
EP3816932B1 (en) 2022-06-15
US11798162B2 (en) 2023-10-24
CN111542856A (zh) 2020-08-14
CN112215802A (zh) 2021-01-12
EP3816932A4 (en) 2021-08-11
WO2020015147A1 (zh) 2020-01-23
EP3816932A1 (en) 2021-05-05

Similar Documents

Publication Publication Date Title
JP7067697B2 (ja) 肌の検出方法及び電子デバイス
KR102548317B1 (ko) 색소 검출 방법 및 전자 장치
CN111543049B (zh) 一种拍照方法及电子设备
CN113542580B (zh) 去除眼镜光斑的方法、装置及电子设备
CN111566693B (zh) 一种皱纹检测方法及电子设备
CN111417982B (zh) 一种色斑检测方法及电子设备
WO2021052436A1 (zh) 一种皮肤粗糙度检测方法及电子设备
CN111557007B (zh) 一种检测眼睛睁闭状态的方法及电子设备
CN113391735A (zh) 显示形态的调整方法、装置、电子设备及存储介质
CN117726543A (zh) 图像处理方法和装置
CN117710695A (zh) 图像数据的处理方法及电子设备
CN113129220A (zh) 图像处理方法及电子设备

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210222

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20210525

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220329

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220414

R150 Certificate of patent or registration of utility model

Ref document number: 7067697

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150