JP6923682B2 - 顔画像の処理方法および装置、電子機器ならびに記憶媒体 - Google Patents
顔画像の処理方法および装置、電子機器ならびに記憶媒体 Download PDFInfo
- Publication number
- JP6923682B2 JP6923682B2 JP2019571734A JP2019571734A JP6923682B2 JP 6923682 B2 JP6923682 B2 JP 6923682B2 JP 2019571734 A JP2019571734 A JP 2019571734A JP 2019571734 A JP2019571734 A JP 2019571734A JP 6923682 B2 JP6923682 B2 JP 6923682B2
- Authority
- JP
- Japan
- Prior art keywords
- submarer
- triangle
- pixel
- vector
- face image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000003860 storage Methods 0.000 title claims description 27
- 238000003672 processing method Methods 0.000 title description 45
- 239000013598 vector Substances 0.000 claims description 310
- 238000000034 method Methods 0.000 claims description 67
- 238000005070 sampling Methods 0.000 claims description 46
- 238000012545 processing Methods 0.000 claims description 38
- 230000001815 facial effect Effects 0.000 claims description 24
- 230000006870 function Effects 0.000 claims description 19
- 238000004590 computer program Methods 0.000 claims description 16
- 210000000744 eyelid Anatomy 0.000 claims description 15
- 238000010586 diagram Methods 0.000 description 27
- 238000004364 calculation method Methods 0.000 description 14
- 230000000694 effects Effects 0.000 description 12
- 238000004891 communication Methods 0.000 description 10
- 238000005516 engineering process Methods 0.000 description 6
- 230000003287 optical effect Effects 0.000 description 5
- 230000005540 biological transmission Effects 0.000 description 4
- 238000009826 distribution Methods 0.000 description 4
- 238000007726 management method Methods 0.000 description 4
- 230000005236 sound signal Effects 0.000 description 4
- 230000008859 change Effects 0.000 description 3
- 238000004040 coloring Methods 0.000 description 3
- 230000003068 static effect Effects 0.000 description 3
- 238000003384 imaging method Methods 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 239000013307 optical fiber Substances 0.000 description 2
- 230000001902 propagating effect Effects 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- RYGMFSIKBFXOCR-UHFFFAOYSA-N Copper Chemical compound [Cu] RYGMFSIKBFXOCR-UHFFFAOYSA-N 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 229910052802 copper Inorganic materials 0.000 description 1
- 239000010949 copper Substances 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 235000019800 disodium phosphate Nutrition 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 230000008921 facial expression Effects 0.000 description 1
- 210000001097 facial muscle Anatomy 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 238000010248 power generation Methods 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 210000001519 tissue Anatomy 0.000 description 1
- 210000000216 zygoma Anatomy 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/77—Retouching; Inpainting; Scratch removal
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
- G06V40/166—Detection; Localisation; Normalisation using acquisition arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/20—Image enhancement or restoration using local operators
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/70—Denoising; Smoothing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/90—Determination of colour characteristics
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/56—Extraction of image or video features relating to colour
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
- G06V40/162—Detection; Localisation; Normalisation using pixel segmentation or colour matching
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
- G06V40/165—Detection; Localisation; Normalisation using facial parts and geometric relationships
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
- G06V40/171—Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
- G06T2207/30201—Face
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Oral & Maxillofacial Surgery (AREA)
- General Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Human Computer Interaction (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Geometry (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
- Processing Or Creating Images (AREA)
Description
本願は2018年9月28日に出願された、出願番号201811141270.9の中国特許出願に基づいて提出され、該中国特許出願の優先権を主張し、その開示の全てが参照によって本願に組み込まれる。
顔画像における顔キーポイントおよび顔回転角度を取得するように構成される取得モジュールと、
前記顔キーポイントおよび前記顔回転角度に基づき、前記顔画像におけるサブマラートライアングルの中心を特定するように構成される第一特定モジュールと、
前記顔キーポイントおよび前記サブマラートライアングルの中心に基づき、前記顔画像におけるサブマラートライアングル領域を特定するように構成される第二特定モジュールと、
前記サブマラートライアングル領域に色を充填するように構成される充填モジュールと、を含む顔画像の処理装置が提供される。
前記顔キーポイントに対して補間処理を行い、前記顔画像におけるサブマラートライアングルの中心の推定位置を特定するように構成される第一特定サブモジュールと、
前記顔回転角度に基づき、前記サブマラートライアングルの中心の推定位置を調整し、前記顔画像におけるサブマラートライアングルの中心を得るように構成される調整サブモジュールと、を含む。
前記顔キーポイントを繋ぎ、前記顔キーポイントに対応する多角形を得るように構成される連結サブモジュールと、
前記多角形内の前記サブマラートライアングルの中心を円心とした最大の円を前記顔画像におけるサブマラートライアングルの外輪郭円として特定するように構成される第二特定サブモジュールと、
前記サブマラートライアングルの外輪郭円に基づき、前記顔画像におけるサブマラートライアングル領域を特定するように構成される第三特定サブモジュールと、を含む。
前記顔画像における顔輪郭線を用いて前記サブマラートライアングルの外輪郭円を調整し、前記顔画像におけるサブマラートライアングル領域を得るように構成される。
前記顔画像における顔輪郭線に対してサンプリングし、前記顔輪郭線におけるサンプリングポイントを得るように構成される第一サンプリングユニットと、
前記サブマラートライアングルの外輪郭円に対してサンプリングし、前記サブマラートライアングルの外輪郭円におけるサンプリングポイントを得るように構成される第二サンプリングユニットと、
前記顔輪郭線におけるサンプリングポイントと前記サブマラートライアングルの外輪郭円におけるサンプリングポイントとに対してカーブフィッティングを行い、前記顔画像におけるサブマラートライアングル領域を得るように構成されるカーブフィッティングユニットと、を含む。
前記サブマラートライアングル領域における各画素に対応する、前記サブマラートライアングルの中心と前記画素との連結線に位置する第一目標画素をそれぞれ特定するように構成される第四特定サブモジュールと、
前記各画素の値を対応する第一目標画素の値にそれぞれ更新するように構成される第一更新サブモジュールと、を含む。
サブマラートライアングルの充填程度係数に基づき、前記サブマラートライアングル領域における各画素に対応する第一目標画素をそれぞれ特定するように構成される。
二次導関数が常に0より大きい下に凸関数を採用し、前記サブマラートライアングル領域における各画素に対応する第一目標画素をそれぞれ特定するように構成される。
前記顔画像における第一基準ポイントを特定するように構成される第五特定サブモジュールと、
前記サブマラートライアングルの中心が前記第一基準ポイントに指しているベクトルを第一基準ベクトルとして特定するように構成される第六特定サブモジュールと、
前記第一基準ベクトルに基づき、前記サブマラートライアングル領域における各画素に対応する、前記画素に指しているベクトルが前記第一基準ベクトルの方向と同じである第二目標画素をそれぞれ特定するように構成される第七特定サブモジュールと、
前記各画素の値を対応する第二目標画素の値にそれぞれ更新するように構成される第二更新サブモジュールと、を含む。
前記サブマラートライアングルの中心と前記サブマラートライアングル領域における第一画素との間の第一距離を特定するように構成される第一特定ユニットと、
サブマラートライアングルの外輪郭円の半径、前記第一距離および前記第一基準ベクトルのノルムに基づき、第一係数を特定するように構成される第二特定ユニットと、
前記第一画素、前記第一係数および前記第一基準ベクトルに基づき、前記第一画素に対応する第二目標画素を特定するように構成される第三特定ユニットと、を含む。
前記サブマラートライアングルの外輪郭円の半径の二乗と前記第一距離の二乗との第一の差を計算するように構成される第一計算サブユニットと、
前記第一の差を前記第一基準ベクトルのノルムの二乗と加算し、第一の和を得るように構成される第二計算サブユニットと、
前記第一の差と前記第一の和との比を計算し、前記第一係数を得るように構成される第三計算サブユニットと、を含む。
第一基準画素が前記第一画素に指しているベクトルを、第一画素ベクトルとして特定するように構成される第一特定サブユニットと、
前記第一係数と前記第一基準ベクトルとの第一の積を計算するように構成される第四計算サブユニットと、
前記第一画素ベクトルと第一の積との差を計算し、前記第一画素に対応する第二目標画素ベクトルを得るように構成される第五計算サブユニットと、
前記第一基準画素の位置、および前記第一画素に対応する第二目標画素ベクトルに基づき、前記第一画素に対応する第二目標画素を特定するように構成される第二特定サブユニットと、を含む。
前記顔画像における第二基準ポイントを特定するように構成される第八特定サブモジュールと、
前記サブマラートライアングルの中心が前記第二基準ポイントに指しているベクトルを、第二基準ベクトルとして特定するように構成される第九特定サブモジュールと、
前記第二基準ベクトルに基づき、前記サブマラートライアングル領域における各画素に対応する、前記画素に指しているベクトルが前記第二基準ベクトルの方向と同じである第三目標画素をそれぞれ特定するように構成される第十特定サブモジュールと;
前記各画素の値を対応する第三目標画素の値にそれぞれ更新するように構成される第三更新サブモジュールと、を含む。
前記サブマラートライアングルの中心と前記サブマラートライアングル領域における第二画素との間の第二距離を特定するように構成される第四特定ユニットと、
サブマラートライアングルの外輪郭円の半径、前記第二距離および前記第二基準ベクトルのノルムに基づき、第二係数を特定するように構成される第五特定ユニットと、
前記第二画素、前記第二係数および前記第二基準ベクトルに基づき、前記第二画素に対応する第三目標画素を特定するように構成される第六特定ユニットと、を含む。
前記サブマラートライアングルの外輪郭円の半径の二乗と前記第二距離の二乗との第二の差を計算するように構成される第六計算サブユニットと、
前記第二の差を前記第二基準ベクトルのノルムの二乗と加算し、第二の和を得るように構成される第七計算サブユニットと、
前記第二の差と前記第二の和との比を計算し、前記第二係数を得るように構成される第八計算サブユニットと、を含む。
第二基準画素が前記第二画素に指しているベクトルを、第二画素ベクトルとして特定するように構成される第三特定サブユニットと、
前記第二係数と前記第二基準ベクトルとの第二の積を計算するように構成される第九計算サブユニットと、
前記第二画素ベクトルと第二の積との差を計算し、前記第二画素に対応する第三目標画素ベクトルを得るように構成される第十計算サブユニットと、
前記第二基準画素の位置、および前記第二画素に対応する第三目標画素ベクトルに基づき、前記第二画素に対応する第三目標画素を特定するように構成される第四特定サブユニットと、を含む。
前記サブマラートライアングル領域における各画素に対応する、前記サブマラートライアングルの中心と前記画素との連結線に位置する第一目標画素をそれぞれ特定するように構成される第四特定サブモジュールと、
前記各画素の値を対応する第一目標画素の値にそれぞれ更新するように構成される第一更新サブモジュールと、
その鼻先キーポイントとの距離が前記サブマラートライアングルの中心と鼻先キーポイントとの距離よりも大きい前記顔画像における第一基準ポイントを特定するように構成される第五特定サブモジュールと、
前記サブマラートライアングルの中心が前記第一基準ポイントに指しているベクトルを第一基準ベクトルとして特定するように構成される第六特定サブモジュールと、
前記第一基準ベクトルに基づき、前記サブマラートライアングル領域における各画素に対応する、前記画素に指しているベクトルが前記第一基準ベクトルの方向と同じである第二目標画素をそれぞれ特定するように構成される第七特定サブモジュールと、
前記各画素の値を対応する第二目標画素の値にそれぞれ更新するように構成される第二更新サブモジュールと、
前記サブマラートライアングルの中心と下瞼キーポイントとの連結線に位置する前記顔画像における第二基準ポイントを特定するように構成される第八特定サブモジュールと、
前記サブマラートライアングルの中心が前記第二基準ポイントに指しているベクトルを、第二基準ベクトルとして特定するように構成される第九特定サブモジュールと、
前記第二基準ベクトルに基づき、前記サブマラートライアングル領域における各画素に対応する、前記画素に指しているベクトルが前記第二基準ベクトルの方向と同じである第三目標画素をそれぞれ特定するように構成される第十特定サブモジュールと、
前記各画素の値を対応する第三目標画素の値にそれぞれ更新するように構成される第三更新サブモジュールと、を含む。
前記プロセッサは前記コンピュータプログラムを実行する時、上記顔画像の処理方法を実行するために用いられる電子機器が提供される。
本願明細書は、例えば、以下の項目も提供する。
(項目1)
顔画像における顔キーポイントおよび顔回転角度を取得することと、
前記顔キーポイントおよび前記顔回転角度に基づき、前記顔画像におけるサブマラートライアングルの中心を特定することと、
前記顔キーポイントおよび前記サブマラートライアングルの中心に基づき、前記顔画像におけるサブマラートライアングル領域を特定することと、
前記サブマラートライアングル領域に色を充填することと、を含む、顔画像の処理方法。
(項目2)
前記顔キーポイントおよび前記顔回転角度に基づき、前記顔画像におけるサブマラートライアングルの中心を特定する前記ステップは、
前記顔キーポイントに対して補間処理を行い、前記顔画像におけるサブマラートライアングルの中心の推定位置を特定することと、
前記顔回転角度に基づき、前記サブマラートライアングルの中心の推定位置を調整し、前記顔画像におけるサブマラートライアングルの中心を得ることと、を含む、項目1に記載の方法。
(項目3)
前記顔キーポイントおよび前記サブマラートライアングルの中心に基づき、前記顔画像におけるサブマラートライアングル領域を特定する前記ステップは、
前記顔キーポイントを繋ぎ、前記顔キーポイントに対応する多角形を得ることと、
前記多角形内の前記サブマラートライアングルの中心を円心とした最大の円を前記顔画像におけるサブマラートライアングルの外輪郭円として特定することと、
前記サブマラートライアングルの外輪郭円に基づき、前記顔画像におけるサブマラートライアングル領域を特定することと、を含む、項目1または2に記載の方法。
(項目4)
前記サブマラートライアングルの外輪郭円に基づき、前記顔画像におけるサブマラートライアングル領域を特定する前記ステップは、
前記顔画像における顔輪郭線を用いて前記サブマラートライアングルの外輪郭円を調整し、前記顔画像におけるサブマラートライアングル領域を得ることを含む、項目3に記載の方法。
(項目5)
前記顔画像における顔輪郭線を用いて前記サブマラートライアングルの外輪郭円を調整し、前記顔画像におけるサブマラートライアングル領域を得る前記ステップは、
前記顔画像における顔輪郭線に対してサンプリングし、前記顔輪郭線におけるサンプリングポイントを得ることと、
前記サブマラートライアングルの外輪郭円に対してサンプリングし、前記サブマラートライアングルの外輪郭円におけるサンプリングポイントを得ることと、
前記顔輪郭線におけるサンプリングポイントと前記サブマラートライアングルの外輪郭円におけるサンプリングポイントとに対してカーブフィッティングを行い、前記顔画像におけるサブマラートライアングル領域を得ることと、を含む、項目4に記載の方法。
(項目6)
前記サブマラートライアングル領域に色を充填する前記ステップは、
前記サブマラートライアングル領域における各画素に対応する第一目標画素をそれぞれ特定することであって、前記画素に対応する第一目標画素が、前記サブマラートライアングルの中心と前記画素との連結線に位置する、ことと、
前記各画素の値を対応する第一目標画素の値にそれぞれ更新することと、を含む、項目1から5のいずれか一項に記載の方法。
(項目7)
前記サブマラートライアングル領域における各画素に対応する第一目標画素をそれぞれ特定する前記ステップは、
サブマラートライアングルの充填程度係数に基づき、前記サブマラートライアングル領域における各画素に対応する第一目標画素をそれぞれ特定することを含む、項目6に記載の方法。
(項目8)
前記サブマラートライアングル領域における各画素に対応する第一目標画素をそれぞれ特定する前記ステップは、
二次導関数が常に0より大きい下に凸関数を採用して、前記サブマラートライアングル領域における各画素に対応する第一目標画素をそれぞれ特定することを含む、項目6または7に記載の方法。
(項目9)
前記サブマラートライアングル領域に色を充填する前記ステップは、
前記顔画像における第一基準ポイントを特定することと、
前記サブマラートライアングルの中心が前記第一基準ポイントに指しているベクトルを第一基準ベクトルとして特定することと、
前記第一基準ベクトルに基づき、前記サブマラートライアングル領域における各画素に対応する第二目標画素をそれぞれ特定することであって、前記画素に対応する第二目標画素が前記画素に指しているベクトルが、前記第一基準ベクトルの方向と同じである、ことと、
前記各画素の値を対応する第二目標画素の値にそれぞれ更新することと、を含む、項目1から8のいずれか一項に記載の方法。
(項目10)
前記第一基準ポイントと鼻先キーポイントとの距離は前記サブマラートライアングルの中心と鼻先キーポイントとの距離よりも大きい、項目9に記載の方法。
(項目11)
前記第一基準ベクトルに基づき、前記サブマラートライアングル領域における各画素に対応する第二目標画素をそれぞれ特定する前記ステップは、
前記サブマラートライアングルの中心と前記サブマラートライアングル領域における第一画素との間の第一距離を特定することと、
サブマラートライアングルの外輪郭円の半径、前記第一距離および前記第一基準ベクトルのノルムに基づき、第一係数を特定することと、
前記第一画素、前記第一係数および前記第一基準ベクトルに基づき、前記第一画素に対応する第二目標画素を特定することと、を含む、項目9または10に記載の方法。
(項目12)
サブマラートライアングルの外輪郭円の半径、前記第一距離および前記基準ベクトルのノルムに基づき、第一係数を特定する前記ステップは、
前記サブマラートライアングルの外輪郭円の半径の二乗と前記第一距離の二乗との第一の差を計算することと、
前記第一の差を前記第一基準ベクトルのノルムの二乗と加算し、第一の和を得ることと、
前記第一の差と前記第一の和との比を計算し、前記第一係数を得ることと、を含む、項目11に記載の方法。
(項目13)
前記第一画素、前記第一係数および前記第一基準ベクトルに基づき、前記第一画素に対応する第二目標画素を特定する前記ステップは、
第一基準画素が前記第一画素に指しているベクトルを、第一画素ベクトルとして特定することと、
前記第一係数と前記第一基準ベクトルとの第一の積を計算することと、
前記第一画素ベクトルと第一の積との差を計算し、前記第一画素に対応する第二目標画素ベクトルを得ることと、
前記第一基準画素の位置、および前記第一画素に対応する第二目標画素ベクトルに基づき、前記第一画素に対応する第二目標画素を特定することと、を含む、項目11または12に記載の方法。
(項目14)
前記サブマラートライアングル領域に色を充填する前記ステップは、
前記顔画像における第二基準ポイントを特定することと、
前記サブマラートライアングルの中心が前記第二基準ポイントに指しているベクトルを、第二基準ベクトルとして特定することと、
前記第二基準ベクトルに基づき、前記サブマラートライアングル領域における各画素に対応する第三目標画素をそれぞれ特定することであって、前記画素に対応する第三目標画素が前記画素に指しているベクトルが、前記第二基準ベクトルの方向と同じである、ことと、
前記各画素の値を対応する第三目標画素の値にそれぞれ更新することと、を含む、項目1から13のいずれか一項に記載の方法。
(項目15)
前記第二基準ポイントは前記サブマラートライアングルの中心と下瞼キーポイントとの連結線に位置する、項目14に記載の方法。
(項目16)
前記第二基準ベクトルに基づき、前記サブマラートライアングル領域における各画素に対応する第三目標画素をそれぞれ特定する前記ステップは、
前記サブマラートライアングルの中心と前記サブマラートライアングル領域における第二画素との間の第二距離を特定することと、
サブマラートライアングルの外輪郭円の半径、前記第二距離および前記第二基準ベクトルのノルムに基づき、第二係数を特定することと、
前記第二画素、前記第二係数および前記第二基準ベクトルに基づき、前記第二画素に対応する第三目標画素を特定することと、を含む、項目14または15に記載の方法。
(項目17)
サブマラートライアングルの外輪郭円の半径、前記第二距離および前記第二基準ベクトルのノルムに基づき、第二係数を特定する前記ステップは、
前記サブマラートライアングルの外輪郭円の半径の二乗と前記第二距離の二乗との第二の差を計算することと、
前記第二の差を前記第二基準ベクトルのノルムの二乗と加算し、第二の和を得ることと、
前記第二の差と前記第二の和との比を計算し、前記第二係数を得ることと、を含む、項目16に記載の方法。
(項目18)
前記第二画素、前記第二係数および前記第二基準ベクトルに基づき、前記第二画素に対応する第三目標画素を特定する前記ステップは、
第二基準画素が前記第二画素に指しているベクトルを、第二画素ベクトルとして特定することと、
前記第二係数と前記第二基準ベクトルとの第二の積を計算することと、
前記第二画素ベクトルと第二の積との差を計算し、前記第二画素に対応する第三目標画素ベクトルを得ることと、
前記第二基準画素の位置、および前記第二画素に対応する第三目標画素ベクトルに基づき、前記第二画素に対応する第三目標画素を特定することと、を含む、項目16または17に記載の方法。
(項目19)
前記サブマラートライアングル領域に色を充填する前記ステップは、
前記サブマラートライアングル領域における各画素に対応する第一目標画素をそれぞれ特定することであって、前記画素に対応する第一目標画素が、前記サブマラートライアングルの中心と前記画素との連結線に位置する、ことと、
前記各画素の値を対応する第一目標画素の値にそれぞれ更新することと、
前記顔画像における第一基準ポイントを特定することであって、前記第一基準ポイントと鼻先キーポイントとの距離が前記サブマラートライアングルの中心と鼻先キーポイントとの距離よりも大きい、ことと、
前記サブマラートライアングルの中心が前記第一基準ポイントに指しているベクトルを第一基準ベクトルとして特定することと、
前記第一基準ベクトルに基づき、前記サブマラートライアングル領域における各画素に対応する第二目標画素をそれぞれ特定することであって、前記画素に対応する第二目標画素が前記画素に指しているベクトルが、前記第一基準ベクトルの方向と同じである、ことと、
前記各画素の値を対応する第二目標画素の値にそれぞれ更新することと、
前記サブマラートライアングルの中心と下瞼キーポイントとの連結線に位置する前記顔画像における第二基準ポイントを特定することと、
前記サブマラートライアングルの中心が前記第二基準ポイントに指しているベクトルを、第二基準ベクトルとして特定することと、
前記第二基準ベクトルに基づき、前記サブマラートライアングル領域における各画素に対応する第三目標画素をそれぞれ特定することであって、前記画素に対応する第三目標画素が前記画素に指しているベクトルが、前記第二基準ベクトルの方向と同じである、ことと
前記各画素の値を対応する第三目標画素の値にそれぞれ更新することと、を含む、項目1から5のいずれか一項に記載の方法。
(項目20)
顔画像における顔キーポイントおよび顔回転角度を取得するように構成される取得モジュールと、
前記顔キーポイントおよび前記顔回転角度に基づき、前記顔画像におけるサブマラートライアングルの中心を特定するように構成される第一特定モジュールと、
前記顔キーポイントおよび前記サブマラートライアングルの中心に基づき、前記顔画像におけるサブマラートライアングル領域を特定するように構成される第二特定モジュールと、
前記サブマラートライアングル領域に色を充填するように構成される充填モジュールと、を含む、顔画像の処理装置。
(項目21)
前記第一特定モジュールは、
前記顔キーポイントに対して補間処理を行い、前記顔画像におけるサブマラートライアングルの中心の推定位置を特定するように構成される第一特定サブモジュールと、
前記顔回転角度に基づき、前記サブマラートライアングルの中心の推定位置を調整し、前記顔画像におけるサブマラートライアングルの中心を得るように構成される調整サブモジュールと、を含む、項目20に記載の装置。
(項目22)
前記第二特定モジュールは、
前記顔キーポイントを繋ぎ、前記顔キーポイントに対応する多角形を得るように構成される連結サブモジュールと、
前記多角形内の前記サブマラートライアングルの中心を円心とした最大の円を前記顔画像におけるサブマラートライアングルの外輪郭円として特定するように構成される第二特定サブモジュールと、
前記サブマラートライアングルの外輪郭円に基づき、前記顔画像におけるサブマラートライアングル領域を特定するように構成される第三特定サブモジュールと、を含む、項目20または21に記載の装置。
(項目23)
前記第三特定サブモジュールは、
前記顔画像における顔輪郭線を用いて前記サブマラートライアングルの外輪郭円を調整し、前記顔画像におけるサブマラートライアングル領域を得るように構成される、項目22に記載の装置。
(項目24)
前記第三特定サブモジュールは、
前記顔画像における顔輪郭線に対してサンプリングし、前記顔輪郭線におけるサンプリングポイントを得るように構成される第一サンプリングユニットと、
前記サブマラートライアングルの外輪郭円に対してサンプリングし、前記サブマラートライアングルの外輪郭円におけるサンプリングポイントを得るように構成される第二サンプリングユニットと、
前記顔輪郭線におけるサンプリングポイントと前記サブマラートライアングルの外輪郭円におけるサンプリングポイントとに対してカーブフィッティングを行い、前記顔画像におけるサブマラートライアングル領域を得るように構成されるカーブフィッティングユニットと、を含む、項目23に記載の装置。
(項目25)
前記充填モジュールは、
前記サブマラートライアングル領域における各画素に対応する第一目標画素をそれぞれ特定するように構成される第四特定サブモジュールであって、前記画素に対応する第一目標画素が、前記サブマラートライアングルの中心と前記画素との連結線に位置する、第四特定サブモジュールと、
前記各画素の値を対応する第一目標画素の値にそれぞれ更新するように構成される第一更新サブモジュールと、を含む、項目20から24のいずれか一項に記載の装置。
(項目26)
前記第四特定サブモジュールは、
サブマラートライアングルの充填程度係数に基づき、前記サブマラートライアングル領域における各画素に対応する第一目標画素をそれぞれ特定するように構成される、項目25に記載の装置。
(項目27)
前記第四特定サブモジュールは、
二次導関数が常に0より大きい下に凸関数を採用し、前記サブマラートライアングル領域における各画素に対応する第一目標画素をそれぞれ特定するように構成される、項目25または26に記載の装置。
(項目28)
前記充填モジュールは、
前記顔画像における第一基準ポイントを特定するように構成される第五特定サブモジュールと、
前記サブマラートライアングルの中心が前記第一基準ポイントに指しているベクトルを第一基準ベクトルとして特定するように構成される第六特定サブモジュールと、
前記第一基準ベクトルに基づき、前記サブマラートライアングル領域における各画素に対応する第二目標画素をそれぞれ特定するように構成される第七特定サブモジュールであって、前記画素に対応する第二目標画素が前記画素に指しているベクトルが、前記第一基準ベクトルの方向と同じである、第七特定サブモジュールと、
前記各画素の値を対応する第二目標画素の値にそれぞれ更新するように構成される第二更新サブモジュールと、を含む、項目20から27のいずれか一項に記載の装置。
(項目29)
前記第一基準ポイントと鼻先キーポイントとの距離は前記サブマラートライアングルの中心と鼻先キーポイントとの距離よりも大きい、項目28に記載の装置。
(項目30)
前記第七特定サブモジュールは、
前記サブマラートライアングルの中心と前記サブマラートライアングル領域における第一画素との間の第一距離を特定するように構成される第一特定ユニットと、
サブマラートライアングルの外輪郭円の半径、前記第一距離および前記第一基準ベクトルのノルムに基づき、第一係数を特定するように構成される第二特定ユニットと、
前記第一画素、前記第一係数および前記第一基準ベクトルに基づき、前記第一画素に対応する第二目標画素を特定するように構成される第三特定ユニットと、を含む、項目28または29に記載の装置。
(項目31)
前記第二特定ユニットは、
前記サブマラートライアングルの外輪郭円の半径の二乗と前記第一距離の二乗との第一の差を計算するように構成される第一計算サブユニットと、
前記第一の差を前記第一基準ベクトルのノルムの二乗と加算し、第一の和を得るように構成される第二計算サブユニットと、
前記第一の差と前記第一の和との比を計算し、前記第一係数を得るように構成される第三計算サブユニットと、を含む、項目30に記載の装置。
(項目32)
前記第三特定ユニットは、
第一基準画素が前記第一画素に指しているベクトルを、第一画素ベクトルとして特定するように構成される第一特定サブユニットと、
前記第一係数と前記第一基準ベクトルとの第一の積を計算するように構成される第四計算サブユニットと、
前記第一画素ベクトルと第一の積との差を計算し、前記第一画素に対応する第二目標画素ベクトルを得るように構成される第五計算サブユニットと、
前記第一基準画素の位置、および前記第一画素に対応する第二目標画素ベクトルに基づき、前記第一画素に対応する第二目標画素を特定するように構成される第二特定サブユニットと、を含む、項目30または31に記載の装置。
(項目33)
前記充填モジュールは、
前記顔画像における第二基準ポイントを特定するように構成される第八特定サブモジュールと、
前記サブマラートライアングルの中心が前記第二基準ポイントに指しているベクトルを、第二基準ベクトルとして特定するように構成される第九特定サブモジュールと、
前記第二基準ベクトルに基づき、前記サブマラートライアングル領域における各画素に対応する第三目標画素をそれぞれ特定するように構成される第十特定サブモジュールであって、前記画素に対応する第三目標画素が前記画素に指しているベクトルが、前記第二基準ベクトルの方向と同じである、第十特定サブモジュールと、
前記各画素の値を対応する第三目標画素の値にそれぞれ更新するように構成される第三更新サブモジュールと、を含む、項目20から32のいずれか一項に記載の装置。
(項目34)
前記第二基準ポイントは前記サブマラートライアングルの中心と下瞼キーポイントとの連結線に位置する、項目33に記載の装置。
(項目35)
前記第十特定サブモジュールは、
前記サブマラートライアングルの中心と前記サブマラートライアングル領域における第二画素との間の第二距離を特定するように構成される第四特定ユニットと、
サブマラートライアングルの外輪郭円の半径、前記第二距離および前記第二基準ベクトルのノルムに基づき、第二係数を特定するように構成される第五特定ユニットと、
前記第二画素、前記第二係数および前記第二基準ベクトルに基づき、前記第二画素に対応する第三目標画素を特定するように構成される第六特定ユニットと、を含む、項目33または34に記載の装置。
(項目36)
前記第五特定ユニットは、
前記サブマラートライアングルの外輪郭円の半径の二乗と前記第二距離の二乗との第二の差を計算するように構成される第六計算サブユニットと、
前記第二の差を前記第二基準ベクトルのノルムの二乗と加算し、第二の和を得るように構成される第七計算サブユニットと、
前記第二の差と前記第二の和との比を計算し、前記第二係数を得るように構成される第八計算サブユニットと、を含む、項目35に記載の装置。
(項目37)
前記第六特定ユニットは、
第二基準画素が前記第二画素に指しているベクトルを、第二画素ベクトルとして特定するように構成される第三特定サブユニットと、
前記第二係数と前記第二基準ベクトルとの第二の積を計算するように構成される第九計算サブユニットと、
前記第二画素ベクトルと第二の積との差を計算し、前記第二画素に対応する第三目標画素ベクトルを得るように構成される第十計算サブユニットと、
前記第二基準画素の位置、および前記第二画素に対応する第三目標画素ベクトルに基づき、前記第二画素に対応する第三目標画素を特定するように構成される第四特定サブユニットと、を含む、項目35または36に記載の装置。
(項目38)
前記充填モジュールは、
前記サブマラートライアングル領域における各画素に対応する第一目標画素をそれぞれ特定するように構成される第四特定サブモジュールであって、前記画素に対応する第一目標画素が、前記サブマラートライアングルの中心と前記画素との連結線に位置する、第四特定サブモジュールと、
前記各画素の値を対応する第一目標画素の値にそれぞれ更新するように構成される第一更新サブモジュールと、
前記顔画像における第一基準ポイントを特定するように構成される第五特定サブモジュールであって、前記第一基準ポイントと鼻先キーポイントとの距離が前記サブマラートライアングルの中心と鼻先キーポイントとの距離よりも大きい、第五特定サブモジュールと、
前記サブマラートライアングルの中心が前記第一基準ポイントに指しているベクトルを第一基準ベクトルとして特定するように構成される第六特定サブモジュールと、
前記第一基準ベクトルに基づき、前記サブマラートライアングル領域における各画素に対応する第二目標画素をそれぞれ特定するように構成される第七特定サブモジュールであって、前記画素に対応する第二目標画素が前記画素に指しているベクトルが、前記第一基準ベクトルの方向と同じである、第七特定サブモジュールと、
前記各画素の値を対応する第二目標画素の値にそれぞれ更新するように構成される第二更新サブモジュールと、
前記サブマラートライアングルの中心と下瞼キーポイントとの連結線に位置する前記顔画像における第二基準ポイントを特定するように構成される第八特定サブモジュールと、
前記サブマラートライアングルの中心が前記第二基準ポイントに指しているベクトルを、第二基準ベクトルとして特定するように構成される第九特定サブモジュールと、
前記第二基準ベクトルに基づき、前記サブマラートライアングル領域における各画素に対応する第三目標画素をそれぞれ特定するように構成される第十特定サブモジュールであって、前記画素に対応する第三目標画素が前記画素に指しているベクトルが、前記第二基準ベクトルの方向と同じである、第十特定サブモジュールと、
前記各画素の値を対応する第三目標画素の値にそれぞれ更新するように構成される第三更新サブモジュールと、を含む、項目20から24のいずれか一項に記載の装置。
(項目39)
プロセッサおよびプロセッサ実行可能命令を記憶するためのメモリを含む電子機器であって、
前記プロセッサは前記コンピュータプログラムを実行する時、項目1から19のいずれか一項に記載の方法を実行するために用いられる、電子機器。
(項目40)
プロセッサに実行される時に項目1から19のいずれか一項に記載の方法を実現するコンピュータプログラム命令が記憶されている、コンピュータ読み取り可能記憶媒体。
可能な一実施形態では、第一特定モジュール22は、顔キーポイントに対して補間処理を行い、該顔画像におけるサブマラートライアングルの中心の推定位置を特定するように構成される第一特定サブモジュール221と、顔回転角度に基づき、サブマラートライアングルの中心の推定位置を調整し、該顔画像におけるサブマラートライアングルの中心を得るように構成される調整サブモジュール222と、を含む。
Claims (22)
- 顔画像における顔キーポイントおよび顔回転角度を取得することと、
前記顔キーポイントおよび前記顔回転角度に基づき、前記顔画像におけるサブマラートライアングルの中心を特定することと、
前記顔キーポイントおよび前記サブマラートライアングルの中心に基づき、前記顔画像におけるサブマラートライアングル領域を特定することと、
前記サブマラートライアングル領域に色を充填することと、を含む、顔画像の処理方法。 - 前記顔キーポイントおよび前記顔回転角度に基づき、前記顔画像におけるサブマラートライアングルの中心を特定する前記ステップは、
前記顔キーポイントに対して補間処理を行い、前記顔画像におけるサブマラートライアングルの中心の推定位置を特定することと、
前記顔回転角度に基づき、前記サブマラートライアングルの中心の推定位置を調整し、前記顔画像におけるサブマラートライアングルの中心を得ることと、を含む、請求項1に記載の方法。 - 前記顔キーポイントおよび前記サブマラートライアングルの中心に基づき、前記顔画像におけるサブマラートライアングル領域を特定する前記ステップは、
前記顔キーポイントを繋ぎ、前記顔キーポイントに対応する多角形を得ることと、
前記多角形内の前記サブマラートライアングルの中心を円心とした最大の円を前記顔画像におけるサブマラートライアングルの外輪郭円として特定することと、
前記サブマラートライアングルの外輪郭円に基づき、前記顔画像におけるサブマラートライアングル領域を特定することと、を含む、請求項1または2に記載の方法。 - 前記サブマラートライアングルの外輪郭円に基づき、前記顔画像におけるサブマラートライアングル領域を特定する前記ステップは、
前記顔画像における顔輪郭線を用いて前記サブマラートライアングルの外輪郭円を調整し、前記顔画像におけるサブマラートライアングル領域を得ることを含む、請求項3に記載の方法。 - 前記顔画像における顔輪郭線を用いて前記サブマラートライアングルの外輪郭円を調整し、前記顔画像におけるサブマラートライアングル領域を得る前記ステップは、
前記顔画像における顔輪郭線に対してサンプリングし、前記顔輪郭線におけるサンプリングポイントを得ることと、
前記サブマラートライアングルの外輪郭円に対してサンプリングし、前記サブマラートライアングルの外輪郭円におけるサンプリングポイントを得ることと、
前記顔輪郭線におけるサンプリングポイントと前記サブマラートライアングルの外輪郭円におけるサンプリングポイントとに対してカーブフィッティングを行い、前記顔画像におけるサブマラートライアングル領域を得ることと、を含む、請求項4に記載の方法。 - 前記サブマラートライアングル領域に色を充填する前記ステップは、
前記サブマラートライアングル領域における各画素に対応する第一目標画素をそれぞれ特定することであって、前記画素に対応する第一目標画素が、前記サブマラートライアングルの中心と前記画素との連結線に位置する、ことと、
前記各画素の値を対応する第一目標画素の値にそれぞれ更新することと、を含む、請求項1から5のいずれか一項に記載の方法。 - 前記サブマラートライアングル領域における各画素に対応する第一目標画素をそれぞれ特定する前記ステップは、
サブマラートライアングルの充填程度係数に基づき、前記サブマラートライアングル領域における各画素に対応する第一目標画素をそれぞれ特定することを含む、請求項6に記載の方法。 - 前記サブマラートライアングル領域における各画素に対応する第一目標画素をそれぞれ特定する前記ステップは、
二次導関数が常に0より大きい下に凸関数を採用して、前記サブマラートライアングル領域における各画素に対応する第一目標画素をそれぞれ特定することを含む、請求項6または7に記載の方法。 - 前記サブマラートライアングル領域に色を充填する前記ステップは、
前記顔画像における第一基準ポイントを特定することと、
前記サブマラートライアングルの中心が前記第一基準ポイントに指しているベクトルを第一基準ベクトルとして特定することと、
前記第一基準ベクトルに基づき、前記サブマラートライアングル領域における各画素に対応する第二目標画素をそれぞれ特定することであって、前記画素に対応する第二目標画素が前記画素に指しているベクトルが、前記第一基準ベクトルの方向と同じである、ことと、
前記各画素の値を対応する第二目標画素の値にそれぞれ更新することと、を含む、請求項1から8のいずれか一項に記載の方法。 - 前記第一基準ポイントと鼻先キーポイントとの距離は前記サブマラートライアングルの中心と鼻先キーポイントとの距離よりも大きい、請求項9に記載の方法。
- 前記第一基準ベクトルに基づき、前記サブマラートライアングル領域における各画素に対応する第二目標画素をそれぞれ特定する前記ステップは、
前記サブマラートライアングルの中心と前記サブマラートライアングル領域における第一画素との間の第一距離を特定することと、
サブマラートライアングルの外輪郭円の半径、前記第一距離および前記第一基準ベクトルのノルムに基づき、第一係数を特定することと、
前記第一画素、前記第一係数および前記第一基準ベクトルに基づき、前記第一画素に対応する第二目標画素を特定することと、を含む、請求項9または10に記載の方法。 - サブマラートライアングルの外輪郭円の半径、前記第一距離および前記基準ベクトルのノルムに基づき、第一係数を特定する前記ステップは、
前記サブマラートライアングルの外輪郭円の半径の二乗と前記第一距離の二乗との第一の差を計算することと、
前記第一の差を前記第一基準ベクトルのノルムの二乗と加算し、第一の和を得ることと、
前記第一の差と前記第一の和との比を計算し、前記第一係数を得ることと、を含む、請求項11に記載の方法。 - 前記第一画素、前記第一係数および前記第一基準ベクトルに基づき、前記第一画素に対応する第二目標画素を特定する前記ステップは、
第一基準画素が前記第一画素に指しているベクトルを、第一画素ベクトルとして特定することと、
前記第一係数と前記第一基準ベクトルとの第一の積を計算することと、
前記第一画素ベクトルと第一の積との差を計算し、前記第一画素に対応する第二目標画素ベクトルを得ることと、
前記第一基準画素の位置、および前記第一画素に対応する第二目標画素ベクトルに基づき、前記第一画素に対応する第二目標画素を特定することと、を含む、請求項11または12に記載の方法。 - 前記サブマラートライアングル領域に色を充填する前記ステップは、
前記顔画像における第二基準ポイントを特定することと、
前記サブマラートライアングルの中心が前記第二基準ポイントに指しているベクトルを、第二基準ベクトルとして特定することと、
前記第二基準ベクトルに基づき、前記サブマラートライアングル領域における各画素に対応する第三目標画素をそれぞれ特定することであって、前記画素に対応する第三目標画素が前記画素に指しているベクトルが、前記第二基準ベクトルの方向と同じである、ことと、
前記各画素の値を対応する第三目標画素の値にそれぞれ更新することと、を含む、請求項1から13のいずれか一項に記載の方法。 - 前記第二基準ポイントは前記サブマラートライアングルの中心と下瞼キーポイントとの連結線に位置する、請求項14に記載の方法。
- 前記第二基準ベクトルに基づき、前記サブマラートライアングル領域における各画素に対応する第三目標画素をそれぞれ特定する前記ステップは、
前記サブマラートライアングルの中心と前記サブマラートライアングル領域における第二画素との間の第二距離を特定することと、
サブマラートライアングルの外輪郭円の半径、前記第二距離および前記第二基準ベクトルのノルムに基づき、第二係数を特定することと、
前記第二画素、前記第二係数および前記第二基準ベクトルに基づき、前記第二画素に対応する第三目標画素を特定することと、を含む、請求項14または15に記載の方法。 - サブマラートライアングルの外輪郭円の半径、前記第二距離および前記第二基準ベクトルのノルムに基づき、第二係数を特定する前記ステップは、
前記サブマラートライアングルの外輪郭円の半径の二乗と前記第二距離の二乗との第二の差を計算することと、
前記第二の差を前記第二基準ベクトルのノルムの二乗と加算し、第二の和を得ることと、
前記第二の差と前記第二の和との比を計算し、前記第二係数を得ることと、を含む、請求項16に記載の方法。 - 前記第二画素、前記第二係数および前記第二基準ベクトルに基づき、前記第二画素に対応する第三目標画素を特定する前記ステップは、
第二基準画素が前記第二画素に指しているベクトルを、第二画素ベクトルとして特定することと、
前記第二係数と前記第二基準ベクトルとの第二の積を計算することと、
前記第二画素ベクトルと第二の積との差を計算し、前記第二画素に対応する第三目標画素ベクトルを得ることと、
前記第二基準画素の位置、および前記第二画素に対応する第三目標画素ベクトルに基づき、前記第二画素に対応する第三目標画素を特定することと、を含む、請求項16または17に記載の方法。 - 前記サブマラートライアングル領域に色を充填する前記ステップは、
前記サブマラートライアングル領域における各画素に対応する第一目標画素をそれぞれ特定することであって、前記画素に対応する第一目標画素が、前記サブマラートライアングルの中心と前記画素との連結線に位置する、ことと、
前記各画素の値を対応する第一目標画素の値にそれぞれ更新することと、
前記顔画像における第一基準ポイントを特定することであって、前記第一基準ポイントと鼻先キーポイントとの距離が前記サブマラートライアングルの中心と鼻先キーポイントとの距離よりも大きい、ことと、
前記サブマラートライアングルの中心が前記第一基準ポイントに指しているベクトルを第一基準ベクトルとして特定することと、
前記第一基準ベクトルに基づき、前記サブマラートライアングル領域における各画素に対応する第二目標画素をそれぞれ特定することであって、前記画素に対応する第二目標画素が前記画素に指しているベクトルが、前記第一基準ベクトルの方向と同じである、ことと、
前記各画素の値を対応する第二目標画素の値にそれぞれ更新することと、
前記サブマラートライアングルの中心と下瞼キーポイントとの連結線に位置する前記顔画像における第二基準ポイントを特定することと、
前記サブマラートライアングルの中心が前記第二基準ポイントに指しているベクトルを、第二基準ベクトルとして特定することと、
前記第二基準ベクトルに基づき、前記サブマラートライアングル領域における各画素に対応する第三目標画素をそれぞれ特定することであって、前記画素に対応する第三目標画素が前記画素に指しているベクトルが、前記第二基準ベクトルの方向と同じである、ことと
前記各画素の値を対応する第三目標画素の値にそれぞれ更新することと、を含む、請求項1から5のいずれか一項に記載の方法。 - 顔画像における顔キーポイントおよび顔回転角度を取得するように構成される取得モジュールと、
前記顔キーポイントおよび前記顔回転角度に基づき、前記顔画像におけるサブマラートライアングルの中心を特定するように構成される第一特定モジュールと、
前記顔キーポイントおよび前記サブマラートライアングルの中心に基づき、前記顔画像におけるサブマラートライアングル領域を特定するように構成される第二特定モジュールと、
前記サブマラートライアングル領域に色を充填するように構成される充填モジュールと、を含む、顔画像の処理装置。 - プロセッサおよびプロセッサ実行可能命令を記憶するためのメモリを含む電子機器であって、
前記プロセッサは、コンピュータプログラムを実行する時、請求項1から19のいずれか一項に記載の方法を実行するために用いられる、電子機器。 - プロセッサに実行される時に請求項1から19のいずれか一項に記載の方法を実現するコンピュータプログラム命令が記憶されている、コンピュータ読み取り可能記憶媒体。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811141270.9A CN109446912B (zh) | 2018-09-28 | 2018-09-28 | 人脸图像的处理方法及装置、电子设备和存储介质 |
CN201811141270.9 | 2018-09-28 | ||
PCT/CN2018/117498 WO2020062532A1 (zh) | 2018-09-28 | 2018-11-26 | 人脸图像的处理方法及装置、电子设备和存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021501924A JP2021501924A (ja) | 2021-01-21 |
JP6923682B2 true JP6923682B2 (ja) | 2021-08-25 |
Family
ID=65544695
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019571734A Active JP6923682B2 (ja) | 2018-09-28 | 2018-11-26 | 顔画像の処理方法および装置、電子機器ならびに記憶媒体 |
Country Status (6)
Country | Link |
---|---|
US (3) | US11341768B2 (ja) |
JP (1) | JP6923682B2 (ja) |
CN (1) | CN109446912B (ja) |
SG (1) | SG11201913734TA (ja) |
TW (1) | TWI718631B (ja) |
WO (1) | WO2020062532A1 (ja) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108230331A (zh) * | 2017-09-30 | 2018-06-29 | 深圳市商汤科技有限公司 | 图像处理方法和装置、电子设备、计算机存储介质 |
CN109446912B (zh) * | 2018-09-28 | 2021-04-09 | 北京市商汤科技开发有限公司 | 人脸图像的处理方法及装置、电子设备和存储介质 |
CN110288551B (zh) * | 2019-06-29 | 2021-11-09 | 北京字节跳动网络技术有限公司 | 视频美化方法、装置及电子设备 |
JP7345306B2 (ja) * | 2019-07-30 | 2023-09-15 | キヤノン株式会社 | 画像処理装置、画像処理方法 |
CN116109479B (zh) * | 2023-04-17 | 2023-07-18 | 广州趣丸网络科技有限公司 | 虚拟形象的面部调整方法、装置、计算机设备和存储介质 |
CN117095450B (zh) * | 2023-10-20 | 2024-01-09 | 武汉大学人民医院(湖北省人民医院) | 一种基于图像的眼干程度评估系统 |
Family Cites Families (21)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7221809B2 (en) * | 2001-12-17 | 2007-05-22 | Genex Technologies, Inc. | Face recognition system and method |
US8103061B2 (en) * | 2006-10-02 | 2012-01-24 | Johnson & Johnson Consumer Companies, Inc. | Method and apparatus for identifying facial regions |
TWI417811B (zh) * | 2008-12-31 | 2013-12-01 | Altek Corp | The Method of Face Beautification in Digital Image |
JP4760999B1 (ja) * | 2010-10-29 | 2011-08-31 | オムロン株式会社 | 画像処理装置、画像処理方法、および制御プログラム |
TW201222432A (en) * | 2010-11-26 | 2012-06-01 | Inst Information Industry | System, device, method, and computer program product for facial defect analysis using angular facial image |
TWI545947B (zh) * | 2011-04-08 | 2016-08-11 | 南昌歐菲光電技術有限公司 | 具有影像擷取及分析模組之顯示裝置 |
CN102201061B (zh) * | 2011-06-24 | 2012-10-31 | 常州锐驰电子科技有限公司 | 基于多阶层过滤人脸识别的智能安全监控系统及方法 |
JP5991536B2 (ja) * | 2013-02-01 | 2016-09-14 | パナソニックIpマネジメント株式会社 | メイクアップ支援装置、メイクアップ支援方法、およびメイクアップ支援プログラム |
US9149124B1 (en) * | 2013-04-04 | 2015-10-06 | Joseph Savovic | Engineered seating system for use in medical lift chairs |
CN104599297B (zh) * | 2013-10-31 | 2018-07-10 | 厦门美图网科技有限公司 | 一种对人脸自动上腮红的图像处理方法 |
CN104091162B (zh) * | 2014-07-17 | 2017-06-23 | 东南大学 | 基于特征点的三维人脸识别方法 |
US9589178B2 (en) * | 2014-09-12 | 2017-03-07 | Htc Corporation | Image processing with facial features |
WO2017142143A1 (en) * | 2016-02-19 | 2017-08-24 | Samsung Electronics Co., Ltd. | Method and apparatus for providing summary information of a video |
CN106446781A (zh) * | 2016-08-29 | 2017-02-22 | 厦门美图之家科技有限公司 | 一种人脸图像处理方法及装置 |
CN106682598B (zh) * | 2016-12-14 | 2021-02-19 | 华南理工大学 | 一种基于级联回归的多姿态的人脸特征点检测方法 |
CN108346171B (zh) * | 2017-01-25 | 2021-12-10 | 斑马智行网络(香港)有限公司 | 一种图像处理方法、装置、设备和计算机存储介质 |
CN107862274A (zh) * | 2017-10-31 | 2018-03-30 | 广东欧珀移动通信有限公司 | 美颜方法、装置、电子设备和计算机可读存储介质 |
CN107958439B (zh) * | 2017-11-09 | 2021-04-27 | 北京小米移动软件有限公司 | 图像处理方法及装置 |
CN108447017B (zh) * | 2018-05-31 | 2022-05-13 | Oppo广东移动通信有限公司 | 人脸虚拟整容方法和装置 |
CN108550185A (zh) * | 2018-05-31 | 2018-09-18 | Oppo广东移动通信有限公司 | 人脸美化处理方法和装置 |
CN109446912B (zh) * | 2018-09-28 | 2021-04-09 | 北京市商汤科技开发有限公司 | 人脸图像的处理方法及装置、电子设备和存储介质 |
-
2018
- 2018-09-28 CN CN201811141270.9A patent/CN109446912B/zh active Active
- 2018-11-26 JP JP2019571734A patent/JP6923682B2/ja active Active
- 2018-11-26 SG SG11201913734TA patent/SG11201913734TA/en unknown
- 2018-11-26 WO PCT/CN2018/117498 patent/WO2020062532A1/zh active Application Filing
-
2019
- 2019-08-20 TW TW108129695A patent/TWI718631B/zh active
- 2019-12-29 US US16/729,427 patent/US11341768B2/en active Active
-
2022
- 2022-03-16 US US17/696,223 patent/US11734804B2/en active Active
- 2022-03-16 US US17/696,240 patent/US11741583B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2021501924A (ja) | 2021-01-21 |
CN109446912B (zh) | 2021-04-09 |
US11341768B2 (en) | 2022-05-24 |
US11741583B2 (en) | 2023-08-29 |
TWI718631B (zh) | 2021-02-11 |
WO2020062532A1 (zh) | 2020-04-02 |
CN109446912A (zh) | 2019-03-08 |
US11734804B2 (en) | 2023-08-22 |
SG11201913734TA (en) | 2020-05-28 |
US20200193142A1 (en) | 2020-06-18 |
US20220207910A1 (en) | 2022-06-30 |
US20220207911A1 (en) | 2022-06-30 |
TW202013316A (zh) | 2020-04-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6923682B2 (ja) | 顔画像の処理方法および装置、電子機器ならびに記憶媒体 | |
CN107692997B (zh) | 心率检测方法及装置 | |
CN109816764B (zh) | 图像生成方法及装置、电子设备和存储介质 | |
JP7038853B2 (ja) | 画像処理方法及び装置、電子機器並びにコンピュータ可読記憶媒体 | |
CN111553864B (zh) | 图像修复方法及装置、电子设备和存储介质 | |
CN110991327A (zh) | 交互方法及装置、电子设备和存储介质 | |
CN110928627B (zh) | 界面展示方法及装置、电子设备和存储介质 | |
CN110889382A (zh) | 虚拟形象渲染方法及装置、电子设备和存储介质 | |
CN107341777B (zh) | 图片处理方法及装置 | |
CN111243011A (zh) | 关键点检测方法及装置、电子设备和存储介质 | |
CN109377446B (zh) | 人脸图像的处理方法及装置、电子设备和存储介质 | |
CN109325908B (zh) | 图像处理方法及装置、电子设备和存储介质 | |
CN112785672B (zh) | 图像处理方法及装置、电子设备和存储介质 | |
CN111091610B (zh) | 图像处理方法及装置、电子设备和存储介质 | |
CN109544458B (zh) | 鱼眼图像校正方法、装置及其存储介质 | |
CN111241887A (zh) | 目标对象关键点识别方法及装置、电子设备和存储介质 | |
WO2022134475A1 (zh) | 点云地图构建方法及装置、电子设备、存储介质和程序 | |
CN110807769B (zh) | 图像显示控制方法及装置 | |
CN112613447A (zh) | 关键点检测方法及装置、电子设备和存储介质 | |
CN112651880B (zh) | 视频数据处理方法及装置、电子设备和存储介质 | |
CN106598247B (zh) | 基于虚拟现实的响应控制方法及装置 | |
WO2022151687A1 (zh) | 合影图像生成方法、装置、设备、存储介质、计算机程序及产品 | |
CN114445298A (zh) | 图像的处理方法、装置、电子设备及存储介质 | |
CN106775245B (zh) | 基于虚拟现实的用户属性设置方法及装置 | |
CN112597944B (zh) | 关键点检测方法及装置、电子设备和存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20191220 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20191220 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20201225 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210324 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210712 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210729 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6923682 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |