JP2018520444A - 顔の位置合わせのための方法 - Google Patents
顔の位置合わせのための方法 Download PDFInfo
- Publication number
- JP2018520444A JP2018520444A JP2018500757A JP2018500757A JP2018520444A JP 2018520444 A JP2018520444 A JP 2018520444A JP 2018500757 A JP2018500757 A JP 2018500757A JP 2018500757 A JP2018500757 A JP 2018500757A JP 2018520444 A JP2018520444 A JP 2018520444A
- Authority
- JP
- Japan
- Prior art keywords
- landmark
- location
- image
- face
- regression
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 94
- 230000001815 facial effect Effects 0.000 claims abstract description 16
- 230000006870 function Effects 0.000 claims description 76
- 238000012549 training Methods 0.000 claims description 51
- 239000013598 vector Substances 0.000 claims description 27
- 230000009466 transformation Effects 0.000 claims description 26
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 claims description 16
- 238000012417 linear regression Methods 0.000 claims description 13
- 238000000844 transformation Methods 0.000 claims description 12
- 238000004422 calculation algorithm Methods 0.000 claims description 9
- 238000005457 optimization Methods 0.000 claims description 9
- 238000001514 detection method Methods 0.000 claims description 4
- 238000006073 displacement reaction Methods 0.000 claims description 4
- 230000008451 emotion Effects 0.000 claims description 2
- 238000003384 imaging method Methods 0.000 claims description 2
- 238000012886 linear function Methods 0.000 claims description 2
- 230000036544 posture Effects 0.000 description 18
- 230000008921 facial expression Effects 0.000 description 14
- 210000000887 face Anatomy 0.000 description 11
- 238000010586 diagram Methods 0.000 description 8
- 239000000203 mixture Substances 0.000 description 7
- 239000011159 matrix material Substances 0.000 description 6
- 210000004709 eyebrow Anatomy 0.000 description 5
- 238000004364 calculation method Methods 0.000 description 3
- 230000014509 gene expression Effects 0.000 description 3
- 238000012544 monitoring process Methods 0.000 description 3
- 230000008901 benefit Effects 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 2
- 238000002790 cross-validation Methods 0.000 description 2
- 210000003128 head Anatomy 0.000 description 2
- 238000007637 random forest analysis Methods 0.000 description 2
- 238000000926 separation method Methods 0.000 description 2
- 238000013459 approach Methods 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000003066 decision tree Methods 0.000 description 1
- 230000007850 degeneration Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000010195 expression analysis Methods 0.000 description 1
- 230000036541 health Effects 0.000 description 1
- 230000001771 impaired effect Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000008450 motivation Effects 0.000 description 1
- 230000003094 perturbing effect Effects 0.000 description 1
- 238000000513 principal component analysis Methods 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 238000012368 scale-down model Methods 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
- 230000002194 synthesizing effect Effects 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
- G06V40/165—Detection; Localisation; Normalisation using facial parts and geometric relationships
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/23—Clustering techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/02—Affine transformations
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/18—Image warping, e.g. rearranging pixels individually
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/40—Scaling of whole images or parts thereof, e.g. expanding or contracting
- G06T3/4053—Scaling of whole images or parts thereof, e.g. expanding or contracting based on super-resolution, i.e. the output image resolution being higher than the sensor resolution
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/30—Determination of transform parameters for the alignment of images, i.e. image registration
- G06T7/33—Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/60—Analysis of geometric attributes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
- G06V10/443—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/75—Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
- G06V10/754—Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries involving a deformation of the sample pattern or of the reference pattern; Elastic matching
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
- G06V40/171—Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/174—Facial expression recognition
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/14—Systems for two-way working
- H04N7/15—Conference systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
- G06T2207/30201—Face
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Oral & Maxillofacial Surgery (AREA)
- General Health & Medical Sciences (AREA)
- Data Mining & Analysis (AREA)
- Human Computer Interaction (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Geometry (AREA)
- Life Sciences & Earth Sciences (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- General Engineering & Computer Science (AREA)
- Computing Systems (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- Signal Processing (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
Description
(1)本方法を、定義された大域変換の特化されたクラスに対し不変にする、回帰の各反復前の大域位置合わせステップと、
(2)回帰がプロトタイプ顔形状からの特徴ロケーションの偏差にペナルティを課すことを可能にする特徴ベクトルへの拡張と、
(3)各エキスパートが、入力データの異なるサブセットを位置合わせすることに特化した独自の回帰関数、例えば、姿勢及び表情の特定の範囲を有する、カスケードの各ステージにおけるエキスパート混合回帰と、
(4)エキスパートによって用いられるプロトタイプ顔形状を学習するためのアフィン不変クラスタリング手順と、
を含むことができる。
回帰の各ステージの前の大域位置合わせステップと、
回帰に対する学習された変形制約と、
カスケードの各ステージにおける、単一の線形回帰ではないエキスパート混合回帰と、
を用いる。
従来のSDMにおける回帰関数が、多岐にわたる顔の姿勢及び表情について顔ランドマークを位置合わせするように学習するために、トレーニングデータは、可能な変動の空間を覆うのに十分な顔の例を含まなくてはならない。
図2A、図2B及び図3は、大域位置合わせ教師あり降下法(GA−SDM)と呼ぶ、大域位置合わせ及び回帰を用いて顔を位置合わせするための本発明の方法を示す。図2Aは、本方法の1回の反復(ステージk)のステップの流れ図を示し、図2Bは、対応する擬似コードを示す。
ランドマークロケーションを追跡するための従来のSDMは、近傍のランドマークの回帰挙動に対する明示的な制約を有しておらず、これにより、ランドマークが隔たっていく可能性が生じる。通常、これは、ランドマークの自由形態の変形に対する明示的な制約又はペナルティを導入することによって最適化設定において対処するべき単純な問題である。
上記で説明した大域位置合わせは、本発明のモデルが、顔のアフィン変換に対し不変の回帰関数を学習することを可能にする。それでも、例えば、面外回転及び表情に起因した、顔画像データにおける残りの変動が大きいため、単一の回帰関数が全ての顔を正確に位置合わせすることは困難である。
好ましい実施形態において、エキスパートの回帰関数は、N個の顔画像の組と、これらのN個の画像の各々における顔ランドマークのグランドトゥルースロケーションとを含むトレーニングデータを用いて学習される。エキスパートElの回帰関数を学習するために、トレーニングデータ内のN個の顔画像が、異なるランダム変位によってグランドトゥルースランドマークロケーションを毎回摂動させて、全てのトレーニング画像をM回繰り返すことによって拡張される。グランドトゥルースランドマークロケーション
各々が、大域位置合わせと、それに続く回帰とを含む1つ以上の(K≧1)ステップからなる正確な顔の位置合わせ方法が説明される。さらに、L個のGA−SDM回帰エキスパートの混合を説明した。各エキスパートは、ランドマークロケーションをそのプロトタイプ形状に大域的に位置合わせし、カスタマイズされた回帰モデルを学習することによって、姿勢及び表情の共同空間の異なる部分に特化している。また、変形制約を弁別的位置合わせフレームワーク内に含める方法も提示する。拡張的な評価は、提案される方法が最新技術を大幅に改善することを示す。
Claims (29)
- 顔の位置合わせの方法であって、
顔の画像と、該画像に関連付けられた初期ランドマークロケーションの組とを取得するステップと、
前記初期ランドマークロケーションの組を、プロトタイプ形状を有する顔のランドマークロケーションの組に大域的に位置合わせして、大域位置合わせパラメーターを得るステップと、
前記大域位置合わせパラメーターに従って、前記初期ランドマークロケーションの組及び前記画像の座標フレームからの前記画像を前記プロトタイプ形状の座標フレームにワープして、ワープされたランドマークロケーション及びワープされた顔画像を得るステップと、
前記ワープされたランドマークロケーションにおける前記ワープされた顔画像から特徴を抽出するステップと、
前記特徴に回帰関数を適用して、前記プロトタイプ形状の前記座標フレームにおける更新されたランドマークロケーションを得るステップと、
前記プロトタイプ形状の前記座標フレームにおける前記更新されたランドマークロケーションを前記画像の前記座標フレームにワープして、前記画像内の更新されたランドマークロケーションを得るステップと、
を含み、前記ステップはプロセッサが実行する、方法。 - 請求項1に記載のステップをK回の反復にわたって適用することを更に含み、ここで、K≧1であり、前記画像は全ての反復について用いられ、各反復k>1において、前記初期ランドマークロケーションの組は、反復k−1中に用いられた前記画像内の前記更新されたランドマークロケーションである、請求項1に記載の方法。
- 前記エキスパート回帰関数は、各反復kにおいて異なる、請求項2に記載の方法。
- L個の大域位置合わせ教師あり降下法回帰エキスパート(複数のエキスパート)の組を更に含み、
前記画像は全てのエキスパートによって用いられ、
各エキスパートは、異なるプロトタイプ形状及び異なる回帰関数に関連付けられ、
ゲーティング関数は、前記L個のエキスパートの各々について割り当て重みを生成し、
前記L個のエキスパートの各々について、請求項1に記載のステップが実行され、更新された顔ランドマークロケーションのL個の組が得られ、
前記更新された顔ランドマークロケーションのL個の組が、前記割り当て重みを用いて加重平均として結合され、前記更新された顔ランドマークロケーションが得られる、請求項1に記載の方法。 - 請求項4に記載の方法をK回の反復にわたって適用することを更に含み、ここで、K≧1であり、前記画像は全ての反復について用いられ、各反復k>1において、前記初期ランドマークロケーションは、反復k−1において得られた前記更新されたランドマークロケーションである、請求項4に記載の方法。
- エキスパートごとに、前記回帰関数は各反復において異なる、請求項5に記載の方法。
- 前記方法は、感情解析のために用いられる、請求項1に記載の方法。
- 前記方法は、超解像度撮像のために用いられる、請求項1に記載の方法。
- 前記方法は、先進運転支援システムによって用いられる、請求項1に記載の方法。
- 前記方法は、ビデオ会議のためのものである、請求項1に記載の方法。
- 前記画像はカメラによって取得される、請求項1に記載の方法。
- 前記初期ランドマークロケーションは、顔検出アルゴリズムを用いて求められる、請求項1に記載の方法。
- 前記初期ランドマークロケーションは、顔パーツ検出アルゴリズムを用いて求められる、請求項1に記載の方法。
- 前記大域位置合わせパラメーターは、2Dアフィン変換を表す、請求項1に記載の方法。
- 前記プロトタイプ形状は、トレーニングデータの組にわたる各ランドマークの平均ロケーションを含む、請求項1に記載の方法。
- 前記L個のエキスパートの前記プロトタイプ形状は、最適化問題を解いて、トレーニングデータの組における前記ランドマークの前記ロケーションのアフィン不変クラスタリングを得ることによって求められる、請求項4に記載の方法。
- 前記抽出することは、スケール不変特徴変換(SIFT)特徴を用いる、請求項1に記載の方法。
- 前記抽出することは、勾配方向ヒストグラム(HOG)特徴を用いる、請求項1に記載の方法。
- 前記回帰関数は線形関数である、請求項1に記載の方法。
- 前記回帰関数は回帰フォレストである、請求項1に記載の方法。
- 前記大域変換のクラスは、全ての可能な2Dアフィン変換のクラスである、請求項22に記載の方法。
- 前記回帰関数は、トレーニングデータの組を用いて学習され、該トレーニングデータの組は、顔のN個の画像の組と、該N個の画像の各々における前記顔ランドマークのグランドトゥルースロケーションとを含む、請求項1に記載の方法。
- 前記回帰関数は、顔のN個の画像の組と、これらのN個の画像の各々における前記顔ランドマークのグランドトゥルースロケーションとを含むトレーニングデータの組を用いて学習され、
前記トレーニングデータは、全てのトレーニング画像をM回繰り返すことによって拡張され、拡張されたトレーニングデータの組が生成され、
i=1,...,MNである、前記拡張されたトレーニングの組内の各画像Iiについて、画像Iiは、オフセット
前記回帰関数は、L2損失関数
- 各エキスパートの前記回帰関数は、N個のトレーニング顔画像の組と、該N個のトレーニング顔画像の各々における顔ランドマークのグランドトゥルースロケーションとを含むトレーニングデータの組を用いて学習され、
前記トレーニングデータは、全てのトレーニング顔画像をM回繰り返すことによって拡張され、拡張されたトレーニングデータの組が生成され、
i=1,...,MNである前記拡張されたトレーニングデータの組内の各画像Iiについて、画像Iiは、オフセット
エキスパートごとに、前記回帰関数は、L2損失関数
ここで、
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US14/859,469 US9633250B2 (en) | 2015-09-21 | 2015-09-21 | Method for estimating locations of facial landmarks in an image of a face using globally aligned regression |
US14/859,469 | 2015-09-21 | ||
PCT/JP2016/072461 WO2017051608A1 (en) | 2015-09-21 | 2016-07-25 | Method for face alignment |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2018520444A true JP2018520444A (ja) | 2018-07-26 |
JP6584629B2 JP6584629B2 (ja) | 2019-10-02 |
Family
ID=56889122
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018500757A Active JP6584629B2 (ja) | 2015-09-21 | 2016-07-25 | 顔の位置合わせのための方法 |
Country Status (5)
Country | Link |
---|---|
US (1) | US9633250B2 (ja) |
JP (1) | JP6584629B2 (ja) |
CN (1) | CN108027878B (ja) |
DE (1) | DE112016004266B4 (ja) |
WO (1) | WO2017051608A1 (ja) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020027129A1 (ja) * | 2018-07-31 | 2020-02-06 | 株式会社デンソー | 瞳孔推定装置および瞳孔推定方法 |
JP2020526834A (ja) * | 2017-11-16 | 2020-08-31 | 三菱電機株式会社 | コンピュータベースシステム及びコンピュータベース方法 |
JP2021064343A (ja) * | 2019-10-16 | 2021-04-22 | 株式会社デンソー | 行動認識装置、行動認識方法、及び情報生成装置 |
Families Citing this family (31)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9928405B2 (en) * | 2014-01-13 | 2018-03-27 | Carnegie Mellon University | System and method for detecting and tracking facial features in images |
US10134177B2 (en) * | 2015-01-15 | 2018-11-20 | Samsung Electronics Co., Ltd. | Method and apparatus for adjusting face pose |
US10121055B1 (en) * | 2015-09-08 | 2018-11-06 | Carnegie Mellon University | Method and system for facial landmark localization |
TWI797699B (zh) * | 2015-12-22 | 2023-04-01 | 以色列商應用材料以色列公司 | 半導體試樣的基於深度學習之檢查的方法及其系統 |
CN107103271A (zh) * | 2016-02-23 | 2017-08-29 | 芋头科技(杭州)有限公司 | 一种人脸检测方法 |
JP6563858B2 (ja) * | 2016-06-02 | 2019-08-21 | 株式会社デンソーアイティーラボラトリ | 特徴点位置推定装置、特徴点位置推定システム、特徴点位置推定方法、および特徴点位置推定プログラム |
CN106682598B (zh) * | 2016-12-14 | 2021-02-19 | 华南理工大学 | 一种基于级联回归的多姿态的人脸特征点检测方法 |
US10332312B2 (en) * | 2016-12-25 | 2019-06-25 | Facebook, Inc. | Shape prediction model compression for face alignment |
US11093796B2 (en) * | 2017-03-29 | 2021-08-17 | International Business Machines Corporation | Entity learning recognition |
US10783394B2 (en) | 2017-06-20 | 2020-09-22 | Nvidia Corporation | Equivariant landmark transformation for landmark localization |
TW201931179A (zh) | 2017-07-13 | 2019-08-01 | 美商美國資生堂公司 | 用於虛擬面部化妝之移除與模擬、快速面部偵測及標記追蹤、降低輸入視訊之延遲及振動的系統與方法,以及用於建議化妝之方法 |
CN108875492B (zh) * | 2017-10-11 | 2020-12-22 | 北京旷视科技有限公司 | 人脸检测及关键点定位方法、装置、系统和存储介质 |
CN107766851A (zh) * | 2017-12-06 | 2018-03-06 | 北京搜狐新媒体信息技术有限公司 | 一种人脸关键点定位方法及定位装置 |
CN108090470B (zh) | 2018-01-10 | 2020-06-23 | 浙江大华技术股份有限公司 | 一种人脸对齐方法及装置 |
CN108197593B (zh) * | 2018-01-23 | 2022-02-18 | 深圳极视角科技有限公司 | 基于三点定位方法的多尺寸人脸表情识别方法及装置 |
EP3746981A1 (en) * | 2018-02-02 | 2020-12-09 | Koninklijke Philips N.V. | Correcting standardized uptake values in pre-treatment and post-treatment positron emission tomography studies |
DE102018002224A1 (de) | 2018-03-19 | 2018-08-09 | Daimler Ag | Verfahren sowie System zum Ermitteln von Raumkoordinaten von Landmarken eines Kopfes einer Person |
CN108446672B (zh) * | 2018-04-20 | 2021-12-17 | 武汉大学 | 一种基于由粗到细脸部形状估计的人脸对齐方法 |
US10607108B2 (en) * | 2018-04-30 | 2020-03-31 | International Business Machines Corporation | Techniques for example-based affine registration |
CN109002769A (zh) * | 2018-06-22 | 2018-12-14 | 深源恒际科技有限公司 | 一种基于深度神经网络的牛脸对齐方法及系统 |
US11003892B2 (en) * | 2018-11-09 | 2021-05-11 | Sap Se | Landmark-free face attribute prediction |
US10997473B2 (en) * | 2018-11-27 | 2021-05-04 | International Business Machines Corporation | Object localization based on spatial relationships |
US10846518B2 (en) * | 2018-11-28 | 2020-11-24 | National Yunlin University Of Science And Technology | Facial stroking detection method and system thereof |
US10949649B2 (en) | 2019-02-22 | 2021-03-16 | Image Metrics, Ltd. | Real-time tracking of facial features in unconstrained video |
WO2020248789A1 (en) * | 2019-06-11 | 2020-12-17 | Guangdong Oppo Mobile Telecommunications Corp., Ltd. | Method and system for facial landmark detection using facial component-specific local refinement |
CN111161355B (zh) * | 2019-12-11 | 2023-05-09 | 上海交通大学 | 多视图相机位姿和场景的纯位姿解算方法及系统 |
CN111523480B (zh) * | 2020-04-24 | 2021-06-18 | 北京嘀嘀无限科技发展有限公司 | 一种面部遮挡物的检测方法、装置、电子设备及存储介质 |
CN112184593A (zh) * | 2020-10-14 | 2021-01-05 | 北京字跳网络技术有限公司 | 关键点确定方法、装置、设备和计算机可读介质 |
CN112233207A (zh) * | 2020-10-16 | 2021-01-15 | 北京字跳网络技术有限公司 | 图像处理方法、装置、设备和计算机可读介质 |
CN116150668B (zh) * | 2022-12-01 | 2023-08-11 | 中国矿业大学 | 一种基于双级对齐部分迁移网络的旋转设备故障诊断方法 |
CN117315745B (zh) * | 2023-09-19 | 2024-05-28 | 中影年年(北京)科技有限公司 | 基于机器学习的面部表情捕捉方法及系统 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013228765A (ja) * | 2012-04-24 | 2013-11-07 | General Electric Co <Ge> | イメージ位置合わせのための最適勾配追求 |
Family Cites Families (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8155399B2 (en) * | 2007-06-12 | 2012-04-10 | Utc Fire & Security Corporation | Generic face alignment via boosting |
WO2009152430A2 (en) * | 2008-06-12 | 2009-12-17 | Repligen Corporation | Methods of treatment of bipolar disorder |
CN101763507B (zh) * | 2010-01-20 | 2013-03-06 | 北京智慧眼科技发展有限公司 | 人脸识别方法及人脸识别系统 |
US8306257B2 (en) * | 2011-01-31 | 2012-11-06 | Seiko Epson Corporation | Hierarchical tree AAM |
CN103443804B (zh) * | 2011-03-31 | 2019-02-19 | 英特尔公司 | 面部标志检测方法 |
US9928406B2 (en) * | 2012-10-01 | 2018-03-27 | The Regents Of The University Of California | Unified face representation for individual recognition in surveillance videos and vehicle logo super-resolution system |
US20140185924A1 (en) | 2012-12-27 | 2014-07-03 | Microsoft Corporation | Face Alignment by Explicit Shape Regression |
CN104050628B (zh) * | 2013-03-11 | 2017-04-12 | 佳能株式会社 | 图像处理方法和图像处理装置 |
US9208567B2 (en) * | 2013-06-04 | 2015-12-08 | Apple Inc. | Object landmark detection in images |
CN103577815B (zh) * | 2013-11-29 | 2017-06-16 | 中国科学院计算技术研究所 | 一种人脸对齐方法和系统 |
US9361510B2 (en) * | 2013-12-13 | 2016-06-07 | Intel Corporation | Efficient facial landmark tracking using online shape regression method |
US9928405B2 (en) * | 2014-01-13 | 2018-03-27 | Carnegie Mellon University | System and method for detecting and tracking facial features in images |
US9317785B1 (en) * | 2014-04-21 | 2016-04-19 | Video Mining Corporation | Method and system for determining ethnicity category of facial images based on multi-level primary and auxiliary classifiers |
KR102077260B1 (ko) * | 2014-08-08 | 2020-02-13 | 삼성전자주식회사 | 확룔 모델에 기반한 신뢰도를 이용하여 얼굴을 인식하는 방법 및 장치 |
KR101997500B1 (ko) * | 2014-11-25 | 2019-07-08 | 삼성전자주식회사 | 개인화된 3d 얼굴 모델 생성 방법 및 장치 |
-
2015
- 2015-09-21 US US14/859,469 patent/US9633250B2/en active Active
-
2016
- 2016-07-25 WO PCT/JP2016/072461 patent/WO2017051608A1/en active Application Filing
- 2016-07-25 JP JP2018500757A patent/JP6584629B2/ja active Active
- 2016-07-25 CN CN201680053624.7A patent/CN108027878B/zh active Active
- 2016-07-25 DE DE112016004266.3T patent/DE112016004266B4/de active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013228765A (ja) * | 2012-04-24 | 2013-11-07 | General Electric Co <Ge> | イメージ位置合わせのための最適勾配追求 |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020526834A (ja) * | 2017-11-16 | 2020-08-31 | 三菱電機株式会社 | コンピュータベースシステム及びコンピュータベース方法 |
WO2020027129A1 (ja) * | 2018-07-31 | 2020-02-06 | 株式会社デンソー | 瞳孔推定装置および瞳孔推定方法 |
JP2021064343A (ja) * | 2019-10-16 | 2021-04-22 | 株式会社デンソー | 行動認識装置、行動認識方法、及び情報生成装置 |
WO2021075348A1 (ja) * | 2019-10-16 | 2021-04-22 | 株式会社デンソー | 行動認識装置、行動認識方法、及び情報生成装置 |
JP7120258B2 (ja) | 2019-10-16 | 2022-08-17 | 株式会社デンソー | 行動認識装置、及び行動認識方法 |
Also Published As
Publication number | Publication date |
---|---|
DE112016004266B4 (de) | 2024-06-06 |
CN108027878A (zh) | 2018-05-11 |
DE112016004266T5 (de) | 2018-07-05 |
US20170083751A1 (en) | 2017-03-23 |
WO2017051608A1 (en) | 2017-03-30 |
CN108027878B (zh) | 2022-04-12 |
JP6584629B2 (ja) | 2019-10-02 |
US9633250B2 (en) | 2017-04-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6584629B2 (ja) | 顔の位置合わせのための方法 | |
Kulkarni et al. | Picture: A probabilistic programming language for scene perception | |
Patel et al. | Latent space sparse and low-rank subspace clustering | |
Wang et al. | Graph matching with adaptive and branching path following | |
Bône et al. | Learning distributions of shape trajectories from longitudinal datasets: a hierarchical model on a manifold of diffeomorphisms | |
Xiong et al. | Supervised descent method for solving nonlinear least squares problems in computer vision | |
Deutsch et al. | Zero shot learning via multi-scale manifold regularization | |
Lee et al. | Tensor-based AAM with continuous variation estimation: Application to variation-robust face recognition | |
KR20210021147A (ko) | 베이지안 최적화를 수행하기 위한 시스템 및 방법 | |
JP2008544404A (ja) | 薄板スプライン変換を用いて非剛体運動をモデル化するための直接的方法 | |
CN109544603B (zh) | 基于深度迁移学习的目标跟踪方法 | |
Tuzel et al. | Robust face alignment using a mixture of invariant experts | |
JP2005025748A (ja) | 立体結合顔形状の位置合わせ | |
Wimmer et al. | Learning local objective functions for robust face model fitting | |
JP6387831B2 (ja) | 特徴点位置検出装置、特徴点位置検出方法および特徴点位置検出プログラム | |
Meier et al. | Efficient Bayesian local model learning for control | |
Sun et al. | Deep Evolutionary 3D Diffusion Heat Maps for Large-pose Face Alignment. | |
CA2643865A1 (en) | Method and system for locating landmarks on 3d models | |
Tong et al. | Semi-supervised facial landmark annotation | |
CN112348164A (zh) | 用残差变分自编码器无监督解纠缠表示学习的装置和系统 | |
Camassa et al. | A geodesic landmark shooting algorithm for template matching and its applications | |
Langs et al. | Modeling the structure of multivariate manifolds: Shape maps | |
US20240013357A1 (en) | Recognition system, recognition method, program, learning method, trained model, distillation model and training data set generation method | |
CN111444962B (zh) | 一种基于耦合卷积稀疏编码的跨模态图像匹配方法 | |
JP7161111B2 (ja) | 重みマスク生成装置、重みマスク生成方法及びプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180109 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180109 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190312 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190327 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20190806 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20190903 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6584629 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |