JP6918198B2 - 姿勢変動に頑健な顔位置調整のためのシステム及び方法 - Google Patents
姿勢変動に頑健な顔位置調整のためのシステム及び方法 Download PDFInfo
- Publication number
- JP6918198B2 JP6918198B2 JP2020501290A JP2020501290A JP6918198B2 JP 6918198 B2 JP6918198 B2 JP 6918198B2 JP 2020501290 A JP2020501290 A JP 2020501290A JP 2020501290 A JP2020501290 A JP 2020501290A JP 6918198 B2 JP6918198 B2 JP 6918198B2
- Authority
- JP
- Japan
- Prior art keywords
- face
- visualization
- data
- image
- neural network
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2413—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
- G06F18/24133—Distances to prototypes
- G06F18/24143—Distances to neighbourhood prototypes, e.g. restricted Coulomb energy networks [RCEN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/75—Determining position or orientation of objects or cameras using feature-based methods involving models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/75—Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
- G06V10/755—Deformable models or variational models, e.g. snakes or active contours
- G06V10/7557—Deformable models or variational models, e.g. snakes or active contours based on appearance, e.g. active appearance models [AAM]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/64—Three-dimensional objects
- G06V20/647—Three-dimensional objects by matching two-dimensional images to three-dimensional objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
- G06V40/165—Detection; Localisation; Normalisation using facial parts and geometric relationships
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
- G06V40/169—Holistic features and representations, i.e. based on the facial image taken as a whole
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/174—Facial expression recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/048—Activation functions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/082—Learning methods modifying the architecture, e.g. adding, deleting or silencing nodes or connections
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
- G06T2207/30201—Face
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Evolutionary Computation (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Artificial Intelligence (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Databases & Information Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Medical Informatics (AREA)
- Computational Linguistics (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Molecular Biology (AREA)
- Mathematical Physics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Geometry (AREA)
- Image Analysis (AREA)
Description
本開示は、顔位置調整のためのシステム及び方法に関する。
一般に、畳み込みニューラルネットワーク(CNN)のカスケードを用いて実施される顔位置調整技術は、少なくとも以下の欠点、即ち、エンドツーエンド(End to End)トレーニングの欠如、手動設計された特徴量(handcrafted feature)の抽出、及び、緩慢なトレーニング速度という欠点を経験している。例えば、エンドツーエンドトレーニングがなければ、複数のCNNを共同で最適化することは不可能であり、これによって最適でない解決策がもたらされることとなる。さらに、これらの種類の顔位置調整技術は、姿勢や表情等のような種々の顔要因を考慮しない、手動設計された特徴量を抽出するという単純な方法を実施することが多い。さらに、これらのCNNのカスケードは、典型的には浅いフレームワークを有しており、このような浅いフレームワークは、初期段階のCNNの抽出された特徴に基づいてより深い特徴を抽出することが不可能である。さらに、これらのCNNのトレーニングは、通常、複数のCNNの各々が独立して連続的にトレーニングされること、また、2つの連続するCNNの間で手動設計された特徴量を抽出することが必要となることが理由で、時間がかかるものである。
以下は、詳細に後述される特定の実施形態の概要である。記載される態様は、これらの特定の実施形態の簡単な概要を読者に提供するために提示されるに過ぎず、これらの態様の記載は、本開示の範囲を限定することを意図したものではない。実際に、本開示は、以下で明示的に記載されていない可能性のある種々の態様を包含し得る。
一例として図示及び説明された上記実施形態並びに上記実施形態の利点の多くは、前述の説明によって理解されるであろう。開示された主題から逸脱することなく、又は、開示された主題の利点のうちの1つ又は複数を犠牲にすることなく、コンポーネントの形態、構造及び配置に関して種々の変更を加えることができることは明らかであろう。実際に、これらの実施形態の記載された形態は、説明目的のものに過ぎない。これらの実施形態は、種々の修正形態及び代替形態が可能であり、添付の特許請求の範囲は、そのような変更を包含及び含有し、開示された特定の形態には限定されておらず、むしろ、本開示の精神及び範囲に含まれる全ての修正形態、等価形態及び代替形態を網羅することが意図されている。
この場合、それぞれの3D顔形状は、Q個の3D頂点の集合を含む:
Claims (17)
- 少なくとも1つの処理ユニットを有する処理システムを含むコンピューティングシステムであって、
前記処理システムは、顔位置調整方法を実行するように構成されており、
前記顔位置調整方法は、
顔画像を有する画像データを受信することと、
前記顔画像のためのパラメータデータの最終推定値を、前記画像データと、前記パラメータデータの初期推定値とに基づいて提供するように、ニューラルネットワークを適用することと、
を含み、
前記ニューラルネットワークは、前記パラメータデータの現在の推定値に基づいて特徴マップを生成するように構成された少なくとも1つの視覚化層を含み、
前記パラメータデータは、頭部姿勢データと顔形状データとを含み、
前記ニューラルネットワークは、モデルフィッティングのためのエンドツーエンドトレーニングを伴う単一の畳み込みニューラルネットワークである、
コンピューティングシステム。 - 顔検出モジュールをさらに含み、
前記顔検出モジュールは、少なくとも、
(i)画像を受信し、
(ii)前記画像内の顔画像を識別し、
(iii)前記顔画像に関する画像データを前記処理システムに提供する、
ように構成されており、
前記顔画像は、正面ビューから側面ビューの範囲内にある顔ビューを提供する、
請求項1に記載のコンピューティングシステム。 - 前記顔形状データは、顔アイデンティティパラメータと、顔表情パラメータとを含む、
請求項1に記載のコンピューティングシステム。 - 前記ニューラルネットワークは、複数の相互接続された視覚化ブロックを有する単一の畳み込みニューラルネットワークであり、
それぞれの視覚化ブロックは、少なくとも1つの視覚化層と、畳み込み層と、全結合層とを含む、
請求項1に記載のコンピューティングシステム。 - それぞれの視覚化層は、3D顔モデルの表面法線に基づいており、顔とカメラとの間の相対的な頭部姿勢を視覚化する、
請求項1に記載のコンピューティングシステム。 - それぞれの視覚化層は、マスクを利用して、前記顔画像の複数の異なる部分における画素同士を区別し、視覚化された画像の画素値を、複数の異なる頭部姿勢にわたってゼロ平均及び単位標準偏差に対して正規化する、
請求項1に記載のコンピューティングシステム。 - コンピュータにより顔位置調整を実行するためのコンピュータ実装方法であって、
当該コンピュータ実装方法は、
顔画像を有する画像データを受信することと、
前記顔画像のためのパラメータデータの最終推定値を、前記画像データと、前記パラメータデータの初期推定値とに基づいて提供するように、ニューラルネットワークを適用することと、
を含み、
前記ニューラルネットワークは、前記パラメータデータの現在の推定値に基づいて特徴マップを生成するように構成された少なくとも1つの視覚化層を含み、
前記パラメータデータは、頭部姿勢データと顔形状データとを含み、
前記ニューラルネットワークは、モデルフィッティングのためのエンドツーエンドトレーニングを伴う単一の畳み込みニューラルネットワークである、
コンピュータ実装方法。 - 画像に対して顔検出を実施することをさらに含み、
前記顔検出は、
(i)画像を受信することと、
(ii)前記画像内の顔画像を識別することと、
(iii)前記顔画像に関する画像データを処理システムに提供することと、
を含み、
前記顔画像は、正面ビューから側面ビューの範囲内にある顔ビューを提供する、
請求項7に記載のコンピュータ実装方法。 - 前記顔形状データは、顔アイデンティティパラメータと、顔表情パラメータとを含む、
請求項7に記載のコンピュータ実装方法。 - 前記ニューラルネットワークは、複数の相互接続された視覚化ブロックを有する単一の畳み込みニューラルネットワークであり、
それぞれの視覚化ブロックは、前記視覚化層と、前記畳み込み層と、前記全結合層とを少なくとも含む、
請求項7に記載のコンピュータ実装方法。 - それぞれの視覚化層は、3D顔モデルの表面法線に基づいており、顔とカメラとの間の相対的な頭部姿勢を視覚化する、
請求項7に記載のコンピュータ実装方法。 - それぞれの視覚化層は、マスクを利用して、前記顔画像の複数の異なる部分における画素同士を区別し、視覚化された画像の画素値を、複数の異なる頭部姿勢にわたってゼロ平均及び単位標準偏差に対して正規化する、
請求項7に記載のコンピュータ実装方法。 - 少なくとも1つの処理ユニットを有する処理システムによって実行された場合に、顔位置調整方法を実行するためのコンピュータ可読データを少なくとも含む非一時的なコンピュータ可読媒体であって、
前記顔位置調整方法は、
顔画像を有する画像データを受信することと、
前記顔画像のためのパラメータデータの最終推定値を、前記画像データと、前記パラメータデータの初期推定値とに基づいて提供するように、ニューラルネットワークを適用することと
を含み、
前記ニューラルネットワークは、前記パラメータデータの現在の推定値に基づいて特徴マップを生成するように構成された少なくとも1つの視覚化層を含み、
前記パラメータデータは、頭部姿勢データと顔形状データとを含み、
前記ニューラルネットワークは、モデルフィッティングのためのエンドツーエンドトレーニングを伴う単一の畳み込みニューラルネットワークである、
非一時的なコンピュータ可読媒体。 - 前記顔形状データは、顔アイデンティティパラメータと、顔表情パラメータとを含む、
請求項13に記載の非一時的なコンピュータ可読媒体。 - 前記ニューラルネットワークは、複数の相互接続された視覚化ブロックを有する単一の畳み込みニューラルネットワークであり、
それぞれの視覚化ブロックは、前記視覚化層と、前記畳み込み層と、前記全結合層とを少なくとも含む、
請求項13に記載の非一時的なコンピュータ可読媒体。 - それぞれの視覚化層は、3D顔モデルの表面法線に基づいており、顔とカメラとの間の相対的な頭部姿勢を視覚化する、
請求項13に記載の非一時的なコンピュータ可読媒体。 - それぞれの視覚化層は、マスクを利用して、前記顔画像の複数の異なる部分における画素同士を区別し、視覚化された画像の画素値を、複数の異なる頭部姿勢にわたってゼロ平均及び単位標準偏差に対して正規化する、
請求項13に記載の非一時的なコンピュータ可読媒体。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US15/649,230 | 2017-07-13 | ||
US15/649,230 US10380413B2 (en) | 2017-07-13 | 2017-07-13 | System and method for pose-invariant face alignment |
PCT/EP2018/068734 WO2019011958A1 (en) | 2017-07-13 | 2018-07-11 | INVARIANT FACE ALIGNMENT SYSTEM AND METHOD FOR INSTALLATION |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020526845A JP2020526845A (ja) | 2020-08-31 |
JP6918198B2 true JP6918198B2 (ja) | 2021-08-11 |
Family
ID=62904469
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020501290A Active JP6918198B2 (ja) | 2017-07-13 | 2018-07-11 | 姿勢変動に頑健な顔位置調整のためのシステム及び方法 |
Country Status (5)
Country | Link |
---|---|
US (1) | US10380413B2 (ja) |
JP (1) | JP6918198B2 (ja) |
CN (1) | CN110832501A (ja) |
DE (1) | DE112018000298T5 (ja) |
WO (1) | WO2019011958A1 (ja) |
Families Citing this family (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019213459A1 (en) * | 2018-05-04 | 2019-11-07 | Northeastern University | System and method for generating image landmarks |
CN109191507B (zh) * | 2018-08-24 | 2019-11-05 | 北京字节跳动网络技术有限公司 | 三维人脸图像重建方法、装置和计算机可读存储介质 |
US10796476B1 (en) * | 2018-08-31 | 2020-10-06 | Amazon Technologies, Inc. | Self-supervised bootstrap for single image 3-D reconstruction |
JP7234378B2 (ja) * | 2018-09-07 | 2023-03-07 | トヨタ モーター ヨーロッパ | 回転仮説を決定することによって画像を処理する方法及びシステム |
US10713544B2 (en) * | 2018-09-14 | 2020-07-14 | International Business Machines Corporation | Identification and/or verification by a consensus network using sparse parametric representations of biometric images |
US11710034B2 (en) * | 2019-02-27 | 2023-07-25 | Intel Corporation | Misuse index for explainable artificial intelligence in computing environments |
CN110210456A (zh) * | 2019-06-19 | 2019-09-06 | 贵州理工学院 | 一种基于3d卷积神经网络的头部姿态估计方法 |
CN110599395B (zh) * | 2019-09-17 | 2023-05-12 | 腾讯科技(深圳)有限公司 | 目标图像生成方法、装置、服务器及存储介质 |
CN111144556B (zh) * | 2019-12-31 | 2023-07-07 | 中国人民解放军国防科技大学 | 面向深度神经网络训练和推理的范围批处理归一化算法的硬件电路 |
CN111199543A (zh) * | 2020-01-07 | 2020-05-26 | 南京航空航天大学 | 一种基于卷积神经网络的冰柜表面缺陷检测 |
US20210224610A1 (en) * | 2020-01-17 | 2021-07-22 | Insurance Services Office, Inc. | Systems and Methods for Disentangling Factors of Variation in Computer Vision Systems Using Cycle-Consistent Variational Auto-Encoders |
US11272164B1 (en) | 2020-01-17 | 2022-03-08 | Amazon Technologies, Inc. | Data synthesis using three-dimensional modeling |
CN111260774B (zh) * | 2020-01-20 | 2023-06-23 | 北京百度网讯科技有限公司 | 生成3d关节点回归模型的方法和装置 |
CN113159081A (zh) * | 2020-01-23 | 2021-07-23 | 华为技术有限公司 | 一种图像处理方法以及相关设备 |
CN111582376B (zh) * | 2020-05-09 | 2023-08-15 | 抖音视界有限公司 | 神经网络的可视化方法、装置、电子设备和介质 |
DE102020122023B3 (de) | 2020-08-24 | 2022-02-17 | Technische Universität Ilmenau | Verfahren und Vorrichtung zur Echtzeit-Ermittlung der Sollgeschwindigkeit eines zumindest teilautonom fahrenden Fahrzeugs in Umgebungen mit Fußgängerverkehr |
CN112200024B (zh) * | 2020-09-24 | 2022-10-11 | 复旦大学 | 一种通过三维可形变模型学习的二维人脸表情识别方法 |
EP3985572A1 (en) * | 2020-10-13 | 2022-04-20 | Imagination Technologies Limited | Implementation of a neural network in multicore hardware |
Family Cites Families (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20080298643A1 (en) * | 2007-05-30 | 2008-12-04 | Lawther Joel S | Composite person model from image collection |
US7848548B1 (en) * | 2007-06-11 | 2010-12-07 | Videomining Corporation | Method and system for robust demographic classification using pose independent model from sequence of face images |
US8180112B2 (en) * | 2008-01-21 | 2012-05-15 | Eastman Kodak Company | Enabling persistent recognition of individuals in images |
US8401248B1 (en) * | 2008-12-30 | 2013-03-19 | Videomining Corporation | Method and system for measuring emotional and attentional response to dynamic digital media content |
EP2869239A3 (en) | 2013-11-04 | 2015-08-19 | Facebook, Inc. | Systems and methods for facial representation |
US10095917B2 (en) * | 2013-11-04 | 2018-10-09 | Facebook, Inc. | Systems and methods for facial representation |
IL231862A (en) | 2014-04-01 | 2015-04-30 | Superfish Ltd | Image representation using a neural network |
EP3149653A4 (en) | 2014-05-29 | 2017-06-14 | Beijing Kuangshi Technology Co., Ltd. | Facial landmark localization using coarse-to-fine cascaded neural networks |
JP6754619B2 (ja) | 2015-06-24 | 2020-09-16 | 三星電子株式会社Samsung Electronics Co.,Ltd. | 顔認識方法及び装置 |
US10860837B2 (en) * | 2015-07-20 | 2020-12-08 | University Of Maryland, College Park | Deep multi-task learning framework for face detection, landmark localization, pose estimation, and gender recognition |
WO2017040519A1 (en) * | 2015-08-31 | 2017-03-09 | Sri International | Method and system for monitoring driving behaviors |
US11132543B2 (en) * | 2016-12-28 | 2021-09-28 | Nvidia Corporation | Unconstrained appearance-based gaze estimation |
-
2017
- 2017-07-13 US US15/649,230 patent/US10380413B2/en active Active
-
2018
- 2018-07-11 DE DE112018000298.5T patent/DE112018000298T5/de active Pending
- 2018-07-11 CN CN201880046190.7A patent/CN110832501A/zh active Pending
- 2018-07-11 JP JP2020501290A patent/JP6918198B2/ja active Active
- 2018-07-11 WO PCT/EP2018/068734 patent/WO2019011958A1/en active Application Filing
Also Published As
Publication number | Publication date |
---|---|
JP2020526845A (ja) | 2020-08-31 |
US20190019014A1 (en) | 2019-01-17 |
US10380413B2 (en) | 2019-08-13 |
DE112018000298T5 (de) | 2019-10-10 |
WO2019011958A1 (en) | 2019-01-17 |
CN110832501A (zh) | 2020-02-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6918198B2 (ja) | 姿勢変動に頑健な顔位置調整のためのシステム及び方法 | |
Tjaden et al. | A region-based gauss-newton approach to real-time monocular multiple object tracking | |
JP6681729B2 (ja) | オブジェクトの3d姿勢およびオブジェクトのランドマーク点の3dロケーションを求める方法、およびオブジェクトの3d姿勢およびオブジェクトのランドマークの3dロケーションを求めるシステム | |
Ye et al. | Accurate 3d pose estimation from a single depth image | |
US9189855B2 (en) | Three dimensional close interactions | |
KR101169533B1 (ko) | 얼굴 자세 추정 장치, 얼굴 자세 추정 방법 및 얼굴 자세 추정 프로그램을 기록한 컴퓨터 판독 가능한 기록 매체 | |
CN110866969B (zh) | 基于神经网络与点云配准的发动机叶片重构方法 | |
EP2710557B1 (en) | Fast articulated motion tracking | |
CN111414798A (zh) | 基于rgb-d图像的头部姿态检测方法及系统 | |
US20130129190A1 (en) | Model-Based Stereo Matching | |
CN106157372A (zh) | 一种基于视频图像的3d人脸网格重构方法 | |
Jaimez et al. | Motion cooperation: Smooth piece-wise rigid scene flow from rgb-d images | |
JP2008194146A (ja) | 視線検出装置及びその方法 | |
JP7345664B2 (ja) | 不確実性を有するランドマーク位置推定のための画像処理システムおよび方法 | |
JP2002319026A (ja) | 画像のシーケンスから非剛直3次元オブジェクトを直接モデル化する方法 | |
Piao et al. | Semi-supervised monocular 3D face reconstruction with end-to-end shape-preserved domain transfer | |
Zampokas et al. | Real-time 3D reconstruction in minimally invasive surgery with quasi-dense matching | |
Pham et al. | Robust real-time performance-driven 3D face tracking | |
Straka et al. | Rapid skin: estimating the 3D human pose and shape in real-time | |
Azad et al. | Accurate shape-based 6-dof pose estimation of single-colored objects | |
CN115761116A (zh) | 一种基于单目相机的透视投影下三维人脸重建方法 | |
KR101732807B1 (ko) | 3차원 얼굴 비대칭 분석 장치 및 방법 | |
Lefevre et al. | Structure and appearance features for robust 3d facial actions tracking | |
JP7234378B2 (ja) | 回転仮説を決定することによって画像を処理する方法及びシステム | |
Guo et al. | Photo-realistic face images synthesis for learning-based fine-scale 3D face reconstruction |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200110 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210218 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210308 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210607 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210621 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210720 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6918198 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |