JP2015507272A - 3dモデル・モーフィングのための方法および装置 - Google Patents
3dモデル・モーフィングのための方法および装置 Download PDFInfo
- Publication number
- JP2015507272A JP2015507272A JP2014551585A JP2014551585A JP2015507272A JP 2015507272 A JP2015507272 A JP 2015507272A JP 2014551585 A JP2014551585 A JP 2014551585A JP 2014551585 A JP2014551585 A JP 2014551585A JP 2015507272 A JP2015507272 A JP 2015507272A
- Authority
- JP
- Japan
- Prior art keywords
- model
- standard
- morphed
- optical flow
- morphing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/20—Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
- G06T7/251—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/97—Determining parameters from multiple pictures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/75—Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
- G06V10/755—Deformable models or variational models, e.g. snakes or active contours
- G06V10/7557—Deformable models or variational models, e.g. snakes or active contours based on appearance, e.g. active appearance models [AAM]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/64—Three-dimensional objects
- G06V20/647—Three-dimensional objects by matching two-dimensional images to three-dimensional objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
- G06V40/171—Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/174—Facial expression recognition
- G06V40/176—Dynamic expression
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20036—Morphological image processing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20112—Image segmentation details
- G06T2207/20121—Active appearance model [AAM]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
- G06T2207/30201—Face
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2210/00—Indexing scheme for image generation or computer graphics
- G06T2210/44—Morphing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2219/00—Indexing scheme for manipulating 3D models or images for computer graphics
- G06T2219/20—Indexing scheme for editing of 3D models
- G06T2219/2021—Shape modification
Abstract
Description
検出モデルとモーフィング・モデルとを使用して前記標準3Dモデルの初期モーフィングを実行し、それによってモーフィングされた標準3Dモデルを取得するステップと、
2D画像データ入力と、モーフィングされた標準3Dモデルとの間のオプティカル・フロー(optical flow)を決定するステップと、
前記モーフィングされた標準3Dモデルに対してオプティカル・フローを適用し、それによって微調整されモーフィングされた3D標準モデルを提供するステップと
を含む。
モーフィングされた標準3Dモデルの2D投影と、以前の微調整された3D標準モデルの2D投影との間の第1のオプティカル・フローを決定するステップと、
実際の2Dフレームと、以前の微調整され、モーフィングされた3D標準モデルの2D投影との間の第2のオプティカル・フローを決定するステップと、
実際の2Dフレームと、モーフィングされた標準3Dモデルの2D投影との間の第3のオプティカル・フローを取得するために、前記第1のオプティカル・フローと前記第2のオプティカル・フローとを結合するステップと、
2D画像データ入力と、モーフィングされた標準3Dモデルとの間のオプティカル・フローを取得するために、前記モーフィングされた標準3Dモデルの2D投影中に取得される深さ情報に基づいて前記第3のオプティカル・フローを適応させるステップと
を含むことができる。
E = S + DFLOW + DMODEL
Claims (13)
- 2D画像データ入力に基づいて標準3Dモデルをモーフィングするための方法であって、
検出モデルとモーフィング・モデルとを使用して前記標準3Dモデルの初期モーフィングを実行し、それによってモーフィングされた標準3Dモデルを取得するステップ(100)と、
前記2D画像データ入力と、前記モーフィングされた標準3Dモデルとの間のオプティカル・フローを決定するステップ(200)と、
前記モーフィングされた標準3Dモデルに対してオプティカル・フローを適用し、それによって微調整されモーフィングされた3D標準モデルを提供するステップ(300)と
を含む方法。 - 前記2D画像データ入力と、前記モーフィングされた標準3Dモデルとの間のオプティカル・フローは、以前の2D画像フレームの上で決定される、以前の微調整され、モーフィングされた3D標準モデルに基づいて決定される、請求項1に記載の方法。
- 前記2D画像データ入力と、前記モーフィングされた標準3Dモデルとの間の前記オプティカル・フロー決定ステップ(200)は、
前記モーフィングされた標準3Dモデルの2D投影と、前記以前の微調整され、モーフィングされた3D標準モデルの2D投影との間の第1のオプティカル・フローを決定するステップ(250)と、
前記実際の2Dフレームと、前記以前の微調整され、モーフィングされた3D標準モデルの2D投影との間の第2のオプティカル・フローを決定するステップ(290)と、
前記実際の2Dフレームと、前記モーフィングされた標準3Dモデルの2D投影との間の第3のオプティカル・フローを取得するために、前記第1のオプティカル・フローと前記第2のオプティカル・フローとを結合するステップ(270)と、
前記2D画像データ入力と、前記モーフィングされた標準3Dモデルとの間のオプティカル・フローを取得するために、前記モーフィングされた標準3Dモデルの2D投影中に取得される深さ情報に基づいて前記第3のオプティカル・フローを適応させるステップ(280)と
を含む、請求項2に記載の方法。 - 前記2D画像データ入力と、前記モーフィングされた標準3Dモデルとの間のオプティカル・フローに基づいて、前記初期モーフィング・ステップ(1000)において使用される前記モーフィング・モデルを適応させるステップ(140)をさらに含む、請求項1乃至3のいずれか1項に記載の方法。
- 前記2D画像フレームと、以前の2D画像フレームとの間で決定されるオプティカル・フロー情報に基づいて、前記初期モーフィング・ステップにおいて使用される前記検出モデルを適応させるステップをさらに含む、請求項1乃至4のいずれか1項に記載の方法。
- オプティカル・フローを適用する前記ステップは、エネルギー最小化プロシージャ(400)を含む、請求項1乃至3のいずれか1項に記載の方法。
- 2D画像データ入力に基づいて標準3Dモデルをモーフィングするための装置であって、
検出モデルとモーフィング・モデルとを使用して前記標準3Dモデルの初期モーフィングを実行し、それによってモーフィングされた標準3Dモデルを取得し(100)、
前記2D画像データ入力と、前記モーフィングされた標準3Dモデルとの間のオプティカル・フローを決定し(200)、
前記モーフィングされた標準3Dモデルに対してオプティカル・フローを適用し、それによって微調整されモーフィングされた3D標準モデルを前記装置の出力に対して提供する(300)ように
適合されている装置。 - 以前の2D画像フレームの上で決定される以前の微調整されモーフィングされた3D標準モデルに基づいて、前記2D画像データ入力と、前記モーフィングされた標準3Dモデルとの間のオプティカル・フローを決定するようにさらに適合されている、請求項7に記載の装置。
- 前記モーフィングされた標準3Dモデルの2D投影と、前記以前の微調整され、モーフィングされた3D標準モデルの2D投影との間の第1のオプティカル・フローを決定し(250)、
前記実際の2Dフレームと、前記以前の微調整され、モーフィングされた3D標準モデルの2D投影との間の第2のオプティカル・フローを決定し(290)、
前記実際の2Dフレームと、前記モーフィングされた標準3Dモデルの2D投影との間の第3のオプティカル・フローを取得するために、前記第1のオプティカル・フローと第2のオプティカル・フローとを結合し(270)、
前記2D画像データ入力と、前記モーフィングされた標準3Dモデルとの間のオプティカル・フローを取得するために、前記モーフィングされた標準3Dモデルの2D投影中に取得される深さ情報に基づいて前記第3のオプティカル・フローを適応させる(280)
ことにより、前記2D画像データ入力と、前記モーフィングされた標準3Dモデルとの間のオプティカル・フローを決定するようにさらに適合されている、請求項8に記載の装置。 - 前記2D画像データ入力と、前記モーフィングされた標準3Dモデルとの間のオプティカル・フローに基づいて前記初期モーフィング・ステップ(1000)において使用される前記モーフィング・モデルを適応させる(140)ことがさらにできるようになっている、請求項7乃至9のいずれか1項に記載の装置。
- 前記2D画像フレームと、以前の2D画像フレームとの間で決定されるオプティカル・フロー情報に基づいて、前記初期モーフィング・ステップにおいて使用される前記検出モデルを適応させることがさらにできるようになっている、請求項7乃至10のいずれか1項に記載の装置。
- 請求項7乃至11のいずれか1項に記載の装置を備える画像処理装置。
- データ処理装置の上で実行されるときに、請求項1乃至6のいずれか1項に記載の方法ステップを実行するように適合されたソフトウェアを備えるコンピュータ・プログラム製品。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
EP12305040.3A EP2615583B1 (en) | 2012-01-12 | 2012-01-12 | Method and arrangement for 3D model morphing |
EP12305040.3 | 2012-01-12 | ||
PCT/EP2013/050173 WO2013104592A1 (en) | 2012-01-12 | 2013-01-08 | Method and arrangement for 3d model morphing |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2015507272A true JP2015507272A (ja) | 2015-03-05 |
JP5893166B2 JP5893166B2 (ja) | 2016-03-23 |
Family
ID=47563442
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014551585A Expired - Fee Related JP5893166B2 (ja) | 2012-01-12 | 2013-01-08 | 3dモデル・モーフィングのための方法および装置 |
Country Status (6)
Country | Link |
---|---|
US (1) | US20140340397A1 (ja) |
EP (1) | EP2615583B1 (ja) |
JP (1) | JP5893166B2 (ja) |
KR (1) | KR101602593B1 (ja) |
CN (1) | CN104040593B (ja) |
WO (1) | WO2013104592A1 (ja) |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9311746B2 (en) * | 2012-05-23 | 2016-04-12 | Glasses.Com Inc. | Systems and methods for generating a 3-D model of a virtual try-on product |
CN103942833B (zh) * | 2014-04-14 | 2017-03-15 | 成都数象科技有限公司 | 数字人体的精确控制方法 |
US9900583B2 (en) * | 2014-12-04 | 2018-02-20 | Futurewei Technologies, Inc. | System and method for generalized view morphing over a multi-camera mesh |
WO2017081135A1 (en) * | 2015-11-10 | 2017-05-18 | Koninklijke Philips N.V. | Determining information about a patient's face |
CN107657649A (zh) * | 2017-09-13 | 2018-02-02 | 成都尤维克科技有限公司 | 一种机器视觉检测图像库的构建方法 |
CN109740664B (zh) * | 2018-12-28 | 2023-01-10 | 东莞中国科学院云计算产业技术创新与育成中心 | 柔性物体分类方法、装置、计算机设备和存储介质 |
CN110517340B (zh) * | 2019-08-30 | 2020-10-23 | 腾讯科技(深圳)有限公司 | 一种基于人工智能的脸部模型确定方法和装置 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6492986B1 (en) * | 1997-06-02 | 2002-12-10 | The Trustees Of The University Of Pennsylvania | Method for human face shape and motion estimation based on integrating optical flow and deformable models |
JP2006018828A (ja) * | 2004-06-30 | 2006-01-19 | Mitsubishi Electric Research Laboratories Inc | 変形可能な表面のクラスを表す可変多重線形モデルを構築する方法 |
JP2007141107A (ja) * | 2005-11-21 | 2007-06-07 | Canon Inc | 画像処理装置およびその方法 |
JP2009003656A (ja) * | 2007-06-20 | 2009-01-08 | Monolith Co Ltd | 画像処理装置および画像処理方法 |
JP2010517427A (ja) * | 2007-01-23 | 2010-05-20 | ユークリッド・ディスカバリーズ・エルエルシー | 個人向けのビデオサービスを提供するシステムおよび方法 |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7755619B2 (en) * | 2005-10-13 | 2010-07-13 | Microsoft Corporation | Automatic 3D face-modeling from video |
US8384714B2 (en) * | 2008-05-13 | 2013-02-26 | The Board Of Trustees Of The Leland Stanford Junior University | Systems, methods and devices for motion capture using video imaging |
US8208717B2 (en) * | 2009-02-25 | 2012-06-26 | Seiko Epson Corporation | Combining subcomponent models for object image modeling |
-
2012
- 2012-01-12 EP EP12305040.3A patent/EP2615583B1/en not_active Not-in-force
-
2013
- 2013-01-08 KR KR1020147022346A patent/KR101602593B1/ko not_active IP Right Cessation
- 2013-01-08 WO PCT/EP2013/050173 patent/WO2013104592A1/en active Application Filing
- 2013-01-08 US US14/365,223 patent/US20140340397A1/en not_active Abandoned
- 2013-01-08 CN CN201380005380.1A patent/CN104040593B/zh not_active Expired - Fee Related
- 2013-01-08 JP JP2014551585A patent/JP5893166B2/ja not_active Expired - Fee Related
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6492986B1 (en) * | 1997-06-02 | 2002-12-10 | The Trustees Of The University Of Pennsylvania | Method for human face shape and motion estimation based on integrating optical flow and deformable models |
JP2006018828A (ja) * | 2004-06-30 | 2006-01-19 | Mitsubishi Electric Research Laboratories Inc | 変形可能な表面のクラスを表す可変多重線形モデルを構築する方法 |
JP2007141107A (ja) * | 2005-11-21 | 2007-06-07 | Canon Inc | 画像処理装置およびその方法 |
JP2010517427A (ja) * | 2007-01-23 | 2010-05-20 | ユークリッド・ディスカバリーズ・エルエルシー | 個人向けのビデオサービスを提供するシステムおよび方法 |
JP2009003656A (ja) * | 2007-06-20 | 2009-01-08 | Monolith Co Ltd | 画像処理装置および画像処理方法 |
Also Published As
Publication number | Publication date |
---|---|
KR101602593B1 (ko) | 2016-03-10 |
JP5893166B2 (ja) | 2016-03-23 |
EP2615583B1 (en) | 2016-04-20 |
US20140340397A1 (en) | 2014-11-20 |
CN104040593A (zh) | 2014-09-10 |
CN104040593B (zh) | 2016-09-28 |
KR20140109496A (ko) | 2014-09-15 |
WO2013104592A1 (en) | 2013-07-18 |
EP2615583A1 (en) | 2013-07-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5893166B2 (ja) | 3dモデル・モーフィングのための方法および装置 | |
Zhao et al. | Thin-plate spline motion model for image animation | |
KR102197553B1 (ko) | 파트 기반 키 프레임들 및 선험적 모델을 사용한 견고한 메시 트래킹 및 융합 | |
KR101547780B1 (ko) | 이미지 모델 구축 방법 및 장치 | |
US20170278302A1 (en) | Method and device for registering an image to a model | |
JP6676562B2 (ja) | 画像合成装置、画像合成方法及びコンピュータプログラム | |
CN113706699B (zh) | 数据处理方法、装置、电子设备及计算机可读存储介质 | |
JP2006260527A (ja) | 画像マッチング方法およびこれを用いた画像補間方法 | |
CN115943436A (zh) | 快速和深度脸部变形 | |
WO2021228183A1 (en) | Facial re-enactment | |
Li et al. | MannequinChallenge: Learning the depths of moving people by watching frozen people | |
AU2022241513B2 (en) | Transformer-based shape models | |
Sibbing et al. | Building a large database of facial movements for deformation model‐based 3d face tracking | |
TW201342305A (zh) | 三維模型變形之方法及裝置 | |
Jian et al. | Realistic face animation generation from videos | |
US20190377935A1 (en) | Method and apparatus for tracking features | |
Nadar et al. | Sensor simulation for monocular depth estimation using deep neural networks | |
Afzal et al. | Incremental reconstruction of moving object trajectory | |
US20240078726A1 (en) | Multi-camera face swapping | |
WO2022186256A1 (ja) | マップ情報更新方法 | |
Lee et al. | 3D fish animation with visual learning ability | |
Chakrabarti et al. | SINGLE-IMAGE COHERENT RECONSTRUCTION OF OBJECTS AND HUMANS | |
Farnoosh et al. | Indoor GeoNet: Weakly Supervised Hybrid Learning for Depth and Pose Estimation | |
Fang et al. | Forward non-rigid motion tracking for facial MoCap | |
KR101845246B1 (ko) | 하이브리드 센서를 이용한 실감 동작 생성 방법 및 장치 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20150622 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20150625 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20150925 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20151225 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20160126 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20160223 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5893166 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |