JP2015507272A - 3dモデル・モーフィングのための方法および装置 - Google Patents

3dモデル・モーフィングのための方法および装置 Download PDF

Info

Publication number
JP2015507272A
JP2015507272A JP2014551585A JP2014551585A JP2015507272A JP 2015507272 A JP2015507272 A JP 2015507272A JP 2014551585 A JP2014551585 A JP 2014551585A JP 2014551585 A JP2014551585 A JP 2014551585A JP 2015507272 A JP2015507272 A JP 2015507272A
Authority
JP
Japan
Prior art keywords
model
standard
morphed
optical flow
morphing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014551585A
Other languages
English (en)
Other versions
JP5893166B2 (ja
Inventor
リーヴェンス,サミー
ティトガット,ドニー
アーツ,マーチン
シックス,エルヴィン
Original Assignee
アルカテル−ルーセント
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by アルカテル−ルーセント filed Critical アルカテル−ルーセント
Publication of JP2015507272A publication Critical patent/JP2015507272A/ja
Application granted granted Critical
Publication of JP5893166B2 publication Critical patent/JP5893166B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • G06T7/251Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/97Determining parameters from multiple pictures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/755Deformable models or variational models, e.g. snakes or active contours
    • G06V10/7557Deformable models or variational models, e.g. snakes or active contours based on appearance, e.g. active appearance models [AAM]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • G06V20/647Three-dimensional objects by matching two-dimensional images to three-dimensional objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/171Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/174Facial expression recognition
    • G06V40/176Dynamic expression
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20036Morphological image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20112Image segmentation details
    • G06T2207/20121Active appearance model [AAM]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/44Morphing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/20Indexing scheme for editing of 3D models
    • G06T2219/2021Shape modification

Abstract

2D画像データ入力に基づいて標準3Dモデルをモーフィングするための方法は、検出モデルとモーフィング・モデルとを使用して前記標準3Dモデルの初期モーフィングを実行することによって、モーフィングされた標準3Dモデルを取得するステップ(100)と、2D画像データ入力と、モーフィングされた標準3Dモデルとの間のオプティカル・フローを決定するステップ(200)と、前記モーフィングされた標準3Dモデルに対してオプティカル・フローを適用することによって、微調整された3D標準モデルを提供するステップ(300)、とを含む。

Description

本発明は、3次元モデル・モーフィングのための方法に関する。
現在、実際の動的なシーンに基づいた、または安価なカメラによって撮影される画像にさえも基づいたモデルのモーフィングは、困難な問題である可能性がある。3次元(本文書では以後3Dと省略する)のモデルのアーティストは、例えば、非常に長い時間と多くの労力を費やして、非常に詳細で生きているような3Dコンテンツと3Dアニメーションを生成することができる。しかしながら、例えば、会議の参加者の3D可視化を即座に作成する必要があるとしたら、これは望ましくなく、また次世代の通信システムにおいては実現可能でさえもない。
したがって、画像モデル・モーフィングのための方法および装置を提示することが、本発明の実施形態の一目的であり、この画像モデル・モーフィングは、より低品質の実在のキャプションから2次元(以下で2Dと省略する)のビデオ・シーンに基づいて、高品質の3D画像モデルを生成することができ、同時に安価で、単純で、かつ自動化された解決手段を提供することができる。
本発明の実施形態によれば、この目的は、2D画像データ入力に基づいた標準3Dモデルをモーフィングするための方法によって達成され、前記方法は、
検出モデルとモーフィング・モデルとを使用して前記標準3Dモデルの初期モーフィングを実行し、それによってモーフィングされた標準3Dモデルを取得するステップと、
2D画像データ入力と、モーフィングされた標準3Dモデルとの間のオプティカル・フロー(optical flow)を決定するステップと、
前記モーフィングされた標準3Dモデルに対してオプティカル・フローを適用し、それによって微調整されモーフィングされた3D標準モデルを提供するステップと
を含む。
このようにして、古典的な検出に基づいたモーフィングは、オプティカル・フロー・モーフィングで強化される。これは、はるかに現実的なモデルをもたらし、しかもこの現実的なモデルをリアル・タイムで実現することができる。
一実施形態においては、2D画像データ入力と、モーフィングされた標準3Dモデルとの間のオプティカル・フローは、以前の2D画像フレームの上で決定される、以前の微調整されたモーフィングされた3D標準モデルに基づいて決定される。
一変形形態においては、2D画像データ入力と、モーフィングされた標準3Dモデルとの間のオプティカル・フロー決定ステップは、
モーフィングされた標準3Dモデルの2D投影と、以前の微調整された3D標準モデルの2D投影との間の第1のオプティカル・フローを決定するステップと、
実際の2Dフレームと、以前の微調整され、モーフィングされた3D標準モデルの2D投影との間の第2のオプティカル・フローを決定するステップと、
実際の2Dフレームと、モーフィングされた標準3Dモデルの2D投影との間の第3のオプティカル・フローを取得するために、前記第1のオプティカル・フローと前記第2のオプティカル・フローとを結合するステップと、
2D画像データ入力と、モーフィングされた標準3Dモデルとの間のオプティカル・フローを取得するために、前記モーフィングされた標準3Dモデルの2D投影中に取得される深さ情報に基づいて前記第3のオプティカル・フローを適応させるステップと
を含むことができる。
これは、高品質の、またさらに時間効率のよい方法を可能にする。
別の実施形態においては、前記初期モーフィング・ステップにおいて使用されるモーフィング・モデルは、2D画像データ入力と、モーフィングされた標準3Dモデルとの間のオプティカル・フローに基づいて適応させられる。これは、さらに結果として生ずるモデルの品質と、入力ビデオ・オブジェクトとのその対応関係とを向上させることになる。
別の実施形態においては、前記初期モーフィング・ステップにおいて使用される検出モデルは、2D画像フレームと、以前の2D画像フレームとの間で決定されるオプティカル・フロー情報に基づいて、同様に適応させられる。
この場合にも、これは、入力2D画像に対応した3D標準モデルのより高速で、またよりリアル感のある成形/モーフィングを増大させる。
さらに別の変形形態においては、オプティカル・フローを適用するステップは、エネルギー最小化プロシージャを含んでいる。
これは、さらに、結果として生じる微調整されたモーフィングされたモデルの品質を向上させることさえできる。
本発明は、同様に、そのような装置を組み込んでいる画像処理デバイスまたはビデオ処理デバイスのために、この方法を実行するための装置についての実施形態に関し、またデータ処理装置の上で実行されるときに、上述の、または特許請求の範囲の方法ステップを実行するように適合されたソフトウェアを備えるコンピュータ・プログラム製品にも関する。
本特許請求の範囲において使用される、用語「結合される(coupled)」は、直接接続だけに限定されているようには解釈されるべきではないことに注意すべきである。したがって、表現「デバイスBに結合されたデバイスA」の範囲は、デバイスAの出力がデバイスBの入力に直接接続されているデバイスまたはシステムだけに限定されるべきではない。それは、Aの出力とBの入力との間の経路が存在していることを意味するものであり、他のデバイスまたは手段を含む経路である可能性がある。
本特許請求の範囲において使用される用語「備えている/含んでいる(comprising)」は、その後にリストアップされる手段だけに限定されているようには解釈されるべきではないことに、注意すべきである。したがって、表現「手段AとBとを備えるデバイス」の範囲は、コンポーネントAとBのみで構成されるデバイスだけに限定されるべきではない。それは、本発明に関して、デバイスに唯一関連するコンポーネントが、AとBとであることを意味するものである。
上記で述べられているように、テキストの全体の中で、2次元は2Dによって省略され、3次元は3Dによって省略されることになる。
添付の図面と組み合わせて解釈される一実施形態の以下の説明を参照することにより、本発明の上記および他の目的および特徴はより明らかになり、また本発明自体、最も良く理解されるであろう。
本方法の第1の高レベルな実施形態を示す図である。 図1に示される実施形態のいくつかのモジュールについてのより詳細な実施形態を示す図である。 図1に示される実施形態のいくつかのモジュールについてのより詳細な実施形態を示す図である。 本方法の別の実施形態についての高レベルな概略図である。 図4に示される実施形態のいくつかのモジュールについてのさらなる詳細を示す図である。 図4に示される実施形態のいくつかのモジュールについてのさらなる詳細を示す図である。 2つのさらなる詳細な実施形態を示す図である。 2つのさらなる詳細な実施形態を示す図である。 本方法の別の高レベルな実施形態を示す図である。 2つのより詳細な代替的実施形態を示す図である。 2つのより詳細な代替的実施形態を示す図である。
本明細書における任意のブロック図は、本発明の原理を実施する実例となる回路の概念図を表すことが、当業者によって理解されるべきである。同様に、任意のフロー・チャートと、フロー図と、状態遷移図と、擬似コードなどは、実質的にコンピュータ読取り可能媒体の形で表され、また、そのようなコンピュータまたはプロセッサが明示的に示されているか否かにかかわらず、コンピュータまたはプロセッサによって実行され得る様々なプロセスを表すことが、理解されるであろう。
図1は、入力2Dビデオから高品質のリアル・タイム3Dモデルを生成するための装置と対応する方法との第1の実施形態について、高レベルのスキームを示すものである。実施形態は、入力としてビデオ・シーケンスの連続フレームを取得する。図1において、それらのステップは、特定のフレームの上で実行されるように説明されており、時刻Tにおいては2Dビデオ・フレームである。
第1のオペレーション・モジュール100は、例えば、メモリにおいて前もって選択され、または記憶される、使用可能な、標準3Dモデルのモーフィングを伴う。この標準3Dモデルは、時刻Tにおける入力2Dビデオ・フレームに従ってモジュール100においてモーフィングされる。このモーフィング・プロシージャのための詳細な実施形態は、図2において説明されるであろう。モジュール100の出力は、それゆえに、時刻Tにおけるモーフィングされた標準3Dモデルである。
部分的に、モーフィング・ステップ100と並列して、オプティカル・フローは、時刻Tにおける2Dビデオ・フレームから時刻Tにおけるモーフィングされた標準3Dモデルに向かって決定される。これは、入力として時刻Tにおける2Dビデオ・フレームと、モジュール100によって提供されるようなモーフィングされた標準3Dモデルと、以前の時間ステップにおいて決定される装置の出力とを有するモジュール200の中で起こる。この以前に決定された出力は、時刻T−1である、図1に示される実施形態において、以前の時間ステップにおいて決定される、微調整され、モーフィングされた3D標準モデルに関し、またこれは、フィードバック接続を経由して装置の出力からこのモジュール200へと提供される。図1においては、フィードバック・ループは、以前に決定された出力の提供を可能にするようになど、遅延要素Dを組み込んでいるように示される。もちろん、たくさんの他の実装形態は、簡単なメモリ・ストレージに基づいて考えることが可能であり、このようにして、専用の遅延要素の必要性をなくしている。別の以前の時間ステップにおいて決定される出力もまた、このようにして以前のビデオ・フレームT−1に対応する出力だけでなく、使用され得ることにも気付くべきである。遅延は、それに応じて、これらの実施形態において適応させられる必要がある。
図1の実施形態は、モジュール200において決定されるような、オプティカル・フローを、モジュール100によって提供されるモーフィングされた標準3Dモデルに対して適用することを目指した別のモジュール300をさらに含んでいる。基本的なアイデアは、したがって、比較的簡単な3Dモデルを使用している、モジュール100のモデル・ベースのアプローチを、モジュール300よりも詳細なフロー・ベースのモーフィングと組み合わせることであり、それによってオプティカル・フローそれ自体は、モジュール200の中で導き出される。実際に、例えば、顔モデリングに適用されるときには、モジュール100からのモデル・ベースのモーフィングは、一般に、いくぶん作り物に見える顔をもたらす可能性があり、これらの顔は、次いで、モジュール300のフロー・ベースのモーフィングを用いてさらに補強され/補正され、オプティカル・フローそれ自体は、モジュール200によって決定されている。
前述のように、結果として生じる微調整され、モーフィングされた3D標準モデルは、オプティカル・フローの決定のためにフィードバック・ループにおいて使用される。
以下のより詳細な実施形態は、顔の特徴のモデリングに関連して説明されるであろう。例えば、動物など、ビデオにおける他の変形可能なオブジェクトをモーフィングに応用するために、この文書の教示をどのようにして使用すべきかは、当業者には知られている。
図2は、図1の標準3Dモーフィング・ブロック100についてのより詳細な実施形態を示すものである。このモジュールは、アクティブ・アピアランス・モデル(Active Appearance Model)の省略形であるAAM検出モジュールなどの検出モジュールを備える。しかしながら、アクティブ形状モデル(Active Shape Model)の省略形であるASMなど、他の検出モデルを使用した他の実施形態が、存在する。
この検出モジュール110は、AAM検出モデルなどの検出モデルに従って、時刻Tにおけるビデオ・フレーム内の顔の特徴を検出することを可能にする。AAMモデルとAAM検出とは、非剛性オブジェクトので特徴点を検出するためのコンピュータ・ビジョンにおいて、よく知られている技法である。AAMモーフィングは、万一3Dビデオがシステムに対して入力される場合に、3Dローカライゼーションへと拡張される可能性もあり、またAAM検出モジュールは、同様に顔以外の他のオブジェクトの上で特徴点を検出することができる。検出が実行されるオブジェクト・カテゴリは、AAMモデル検出モジュールのトレーニング・フェーズに関連していることもあり、このトレーニングは、オフラインで、または早期のトレーニング・プロシージャにおいて行われている可能性もある。説明された実施形態においては、AAM検出モジュール110は、2Dビデオ・フレームにおいて検出される、非剛性オブジェクトである人間の顔の鼻、口、目、眉毛、頬など、顔の特徴点を検出するようにトレーニングされる。AAM検出モジュール110それ自体の内部で使用されるAAM検出モデルは、このようにして、一連のモデル中から選択される可能性があり、または事前にプログラムされ、またはオフラインでトレーニングされて、一般的にすべての人間の顔に対して適用可能にすることができる。
例えば、猫などの動物モデルをモーフィングする場合、そのときにはトレーニング・プロシージャは、この猫についての形態/考え得る表情に関する他の重要な特徴点を検出するように適合されていることになる。これらの技法はまた、当業者にはよく知られてもいる。
人間の顔モデリングの例においては、AAM検出ブロック110は、一般に、人間の感情に関連した何らかのより詳細な顔の表情を検出することにより、一緒に、またはそれに続いて、ビデオ・フレームの中の人間の顔について大まかな動きを検出することを含むことになる。ライブ・ビデオ・フレームの中の顔全体の相対的な位置または絶対的な位置は、図1の上では、「位置」情報として示される。この位置情報を使用して、モジュール120において「標準3Dモデル」と示される顔の3D標準モデルを移動させ、かつ/または回転させることになる。さらに、限られた顔の表情もまた、鼻、眉毛、口などの位置についての何らかの目安を用いて、モジュール110の中で検出される。この出力は、図1において、「特徴」として示され、またこれらの特徴はモーフィング・モジュール130の中で使用され、モジュール120によって出力されるように、位置適応された標準モデルの対応する顔の特徴を適応させる。
モジュール120に入力される3D標準モデルはまた、一般に、標準データベースから使用可能/選択可能でもある。そのような標準データベースは、人間の顔と、猫、犬の種類など、いくつかの動物とについての3D標準モデルを含むことができる。この標準3Dは、このようにして、モジュール110からの位置情報に従って変換され、回転され、かつ/または拡大縮小されることになる。
人間の顔モデリングの場合には、この位置適応ステップは、ライブ・ビデオ・フィード(live video feed)の中の顔と同じポーズを反映した3D標準モデルをもたらすことになる。2Dフレームの正しい顔の表情に3Dモデルをさらに適応させるために、モジュール110からの検出された特徴は、ステップ130における部分的に調整された3D標準モデルに適用される。このモーフィング・モジュール130は、さらに、図2において「モーフィング・モデル」で示される特定の適応モデルを使用しており、この適応モデルは、検出モジュールからのそれらの提供に応じて標準3Dモデルの上で顔の特徴をどのようにして適応させるべきかについての指示を含むこともできる。万一AAM検出モデルが使用された場合に、モーフィング・モデルは、一般に、AAMモーフィング・モデルになる。万一上述のASMモーフィングなど、他のモデルが使用される場合にも、類似した考察が適用できる。
結果は、それゆえに、モジュール130によって提供されるモーフィングされた標準3Dモデルである。
このモデル・ベースのモーフィングについての例示の実装形態は、ライブ・ビデオ・フィードの顔の特徴の検出結果に基づいて、顔の特徴に関連した標準モデルの3Dの頂点を再配置することを含むことができる。顔の特徴の間の3Dコンテンツは、簡単な線形補間によってさらに補充される可能性があり、または万一顔の弾力性を含む、より複雑な高次のAAMモーフィング・モデルが、使用される場合には、より高次の補間、または他のより複雑な機能でさえも、使用される。どのようにしてそれらの頂点が変位させられるか、またどのようにしてその間にあるデータが補充されるかは、すべてモーフィング・モデルに含まれる。
使用可能な(AAM)検出およびモーフィング・モデルの品質にかかわらず、包括的な適用可能な検出モデルはライブ・ビデオ・フィードの中の顔の特徴のロケーションを検出するためだけに使用されるため、依然として作り物のような結果となり、これらをその後に使用して、ビデオフィードの中のそれらのロケーションに基づいて3D位置適応モデルの顔の特徴を変位させることに気付くこともできる。この3D標準モデルにおける顔の特徴間の部分は、次いで、(AAM)モーフィング・モデルを使用して補間される。しかしながら、後者は、各々の顔の特徴の変位が、どのようにして、隣接する顔の部位に影響を及ぼす可能性があるかについての知識を有しておらず、または限られた知識だけを有する。弾力性に関連していることである、顔の表情およびそれが顔の部位に与える影響についての何らかの一般的な情報は、このモーフィング・モデルに入れられる可能性があるが、それにもかかわらず、作り物に見えるモーフィング結果をもたらすのは、単に、人はそれぞれ異なっており、すべての人間の顔を網羅する1つの非常に包括的なモデルが、各々の人の全表情をカバーすることはできないからである。
同様な考察が、3D標準モデルに基づいたビデオにおいて検出された動物など、他の変形可能なオブジェクトをモーフィングするために有効である。
モーフィングされた標準3Dモデルをさらに改善するために、モジュール100によって提供されたこの作り物に見えるモーフィング・モデルは、図1を参照して先に述べたように、ステップ300におけるフロー・ベースのモーフィングを使用して補強される可能性がある。
このフロー・ベースのモーフィング・ステップを実行する前に、オプティカル・フローそれ自体が、決定される必要がある。オプティカル・フローは、ここでは、1つのフレームから他のフレームへと、あるいはフレームから2Dモデルまたは3Dモデルへと目に見えるシーンの中のオブジェクト、表面、およびエッジの変位、または明らかな動きのパターンとして規定される。ここで説明される実施形態においては、オプティカル・フローを決定するための方法は、ピクセル・レベルで、異なる時刻において、例えば、TおよびT−1において撮影される2つの画像の間の動きを算出することを目指しており、または代わりに、時刻Tにおけるピクセルと、時刻Tにおける3Dモデルに対応するボクセルとの間の変位を算出することを目指しており、あるいは逆も同様である。
オプティカル・フローは、2Dビデオ・フレームに基づいて、モーフィングされた標準3Dモデルに対してモジュール300で適用される必要があるので、オプティカル・フローは、このフレームからこの3Dモデルへと算出されることになる。しかしながら、一般には、オプティカル・フローの算出は、2Dフレームから別の2Dフレームへと実行され、それゆえに、いくつかの余分なステップが、2Dフレームから3Dモーフィングされたモデルへのオプティカル・フローを決定するために追加される。この余分なステップは、例えば、T−1において決定された、以前に決定され、微調整された3Dモデルである、参照3D入力を使用することを伴うこともある。この情報は、このようにして、装置の出力からモジュール200へと提供される。
図3は、モジュール200を実現するための詳細な実施形態を示すものである。この実施形態においては、第1のモジュール250は、モーフィングされた標準3Dモデルの2D投影と、以前の微調整され、モーフィングされた3D標準モデルの2D投影との間の第1のオプティカル・フローを決定するように適合されている。第2のモジュール290は、時刻Tにおける実際の2Dフレームと、以前の微調整された、モーフィングされた3D標準モデルの2D投影との間の第2のオプティカル・フローを決定するように適合されている。結合モジュール270は、前記の第1のオプティカル・フローと第2のオプティカル・フローから第3のオプティカル・フローを算出する。この第3のオプティカル・フローは、時刻Tにおける実際の2Dフレームと、時刻Tにおけるモーフィングされた標準3Dモデルの2D投影との間のオプティカル・フローである。モジュール280は、次いで、時刻Tにおける2D画像データ入力と、時刻Tにおけるモーフィングされた標準3Dモデルとの間の望ましいオプティカル・フローを取得するために、この第3のオプティカル・フローをさらに適応させることになる。さらなる詳細が、次に説明されるであろう。
モーフィングされた標準3Dモデルの2D投影と、以前の微調整されモーフィングされた3D標準モデルの2D投影との間の第1のオプティカル・フローを決定するために、これらの2D投影は、モジュール200に提供されるそれぞれの3Dモデルの上で実行される。この目的を達成するために、モジュール230は、モジュール100によって提供されるようなモーフィングされた標準3Dモデルの上で2Dレンダリングまたは投影を実行するように適合されているのに対して、モジュール240は、図3の実施形態においては、時刻T−1において決定されるモデルである、以前の微調整され、モーフィングされた3D標準モデルの類似した2D投影を実行するように適合されている。これらの投影において使用される投影パラメータは、2Dビデオ・フレームを録画するためのビデオ・カメラの投影パラメータに対応していることが好ましい。これらは、ビデオ・カメラのキャリブレーション・パラメータに関連している。
図3に示される実施形態においては、モジュール290は、3つのさらなるサブモジュールを備える。そのうちのモジュール220においては、時刻Tにおける現在のビデオ・フレームと、以前のビデオ・フレーム、この場合には時刻T−1におけるビデオ・フレーム、との間のオプティカル・フローは、すなわち、ビデオは決定される。以前の2Dフレームのタイミング・インスタンスは、以前の微調整されモーフィングされた3D標準モデルのタイミング・インスタンスと同じである。
したがって、モジュール290の遅延要素210は、図1における完全な装置のフィードバック・ループの中で使用される遅延と同じ遅延を導入する。もちろん、この場合にも、2Dビデオの以前の値を提供するための他の実施形態も可能であり、この以前の値はまた、このようにして、単に、内部メモリに記憶されることも可能性であり、追加の遅延ブロックの必要性を軽減している。
連続するビデオ・フレームTと、T−1との間で算出されるオプティカル・フローは、このようにしてモジュール220において決定され、またさらにこれをモジュール260において使用して、時刻T−1における3Dの微調整された出力の2D投影からTにおける2Dビデオ・フレームへのオプティカル・フローを決定することなどを行う。投影それ自体は、このようにしてモジュール240において実行された。投影パラメータは、2Dビデオ・フレームが、録画される2Dカメラの中で使用されるこれらのパラメータにマッピングすることなどである。
ステップ260における第2のオプティカル・フローの決定は、標準のモデルと、ライブ・ビデオ・フィードとが、ときには異なる人を表現することができることを考慮に入れ、これらの異なる人は、何としてもアラインされるべきである。いくつかの実施形態においては、モジュール260は、2つのステップを含むことができ、すなわち、第1の顔登録ステップでは、以前のフレームT−1におけるライブ・ビデオ・フィードの顔の輪郭は、以前の微調整されモーフィングされた3Dコンテンツ(時刻T−1上)の2D投影の顔の輪郭に対してマッピングされる。この登録ステップは、この場合にも、AAM検出器を使用することができる。次に、時刻Tにおけるライブ・ビデオ・フィードの上で算出されるオプティカル・フローは、例えば、時刻T−1における2D投影された3Dコンテンツの顔の輪郭に対する補間を用いてアラインされる。これらの実施形態は、図7および8に、より詳細に示されている。
時刻Tにおけるモーフィングされた標準モデルの2D投影と、時刻T−1における以前に微調整された標準モデルとの間で、モジュール250によって決定される第1のオプティカル・フローは、次いで、モジュール260において決定される第2のオプティカル・フローと結合されて、時刻Tにおける2Dビデオから時刻Tにおけるモーフィングされた標準モデルの2D投影への第3のオプティカル・フローをもたらす。これは、2Dにおいては、実際には望ましいオプティカル・フロー情報である。この結合は、以前に決定された、微調整されたモデルの2D投影である、中間の共通要素を差し引くことを伴うので、この結合はモジュール270において、「−」符号を用いて示されている。
しかしながら、この決定された第3のオプティカル・フローは、依然として、2Dにおける2つの画像の間のオプティカル・フローに関係するので、追加のステップ280は、時刻Tにおける2Dビデオ・フレームから時刻Tにおけるモーフィングされた標準3Dモデルの3Dコンテンツへのこのオプティカル・フローの変換のために必要とされる。これは、2D投影中に使用されるような逆プロセスを使用している逆投影を伴うことがあるため、同じ投影パラメータを有することもある。この目的を達成するために、2D投影からもたらされた深さが、2Dから3Dへの頂点を算出し直すために使用される。
時刻Tと、T−1とにおける、連続するフレームと、逐次的に決定され微調整された、モーフィングされた3Dモデルとを使用する代わりに、新しいフレームと以前のフレームとの間のタイム・ギャップは、フレーム遅延よりも長い可能性があることに気付くべきである。この場合には、対応する以前に決定された、出力モーフィングされたモデルは、モジュール200において使用されるような実際のフレームと以前のフレームとの間のタイミング差が、オプティカル・フローを決定するために使用される新しく決定されるべき出力と、以前の出力との間のタイミング差に対応するように、使用されるべきである。一実施形態においては、これは、例えば、図1のフィードバック・ループと、図3のモジュール210とにおいて類似した遅延要素Dを使用することにより実現される可能性がある。
次いで、図1のモジュール300は、このようにして算出されたオプティカル・フローをモーフィングされた標準3Dモデルに対して適用し、それによって微調整されモーフィングされた3D標準モデルを生成する。
図4に示される、本装置の第1の変形の実施形態においては、追加のフィードバック・ループが、時刻Tにおける2Dビデオと、この時刻Tにおけるモーフィングされた標準3Dモデルとの間のオプティカル・フローを計算するモジュール200の出力と、標準3Dモデルの初期モーフィングを実行するための適応モジュール1000との間に存在する。この適応モジュール1000は、さらに、図5の上に詳細に示されている。図2と比べて、このモジュール1000は、オプティカル・フロー算出モジュール200の出力によって提供される「オプティカル・フロー」で示される余分な入力信号を受信し、この情報は、モーフィング・モジュール130それ自体の中で使用されるモーフィング・モデルを適応させるために使用される。モーフィング・モジュール1000内部の追加モジュール140は、このようにして、このオプティカル・フロー情報に基づいて、モーフィング・モデルの以前のバージョンをアップデートする。図5に示される実施形態においては、この場合にも、遅延要素の使用が示されているが、以前の値をただ記憶する他の実施形態も同様に可能である。
標準の包括的なモーフィング・モデルは、各々の顔の特徴の変位がどのようにしてその隣接する顔の部分に影響を及ぼすかについての知識を有していないので、オプティカル・フロー・フィードバックを使用したモーフィング・モデルのこのアップデートは、有用である可能性がある。これは、この基本的なモーフィング・モデルの中には、弾力性の概念が存在しておらず、または弾力性の十分な概念が存在していないからである。オプティカル・フロー情報の提供は、それゆえに、より複雑な高次のモーフィング・モデルの学習を可能にすることができる。ここでのアイデアは、完全なモーフィング・モデルが、ライブ・ビデオ・フィードと完全に似ているように、3D標準モデルをモーフィングすることであり、この場合には、モジュール200の「オプティカル・フロー結合」ブロック270は、最終的に、適用される余分なオプティカル・フローはない、したがって必要以上のものは存在しないということになる。
図6に示される、別の変形の実施形態においては、さらに別のフィードバック・ループが、オプティカル・フロー算出モジュール200から標準3Dモーフィング・モジュール100へと内部信号をフィードバックするために存在している。図7は、これに関して、詳細な実施形態を示すものであり、すなわち、フィードバックは、実際に、時刻Tにおけるビデオ・フレームと、時刻T−1におけるビデオ・フレームとの間の2Dレベルにおけるオプティカル・フローから余分なAAMまたは他の検出モデル適応モジュールそれ自体へと提供される。ライブ・ビデオ・フィードにおけるフレームT−1とTとの間で算出されるオプティカル・フローは、フレームT−1において検出される顔の特徴を、フレームTにおいて検出される顔の特徴に対してマッピングすることを仮定することができる。必ずしもすべての顔の表情が、この検出モデルの対象として含まれるとは限らない可能であるので、ライブ・ビデオ・フィードにおける顔の特徴検出は、ときには失敗する可能性がある。このシナリオは、将来的な発生が検出され、それに応じて3D標準モデルに適用できるように、表情が含まれる顔の特徴を検出するための検出モデルを適合することで解決できる可能性がある。
図8は、これまでに説明されたすべてのフィードバック・ループが、組み込まれている一実施形態を示すものである。
図9は、モデル・ベースのモーフィングとフロー・ベースのモーフィング、これら両方についての組合せに対する、より確率論的アプローチを実施する別の高レベルの実施形態を示すものである。モデル・ベースのモジュール100は、3Dモデルの特徴点の限られた希薄な組の正確な変位を提供するのに対して、フロー・ベースのモジュールは、あまり正確ではない2次元変位推定値を、ただしモデルの上の点のより高密度の組のために提供する。確率論的なアプローチを経由して異なる精度を有するこれらの異なる種類の観察を組み合わせることにより、微調整されモーフィングされた3D標準モデルのより正確な結果さえも取得することができる。そのような確率論的アプローチは、図9の実施形態のエネルギー最小化モジュール400を用いて実現される。
顔のモデリングの場合には、そのような確率論的アプローチは、顔の基礎になっている弾力性モデルが、観察されていないギャップの中を補充することを直観的に可能にする。顔は、ある種のやり方でのみ移動することができる。動きには、制約条件が存在している。例えば、モデルの上の隣接するポイントは、同様なやり方で移動することになる。また、顔の上の対称点も相互に関連づけられる。これは、貴方が、貴方の顔の左部分がほほえんでいるのを見る場合に、右側も、この部分は観察されない可能性もあるが、高い確率で同様にほほえむという、存在していることを意味している。
数学的には、これは、2つのデータ項と、平滑度項とから構成されるエネルギー最小化問題として定式化される可能性がある。
E = S + DFLOW + DMODEL
FLOWは、最終的に微調整されモーフィングされた3Dモデルのための提案された候補の問題解決手法と、2D入力画像のオプティカル・フローのみを見ることから予期できるものとの間の何らかの距離測定基準である。提案された候補が、確率分布により良くマッチすればするほど、観察された高密度のオプティカル・フロー・マップを仮定すると、この距離はそれだけ短くなる。測定基準は、オプティカル・フローの推定値の精度に逆比例して重み付けされる。
MODELは類似した測定基準であるが、候補の問題解決手法と、観察されたAAM−ベースのモーフィングされた3Dモデルとの間のマッチに従った距離を表す。それはまた、AAMアルゴリズムの精度に逆比例して重み付けされる。
Sは、顔の起こりそうにない動きにペナルティを科す。それは、2つのタイプの部分項目、すなわち、絶対ペナルティと相対ペナルティとを含む。絶対ペナルティは、提案された方向に突然動く顔のポイントの起こりそうにないことに比例してペナルティを科す。相対ペナルティは、同様なやり方でペナルティを科すが、隣接するポイント(または他の関連のあるポイント、例えば、対称ポイント)についての変位が与えられる。
エネルギー最小化問題は、非常に多数の技法によって解決される可能性がある。例は、すなわち、傾斜降下法(gradient descent methods)、確率統計的手法(stochastic methods)(シミュレーテッド・アニーリング、遺伝的アルゴリズム、ランダム・ウォーク)、グラフ・カット、信念伝搬、カルマン・フィルタ(Kalman filter)、...である。その目的は、常に同じであり、すなわち、上記式におけるエネルギーが最小となる、提案されたモーフィング3Dモデルを見出すことである。
図9の実施形態についてのより詳細な実施形態が、図10に示されている。
第2の確率論的実施形態が、図11に示されている。この実施形態においては、アラインされたオプティカル・フローは、時間とともに蓄積される。エネルギー最小化問題において、蓄積されアラインされたオプティカル・フローと、AAM検出/モーフィング結果とを結合することにより、3Dデータベース・コンテンツの、簡単かつ実物のようなモーフィングが可能になる。時間とともにオプティカル・フローを蓄積することにより引き起こされる可能性のあるドリフトは、AAMモーフィング結果を含めることにより対処される。また、作り物に見えるモーフィング結果は、オプティカル・フローをモーフィング結果に含めることにより取り除かれる。
すべての説明された実施形態は、人間の顔のモーフィングだけには限定されないことに注意すべきである。任意の非剛性オブジェクトについてのモデルは、モデル・ベースのアプローチにおけるモーフィングのために構築され、また使用される可能性がある。さらに、それらの実施形態は、AAMモデルの使用だけには限定されない。例えば、ASM(アクティブ形状モデル)のような他のモデルが、初期のモーフィング・モジュール100の間で使用される可能性がある。
本発明の原理は、特定の装置に関連して上記で説明されてきているが、この説明は、例としてだけ行われており、添付の特許請求の範囲において規定されるような本発明の範囲についての限定としては行われていないことを明確に理解すべきである。その特許請求の範囲においては、指定された機能を実行するための手段として示される任意の要素は、その機能を実行する任意のやり方を包含することを意図している。これは、例えば、機能を実行するそのソフトウェアを実行するための適切な回路と組み合わされた、それゆえに、ファームウェア、マイクロコードなどを含む、任意の形態のその機能またはソフトウェアを実行する電気的要素または機械的要素、ならびにもしあれば、ソフトウェア制御された回路に結合された機械的要素の組合せを含むことができる。そのような特許請求の範囲によって規定されるような本発明は、列挙された様々な手段によって提供される機能が、特許請求の範囲が要求する方法の中で、一緒に組み合わされ、まとめられ、またそれ以外の方法で具体的に規定されていない限り、どのような物理的構造も、本発明の新規性に対して特許請求の範囲のほとんどが重要ではなく、または全く重要でない。したがって、出願人は、これらの機能を提供することができるどのような手段も、本明細書において示されるこれらの手段と同等であるものと見なしている。

Claims (13)

  1. 2D画像データ入力に基づいて標準3Dモデルをモーフィングするための方法であって、
    検出モデルとモーフィング・モデルとを使用して前記標準3Dモデルの初期モーフィングを実行し、それによってモーフィングされた標準3Dモデルを取得するステップ(100)と、
    前記2D画像データ入力と、前記モーフィングされた標準3Dモデルとの間のオプティカル・フローを決定するステップ(200)と、
    前記モーフィングされた標準3Dモデルに対してオプティカル・フローを適用し、それによって微調整されモーフィングされた3D標準モデルを提供するステップ(300)と
    を含む方法。
  2. 前記2D画像データ入力と、前記モーフィングされた標準3Dモデルとの間のオプティカル・フローは、以前の2D画像フレームの上で決定される、以前の微調整され、モーフィングされた3D標準モデルに基づいて決定される、請求項1に記載の方法。
  3. 前記2D画像データ入力と、前記モーフィングされた標準3Dモデルとの間の前記オプティカル・フロー決定ステップ(200)は、
    前記モーフィングされた標準3Dモデルの2D投影と、前記以前の微調整され、モーフィングされた3D標準モデルの2D投影との間の第1のオプティカル・フローを決定するステップ(250)と、
    前記実際の2Dフレームと、前記以前の微調整され、モーフィングされた3D標準モデルの2D投影との間の第2のオプティカル・フローを決定するステップ(290)と、
    前記実際の2Dフレームと、前記モーフィングされた標準3Dモデルの2D投影との間の第3のオプティカル・フローを取得するために、前記第1のオプティカル・フローと前記第2のオプティカル・フローとを結合するステップ(270)と、
    前記2D画像データ入力と、前記モーフィングされた標準3Dモデルとの間のオプティカル・フローを取得するために、前記モーフィングされた標準3Dモデルの2D投影中に取得される深さ情報に基づいて前記第3のオプティカル・フローを適応させるステップ(280)と
    を含む、請求項2に記載の方法。
  4. 前記2D画像データ入力と、前記モーフィングされた標準3Dモデルとの間のオプティカル・フローに基づいて、前記初期モーフィング・ステップ(1000)において使用される前記モーフィング・モデルを適応させるステップ(140)をさらに含む、請求項1乃至3のいずれか1項に記載の方法。
  5. 前記2D画像フレームと、以前の2D画像フレームとの間で決定されるオプティカル・フロー情報に基づいて、前記初期モーフィング・ステップにおいて使用される前記検出モデルを適応させるステップをさらに含む、請求項1乃至4のいずれか1項に記載の方法。
  6. オプティカル・フローを適用する前記ステップは、エネルギー最小化プロシージャ(400)を含む、請求項1乃至3のいずれか1項に記載の方法。
  7. 2D画像データ入力に基づいて標準3Dモデルをモーフィングするための装置であって、
    検出モデルとモーフィング・モデルとを使用して前記標準3Dモデルの初期モーフィングを実行し、それによってモーフィングされた標準3Dモデルを取得し(100)、
    前記2D画像データ入力と、前記モーフィングされた標準3Dモデルとの間のオプティカル・フローを決定し(200)、
    前記モーフィングされた標準3Dモデルに対してオプティカル・フローを適用し、それによって微調整されモーフィングされた3D標準モデルを前記装置の出力に対して提供する(300)ように
    適合されている装置。
  8. 以前の2D画像フレームの上で決定される以前の微調整されモーフィングされた3D標準モデルに基づいて、前記2D画像データ入力と、前記モーフィングされた標準3Dモデルとの間のオプティカル・フローを決定するようにさらに適合されている、請求項7に記載の装置。
  9. 前記モーフィングされた標準3Dモデルの2D投影と、前記以前の微調整され、モーフィングされた3D標準モデルの2D投影との間の第1のオプティカル・フローを決定し(250)、
    前記実際の2Dフレームと、前記以前の微調整され、モーフィングされた3D標準モデルの2D投影との間の第2のオプティカル・フローを決定し(290)、
    前記実際の2Dフレームと、前記モーフィングされた標準3Dモデルの2D投影との間の第3のオプティカル・フローを取得するために、前記第1のオプティカル・フローと第2のオプティカル・フローとを結合し(270)、
    前記2D画像データ入力と、前記モーフィングされた標準3Dモデルとの間のオプティカル・フローを取得するために、前記モーフィングされた標準3Dモデルの2D投影中に取得される深さ情報に基づいて前記第3のオプティカル・フローを適応させる(280)
    ことにより、前記2D画像データ入力と、前記モーフィングされた標準3Dモデルとの間のオプティカル・フローを決定するようにさらに適合されている、請求項8に記載の装置。
  10. 前記2D画像データ入力と、前記モーフィングされた標準3Dモデルとの間のオプティカル・フローに基づいて前記初期モーフィング・ステップ(1000)において使用される前記モーフィング・モデルを適応させる(140)ことがさらにできるようになっている、請求項7乃至9のいずれか1項に記載の装置。
  11. 前記2D画像フレームと、以前の2D画像フレームとの間で決定されるオプティカル・フロー情報に基づいて、前記初期モーフィング・ステップにおいて使用される前記検出モデルを適応させることがさらにできるようになっている、請求項7乃至10のいずれか1項に記載の装置。
  12. 請求項7乃至11のいずれか1項に記載の装置を備える画像処理装置。
  13. データ処理装置の上で実行されるときに、請求項1乃至6のいずれか1項に記載の方法ステップを実行するように適合されたソフトウェアを備えるコンピュータ・プログラム製品。
JP2014551585A 2012-01-12 2013-01-08 3dモデル・モーフィングのための方法および装置 Expired - Fee Related JP5893166B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
EP12305040.3A EP2615583B1 (en) 2012-01-12 2012-01-12 Method and arrangement for 3D model morphing
EP12305040.3 2012-01-12
PCT/EP2013/050173 WO2013104592A1 (en) 2012-01-12 2013-01-08 Method and arrangement for 3d model morphing

Publications (2)

Publication Number Publication Date
JP2015507272A true JP2015507272A (ja) 2015-03-05
JP5893166B2 JP5893166B2 (ja) 2016-03-23

Family

ID=47563442

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014551585A Expired - Fee Related JP5893166B2 (ja) 2012-01-12 2013-01-08 3dモデル・モーフィングのための方法および装置

Country Status (6)

Country Link
US (1) US20140340397A1 (ja)
EP (1) EP2615583B1 (ja)
JP (1) JP5893166B2 (ja)
KR (1) KR101602593B1 (ja)
CN (1) CN104040593B (ja)
WO (1) WO2013104592A1 (ja)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9311746B2 (en) * 2012-05-23 2016-04-12 Glasses.Com Inc. Systems and methods for generating a 3-D model of a virtual try-on product
CN103942833B (zh) * 2014-04-14 2017-03-15 成都数象科技有限公司 数字人体的精确控制方法
US9900583B2 (en) * 2014-12-04 2018-02-20 Futurewei Technologies, Inc. System and method for generalized view morphing over a multi-camera mesh
WO2017081135A1 (en) * 2015-11-10 2017-05-18 Koninklijke Philips N.V. Determining information about a patient's face
CN107657649A (zh) * 2017-09-13 2018-02-02 成都尤维克科技有限公司 一种机器视觉检测图像库的构建方法
CN109740664B (zh) * 2018-12-28 2023-01-10 东莞中国科学院云计算产业技术创新与育成中心 柔性物体分类方法、装置、计算机设备和存储介质
CN110517340B (zh) * 2019-08-30 2020-10-23 腾讯科技(深圳)有限公司 一种基于人工智能的脸部模型确定方法和装置

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6492986B1 (en) * 1997-06-02 2002-12-10 The Trustees Of The University Of Pennsylvania Method for human face shape and motion estimation based on integrating optical flow and deformable models
JP2006018828A (ja) * 2004-06-30 2006-01-19 Mitsubishi Electric Research Laboratories Inc 変形可能な表面のクラスを表す可変多重線形モデルを構築する方法
JP2007141107A (ja) * 2005-11-21 2007-06-07 Canon Inc 画像処理装置およびその方法
JP2009003656A (ja) * 2007-06-20 2009-01-08 Monolith Co Ltd 画像処理装置および画像処理方法
JP2010517427A (ja) * 2007-01-23 2010-05-20 ユークリッド・ディスカバリーズ・エルエルシー 個人向けのビデオサービスを提供するシステムおよび方法

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7755619B2 (en) * 2005-10-13 2010-07-13 Microsoft Corporation Automatic 3D face-modeling from video
US8384714B2 (en) * 2008-05-13 2013-02-26 The Board Of Trustees Of The Leland Stanford Junior University Systems, methods and devices for motion capture using video imaging
US8208717B2 (en) * 2009-02-25 2012-06-26 Seiko Epson Corporation Combining subcomponent models for object image modeling

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6492986B1 (en) * 1997-06-02 2002-12-10 The Trustees Of The University Of Pennsylvania Method for human face shape and motion estimation based on integrating optical flow and deformable models
JP2006018828A (ja) * 2004-06-30 2006-01-19 Mitsubishi Electric Research Laboratories Inc 変形可能な表面のクラスを表す可変多重線形モデルを構築する方法
JP2007141107A (ja) * 2005-11-21 2007-06-07 Canon Inc 画像処理装置およびその方法
JP2010517427A (ja) * 2007-01-23 2010-05-20 ユークリッド・ディスカバリーズ・エルエルシー 個人向けのビデオサービスを提供するシステムおよび方法
JP2009003656A (ja) * 2007-06-20 2009-01-08 Monolith Co Ltd 画像処理装置および画像処理方法

Also Published As

Publication number Publication date
KR101602593B1 (ko) 2016-03-10
JP5893166B2 (ja) 2016-03-23
EP2615583B1 (en) 2016-04-20
US20140340397A1 (en) 2014-11-20
CN104040593A (zh) 2014-09-10
CN104040593B (zh) 2016-09-28
KR20140109496A (ko) 2014-09-15
WO2013104592A1 (en) 2013-07-18
EP2615583A1 (en) 2013-07-17

Similar Documents

Publication Publication Date Title
JP5893166B2 (ja) 3dモデル・モーフィングのための方法および装置
Zhao et al. Thin-plate spline motion model for image animation
KR102197553B1 (ko) 파트 기반 키 프레임들 및 선험적 모델을 사용한 견고한 메시 트래킹 및 융합
KR101547780B1 (ko) 이미지 모델 구축 방법 및 장치
US20170278302A1 (en) Method and device for registering an image to a model
JP6676562B2 (ja) 画像合成装置、画像合成方法及びコンピュータプログラム
CN113706699B (zh) 数据处理方法、装置、电子设备及计算机可读存储介质
JP2006260527A (ja) 画像マッチング方法およびこれを用いた画像補間方法
CN115943436A (zh) 快速和深度脸部变形
WO2021228183A1 (en) Facial re-enactment
Li et al. MannequinChallenge: Learning the depths of moving people by watching frozen people
AU2022241513B2 (en) Transformer-based shape models
Sibbing et al. Building a large database of facial movements for deformation model‐based 3d face tracking
TW201342305A (zh) 三維模型變形之方法及裝置
Jian et al. Realistic face animation generation from videos
US20190377935A1 (en) Method and apparatus for tracking features
Nadar et al. Sensor simulation for monocular depth estimation using deep neural networks
Afzal et al. Incremental reconstruction of moving object trajectory
US20240078726A1 (en) Multi-camera face swapping
WO2022186256A1 (ja) マップ情報更新方法
Lee et al. 3D fish animation with visual learning ability
Chakrabarti et al. SINGLE-IMAGE COHERENT RECONSTRUCTION OF OBJECTS AND HUMANS
Farnoosh et al. Indoor GeoNet: Weakly Supervised Hybrid Learning for Depth and Pose Estimation
Fang et al. Forward non-rigid motion tracking for facial MoCap
KR101845246B1 (ko) 하이브리드 센서를 이용한 실감 동작 생성 방법 및 장치

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150622

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150625

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20150925

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20151225

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160126

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160223

R150 Certificate of patent or registration of utility model

Ref document number: 5893166

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees