JP2002319026A - 画像のシーケンスから非剛直3次元オブジェクトを直接モデル化する方法 - Google Patents

画像のシーケンスから非剛直3次元オブジェクトを直接モデル化する方法

Info

Publication number
JP2002319026A
JP2002319026A JP2002041365A JP2002041365A JP2002319026A JP 2002319026 A JP2002319026 A JP 2002319026A JP 2002041365 A JP2002041365 A JP 2002041365A JP 2002041365 A JP2002041365 A JP 2002041365A JP 2002319026 A JP2002319026 A JP 2002319026A
Authority
JP
Japan
Prior art keywords
matrix
model
image
equation
evidence
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2002041365A
Other languages
English (en)
Inventor
Matthew Brand
マッシュー・ブランド
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Research Laboratories Inc
Original Assignee
Mitsubishi Electric Research Laboratories Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Research Laboratories Inc filed Critical Mitsubishi Electric Research Laboratories Inc
Publication of JP2002319026A publication Critical patent/JP2002319026A/ja
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/269Analysis of motion using gradient-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/579Depth or shape recovery from multiple images from motion

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Image Generation (AREA)

Abstract

(57)【要約】 (修正有) 【課題】 画像のシーケンスから非剛直3次元オブジェ
クトを直接モデル化する方法。 【解決手段】オブジェクトの形状は3Dポイントの行列
として表現され、該オブジェクトのあり得る変形の基礎
は該3Dポイントの変位の行列として表現される。3D
ポイントと変位との行列は該オブジェクトのモデルを形
成する。各3Dポイントに近い局所領域における画像強
度からオプティカル・フローについての証拠が決定され
る。その証拠は、ビデオにおいて該オブジェクトをトラ
ッキングするために該モデルの3D回転、並進運動、及
び変形の係数に因数分解される。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】本発明は、一般にコンピュー
タ・ビジョン、特に画像のシーケンスにおける変形可能
なオブジェクトの形状、運動及び屈曲をモデル化するた
めの方法に関する。
【0002】
【従来の技術】発明の背景モデル化を目的とするオプテ
ィカル・フローにおける3次元(3D)剛体の形状とのポ
イントの対応関係は広く記述されている。例えば、バロ
ン他の“ノイズのある時間変化する画像速度情報からの
運動及び構造の実現可能性(Barron et al., "The feasi
bility of motion and structure from noisy time-var
ying imagevelocity information," IJCV, 5(3):239-27
0, December 1990)"、ハイデン他の“画像シーケンスか
らの投影構造及び運動のための反復因数分解方法(Heyde
net al. "An iterative factorization method for pro
jective structure and motion from image sequence
s," IVC, 17(13):981-991, November 1999)"、スタイン
他の“モデルに基づく輝度制約:構造及び運動の直接推
定での(Stein et al., "Model-based brightness const
raints: On direct estimation of structure and moti
on," PAMI, 22(9):992-1015, September 2000)"、スギ
ハラ他の“正射影的に投影されたオプティカル・フロー
からの剛構造の回収(Sugihara et al., "Recovery of r
igid structure from orthographically projected opt
ical flow," CVGIP, 27(3):309-320, September 198
4)"、及びワクスマン他の“画像フロー運動学からの表
面構造及び3次元運動(Waxman et al., "Surface struc
tureand three-dimensional motion from image flow k
inematics," IJRR, 4(3):72-94, 1985)"を参照された
い。
【0003】画像シーケンス(例えばビデオ)から3D情
報を抽出するための最新の方法の殆どは、トマシ他によ
る“正射影下での画像ストリームからの形状及び運動:
因数分解方法("Shape and motion from image streams
under orthography: A factorization method," Intern
ational Journal of Computer Vision, 9(2): 137-154,
1992)"に記載されているトマシ&カナデ(Tomasi & Kan
ade)の“ランク定理”に基づいている。正射影的に投影
される剛体運動に用いられる行列はランク3を有する。
即ち、該行列は、3つの一次独立ベクトルとして表現さ
れることができる。薄単一値分解(a thin single value
decomposition (SVD))により該行列を形状及び射影に
因数分解することができるということは良く知られてい
る。ブレグラー他(Bregler et al.)は、“画像ストリー
ムからの非剛直3D形状の回収(Recovering non-rigid
3D shape from image streams, Proc. VCPR, 2000)"に
おいてランク3kダブルSVDによるkモード非剛直運
動への拡張を記載している。現在まで、そのような全て
の因数分解方法は、入力として好結果のポイント・トラ
ッキング・データを必要としている。
【0004】オブジェクトマッチング或いはトラッキン
グのための非剛直2次元(2D)モデル化方法も知られて
いる。それらは、形状の可変性の固有空間表示に基づい
ているか(ブラック及びヤコブの“固有トラッキング:
光景に基づく表示を使用する連結されたオブジェクトの
強健なマッチング及びトラッキング(Black and Yacoob,
"Eigentracking: Robust matching and tracking of a
rticulated objects using a view-based representati
on," IJCV, pages 63-84, 1998)"、クーツ他の“アクテ
ィブ外観モデル(Cootes et al., "Active appearance m
odels," Proc.ECCV, volume 2, pages 484-498, 199
8)"、及びコブェルの“固有ポイント:主成分分析を使
用する制御ポイント位置(Covell, "Eigen-points: Cont
rol-pointlocation using principal component analys
is," Proc. 2nd IWAFGR, 1996)"を参照されたい)、或い
は可変性のパラメトリック表示に基づいている(ブラッ
ク及びジェプソンの“画像運動の局所パラメトリック・
モデルを使用する剛直な顔面運動及び非剛直顔面運動の
トラッキング及び認識(Black and Jepson "Trackingand
recognizing rigid and non-rigid facial motions us
ing local parametric models of image motion," Pro
c. ICCV, 1995)"及びスクラロフ他の“アクティブな小
斑点(Sclaroff et al., "Active blobs," Proc. ICCV,
1998)を参照されたい)。
【0005】これらの方法の多くは、モデルを訓練する
ために多数の手でマークされた画像を必要とする。コブ
ェルの固有点トラッカー(eigenpoint tracker)は、個々
の顔の造作のアフィン歪曲された画像を、それらの造作
の手で示された信託点に関連づけるために固有基礎を採
用している。ブラック及びヤコブは、剛直でない顔の造
作についてのフローのパラメトリック2Dモデルを記述
しており、ブラック及びジェプソンも剛直でないオブジ
ェクトの2Dトラッキングについて光景の固有基礎を使
用する。クーツ他は、ポーズ及びアイデンティティーに
よる顔の像の変化を処理するために2D形状の統計モデ
ルを使用するが、表現を使用しない。これらのアプロー
チの多くは、外れ値を捨てるために強化方法を必要とす
る。明らかに、本質的に3Dの変化性である物の2Dモ
デルを使用するためには支払うべき代償がある。
【0006】バスクル他(Bascle et al.)は、“顔面ト
ラッキング及びアニメーションにおけるポーズ及び表現
の分離性("Separability of pose and expression in f
acial tracking and animation," Proc. ICCV, 1998)"
において、トラッキングされている外形の運動をSVD
を介して屈曲及び2Dのパララックスを伴うアフィン・
ワープに因数分解することによる2D及び3Dトラッキ
ングの興味ある妥協を記述している。
【0007】
【発明が解決しようとする課題】従来技術は、いずれ
も、ビデオにおける非剛直3Dオブジェクトをトラッキ
ングしてその3D運動及び屈曲パラメータを回収し、あ
るいはそのようなパラメータをピクセル強度の変化から
直接回収するという問題に取り組んでいない。画像のシ
ーケンスからモデルとその運動とを獲得するための改良
された方法を提供することが望まれている。その方法
は、中間結果を決定する間に情報を失うことなく画像の
強度から3D運動及び屈曲を直接決定する。その方法は
不確実性を最小にするべきであり、前の確立は信頼性を
示す手段(measures)を提供すべきである。
【0008】
【課題を解決するための手段】発明の概要 本発明は、線形変形可能なモデルとスケーリングされる
正射影法の関係において画像のシーケンスから非剛直3
Dモデルに基づくフロー及びモデルの獲得を提供する。
本発明の方法は、画像強度勾配に直接作用する最大尤度
及びその後の最大3D運動及び屈曲推定量を得る。その
方法は、行列演算における情報喪失を最小限にすると共
に、各画像の最も情報を与える部分からの証拠により計
算が最も影響を受けることとなるように最小二乗法演算
のエラー・ノルムを操作する。本発明は、モデルの詳細
及び正確さを向上させ、非常に一般的なモデルを非常に
詳細なモデルに洗練させることを可能にするモデルを洗
練させることを提供する。情報喪失が最小限となるの
で、ノイズ及びその他の劣化があっても記述される全て
の決定は、迅速で、正確で、強固である。
【0009】より具体的には、本発明は、画像のシーケ
ンスから非剛直3次元オブジェクトを直接モデル化する
方法を提供する。オブジェクトの形状は3Dポイントの
行列として表され、オブジェクトの可能な変形の基礎は
3Dポイントの変位の行列として表される。3Dポイン
ト及び変位の行列はオブジェクトのモデルを形成する。
オプティカル・フローについての証拠が各3Dポイント
の近くの局部領域における画像強度から決定される。そ
の証拠は、ビデオにおいて該オブジェクトをトラッキン
グするために該モデルの3D回転、並進、及び変形係数
に因数分解される。
【0010】
【発明の実施の形態】好ましい実施の形態の詳細な説明 序論 本明は、線形の、モデルに基づくオブジェクトトラッキ
ング方法を提供する。その方法は、画像のシーケンスに
おいて剛直でない3次元(非剛直3D)オブジェクトをト
ラッキングする。画像シーケンスは、例えばビデオなど
の2Dデータ、或いは例えばボリューム・データ・セッ
トなどの3D体積測定データから構成されることができ
る。この方法は、情報を失う中間結果無しで画像の強度
値から3D運動及び屈曲、即ち変形係数、を決定する。
ベイズのフレームワークは、不確実性を処理し、前の確
率に配慮して確実性の程度を与える。
【0011】本発明は、割り算、内積などの非可逆行列
演算と割り算などの最小2乗法計算とからの情報喪失を
最小限にすることにより正確で強固な閉鎖形運動推定量
を提供する。これらの行列演算は、削除されるか、或い
は避けがたい場合には、なるべく長く遅らされてから適
当なエラー・ノルムで実行される。モデル獲得のため
に、本発明の方法は、一般的モデルを洗練して非剛直3
Dオブジェクトを画像のシーケンスに適合させる(填め
込む)。利点として、モデル獲得、モデル・トラッキン
グ、及びモデル洗練のための記述される方法は画像の低
品質、低分解能シーケンスに適用されることができる。
【0012】大要 非剛直3Dオブジェクトの3D形状及び変形についての
知識は、画像のシーケンスにおいてオブジェクトをトラ
ッキングする際の価値のある制約条件である。控えめの
数の画像のシーケンスは、そのようなモデルを取り戻す
ために充分な情報を含んでいるべきである。ここでは、
画像の低分解能シーケンスにおいて観察される非剛直3
Dオブジェクトのモデルのトラッキング及び洗練は、ス
ケーリングされた正射影カメラの関係で記述される。
【0013】モデルに基づくオプティカル・フロー 図1,2及び6に示されているように、本発明は2Dま
たは3Dの画像のシーケンスにおいて3D屈曲制約され
るオプティカル・フローを決定するための線形方法を提
供する。図1は基本的な“ポイント群(cloud-of-point
s)”102モデル100を示しており、図2はモデル1
00の射影200を示しており、図6は該モデルの運動
推定600と洗練601のステップとを示している。こ
の方法は実時間単眼3Dトラッキング及びモデル洗練を
可能にする。例えば顔などの、非剛直3Dオブジェクト
のモデルは、平均3D形状202とその変形のモード2
03−205とを記述する3Dのポイント群100の形
で表現される。変形203−205は、各ポイントにつ
いての独特の3D変位を定義する。運動洗練ループ60
1のステップ606により決定される屈曲207は、変
形の大きさを記述する。例えば、顔のモデルの唇を動か
す変形が存在することがある。その変形は、正に或いは
負に曲げられて口を開いたり閉じたりすることができ
る。各々異なる量だけ曲げられた数個の変形を結合させ
ることによって多様な形状変化をモデル化することがで
きる。
【0014】この記述されている方法は、各画像におけ
るオブジェクトの並進206,回転201及び屈曲20
7を直接求める。屈曲は、後述するようにスケール情報
も担っている。それは、後確率604の形の確実性を示
す手段を与える。最大公算及びベイジアン帰納的最大後
(MAP:maximum a posterior)運動(652)及び屈曲
(654)が、情報を喪失する中間結果無しで、即ちオプ
ティカル・フローを推定することなく、強度勾配から直
接決定される。換言すると、この好ましい方法は、実際
のオプティカル・フロー証拠を使用し、オプティカル・
フロー推定量は使用しない。この方法は運動前確率(プ
ライアー(priors))614に配慮し、多画像及び多光景
制約条件を利用することができる。
【0015】情報状態を最大にする 本発明は、計算における情報状態を最大にするために行
列変換を使用する。掛け算、割り算、及び薄SVD(thi
n SVD)などの非可逆行列演算が情報状態を減少させ、そ
の結果としてエラーを増大させることは良く知られてい
る。例えば、掛け算の内積は、2つのベクトルが単一の
値に変えられるので、情報状態を減少させる。ベクトル
が或る程度の付随する不確実性を伴う測定値を表すなら
ば、既存の内積は実際に悪い値を生じさせることがあ
る。割り算及びSVDは、これらの行列演算により得ら
れる結果が最小2乗法の意味でのみ正しいので、特に厄
介である。このことは、球形エラー・ノルムを意味し、
それは多くのコンピュータ・ビジョン問題についての悪
いエラー・ノルムであるということが知られている。
【0016】従って、本発明は、情報状態が減少するの
ではなくて増大するように行列演算のシーケンスを配列
する。このことは、主として、例えば行列掛け算をクロ
ネッカー積で置換することにより内積を除去するなどの
可逆アナログの賢明な置換により行われる。このこと
は、情報状態が最終的に形状、運動、及び屈曲を与える
ように減少させられなければならなくなるまで本発明が
最小2乗演算を無くするか、或いは少なくとも最大限に
遅らせることを可能にする。これを実行するために、幾
つかの有益なアイデンティティーについて以下で記述す
る。それらのエンティティーは、本方法が任意の楕円形
マハロノビス(Mahalonobis)エラー・ノルムのもとで拡
張されているアレイの外で情報を因数分解することを可
能にする。
【0017】造作無しでの強固なトラッキング “画像不確実性”は、例えば画像中の“陸標(landmar
k)”の位置などの、測定値の正確な値に関する不確実性
を指す。不確実性の原因は、ぼやけ、センサー・ノイ
ズ、限られたダイナミックレンジ及び撮像センサーのサ
ンプリングレートである。数量化できるときには、画像
不確実性は測定値自体と同じ量の情報を運ぶことができ
る。ビデオ画像のシーケンス中の非剛直3Dオブジェク
トをトラッキングしている間、本発明の方法はグローバ
ル幾何学不変量との相互作用を介して不確実性を解明で
きるようになるまで射影モデルを通して画像不確実性を
逆に伝える。その結果としてのトラッカーは、画像領域
の任意のサンプリングに利用できるあらゆる情報を使用
し、それらの領域の殆どが例えば無テクスチャーであっ
たり自己閉塞であったりするなどで低品質であるときで
も正確な運動を与える。
【0018】モデル・ジオメトリーを獲得する この記述されている方法は、画像のシーケンス中の非剛
直オブジェクトについて3Dの線形に変形可能なモデル
を推定するための新しい解決策を提供する。モデル洗練
626は、あまり適当ではないモデルをそのトラッキン
グ残差と結合させて、増大された細部を伴うより正確な
モデルを生じさせる、即ち“群”の中の“ポイント”の
数を増大させる。
【0019】概要 始めに、オブジェクトトラッカーは、3D運動及び屈曲
についてのジオメトリーに基づくモデルを画像シーケン
ス中の2Dオプティカル・フローの強度に基づく記述に
適用する。オプティカル・フローは除去され、運動パラ
メータがオプティカル・フロー強度から直接得られる。
全ての決定は3D運動及び屈曲の部分空間内で行われ、
強固な3Dトラッカーを生じさせる。画像不確実性情報
が該決定の全体にわたって伝えられる。これは、精度を
高め、当然にベイズの公式化に帰着する。最後に、該モ
デルのジオメトリーについての解が記述される。
【0020】行列演算についての次の表記法がこの記述
において使用される。ゴルブ他の“行列計算”(Golub e
t al., Matrix Computations," Johns Hopkins U. Pres
s, 1996)及びマグヌス他の“統計及び計量経済学におけ
る応用を伴う行列微分学”(Magnus et al., "Matrix di
fferential calculus with applications in statistic
s and econometrics," Wiley, 1999)を参照されたい。
【0021】
【数4】
【0022】屈曲及びフロー オブジェクト屈曲 図1及び2に示されているように、本発明は画像シーケ
ンス中の非剛直3Dオブジェクト101のモデル100
の基礎形状202を3Dポイント102の行列により表
現する。モデル化されているオブジェクトの例は顔であ
る。ポイントの群は3次元に置かれ得ることに注意する
べきである。
【0023】図2に示されているように、モデル100
の形状及び運動、即ち画像シーケンスの各画像への射影
或いはポーズP200は
【0024】
【数5】
【0025】により表現されることができ、ここでR2
01は正射影回転行列であり、dは次元の数であり、B
202は3Dポイント102の行列であり、C207は
屈曲のベクトル即ち変形係数であり、Iは単位行列であ
り、D205はモデルのk個の線形に分離可能な変形の
ベクトルであり、T206は2D並進運動行列である。
変形203−205には屈曲係数207により重みが付
けられる。もし回転行列Rが深さ次元を落としているな
らば、射影は正射影であり、もし変形の基底セットが基
礎形状を含んでいるならば、正射影はスケーリングされ
る。
【0026】オプティカル・フロー 前述したように、運動及び屈曲は画像における強度勾配
から決定される。図3に示されているように、画像32
0のシーケンスの2つの連続する画像I311及びJ3
12におけるオブジェクトの小さな局部領域(r)310
の2Dまたは3Dのオプティカル・フロー証拠((ベクト
ル)F←Y/X)300は、画像I及びJにおける強度の
【0027】
【数6】
【0028】を考慮する画像強度値により1次に決定さ
れることができる(フロー計算)656。ルーカス他の
“ステレオ・ビジョンへの応用を伴う反復画像登録技
術”(Lucaset al. "An Iterative Image Registration
Technique with an Application to Stereo Vsion," In
ternational Joint Conference on Artificial Intelli
gence, pages 674-679, 1981)を参照されたい。ベクト
ルF及びYを拡張し、行列Xを対角的に積み重ねること
により、多数(n)の領域r310を同時にトラッキング
することができる。
【0029】しかし、小さな局部領域r310における
オプティカル・フロー300は、相互に依存し合うn個
の同時推定を行うためには何らかの全体的制約条件無し
では実際の物理的運動についての信頼し得ない指標であ
ることが良く知られている。
【0030】運動推定 従って、図4に示されているように、本発明の方法は、
許される変形及び3D運動の部分空間内にあるように画
像IからJへのオプティカル・フローを制約する(40
0)。一般性を失うことなく、モデル100の全てのポ
イント102の平均運動がオブジェクト101の形状の
2Dまたは3Dの変位を与えるように形状及び変形をゼ
ロ平均にすることができる。これは、該方法が並進運動
T206を決定することを可能にする(620)。並進運
動は、その後2つの連続する画像I及びJを変えて整列
させることにより、除去される(660)。その2つの画
像311−312の整列している領域から新しい時間変
化Y’401を決定することができる(622)。
【0031】もしポイント102の行列B202が画像
I311におけるオブジェクト101の基礎形状を表
し、行列Dが変形を表し、行列C207が画像Iから画
像Jへの未知の屈曲(変形係数)を表し、行列Oが2D正
射影を表し、従って
【0032】
【数7】
【0033】ならば、オプティカル・フローF300
を:
【0034】
【数8】
【0035】として、即ち連続する画像311−312
における射影の差として、表現することができる。
【0036】式(2)は、
【0037】
【数9】
【0038】として、より単純な形に書き直されること
ができる。vec及び
【0039】
【数10】
【0040】の使用は、この式の左辺を積の形に表現す
ることを可能にし、このことは単一の割り算でどの未知
数の値を求めることをも可能にする。
【0041】図5に示されているように、本発明の方法
は、画像320のシーケンスにおける非剛直オブジェク
ト101の形状、運動、及び屈曲をモデル化するために
使用されるいろいろな変数(T,C,R)501−503の
値を、単独で及びいろいろな組み合わせで、求める。利
点として、本発明は、以下で詳しく記述するように、情
報状態を最大にすると共に不確実性(エラー・ノルムQ
504)を最小にするために最小限の数の内積と最小2
乗法演算とを使用する。
【0042】素朴な解 始めに、回転と屈曲とが:
【0043】
【数11】
【0044】により分離される。前述したように、割り
算の数を減らすことが望まれる。以下で、割り算の最少
化を説明する。回転と屈曲とを抽出するために、式(4)
の左辺はランク1行列
【0045】
【数12】
【0046】を形成するように整えられる。もし行列M
にノイズがなければ、値vec(ハット)RTは行列Mの第1
列であり、
【0047】
【数13】
【0048】である。
【0049】正規直交分解 ノイズのある行列は次のように因数分解されることがで
きる。(vec(ハット)R T)(ハット)C’←Mの因数分解、
即ちベクトル化された正規直交行列かける変形係数行列
は、普通は薄SVD USVT←(SVD1)←Mの次に(vec
3U)Tの正規直交化を行って(ハット)Rをもたらし、次に
訂正再割り算
【0050】
【数14】
【0051】により実行される。これはMを最も良く割
るベクトルに最も近い回転を見出すが、それは一般には
Mから利用できる最良の回転ではない。Mは小さいの
で、SVDはノイズ、特に独立していなくて全く同じに
分布されている(i.i.d.)ガウシアン・ランダム変
数、を抑圧するのではなくて該ノイズを組み入れること
がある。
【0052】その代わりに、好ましい方法は、標準的な
SVDに基づく方法より正確に且つ経済的に回転R20
1を直接回収する正規直交分解650を使用する。幾何
学的には、行列Rは、(ハット)C’によりスケーリング
されたOTの軸を行列Mの上半分及び下半分(M↑,M↓)
の列と整列させる回転である。
【0053】これは絶対配向(an absolute orientatio
n)として表現されることができる。ホーン他の“正規直
交行列を使用する絶対配向の閉鎖形の解”(Horn et a
l., "Closed form solution of absolute orientation
using orthonormal matrices,"J. of the Optical Soci
ety A, 5(7):1127-1135, 1988)を参照されたい。
【0054】
【数15】
【0055】とする。すると、2D固有分解(2D eigen-
decomposition)
【0056】
【数16】
【0057】を使用して
【0058】
【数17】
【0059】となる。従って、O(k3)SVDはO(1)固
有問題と置換される。
【0060】これは、例えば
【0061】
【数18】
【0062】などの、変形係数の初期決定を必要とし、
【0063】
【数19】
【0064】をもたらす。最終の値は、その値に割合に
鈍感であり、例えば、(ハット)C’=1を用いるとうま
くゆく。
【0065】本発明により実行されるこの直接因数分解
は、ノイズのある行列Mの最良適合因数に最も近い回転
ではなくて最良適合回転を与え、従って、特に、ノイズ
が増えるとき、標準的なSVDプラス正規直交プロセス
より優れている。高ノイズ・レベルでは、正規直交分解
は、実質的に、ランダム回転、k個の係数、及びノイズ
源で生成された2D射影の行列についての、p<0.0
1レベルの統計的有意性を伴う実質的に正しい回転であ
る。
【0066】運動洗練 オプティカル・フローの公式化の一次性により、大きな
運動については、オプティカル・フローが対称的である
とき式(2)で暗示されるオプティカル・フローFにより
相殺される画像領域から時間変化(Y’)と空間変化Xと
を再計算することが望ましいことがある。この再計算は
オプティカル・フロー決定ステップ628で行われる。
【0067】次に、置換
【0068】
【数20】
【0069】によって行列R及びCを洗練することがで
きる(652,654)。これを実行すると同時に、恒等
【0070】
【数21】
【0071】を用いて
【0072】
【数22】
【0073】により(ハット)R及び(ハット)Cを相互か
ら決定することができる。
【0074】式(6)は、例えば行列C207により表現
される屈曲など、適当な部分空間において配向されるべ
き画像のシーケンスのオプティカル・フローを制約する
推定量の第1の例である。
【0075】形を治して乗法相殺を行うことにより、式
(3)の標準的実行に使用される3つの別々の割り算が式
(5−6)において積により単一の割り算に変換されてお
り、最後に最小2乗法演算を節約し、それにより情報状
態のエラーを最小限にする。
【0076】そのように構成されている推定量の被除数
及び除数は“証拠行列”と呼ばれる。それについて、不
確実性情報を組み込むこと、単一の割り算と式(4)及び
(5)の部分空間制約されたバージョンとを展開すること
に関して以下で詳しく記述する。
【0077】スケーリングされた正射影上の式(4)及び
下の式(7)はスケーリングされた正射影であり、行列C
207の第1要素はスケールの変化を与える。式(6)
は、置換k→k+1,D→D’を介してスケーリングさ
れた正射影にされることができる。
【0078】斜めの領域及び閉じられた領域イメージ毎
に、モデルに対する表面法線に関する情報を加えること
により背面領域及び輪郭端領域を無視することができ
る。X及びYに対する各フロー・ウィンドウの寄与をma
x(0, z)により測ることができ、ここでzは、それに付随
する単位法線の深さ成分である。閉じられたポイントに
ついて、並進運動ベクトル(ハット)Tも洗練されなけれ
ばならない。
【0079】画像不確実性を伝える 画像にガウシアン・ノイズを仮定すると、制約されない
オプティカル・フロー(F=Y/X)の不確実性は、後の
逆共分散Σ-1=Xを伴う全共分散2D正規確率分布間数
により記述される。上で述べたように、割り算Y/X
は、この不確実性情報を捨てる。対照的に、本発明の方
法は、モデルの情報状態が最後の形状、運動、及び屈曲
を与えるように最終的に還元されるまで該情報が既知の
不変量と相互作用することができるように、この不確実
性情報を前に伝える。
【0080】楕円形エラー・ノルムでの割り算 一般に、E=JK・L=0の形の問題を解くときには、
含蓄的な球形エラー・ノルムtr(ETE)の代わりに、対称
的共分散Σを有する楕円形エラー・ノルム(vecE)TΣ-1
(vecE)を用いる。このvecEは、全ての変数間の任意の
共分散制約条件を、該変数がEの異なる列の中にあると
きでも、可能にする。行列Eの導関数をゼロにセットす
ると、解は0=(vec(JK-L))TQを満たさなければなら
ず、ここでQ504,即ちΣ-1の因数、は解が最小にす
るエラー・ノルムを決定する、即ち、Q=I⇒球形エラ
ー・ノルムである。
【0081】不確実性情報は楕円形エラー・ノルム、Q
=√(Σ-1)を特定するので、即ちQ504の列はΣ-1
スケーリングされた固有ベクトルであり、
【0082】
【数23】
【0083】である。楕円形エラー・ノルムQ504は
問題の最大の不確実性と最小の不確実性との方向を回転
させて軸整列させ、その確実性に比例させて各軸をスケ
ーリングする。恒等式
【0084】
【数24】
【0085】は解
【0086】
【数25】
【0087】を生じさせる。
【0088】確実性重み付き推定量 Σ-1Xは2×2ブロック・ダイアゴナルであるので、Q
504をステップ612で決定することができる。不確
実性変換658により確実性重み付きデータ空間に歪め
られている画像情報の時間勾配は
【0089】
【数26】
【0090】(共分散重み付きフロー統計)として計算さ
れる。包括的並進運動660を除去すると、重みが付け
られ中心点が決定されている統計622が得られる。ス
テップ650,642,654で決定される制約式(4
−6)の不確実性伝播形は、それぞれ、
【0091】
【数27】
【0092】である。
【0093】その結果として、意図されているように、
全てのオプティカル・フロー決定は今は回転及び屈曲の
部分空間で実行される。同様の、より単純な形は並進運
動ベクトル(ハット)Tを与える。
【0094】式(7−9)は、従来技術の推定量より遙か
に良好な性能を与え、数値的により良好にふるまう。数
値精度がどの1つの屈曲にも集中しないようにD’単位
長さにおける変形を生じさせることにより、それらの数
値的利点に更にテコ入れすることができる。
【0095】高速近似 確実性を誇張する危険を冒しても、Q→Xの代用を行っ
て式(6)と
【0096】
【数28】
【0097】とを得ることができる。
【0098】ベイズの公式化 残差及び可能性 オプティカル・フロー
【0099】
【数29】
【0100】が与えられると、不明の時間強度情報は
【0101】
【数30】
【0102】強度レベルとピクセル長さとの積となる。
低レベルのオプティカル・フローのガウス不確実性モデ
ルから前進して、トラッキング残余604、或いはエラ
ー計算605の間に決定されるマハロノビス距離は、画
像当たりに
【0103】
【数31】
【0104】強度レベルである。このことは、運動が与
えられると、オプティカル・フロー証拠の可能性(残差
及び確率)604が
【0105】
【数32】
【0106】であることを暗示する。式(8−9)の各々
は最適のpをその部分空間内に生じさせる。
【0107】前確率及び最大後確率 μc'の平均値及びΣc'の共分散で、スケーリング及び屈
曲についてのガウス前確率pc'(C’)を考察する。ログ
後確率はログ可能性をログ前確率に対して釣り合わせる
合計であるので、最大帰納的推定量
【0108】
【数33】
【0109】は、次のアンダーラインの付されている項
を最大可能性の証拠行列:
【0110】
【数34】
【0111】に連結することによって構成され、ここで
Qc’は、Qc', QTc'=Σ-1c'を満たすΣ-1c’のスケ
ーリングされた固有ベクトルである。並進運動及び回転
についてMAP推定量を同様に構成することができる。
【0112】多画像/多光景制約条件 多画像及び多光景制約条件は次のように決定される。前
に処理された画像のいずれかの集合を選択し、前述した
ように運動及び屈曲を用いてその処理されている画像を
歪めて画像Iのポーズとすることによって仮想画像を作
る。次に、各仮想画像を画像Jと比較しながら証拠行列
を連結することによって、次の画像Jについての多画像
運動/屈曲推定量が構築される。該行列には既にその確
実性により重みが付けられているので、結果は単なる平
均ではなくて適切な予想である。オプティカル・フロー
が流動する傾向がモデルの幾何学的制約条件により減少
されていても、多画像推定量は固有流動に抗してテクス
チャーを更に安定させることができる。同様の連結によ
り多数のカメラからの証拠を屈曲推定量において結合さ
せることができる。
【0113】モデル獲得 モデル洗練 多数の画像について回転(652)及び屈曲(654)が決
定されるとき、Bを含むモデルD’を、次のように画像
のシーケンス中のオブジェクトにより良好に適するよう
に洗練することができる。
【0114】
【数35】
【0115】及び
【0116】
【数36】
【0117】を画像0を画像tに変化させる回転及び屈
曲であるとし、
【0118】
【数37】
【0119】であるとする。
【0120】
【数38】
【0121】は画像t−1を画像tに変化させるオプテ
ィカル・フローであり、
【0122】
【数39】
【0123】は該オプティカル・フローの並進運動成分
であるとする。すると、式(2)は
【0124】
【数40】
【0125】をもたらし、ここで
【0126】
【数41】
【0127】は垂直積み重ねを意味する。
【0128】不確実性情報を用いてこの式を書き直す
と、運動についてのトラッキング残差を最小限にするモ
デルについての解:
【0129】
【数42】
【0130】が得られ、ここでQ及びΛは式(7−8)の
それである。このモデル洗練626は、1つのトラッキ
ング・ランの出力をとり、トラッキングのもう一つのラ
ンに適するより良好なモデルを生じさせる。
【0131】
【数43】
【0132】の代わりに
【0133】
【数44】
【0134】を用いることによりオプティカル・フロー
勾配から直接にオブジェクトの形状を決定することがで
きる。しかし、この形状は、例えば鏡面性などの輝度安
定度侵害に敏感である可能性がある。最初のモデルの
x、y座標を保つように式(11)を制約し、重い重みが
付けられている行を積み重ねることによって正面のみの
回転で深さ及び変形を求めることが可能である。
【0135】細部を加える モデル洗練626は、モデルの細部のレベルを高めるこ
とを可能にする。新しいポイントを補間し、補外し、ト
ラッキングし、洗練して、全てのポイントについて訂正
された深さ及び変形を得ることができる。
【0136】本発明は、特定の用語及び例を用いること
により記述されている。本発明の範囲内で他のいろいろ
な改造及び修正を行うことができることが理解されるべ
きである。従って、添付されている各請求項の目的は本
発明の真の範囲に属する全てのそのような変種及び修正
を包含することである。
【図面の簡単な説明】
【図1】 モデルの形状及びポーズの変化のために置き
換えられ得る3Dポイントの行列によりモデル化される
オブジェクトの図である。
【図2】 オブジェクトの屈曲及びポーズをモデル化す
る射影の図である。
【図3】 オプティカル・フロー強度に関する画像シー
ケンスにおけるオプティカル・フローの図である。
【図4】 モデルの屈曲及びポーズに等しくされるオプ
ティカル・フローの図である。
【図5】 いろいろなモデル変数についての解の図であ
る。
【図6】 本発明のデータ情報フローとプロセスとの流
れ図である。
【符号の説明】
100 モデル、101 非剛直3Dオブジェクト、1
02 ポイント群。
───────────────────────────────────────────────────── フロントページの続き (72)発明者 マッシュー・ブランド アメリカ合衆国、マサチューセッツ州、ニ ュートン、ローウェル・アベニュー 449、 ナンバー 11 Fターム(参考) 5L096 FA31 HA04

Claims (8)

    【特許請求の範囲】
  1. 【請求項1】 画像のシーケンスから非剛直3次元オブ
    ジェクトを直接モデル化する方法であって、 3Dポイントの行列としてオブジェクトの形状を表し、
    該オブジェクトのあり得る変形の基礎を該3Dポイント
    の変位の行列として表し、これらの3Dポイント及び変
    位の行列が該オブジェクトのモデルを形成するステップ
    と、 各3Dポイントの近くの局所領域における画像強度から
    オプティカル・フローについての証拠を決定するステッ
    プと、 ビデオにおいて該オブジェクトをトラッキングするため
    に該証拠を該モデルの3D回転、並進運動、及び変形の
    係数に因数分解するステップと、 を備えたことを特徴とする方法。
  2. 【請求項2】 該証拠は、シーケンスの各画像における
    該局所領域の画像強度の局所空間変化、時間変化、及び
    空間勾配を含むことを特徴とする請求項1に記載の方
    法。
  3. 【請求項3】 該ビデオにおける連続する画像J及びI
    について、どのポイントXにおける空間変化も 【数1】 であり、時間変化Yは 【数2】 であり、空間勾配g(x)は[∂x(I+J),∂y(I+J)]
    または[∂x(J)、∂y(J)]であることを特徴とする請求
    項2に記載の方法。
  4. 【請求項4】 該ビデオの各画像への該モデルの正射影
    は 【数3】 により表され、ここでRは回転行列であり、Bは形状行
    列であり、Iは単位行列であり、Dは変形行列であり、
    Cは全ての変形の屈曲であり、Tは並進運動行列である
    ことを特徴とする請求項1に記載の方法。
  5. 【請求項5】 変位の行列は形状の行列を含み該ビデオ
    におけるオブジェクトのスケーリングを処理することを
    特徴とする請求項4に記載の方法。
  6. 【請求項6】 情報の喪失を最小限にするために回転、
    並進運動、及び変形は最小限度の数の内積及び最小2乗
    法演算で決定され、全ての最小2乗法計算は、該証拠か
    ら導出された楕円形エラー・ノルムを利用することを特
    徴とする請求項1に記載の方法。
  7. 【請求項7】 画像のシーケンスにおける局所領域につ
    いて該証拠から決定されるオプティカル・フローは全体
    的に該モデルと矛盾しないように制約されることを特徴
    とする請求項1に記載の方法。
  8. 【請求項8】 該モデルは、一般的なモデルと、該証
    拠、回転、並進運動、及び変形を用いてビデオのオブジ
    ェクトをトラッキングするために該一般的モデルを用い
    ることにより得られる残差とから直接導出されることを
    特徴とする請求項1に記載の方法。
JP2002041365A 2001-02-22 2002-02-19 画像のシーケンスから非剛直3次元オブジェクトを直接モデル化する方法 Pending JP2002319026A (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US09/791,117 US7006683B2 (en) 2001-02-22 2001-02-22 Modeling shape, motion, and flexion of non-rigid 3D objects in a sequence of images
US09/791117 2001-02-22

Publications (1)

Publication Number Publication Date
JP2002319026A true JP2002319026A (ja) 2002-10-31

Family

ID=25152743

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002041365A Pending JP2002319026A (ja) 2001-02-22 2002-02-19 画像のシーケンスから非剛直3次元オブジェクトを直接モデル化する方法

Country Status (3)

Country Link
US (1) US7006683B2 (ja)
EP (1) EP1235183A3 (ja)
JP (1) JP2002319026A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011000462A (ja) * 2003-11-19 2011-01-06 Siemens Medical Solutions Usa Inc 画像内の候補対象の変形可能な形状の検出および追跡方法、および、画像内の候補対象の変形可能な形状の検出および追跡システム

Families Citing this family (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7069214B2 (en) * 2001-02-26 2006-06-27 Matsushita Electric Industrial Co., Ltd. Factorization for generating a library of mouth shapes
US7120277B2 (en) * 2001-05-17 2006-10-10 Koninklijke Philips Electronics N.V. Segmentation unit for and method of determining a second segment and image processing apparatus
US6873724B2 (en) * 2001-08-08 2005-03-29 Mitsubishi Electric Research Laboratories, Inc. Rendering deformable 3D models recovered from videos
DE10144004A1 (de) * 2001-09-07 2003-03-27 Philips Corp Intellectual Pty Verfahren zur Messung geometrischer Größen einer in einem Bild enthaltenen Struktur
AU2002357108A1 (en) * 2001-12-06 2003-07-09 New York University Logic arrangement, data structure, system and method for multilinear representation of multimodal data ensembles for synthesis, recognition and compression
JP4162095B2 (ja) * 2003-12-11 2008-10-08 ストライダー ラブス,インコーポレイテッド 遮蔽された部分の表面を対称性の算出により見込み復元するための技術
US7969447B2 (en) * 2004-05-06 2011-06-28 Pixar Dynamic wrinkle mapping
US7860344B1 (en) 2005-05-06 2010-12-28 Stochastech Corporation Tracking apparatus and methods using image processing noise reduction
US7813581B1 (en) 2005-05-06 2010-10-12 Fitzpatrick Ben G Bayesian methods for noise reduction in image processing
US8279222B2 (en) * 2008-03-14 2012-10-02 Seiko Epson Corporation Processing graphics data for a stereoscopic display
US8224037B2 (en) * 2008-04-10 2012-07-17 Utc Fire & Security Americas Corporation, Inc. Methods involving face model fitting
US8131063B2 (en) * 2008-07-16 2012-03-06 Seiko Epson Corporation Model-based object image processing
US8204301B2 (en) * 2009-02-25 2012-06-19 Seiko Epson Corporation Iterative data reweighting for balanced model learning
US8260038B2 (en) * 2009-02-25 2012-09-04 Seiko Epson Corporation Subdivision weighting for robust object model fitting
US8208717B2 (en) * 2009-02-25 2012-06-26 Seiko Epson Corporation Combining subcomponent models for object image modeling
US8260039B2 (en) * 2009-02-25 2012-09-04 Seiko Epson Corporation Object model fitting using manifold constraints
US20110176715A1 (en) * 2010-01-21 2011-07-21 Foos David H Four-dimensional volume imaging system
US8908928B1 (en) * 2010-05-31 2014-12-09 Andrew S. Hansen Body modeling and garment fitting using an electronic device
CN101901472B (zh) * 2010-07-07 2012-12-19 清华大学 一种基于矩阵秩最小化的非刚性鲁棒批量图像对齐方法
TWI489859B (zh) * 2011-11-01 2015-06-21 Inst Information Industry 影像形變方法及其電腦程式產品
US9123144B2 (en) 2011-11-11 2015-09-01 Microsoft Technology Licensing, Llc Computing 3D shape parameters for face animation
US20130197736A1 (en) * 2012-01-30 2013-08-01 Google Inc. Vehicle control based on perception uncertainty
US9053551B2 (en) * 2012-05-23 2015-06-09 International Business Machines Corporation Vessel identification using shape and motion mapping for coronary angiogram sequences
US20140168204A1 (en) * 2012-12-13 2014-06-19 Microsoft Corporation Model based video projection
CN105096377B (zh) * 2014-05-14 2019-03-19 华为技术有限公司 一种图像处理方法和装置
US20170278302A1 (en) * 2014-08-29 2017-09-28 Thomson Licensing Method and device for registering an image to a model
US9836118B2 (en) 2015-06-16 2017-12-05 Wilson Steele Method and system for analyzing a movement of a person
US10853975B2 (en) * 2018-01-26 2020-12-01 Sony Corporation Hybrid projection-based point cloud texture coding
CN111325854B (zh) * 2018-12-17 2023-10-24 三菱重工业株式会社 形状模型修正装置及形状模型修正方法以及存储介质

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5802220A (en) 1995-12-15 1998-09-01 Xerox Corporation Apparatus and method for tracking facial motion through a sequence of images
US6049619A (en) 1996-02-12 2000-04-11 Sarnoff Corporation Method and apparatus for detecting moving objects in two- and three-dimensional scenes
US6124864A (en) * 1997-04-07 2000-09-26 Synapix, Inc. Adaptive modeling and segmentation of visual image streams
US6492986B1 (en) * 1997-06-02 2002-12-10 The Trustees Of The University Of Pennsylvania Method for human face shape and motion estimation based on integrating optical flow and deformable models
US6047078A (en) * 1997-10-03 2000-04-04 Digital Equipment Corporation Method for extracting a three-dimensional model using appearance-based constrained structure from motion
US6115052A (en) 1998-02-12 2000-09-05 Mitsubishi Electric Information Technology Center America, Inc. (Ita) System for reconstructing the 3-dimensional motions of a human figure from a monocularly-viewed image sequence
US6204860B1 (en) * 1998-07-02 2001-03-20 Silicon Graphics, Inc. Method and apparatus for geometric model deformation using wires
DE69934478T2 (de) * 1999-03-19 2007-09-27 MAX-PLANCK-Gesellschaft zur Förderung der Wissenschaften e.V. Verfahren und Gerät zur Bildverarbeitung auf Basis von Metamorphosemodellen
US6760488B1 (en) * 1999-07-12 2004-07-06 Carnegie Mellon University System and method for generating a three-dimensional model from a two-dimensional image sequence
US6504546B1 (en) * 2000-02-08 2003-01-07 At&T Corp. Method of modeling objects to synthesize three-dimensional, photo-realistic animations

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011000462A (ja) * 2003-11-19 2011-01-06 Siemens Medical Solutions Usa Inc 画像内の候補対象の変形可能な形状の検出および追跡方法、および、画像内の候補対象の変形可能な形状の検出および追跡システム

Also Published As

Publication number Publication date
US7006683B2 (en) 2006-02-28
US20030072482A1 (en) 2003-04-17
EP1235183A2 (en) 2002-08-28
EP1235183A3 (en) 2010-03-10

Similar Documents

Publication Publication Date Title
JP2002319026A (ja) 画像のシーケンスから非剛直3次元オブジェクトを直接モデル化する方法
Ploumpis et al. Combining 3d morphable models: A large scale face-and-head model
Brand et al. Flexible flow for 3d nonrigid tracking and shape recovery
Dai et al. A 3d morphable model of craniofacial shape and texture variation
US9400921B2 (en) Method and system using a data-driven model for monocular face tracking
Smolyanskiy et al. Real-time 3D face tracking based on active appearance model constrained by depth data
Salzmann et al. Closed-form solution to non-rigid 3D surface registration
Sidenbladh et al. Stochastic tracking of 3D human figures using 2D image motion
US6047078A (en) Method for extracting a three-dimensional model using appearance-based constrained structure from motion
Dornaika et al. On appearance based face and facial action tracking
JP2020526845A (ja) 姿勢変動に頑健な顔位置調整のためのシステム及び方法
Zhou et al. A bayesian mixture model for multi-view face alignment
Li et al. Modelling faces dynamically across views and over time
Sung et al. Pose-Robust Facial Expression Recognition Using View-Based 2D $+ $ 3D AAM
CN107563323A (zh) 一种视频人脸特征点定位方法
Jones et al. Model-based matching by linear combinations of prototypes
Ye et al. 3d morphable face model for face animation
Teijeiro-Mosquera et al. Performance of active appearance model-based pose-robust face recognition
CN113255487A (zh) 一种三维实时人体姿态识别方法
Zhu et al. Real-time non-rigid shape recovery via active appearance models for augmented reality
Martins et al. Monocular head pose estimation
Azad et al. Accurate shape-based 6-dof pose estimation of single-colored objects
Bronte et al. Real-time sequential model-based non-rigid sfm
Martins et al. Single view head pose estimation
Guo et al. Photo-realistic face images synthesis for learning-based fine-scale 3D face reconstruction

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050208

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070320

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20070814