JP3414683B2 - 対象物の表面動き測定方法および装置、ならびに当該方法を実現するようコンピュータを動作させるためのプログラムを記憶したコンピュータ読取可能な記録媒体 - Google Patents

対象物の表面動き測定方法および装置、ならびに当該方法を実現するようコンピュータを動作させるためのプログラムを記憶したコンピュータ読取可能な記録媒体

Info

Publication number
JP3414683B2
JP3414683B2 JP32536299A JP32536299A JP3414683B2 JP 3414683 B2 JP3414683 B2 JP 3414683B2 JP 32536299 A JP32536299 A JP 32536299A JP 32536299 A JP32536299 A JP 32536299A JP 3414683 B2 JP3414683 B2 JP 3414683B2
Authority
JP
Japan
Prior art keywords
image
image frame
mesh model
node
coarse mesh
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP32536299A
Other languages
English (en)
Other versions
JP2001143088A (ja
Inventor
クリスチャン・クロス
エリック・バティキオティス・ベイツン
尚明 倉立
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ATR Advanced Telecommunications Research Institute International
Original Assignee
ATR Advanced Telecommunications Research Institute International
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ATR Advanced Telecommunications Research Institute International filed Critical ATR Advanced Telecommunications Research Institute International
Priority to JP32536299A priority Critical patent/JP3414683B2/ja
Priority to US09/712,250 priority patent/US6931145B1/en
Publication of JP2001143088A publication Critical patent/JP2001143088A/ja
Application granted granted Critical
Publication of JP3414683B2 publication Critical patent/JP3414683B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/207Analysis of motion for motion estimation over a hierarchy of resolutions

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】この発明は人物の表情を測定
する処理に関し、特に、ビデオカメラ等から得られた画
像中の人物の表情をリアルタイムで測定するための画像
認識の分野に関する。
【0002】
【従来の技術】人間の間のコミュニケーション手段とし
て、人物の顔の表情というのは非常に重要である。同様
に、いわゆるマン−マシンインタフェースにおいても人
物の表情は非常に大きな意味を持つ。
【0003】人物の表情は、人と人とが相対面して会話
するときには様々なレベルの情報を伝達する。伝達され
る情報は、その人の感情の状態、会話における立場を含
み、さらに発話中には、発声される言語音に関する音声
上の特徴などに関する豊富な情報を含む。
【0004】従来、ビデオ画像から人物の表情を分析す
るための試みが様々になされて来たが、ほとんどは定量
的な評価を用いないものか、定量的な評価をしたとして
も予め定められた非常に限定された顔の特徴に関する限
定された定量的評価しか用いないものであった。もちろ
んそうした従来技術を用いても有用な結果を得ることは
できるが、従来技術によればフレームごとに煩雑な検査
をすることが必要であり、しかもたとえば人物の表情の
動的属性を符号化することを考えた場合、十分に正確に
表情の動きを測定することはできない。
【0005】一方、人物の顔に直接張り付けたマーカを
追跡することで、人物の顔の各部位の三次元的位置を正
確に測定するための技術も存在している。しかしこうし
た技術は以下のような欠点を有する。
【0006】(1) 測定のための機器が専用のもので
あって汎用性がなく、用途が限定されている。また、顔
に直接マーカを張り付けるという、被験者にとっては不
愉快な作業が必要なため、被験者の協力が不可欠であ
る。さらに、この方法は設備が完備した場所、たとえば
研究室内では使用できるが、一旦外部に出ればほとんど
不可能である。
【0007】(2) 人物の顔にマーカを取り付けるこ
とが可能な位置の数が限定されるので、どの箇所にマー
カを取り付ければ最も効率良く正確な測定ができるかを
知る必要がある。しかし現在のところ、どこにマーカを
取り付けることが最適かについて知る方法はない。
【0008】
【発明が解決しようとする課題】人物の表情を測定する
もう一つのアプローチは、人物の顔のビデオ画像から表
情を定量的に表す情報を得ることである。ビデオ撮影は
撮影機器さえあれば可能であり、人物の顔にマーカを付
す必要もないので、上記した従来技術にまつわる問題を
解消することが可能である。
【0009】しかし、ビデオ画像を用いたアプローチで
は、撮影時に3次元情報を2次元情報に変換することに
よる画像の歪み、空間的解像度が低いこと、および照明
状態による効果が非線形的であること、など多くの問題
がある。また、こうした問題は人物の表情を測定する上
で重要なことではあるが、人物以外の対象物の表面の動
き、たとえば人物以外の動物の表情、物体の歪み、など
の定量的な測定においても重要であり、これらにおいて
も同様の問題の解決が望まれる。
【0010】それゆえに本発明の目的は、ビデオ画像か
ら、信頼性高くかつリアルタイムで人物などの対象物の
表面の動きに関する定量的な情報を抽出することができ
る表面動き測定装置、そのための方法および当該方法を
コンピュータを用いて実現するためのプログラムを記録
した記録媒体を提供することである。
【0011】この発明の他の目的は、ビデオ画像から、
信頼性高くかつリアルタイムで対象物の表面の各部位の
移動に関する定量的な情報を抽出することができる表面
動き測定装置、そのための方法および当該方法をコンピ
ュータを用いて実現するためのプログラムを記録した記
録媒体を提供することである。
【0012】この発明のさらに他の目的は、ビデオ画像
から、対象物の表面のどの部位に関しても信頼性高くか
つリアルタイムでその移動に関する定量的な情報を抽出
することができる表面動き測定装置、そのための方法お
よび当該方法をコンピュータを用いて実現するためのプ
ログラムを記録した記録媒体を提供することである。
【0013】
【課題を解決するための手段】請求項1に記載の発明に
かかる表面動き測定方法は、先行する第1の画像フレー
ムおよび第1の画像フレームより後の第2の画像フレー
ムを含む、対象物の画像フレームのシーケンスから、対
象物の表面の各部位の動きを測定するための表面動き測
定方法であって、相互の隣接関係が定められた複数個の
ノードを含むメッシュモデルによって第1の画像フレー
ムの画像内の対象物の表面の各部位の位置を表現するス
テップと、予め定められた複数通りの解像度で第1の画
像フレームの画像および第2の画像フレームの画像を各
々複数個のサブバンド画像に変換するステップと、メッ
シュモデルから、メッシュモデルのノード密度より低
く、かつ互いに異なるノード密度を有する複数個の粗メ
ッシュモデルを生成するステップと、複数個の粗メッシ
ュモデルは、それぞれ複数個のサブバンド画像と対応付
けられており、第1の画像フレームおよび第2の画像フ
レームの各々の複数個のサブバンド画像に対してそれぞ
れ複数個の粗メッシュモデルのうちの対応するものを重
ねたオーバレイ画像を得るステップと、第1の画像フレ
ームおよび第2の画像フレームの、それぞれ対応するサ
ブバンド画像から得られたオーバレイ画像のテクスチャ
マップのクロス相関を計算することにより、第2の画像
フレームのメッシュモデルの各ノードと、第1の画像フ
レームのメッシュモデルの各ノードとを対応付け、各ノ
ードの第1の画像フレームから第2の画像フレームの間
の相対的位置変化を算出するステップとを含む。
【0014】請求項1に記載の発明によれば、サブバン
ド画像の異なるレベルごとに、対応する粗メッシュモデ
ルを用いて第2の画像フレームの各ノードと、第1の画
像フレームの各ノードとの対応関係が得られる。このと
き、サブバンド画像と粗メッシュモデルのノード密度が
対応しているために、顔の各部位について大きな動きは
最も低いノード密度の粗メッシュモデルで位置を算出で
き、より細かい動きについてはより高いノード密度の粗
メッシュモデルで位置を算出できる。その結果、動きの
大小にかかわらず画像フレームから対象物の表面部位の
動きを算出することができる表面動き測定方法を提供で
きる。
【0015】請求項2に記載の発明にかかる表面動き測
定方法は、請求項1に記載の発明の構成に加えて、算出
するステップは、第1の画像フレームおよび第2の画像
フレームの、第1のサブバンド画像から得られたオーバ
レイ画像のテクスチャマップのクロス相関計算を行なう
ことにより、第2の画像フレームの第1のサブバンド画
像に対応する第1の粗メッシュモデルの各ノードと、第
1の画像フレームの第1のサブバンド画像に対応する第
1の粗メッシュモデルの各ノードとを対応付け、第1の
粗メッシュモデルの各ノードの第1の画像フレームから
第2の画像フレームの間の相対的位置変化を算出するス
テップと、第2の画像フレームの、第1の粗メッシュモ
デルよりも高いノード密度を有する第2の粗メッシュモ
デルに対して、第1の粗メッシュモデルの各ノードの位
置変化に応じた変形を行なうステップと、第2の粗メッ
シュモデルは、第1のサブバンド画像よりも高い空間周
波数を有する第2のサブバンド画像に対応するものであ
り、第1の画像フレームおよび第2の画像フレームの、
第2のサブバンド画像から得られたオーバレイ画像のテ
クスチャマップのクロス相関計算を行なうことにより、
第2の画像フレームの第1のサブバンド画像に対応する
第2の粗メッシュモデルの各ノードと、第1の画像フレ
ームの第2のサブバンド画像に対応する第2の粗メッシ
ュモデルの各ノードとを対応付け、第2の粗メッシュモ
デルの各ノードの第1の画像フレームから第2の画像フ
レームの間の相対的位置変化を算出するステップとを含
む。
【0016】請求項2に記載の発明によれば、請求項1
に記載の発明の作用に加えて、低いノード密度の粗メッ
シュモデルを用いて得られた第2の画像フレームの画像
の各部位の動きにより、より高い密度の粗メッシュモデ
ルを用いた各部位の動きの算出時の初期の粗メッシュモ
デルの各ノードのおおまかな位置を推定し予め変形でき
る。そのため、この高い密度の粗メッシュモデルを用い
て行なうクロス相関における計算量が減少し、高速に各
部位の位置を算出することができる。
【0017】請求項3に記載の発明にかかるコンピュー
タ読取可能な記録媒体は、先行する第1の画像フレーム
および第1の画像フレームより後の第2の画像フレーム
を含む、対象物の画像フレームのシーケンスから、対象
物の表面の各部位の動きを測定するための表面動き測定
方法を実現するようコンピュータを動作させるためのプ
ログラムを記憶した、コンピュータ読取可能な記録媒体
であって、表面動き測定方法は、相互の隣接関係が定め
られた複数個のノードを含むメッシュモデルによって第
1の画像フレームの画像内の対象物の表面の各部位の位
置を表現するステップと、予め定められた複数通りの解
像度で第1の画像フレームの画像および第2の画像フレ
ームの画像を各々複数個のサブバンド画像に変換するス
テップと、メッシュモデルから、メッシュモデルのノー
ド密度より低く、かつ互いに異なるノード密度を有する
複数個の粗メッシュモデルを生成するステップと、複数
個の粗メッシュモデルは、それぞれ複数個のサブバンド
画像と対応付けられており、第1の画像フレームおよび
第2の画像フレームの各々の複数個のサブバンド画像に
対してそれぞれ複数個の粗メッシュモデルのうちの対応
するものを重ねたオーバレイ画像を得るステップとを含
む。
【0018】請求項3に記載の発明によれば、サブバン
ド画像の異なるレベルごとに、対応する粗メッシュモデ
ルを用いて第2の画像フレームの各ノードと、第1の画
像フレームの各ノードとの対応関係が得られる。このと
き、サブバンド画像と粗メッシュモデルのノード密度が
対応しているために、顔の各部位について大きな動きは
最も低いノード密度の粗メッシュモデルで位置を算出で
き、より細かい動きについてはより高いノード密度の粗
メッシュモデルで位置を算出できる。その結果、動きの
大小にかかわらず画像フレームから対象物の表面部位の
動きを算出することができるコンピュータ読取可能な記
録媒体を提供できる。
【0019】請求項4に記載の発明にかかるコンピュー
タ読取可能な記録媒体は、請求項3に記載の発明の構成
に加えて、算出するステップは、第1の画像フレームお
よび第2の画像フレームの、第1のサブバンド画像から
得られたオーバレイ画像のテクスチャマップのクロス相
関計算を行なうことにより、第2の画像フレームの第1
のサブバンド画像に対応する第1の粗メッシュモデルの
各ノードと、第1の画像フレームの第1のサブバンド画
像に対応する第1の粗メッシュモデルの各ノードとを対
応付け、第1の粗メッシュモデルの各ノードの第1の画
像フレームから第2の画像フレームの間の相対的位置変
化を算出するステップと、第2の画像フレームの、第1
の粗メッシュモデルよりも高いノード密度を有する第2
の粗メッシュモデルに対して、第1の粗メッシュモデル
の各ノードの位置変化に応じた変形を行なうステップ
と、第2の粗メッシュモデルは、第1のサブバンド画像
よりも高い空間周波数を有する第2のサブバンド画像に
対応するものであり、第1の画像フレームおよび第2の
画像フレームの、第2のサブバンド画像から得られたオ
ーバレイ画像のテクスチャマップのクロス相関計算を行
なうことにより、第2の画像フレームの第1のサブバン
ド画像に対応する第2の粗メッシュモデルの各ノード
と、第1の画像フレームの第2のサブバンド画像に対応
する第2の粗メッシュモデルの各ノードとを対応付け、
第2の粗メッシュモデルの各ノードの第1の画像フレー
ムから第2の画像フレームの間の相対的位置変化を算出
するステップとを含む。
【0020】請求項4に記載の発明によれば、請求項3
に記載の発明の作用に加えて、低いノード密度の粗メッ
シュモデルを用いて得られた第2の画像フレームの画像
の各部位の動きにより、より高い密度の粗メッシュモデ
ルを用いた各部位の動きの算出時の初期の粗メッシュモ
デルの各ノードのおおまかな位置を推定し予め変形でき
る。そのため、この高い密度の粗メッシュモデルを用い
て行なうクロス相関における計算量が減少し、高速に各
部位の位置を算出することができる。
【0021】請求項5に記載の発明にかかる表面動き測
定装置は、先行する第1の画像フレームおよび第1の画
像フレームより後の第2の画像フレームを含む、対象物
の画像フレームのシーケンスから、対象物の表面の各部
位の動きを測定するための表面動き測定装置であって、
相互の隣接関係が定められた複数個のノードを含むメッ
シュモデルによって第1の画像フレームの画像内の対象
物の表面の各部位の位置を表現するための手段と、予め
定められた複数通りの解像度で第1の画像フレームの画
像および第2の画像フレームの画像を各々複数個のサブ
バンド画像に変換するための手段と、メッシュモデルか
ら、メッシュモデルのノード密度より低く、かつ互いに
異なるノード密度を有する複数個の粗メッシュモデルを
生成するための手段と、複数個の粗メッシュモデルは、
それぞれ複数個のサブバンド画像と対応付けられてお
り、第1の画像フレームおよび第2の画像フレームの各
々の複数個のサブバンド画像に対してそれぞれ複数個の
粗メッシュモデルのうちの対応するものを重ねたオーバ
レイ画像を得るための手段と、第1の画像フレームおよ
び第2の画像フレームの、それぞれ対応するサブバンド
画像から得られたオーバレイ画像のテクスチャマップの
クロス相関を計算することにより、第2の画像フレーム
のメッシュモデルの各ノードと、第1の画像フレームの
メッシュモデルの各ノードとを対応付け、各ノードの第
1の画像フレームから第2の画像フレームの間の相対的
位置変化を算出するための手段とを含む。
【0022】請求項5に記載の発明によれば、サブバン
ド画像の異なるレベルごとに、対応する粗メッシュモデ
ルを用いて第2の画像フレームの各ノードと、第1の画
像フレームの各ノードとの対応関係が得られる。このと
き、サブバンド画像と粗メッシュモデルのノード密度が
対応しているために、顔の各部位について大きな動きは
最も低いノード密度の粗メッシュモデルで位置を算出で
き、より細かい動きについてはより高いノード密度の粗
メッシュモデルで位置を算出できる。その結果、動きの
大小にかかわらず画像フレームから対象物の表面部位の
動きを算出することができる表面動き測定装置を提供で
きる。
【0023】請求項6に記載の発明にかかる表面動き測
定装置は、請求項5に記載の発明の構成に加えて、算出
するための手段は、第1の画像フレームおよび第2の画
像フレームの、第1のサブバンド画像から得られたオー
バレイ画像のテクスチャマップのクロス相関計算を行な
うことにより、第2の画像フレームの第1のサブバンド
画像に対応する第1の粗メッシュモデルの各ノードと、
第1の画像フレームの第1のサブバンド画像に対応する
第1の粗メッシュモデルの各ノードとを対応付け、第1
の粗メッシュモデルの各ノードの第1の画像フレームか
ら第2の画像フレームの間の相対的位置変化を算出する
ための手段と、第2の画像フレームの、第1の粗メッシ
ュモデルよりも高いノード密度を有する第2の粗メッシ
ュモデルに対して、第1の粗メッシュモデルの各ノード
の位置変化に応じた変形を行なうための手段と、第2の
粗メッシュモデルは、第1のサブバンド画像よりも高い
空間周波数を有する第2のサブバンド画像に対応するも
のであり、第1の画像フレームおよび第2の画像フレー
ムの、第2のサブバンド画像から得られたオーバレイ画
像のテクスチャマップのクロス相関計算を行なうことに
より、第2の画像フレームの第1のサブバンド画像に対
応する第2の粗メッシュモデルの各ノードと、第1の画
像フレームの第2のサブバンド画像に対応する第2の粗
メッシュモデルの各ノードとを対応付け、第2の粗メッ
シュモデルの各ノードの第1の画像フレームから第2の
画像フレームの間の相対的位置変化を算出するための手
段とを含む。
【0024】請求項6に記載の発明によれば、請求項5
に記載の発明の作用に加えて、低いノード密度の粗メッ
シュモデルを用いて得られた第2の画像フレームの画像
の各部位の動きにより、より高い密度の粗メッシュモデ
ルを用いた各部位の動きの算出時の初期の粗メッシュモ
デルの各ノードのおおまかな位置を推定し予め変形でき
る。そのため、この高い密度の粗メッシュモデルを用い
て行なうクロス相関における計算量が減少し、高速に各
部位の位置を算出することができる。
【0025】
【発明の実施の形態】以下、本発明の実施の形態1にか
かる表情測定装置について説明する。この表情測定装置
は、パーソナルコンピュータまたはワークステーション
等、コンピュータ上で実行されるソフトウェアにより実
現されるものであって、人物の顔のビデオ画像から、人
物の顔の各部の動き(表情)を測定するためのものであ
る。図1に、この表情測定装置の外観を示す。
【0026】図1を参照してこのシステム20は、CD
−ROM(Compact Disc Read-OnlyMemory )ドライブ
50およびFD(Flexible Disk )ドライブ52を備え
たコンピュータ本体40と、コンピュータ本体40に接
続された表示装置としてのディスプレイ42と、同じく
コンピュータ本体40に接続された入力装置としてのキ
ーボード46およびマウス48と、コンピュータ本体4
0に接続された、画像を取込むためのビデオカメラ30
とを含む。この実施の形態の装置では、ビデオカメラ3
0としてはCCD(固体撮像素子)を含むビデオカメラ
を用い、ビデオカメラ30の前の人物の表情を測定する
処理を行うものとする。
【0027】図2に、このシステム20の構成をブロッ
ク図形式で示す。図2に示されるようにこのシステム2
0を構成するコンピュータ本体40は、CD−ROMド
ライブ50およびFDドライブ52に加えて、それぞれ
バス66に接続されたCPU(Central Processing Uni
t )56と、ROM(Read Only Memory) 58と、RAM
(Random Access Memory)60と、ハードディスク54
と、ビデオカメラ30からの画像を取込むための画像取
込装置68とを含んでいる。CD−ROMドライブ50
にはCD−ROM62が装着される。FDドライブ52
にはFD64が装着される。
【0028】既に述べたようにこの表情測定装置の主要
部は、コンピュータハードウェアと、CPU56により
実行されるソフトウェアとにより実現される。一般的に
こうしたソフトウェアはCD−ROM62、FD64等
の記憶媒体に格納されて流通し、CD−ROMドライブ
50またはFDドライブ52等により記憶媒体から読取
られてハードディスク54に一旦格納される。または、
当該装置がネットワークに接続されている場合には、ネ
ットワーク上のサーバから一旦ハードディスク54に一
旦コピーされる。そうしてさらにハードディスク54か
らRAM60に読出されてCPU56により実行され
る。なお、ネットワーク接続されている場合には、ハー
ドディスク54に格納することなくRAM60に直接ロ
ードして実行するようにしてもよい。
【0029】図1および図2に示したコンピュータのハ
ードウェア自体およびその動作原理は一般的なものであ
る。したがって、本発明の最も本質的な部分はFDドラ
イブ52、FD64、ハードディスク54等の記憶媒体
に記憶されたソフトウェアである。
【0030】なお、最近の一般的傾向として、コンピュ
ータのオペレーティングシステムの一部として様々なプ
ログラムモジュールを用意しておき、アプリケーション
プログラムはこれらモジュールを所定の配列で必要な時
に呼び出して処理を進める方式が一般的である。そうし
た場合、当該表情測定装置を実現するためのソフトウェ
ア自体にはそうしたモジュールは含まれず、当該コンピ
ュータでオペレーティングシステムと協働してはじめて
表情測定装置が実現することになる。しかし、一般的な
プラットフォームを使用する限り、そうしたモジュール
を含ませたソフトウェアを流通させる必要はなく、それ
らモジュールを含まないソフトウェア自体およびそれら
ソフトウェアを記録した記録媒体(およびそれらソフト
ウェアがネットワーク上を流通する場合のデータ信号)
が実施の形態を構成すると考えることができる。
【0031】上記したように、本願発明は実質的にはソ
フトウェア処理によって実現される。本実施の形態の装
置において人物の顔の動き(表情)を測定する処理を行
なうソフトウェアは以下のような制御構造を有する。
【0032】図3を参照して、まずモーショントラッキ
ングのための種々の準備を実行する初期処理を行なう
(80)。初期処理の内容に関しては図4を参照して後
述するが、特にここでは後の人物の顔の各部位の動きを
測定するための、人物の顔の基準画像が決定される。ま
たこの初期処理では、基準画像の顔領域にフィットす
る、メッシュが付与される楕円が決定される。初期処理
が完了した後、ビデオ画像の1フレームを取り込んでフ
レームごとの処理(モーショントラッキング)を行な
い、基準フレームに対する現フレームにおける人物の顔
の各部位を示す情報を出力する(82)。続いてビデオ
画像の全フレームが終了したか否かを判定する(8
4)。フレームの入力がこれ以後なければ処理を終了
し、次のフレームがあれば再びステップ82以下の処理
を繰返す。
【0033】こうして、ステップ82によって基準フレ
ームに対する現フレームの顔画像の各部位の動きを表す
情報が時系列的に得られる。入力されるフレームごとに
結果が得られるので、このシステムはリアルタイムにビ
デオ画像から人物の表情を測定する処理に適している。
【0034】図4を参照して、図3のステップ80で行
なわれる初期処理は以下の手順で実現される。まず、図
1に示すビデオカメラ30からのビデオ画像の1フレー
ムが読込まれる(90)。ここでは、予め撮影された画
像に対して処理を行なうものとし、ステップ90ではこ
のうちの最初のいくつかのフレームが読込まれるものと
する。なお、ここで入力されるビデオ画像はどのような
フォーマットのものでもよく、またカラー画像でもグレ
ースケール画像でも同様の効果を得ることができる。
【0035】ステップ92では、これら読込まれたフレ
ームの中からどのフレームの画像を基準画像とするかが
決定される。このフレームの選択は、通常のコンピュー
タにおけるユーザインタラクションを用いてオペレータ
により行なわれる。ここで選択されたフレームを以下
「基準フレーム」と呼ぶ。基準フレームは、この後の分
析による顔の各部位の位置に対する基準となる。なお、
この実施の形態では基準フレームをオペレータが選択す
ることとしているが、何らかの基準を設けることによっ
て基準フレームを自動的に決定するようにしてもよい。
【0036】次に、基準フレームの顔画像に対して、そ
の輪郭を決定する処理が行なわれる(94)。本実施の
形態の装置では輪郭はオペレータによって、少なくとも
画像のうち4点を指定することによって決定される。5
点を指定した様子を図9に示す。図9において、指定さ
れた5点は周囲に黒い枠を付けた白抜きの「+」印で表
されている。これら5点のうち2点は耳たぶ付近、他の
2点は画面の上端近く、最後の1点はあご先である。
【0037】これらの点が指定されると、所定のアルゴ
リズムによってこれらの点に最もよくフィットする楕円
の中心が決定される(96)。この処理にはDownhill s
implex minimization method(目標値との差を、制御対
象の属性(位置、大きさ、その他の属性一般)を決定す
るパラメータの関数として表し、このずれが最小となる
ようにパラメータを定める方法)を用いる。決定された
楕円の例を図10に示す。
【0038】この楕円は、その短軸の方向が両目の目尻
を結ぶ線の方向と一致するように整列される。このため
にステップ98で目尻をマーキングする処理がオペレー
タにより行なわれる。このようにして楕円の両軸を決定
することにより、後述するメッシュモデルの方向が決定
される。またこのようにして顔領域を決定する場合、被
験者が変わっても一貫した結果を得ることができる。
【0039】こうして初期の楕円の両軸を決定したの
ち、再度ステップ96で行なった処理と類似の最適化法
によって楕円の角度、位置、大きさなどを最適化するた
めの微調整が行なわれる(100)。この処理によっ
て、人物の顔領域とよく一致するようにその大きさと方
向とが決定された楕円が得られる。
【0040】この段階でのアプローチには2つの主な特
徴がある。第1に、最終的に得られる楕円に対する、顔
の輪郭点のうちの特異的な点による影響が最低におさえ
られる。第2に、顔領域の一部が画面の外にはみ出して
いても、顔領域を正確に指定することができる。
【0041】こうして顔領域にフィットする楕円が決定
されると、予め設定可能な一連の初期値と、基準画像の
顔領域から決定された楕円を特定するパラメータとを用
いて、3次元のメッシュモデルの初期値が計算される。
3次元メッシュモデルの例を図11に示す。このメッシ
ュモデルは、3次元の回転楕円体の表面に分布するノー
ドの集合として定義される。各ノードは、楕円の表面上
に所定間隔でメッシュをなして配置されるものとする。
このメッシュモデルを顔画像に重畳して示したのが図1
2である。このメッシュモデルの各ノードの位置によっ
て、人物の顔の各部位の3次元位置が表される。
【0042】この場合、最も留意すべきパラメータは、
各メッシュノードの間に平均していくつの画素を配置す
るか、ということである。この数によって、最終的に測
定される顔の各部位の位置の解像度が決定され、また後
述するウェーブレット変換によって分析が行なわれる空
間周波数の範囲が決定されるためである。
【0043】以上によって、顔の各部位の動きを測定す
るための基本的準備は完了である。ただし、撮影に用い
られるビデオ画像の光学的パラメータ(焦点距離など)
によって画像には歪みが生じうるので、それらを補償す
るためにビデオカメラの射影幾何学的データを読込む
(102)。また、人物がその表情を変化させる際に
は、頭の動きを伴うのが通常である。頭が動くと、必然
的に顔領域も動くので、顔の各部位の動きを正確に測定
するためには頭の動きを測定し頭の動きによる顔領域の
動きを補償しなければならない。そのための頭の基準位
置をステップ104で読込む。なお頭の位置を測定する
ために、以下で説明する実施例では頭部にそのためのセ
ンサを装着している。しかしこの発明はそれには限定さ
れず、ビデオ画像から直接に頭部の動きを検出するよう
にしてもよい。
【0044】さて、次に図3のステップ82で行なわれ
る各フレームごとのモーショントラッキング処理につい
て説明する。このモーショントラッキング処理は、基本
的にはフレーム間の顔面の小部分の位置の変化をそれぞ
れ決定することにより1フレームずつ行なわれる。図5
を参照して、まず処理対象のフレーム(これを以下の説
明では「フレームn」とする。)を読込む(110)。
【0045】ステップ112で、読込まれたフレームn
の画像を構成する全画素に対して、多重解像度の2次元
離散ウェーブレット変換(DWT)を施す(112)。
この処理はちょうど、図13に示されるようにローパス
フィルタとハイパスフィルタとの対からなる多階層の、
かつその特性が分析の目的にしたがって調整できるフィ
ルタバンクをフレームnの画像を通していく処理に相当
する。この装置では、コンパクト台を持つスプラインウ
ェーブレットによる二重直交方式に対応するフィルタを
使用する。
【0046】二次元DWT方式は4つの出力を持つ。第
1は、信号の低周波数成分を含むいわゆる「近似」出力
であって、これは次に一レベル下のウェーブレット変換
に対する入力となっている。第2〜第4は、いわゆる
「詳細」または「サブバンド」出力であって、これらは
高周波数成分を含む。サブバンド出力は、対角方向、水
平方向、および垂直方向の3つである。もとの画像イメ
ージ(グレースケール)と、各レベルの近似およびサブ
バンド出力の関係を図13に示す。サブバンド出力は、
各レベルにおけるハイパスフィルタの出力である。
【0047】近似出力を得るためには、入力信号の画像
のマトリクスを、行方向および列方向の双方に関してロ
ーパスフィルタに通す。対角方向サブバンド出力を得る
ためには、同じプロセスをハイパスフィルタを用いて行
なう。垂直方向サブバンド出力を得るためには、入力信
号の画像のマトリクスを、行に沿ってハイパスフィルタ
に、列に沿ってローパスフィルタに、それぞれ通す。水
平方向サブバンド出力を得るためには、垂直方向サブバ
ンド出力のときのフィルタを入れ替える。本実施の形態
では、DWTの各レベルで3つのサブバンド出力のみを
用いる。
【0048】再び図5を参照して、続いてフレームnに
対するメッシュモデルをフレームn−1に対して得られ
たメッシュモデルから作成する(114)。次に、ステ
ップ114で得られたメッシュモデルと、前フレームに
対して最終的に得られたメッシュモデルとを、フレーム
nに対して得られた頭の動きを補正するようにして画像
平面に射影する(116)。さらにステップ118とス
テップ120とによって、ウェーブレット変換の各レベ
ルに対して図6に示す後述処理を繰返して行なう。
【0049】ステップ118の処理をウェーブレット変
換の全レベルに対して行なうと、画像平面上でフレーム
nのどのノードがフレームn−1のどのノードに対応す
るかを表す情報が得られている。この情報から、フレー
ムnにおいて、顔領域の各部位が基準フレームの対応す
る部位に対してどれくらい移動しているかを判定するこ
とができる。この情報は二次元であるから、これをもと
の顔領域に対応する3次元の値に逆射影する(12
2)。これにより、フレームnでの顔の各部位の3次元
的位置が確定する。
【0050】続いて、次のフレームに対するステップ1
16の処理で使用するため、こうして求められたフレー
ムnのメッシュモデルを保存し、フレームnのメッシュ
モデルの各ノードの位置データを出力して(126)こ
のフレームnに対するモーショントラッキング処理を終
了する。
【0051】次に、図6を参照して、図5のステップ1
18で行なわれるウェーブレット変換の各レベルごとの
処理について説明する。まず、メッシュモデルのノード
数をウェーブレット変換のレベルにあわせて少なくする
(130)。このようにノードの密度が低くされたメッ
シュモデルをこの明細書では「粗メッシュモデル」と呼
ぶこととする。本実施の形態では各レベルで用いられる
ノードの密度は、レベルが1下がると1/2倍となるよ
うに選ばれている。処理はレベル1から始められる。な
お図13に示すウェーブレット変換では、レベル5が最
も高いレベルであり、レベル数が小さくなるにしたがっ
てレベルは下がるものとする。レベルが上がるほど、ウ
ェーブレット変換後の画像の空間周波数は高い。ただし
以下の説明では簡略にするためレベルが3つの場合を想
定する。
【0052】ここでの基本的考え方は以下のとおりであ
る。ノード密度の低い粗メッシュモデルを用いて、フレ
ームnのウェーブレット変換後の画像の各ノードと、フ
レームn−1のウェーブレット変換後の画像の各ノード
との間の相関を計算することにより、2画像間での各ノ
ードの対応関係が分かる。ノード密度が低いので、この
処理により顔の各部位の比較的大きい動きが検出でき
る。ここでは、大きな動きは顔の大きい領域に影響を及
ぼすということを仮定している。
【0053】次に、上記したように検出されたノード密
度の低い粗メッシュモデルの各ノードの動きに基づい
て、よりノード密度の高い粗メッシュモデルの各ノード
の概略の位置が判定できる。特に、ノード密度の低い粗
メッシュモデルには存在していないがノード密度の高い
粗メッシュモデルには存在しているノードについては、
ノード密度の低い粗メッシュモデルの各ノードの位置を
補間することにより、その位置が推定できる。こうして
得られたよりノード密度の高い粗メッシュモデルを、対
応するレベルのウェーブレット変換画像に重ねて再度フ
レームn−1の対応するレベルのウェーブレット変換画
像および粗メッシュモデルとのクロス相関を計算するこ
とにより、このレベルでの各ノードの前フレームn−1
からの動きが検出できる。
【0054】こうした処理を最も高いレベルから最も低
いレベルまで順に行なうことにより、最終的に顔の各部
位の位置を細かい単位で検出することができる。
【0055】この処理を実現するために、この「ウェー
ブレット変換の各レベルごとの処理」ではレベルの高い
ものから順にレベルを下げて処理を行なうようにし、か
つ、前のレベルで得られたメッシュ密度の低い粗メッシ
ュモデルを次のレベルのスタート時の粗メッシュモデル
の作成に使用するようにしている。
【0056】再び図6を参照して、ステップ130で処
理対象のレベルに応じてメッシュノードの濃度を下げた
メッシュノードに対して次に述べる処理を行なう。
【0057】ステップ132で、フレームnの画像に対
するこのレベルのウェーブレット変換のサブバンド画像
にこの粗メッシュモデルを重ね、フレームn−1のサブ
バンド画像に対するこのレベルのウェーブレット変換画
像にフレームn−1の粗メッシュモデルを重ねてオーバ
レイ画像を得る。
【0058】次に、ステップ134およびステップ13
6によって、粗メッシュモデルに含まれる各ノードごと
に後述する処理を行なってノード間の対応関係を定め
る。
【0059】全てのノードについて上記した処理をおこ
なって、フレームnの各ノードの位置を定められた対応
関係にしたがって移動させることにより粗メッシュモデ
ルを変形させる(138)。
【0060】こうして得られた変形後の粗メッシュモデ
ルについて、中間ノードの位置を補間によって計算し中
間ノードを挿入する(140)。こうして得られた粗メ
ッシュモデルが次のレベルでの処理に用いられる。これ
によりこの処理は終了する。
【0061】図6のステップ134で各メッシュノード
ごとに行なわれる処理は図7のとおりである。
【0062】まず、探索セグメントを決定する(15
0)。動き検出は、二つの連続する画像の顔のテクスチ
ャマップを用いた2次元的相関計算により行なわれるの
で、そのために各メッシュノードの周辺の領域を適切に
規定することが必要である。この領域を探索セグメント
と呼ぶ。この実施の形態では、図8の上に示すように、
フレームnのメッシュモデルのあるノード170に関連
する探索セグメント160は、ノード170に隣接する
4つのノード172、174、176および178によ
り囲まれるポリゴン180である。
【0063】サブサンプリングしないDWTによって、
画像の各画素に対してある離散値(画素値)が計算され
る。上記したポリゴン180内の全画素の画素値によっ
て、探索セグメント160のテクスチャマップが決定さ
れる。
【0064】こうして決定された探索セグメントには、
次に隣接するフレーム内の対応する探索セグメントに対
して既に知られている変形にあわせるよう適合する処理
が施される(152)。すなわち、図8の上に示した探
索セグメント160が、隣接するフレームの対応する探
索セグメント162と同じように変形される。この場合
の適合処理は、各ポリゴン180を構成する要素182
を単位として行なわれる。
【0065】この変形は、隣接するノードがそれぞれ異
なる動きをすることにより生ずると考えられる。この要
因としては二つ考えられる。第1は頭部の動きによるも
のである。頭部の動きは画像面と平行とはいえないこと
が多いので、各ノードの動きにずれが生じる。第2は前
のウェーブレットレベルにおける、より粗な粗メッシュ
モデルによるモーショントラッキングの結果補間された
ノード座標によって生じるものである。大きな変形は主
としてこの第2の要因によって生じるものと考えられ、
本発明においては口をあけたときなどの、大きな変形に
対処するためにステップ140で採用されたものであ
る。この変形(およびそれに伴う適合化処理)を考慮し
ないと、口をあけた場合の口の内部などには信頼のおけ
るテクスチャマップが存在しないために大きな誤差を生
じるおそれがある。
【0066】続いて、ステップ154で各サブバンドご
とにフレームnとフレームn−1との各ノードの探索セ
グメントに対応するテクスチャマップ間の相関計算が行
なわれ、全サブバンドについて合計される。この相関計
算によりノードの対応関係が得られ、その結果実際の顔
の各部位(ノード)の位置の測定が行なわれたことにな
る。より具体的には、上記したクロス相関の結果、フレ
ームnのある探索セグメントとフレームn−1のある探
索セグメントとが対応付けられ、フレームnのその探索
セグメントの中心ノードについてその移動量が決定され
る。これがそのノードの移動ベクトルとなる。
【0067】なおここで、フレームn−1において得ら
れた(変形された)粗メッシュモデルをフレームnの画
像に対して最初に適用することにより、顔の各部位の位
置はおおまかながら既に推定されていることに注意する
必要がある。すなわち、最も粗いレベルのウェーブレッ
ト変換によって頭部の動きによる影響が計算に入れら
れ、より密なレベルのウェーブレット変換では既にそれ
までに求められていた動きの影響が計算に入れられてい
る。
【0068】たとえば、あご大きく開いたり閉じたりし
た結果、あご先全体が動いたとして、その動きは既に最
も粗いレベルでは考慮され位置合わせが済んでいること
になり、そのためたとえばあご先に近い下唇の一部の探
索の開始位置はあご先の動きにあわせてずらされること
になる。
【0069】さらに、各部位の位置がほぼ予め推定でき
るだけでなく、探索セグメントの形状も予測でき、あわ
せてそのテクスチャマップがどのようなものとなってい
るかもほぼ予測が可能である。再度あごの大きな動きを
例にとると、ちょうど口角部分に存在する比較的小さな
探索セグメントの場合、そのテクスチャマップは非常に
大きな変化を被るであろう。上述したより粗いレベルで
のモーショントラッキングおよび適合処理の結果を用い
ることにより、この変化をほぼ予測することが可能とな
る。
【0070】上述のように、探索セグメントの位置を推
定するために、隣接する2つのフレームのサブバンド画
像のテクスチャマップに対するクロス相関を用いてい
る。このとき、前述のとおり各探索セグメントのおおま
かな位置は判明しているので、フレームnのある探索セ
グメントと、フレームn−1の全ての探索セグメントと
の相関を計算する必要はない。予め判明しているおおま
かな位置の周辺のみでよい。したがって密なレベルでの
相関計算の計算量が減少し、精度の高さと比較して高速
な判定を行なうことができる。計算による誤判定が生ず
るおそれも少なくなる。したがって、問題は、いかにし
てクロス相関の計算において、十分に精度高く、かつ計
算コストも低くなるような制約条件が課された動きベク
トルをどのようにして見い出すか、ということのみにな
る。
【0071】この問題に対する一つの解決は、探索ノー
ド内の各画素の位置を、探索ノードの中心に存在するノ
ードを原点とした相対座標で表すことである。これによ
って、たとえば隣接するノードがこの中心ノードから離
れている場合には動きベクトルによって検出できる動き
の大きさは大きくなり、探索ノードが全体として圧縮さ
れて隣接ノードが中心ノードに近い場合には小さなシフ
ト量しか検出できないことになる。加えて、中心ノード
に対して一方で隣接するノードが中心ノードから大きく
離れ、他方で中心ノードに隣接するノードが中心ノード
からそれほど離れていない場合にも同じ議論が成り立
つ。
【0072】この方法は、ビデオ画像の顔領域は連続性
を有しているという基本的性質を用いている。ほぼ同じ
間隔だけ間をおいたメッシュから分析を開始するので、
一旦大きな顔の動きにより大きく移動した部分も、やが
てほとんどもとの位置に戻ってくる可能性が高いという
ことを仮定することができる。またその逆も仮定でき
る。
【0073】以上の処理によって、入力される一連のビ
デオ画像から、人物の顔の各部位の動きをリアルタイム
で計算することができる。図14を用いて、再度上記し
た処理の全体的な流れを概観しておく。
【0074】まずフレームn−1のメッシュモデル20
0を、フレームn−1頭部の位置データなどを用いて画
像平面に射影する(210)。この射影210に対し、
最も粗いメッシュレベルの粗メッシュモデルを作成し
(212)、それを最も低いレベルのウェーブレット変
換のサブバンド画像に重ねてオーバレイ画像を得る(2
14)。同様の処理を2番目に粗い粗メッシュモデル
(222)および2番目のレベルのウェーブレット変換
のサブバンド画像(224)、ならびに最も密な粗メッ
シュレベルのメッシュモデル(232)および3番目の
レベルのウェーブレット変換のサブバンド画像に重ねる
(234)。ここまではフレームn−1のデータを用い
て行える処理である。
【0075】フレームnに対しては、まずフレームn−
1のメッシュモデル200を、フレームnの頭部の位置
座標データなどを用いて座標平面に射影する(24
0)。このメッシュモデル240から、最も粗い粗メッ
シュモデル(242)を作成し、それを最も空間周波数
の低いウェーブレット変換のサブバンド画像に重ねてオ
ーバレイ画像を得る(244)。このサブバンド画像2
44とフレームn−1のサブバンド画像214とのテク
スチャマップを用い、各探索セグメントの間でクロス相
関をとる(250)ことにより、フレームnの最も粗い
レベルでの各ノードの位置が推定される。
【0076】次に、こうして推定された最も粗いレベル
でのノードの移動を考慮して変形されたメッシュモデル
260を作成し、このメッシュモデル260のノード密
度を粗メッシュモデル242の2倍まで落として粗メッ
シュモデル262を作成する。この粗メッシュモデルを
2番目のレベルのウェーブレット変換のサブバンド画像
と重ね(264)、さらにフレームn−1のサブバンド
画像224との間でテクスチャマップを用いたクロス相
関計算をする(270)ことで各探索セグメントのクロ
ス計算を行なう。これにより、フレームnの2番目に粗
いレベルでの各ノードの位置が推定される。
【0077】次に、こうして推定された2番目に粗いレ
ベルでのノードの移動を考慮して変形されたメッシュモ
デル280を作成し、このメッシュモデル260のノー
ド密度を粗メッシュモデル262の2倍まで落とした粗
メッシュモデル282を作成する。この説明ではこの粗
メッシュモデル282が最も高いノード密度を有する。
この粗メッシュモデルを最も密なレベルの(最も空間周
波数の高い)ウェーブレット変換のサブバンド画像と重
ね(284)、さらにフレームn−1のサブバンド画像
234との間でテクスチャマップを用いた相関計算をす
ることで各探索セグメントのクロス相関計算を行なう
(290)。これにより、フレームnの最も密なレベル
での各ノードの位置が推定される。こうして得られた各
探索ノードの移動ベクトルを用いてもとのメッシュモデ
ル240を変形し(300)、3次元に逆射影すること
によりフレームnのメッシュモデルが得られる(30
2)。
【0078】なお、以上の実施の形態は人間の顔の各部
位の動きをビデオ画像から測定する機能を有するもので
ある。しかしこの発明はこれには限定されず、人間の顔
と同じように部分的に細かい動きを生ずるような物体、
動物などの表面の動きを測定する装置および方法一般に
適用することができる。
【0079】また、上の説明ではフレームごとに上記し
た処理を行なうこととしたが、飛越し走査をする画像信
号の場合には、フィールドごとに上記した処理を行なう
ようにしてもよい。
【0080】今回開示された実施の形態はすべての点で
例示であって制限的なものではないと考えられるべきで
ある。本発明の範囲は上記した説明ではなくて特許請求
の範囲によって示され、特許請求の範囲と均等の意味お
よび範囲内でのすべての変更が含まれることが意図され
る。
【図面の簡単な説明】
【図1】 本発明の実施の形態1にかかるシステムの外
観図である。
【図2】 本発明の実施の形態1にかかるシステムのハ
ードウェア的構成を示すブロック図である。
【図3】 本発明の実施の形態1にかかるシステムで実
行される処理の全体のフローチャートである。
【図4】 本発明の実施の形態1にかかるシステムで実
行される初期処理のフローチャートである。
【図5】 本発明の実施の形態1にかかるシステムで実
行されるモーショントラッキング処理のフローチャート
である。
【図6】 図5に示されるウェーブレット変換の各レベ
ルごとの処理をさらに詳細に示すフローチャートであ
る。
【図7】 図6に示される各メッシュノードごとの処理
をさらに詳細に示すフローチャートである。
【図8】 探索セグメントの適合処理を説明するための
図である。
【図9】 初期処理において人物の目尻を指定する処理
を示す図である。
【図10】 初期処理において、指定された人物の両目
尻から顔領域にフィットする楕円を推定し描いた状態を
示す図である。
【図11】 人物の顔にフィットされる回転楕円体と回
転楕円体に付与されるメッシュとを三次元的に示す図で
ある。
【図12】 人物の顔画像にメッシュが付与された回転
楕円体をフィットさせた状態を示す図である。
【図13】 ウェーブレット変換の各レベルで得られる
情報を示す図である。
【図14】 本願発明の実施の形態のシステムにおける
情報間の関係を示す図である。
【符号の説明】
20 表情測定装置、30 カメラ、40 コンピュー
タ本体、42 モニタ、160,162 探索領域、1
70,172,174,176,178 ノード、21
4,224,234,244,264,284 サブバ
ンド画像、212,222,232,242,262,
282 粗メッシュモデル。
───────────────────────────────────────────────────── フロントページの続き (72)発明者 倉立 尚明 京都府相楽郡精華町大字乾谷小字三平谷 5番地 株式会社エイ・ティ・アール人 間情報通信研究所内 (56)参考文献 三次元運動学に基づく顔面アニメーシ ョン,情報処理学会研究報告,日本, 1997年10月17日,Vol.97 No. 98,pp.31−36 最適ポリゴン近似と連続変形法による 3次元物体モデル生成法,電子情報通信 学会論文誌,日本,1999年 3月25日, Vol.J82−D−II No.3,p p.458−467 「顔」の情報処理,電子情報通信学会 論文誌,日本,1997年 8月25日,Vo l.J80−D−II No.8,pp. 2047−2065 (58)調査した分野(Int.Cl.7,DB名) G06T 7/20 H04N 7/133

Claims (6)

    (57)【特許請求の範囲】
  1. 【請求項1】 先行する第1の画像フレームおよび前記
    第1の画像フレームより後の第2の画像フレームを含
    む、対象物の画像フレームのシーケンスから、前記対象
    物の表面の各部位の動きを測定するための表面動き測定
    方法であって、 相互の隣接関係が定められた複数個のノードを含むメッ
    シュモデルによって前記第1の画像フレームの画像内の
    前記対象物の表面の各部位の位置を表現するステップ
    と、 予め定められた複数通りの解像度で前記第1の画像フレ
    ームの画像および前記第2の画像フレームの画像を各々
    複数個のサブバンド画像に変換するステップと、 前記メッシュモデルから、前記メッシュモデルのノード
    密度より低く、かつ互いに異なるノード密度を有する複
    数個の粗メッシュモデルを生成するステップと、前記複
    数個の粗メッシュモデルは、それぞれ前記複数個のサブ
    バンド画像と対応付けられており、 前記第1の画像フレームおよび前記第2の画像フレーム
    の各々の前記複数個のサブバンド画像に対してそれぞれ
    前記複数個の粗メッシュモデルのうちの対応するものを
    重ねたオーバレイ画像を得るステップと、 前記第1の画像フレームおよび前記第2の画像フレーム
    の、それぞれ対応するサブバンド画像から得られた前記
    オーバレイ画像のテクスチャマップのクロス相関を計算
    することにより、前記第2の画像フレームの前記メッシ
    ュモデルの各ノードと、前記第1の画像フレームの前記
    メッシュモデルの各ノードとを対応付け、各ノードの前
    記第1の画像フレームから前記第2の画像フレームの間
    の相対的位置変化を算出するステップとを含む、表面動
    き測定方法。
  2. 【請求項2】 前記算出するステップは、 前記第1の画像フレームおよび前記第2の画像フレーム
    の、第1のサブバンド画像から得られた前記オーバレイ
    画像のテクスチャマップのクロス相関計算を行なうこと
    により、前記第2の画像フレームの前記第1のサブバン
    ド画像に対応する第1の前記粗メッシュモデルの各ノー
    ドと、前記第1の画像フレームの前記第1のサブバンド
    画像に対応する前記第1の粗メッシュモデルの各ノード
    とを対応付け、前記第1の粗メッシュモデルの各ノード
    の前記第1の画像フレームから前記第2の画像フレーム
    の間の相対的位置変化を算出するステップと、 前記第2の画像フレームの、前記第1の粗メッシュモデ
    ルよりも高いノード密度を有する第2の粗メッシュモデ
    ルに対して、前記第1の粗メッシュモデルの各ノードの
    位置変化に応じた変形を行なうステップと、前記第2の
    粗メッシュモデルは、前記第1のサブバンド画像よりも
    高い空間周波数を有する第2のサブバンド画像に対応す
    るものであり、 前記第1の画像フレームおよび前記第2の画像フレーム
    の、前記第2のサブバンド画像から得られた前記オーバ
    レイ画像のテクスチャマップのクロス相関計算を行なう
    ことにより、前記第2の画像フレームの前記第1のサブ
    バンド画像に対応する前記第2の粗メッシュモデルの各
    ノードと、前記第1の画像フレームの前記第2のサブバ
    ンド画像に対応する前記第2の粗メッシュモデルの各ノ
    ードとを対応付け、前記第2の粗メッシュモデルの各ノ
    ードの前記第1の画像フレームから前記第2の画像フレ
    ームの間の相対的位置変化を算出するステップとを含
    む、請求項1に記載の表面動き測定方法。
  3. 【請求項3】 先行する第1の画像フレームおよび前記
    第1の画像フレームより後の第2の画像フレームを含
    む、対象物の画像フレームのシーケンスから、前記対象
    物の表面の各部位の動きを測定するための表面動き測定
    方法を実現するようコンピュータを動作させるためのプ
    ログラムを記憶した、コンピュータ読取可能な記録媒体
    であって、 前記表面動き測定方法は、 相互の隣接関係が定められた複数個のノードを含むメッ
    シュモデルによって前記第1の画像フレームの画像内の
    前記対象物の表面の各部位の位置を表現するステップ
    と、 予め定められた複数通りの解像度で前記第1の画像フレ
    ームの画像および前記第2の画像フレームの画像を各々
    複数個のサブバンド画像に変換するステップと、 前記メッシュモデルから、前記メッシュモデルのノード
    密度より低く、かつ互いに異なるノード密度を有する複
    数個の粗メッシュモデルを生成するステップと、前記複
    数個の粗メッシュモデルは、それぞれ前記複数個のサブ
    バンド画像と対応付けられており、 前記第1の画像フレームおよび前記第2の画像フレーム
    の各々の前記複数個のサブバンド画像に対してそれぞれ
    前記複数個の粗メッシュモデルのうちの対応するものを
    重ねたオーバレイ画像を得るステップとを含む、コンピ
    ュータ読取可能な記録媒体。
  4. 【請求項4】 前記算出するステップは、 前記第1の画像フレームおよび前記第2の画像フレーム
    の、第1のサブバンド画像から得られた前記オーバレイ
    画像のテクスチャマップのクロス相関計算を行なうこと
    により、前記第2の画像フレームの前記第1のサブバン
    ド画像に対応する第1の前記粗メッシュモデルの各ノー
    ドと、前記第1の画像フレームの前記第1のサブバンド
    画像に対応する前記第1の粗メッシュモデルの各ノード
    とを対応付け、前記第1の粗メッシュモデルの各ノード
    の前記第1の画像フレームから前記第2の画像フレーム
    の間の相対的位置変化を算出するステップと、 前記第2の画像フレームの、前記第1の粗メッシュモデ
    ルよりも高いノード密度を有する第2の粗メッシュモデ
    ルに対して、前記第1の粗メッシュモデルの各ノードの
    位置変化に応じた変形を行なうステップと、前記第2の
    粗メッシュモデルは、前記第1のサブバンド画像よりも
    高い空間周波数を有する第2のサブバンド画像に対応す
    るものであり、 前記第1の画像フレームおよび前記第2の画像フレーム
    の、前記第2のサブバンド画像から得られた前記オーバ
    レイ画像のテクスチャマップのクロス相関計算を行なう
    ことにより、前記第2の画像フレームの前記第1のサブ
    バンド画像に対応する前記第2の粗メッシュモデルの各
    ノードと、前記第1の画像フレームの前記第2のサブバ
    ンド画像に対応する前記第2の粗メッシュモデルの各ノ
    ードとを対応付け、前記第2の粗メッシュモデルの各ノ
    ードの前記第1の画像フレームから前記第2の画像フレ
    ームの間の相対的位置変化を算出するステップとを含
    む、請求項3に記載のコンピュータ読取可能な記録媒
    体。
  5. 【請求項5】 先行する第1の画像フレームおよび前記
    第1の画像フレームより後の第2の画像フレームを含
    む、対象物の画像フレームのシーケンスから、前記対象
    物の表面の各部位の動きを測定するための表面動き測定
    装置であって、 相互の隣接関係が定められた複数個のノードを含むメッ
    シュモデルによって前記第1の画像フレームの画像内の
    前記対象物の表面の各部位の位置を表現するための手段
    と、 予め定められた複数通りの解像度で前記第1の画像フレ
    ームの画像および前記第2の画像フレームの画像を各々
    複数個のサブバンド画像に変換するための手段と、 前記メッシュモデルから、前記メッシュモデルのノード
    密度より低く、かつ互いに異なるノード密度を有する複
    数個の粗メッシュモデルを生成するための手段と、前記
    複数個の粗メッシュモデルは、それぞれ前記複数個のサ
    ブバンド画像と対応付けられており、 前記第1の画像フレームおよび前記第2の画像フレーム
    の各々の前記複数個のサブバンド画像に対してそれぞれ
    前記複数個の粗メッシュモデルのうちの対応するものを
    重ねたオーバレイ画像を得るための手段と、 前記第1の画像フレームおよび前記第2の画像フレーム
    の、それぞれ対応するサブバンド画像から得られた前記
    オーバレイ画像のテクスチャマップのクロス相関を計算
    することにより、前記第2の画像フレームの前記メッシ
    ュモデルの各ノードと、前記第1の画像フレームの前記
    メッシュモデルの各ノードとを対応付け、各ノードの前
    記第1の画像フレームから前記第2の画像フレームの間
    の相対的位置変化を算出するための手段とを含む、表面
    動き測定装置。
  6. 【請求項6】 前記算出するための手段は、 前記第1の画像フレームおよび前記第2の画像フレーム
    の、第1のサブバンド画像から得られた前記オーバレイ
    画像のテクスチャマップのクロス相関計算を行なうこと
    により、前記第2の画像フレームの前記第1のサブバン
    ド画像に対応する第1の前記粗メッシュモデルの各ノー
    ドと、前記第1の画像フレームの前記第1のサブバンド
    画像に対応する前記第1の粗メッシュモデルの各ノード
    とを対応付け、前記第1の粗メッシュモデルの各ノード
    の前記第1の画像フレームから前記第2の画像フレーム
    の間の相対的位置変化を算出するための手段と、 前記第2の画像フレームの、前記第1の粗メッシュモデ
    ルよりも高いノード密度を有する第2の粗メッシュモデ
    ルに対して、前記第1の粗メッシュモデルの各ノードの
    位置変化に応じた変形を行なうための手段と、前記第2
    の粗メッシュモデルは、前記第1のサブバンド画像より
    も高い空間周波数を有する第2のサブバンド画像に対応
    するものであり、 前記第1の画像フレームおよび前記第2の画像フレーム
    の、前記第2のサブバンド画像から得られた前記オーバ
    レイ画像のテクスチャマップのクロス相関計算を行なう
    ことにより、前記第2の画像フレームの前記第1のサブ
    バンド画像に対応する前記第2の粗メッシュモデルの各
    ノードと、前記第1の画像フレームの前記第2のサブバ
    ンド画像に対応する前記第2の粗メッシュモデルの各ノ
    ードとを対応付け、前記第2の粗メッシュモデルの各ノ
    ードの前記第1の画像フレームから前記第2の画像フレ
    ームの間の相対的位置変化を算出するための手段とを含
    む、請求項5に記載の表面動き測定装置。
JP32536299A 1999-11-16 1999-11-16 対象物の表面動き測定方法および装置、ならびに当該方法を実現するようコンピュータを動作させるためのプログラムを記憶したコンピュータ読取可能な記録媒体 Expired - Fee Related JP3414683B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP32536299A JP3414683B2 (ja) 1999-11-16 1999-11-16 対象物の表面動き測定方法および装置、ならびに当該方法を実現するようコンピュータを動作させるためのプログラムを記憶したコンピュータ読取可能な記録媒体
US09/712,250 US6931145B1 (en) 1999-11-16 2000-11-15 Method and apparatus for measuring motion of an object surface by multi-resolution analysis using a mesh model

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP32536299A JP3414683B2 (ja) 1999-11-16 1999-11-16 対象物の表面動き測定方法および装置、ならびに当該方法を実現するようコンピュータを動作させるためのプログラムを記憶したコンピュータ読取可能な記録媒体

Publications (2)

Publication Number Publication Date
JP2001143088A JP2001143088A (ja) 2001-05-25
JP3414683B2 true JP3414683B2 (ja) 2003-06-09

Family

ID=18175989

Family Applications (1)

Application Number Title Priority Date Filing Date
JP32536299A Expired - Fee Related JP3414683B2 (ja) 1999-11-16 1999-11-16 対象物の表面動き測定方法および装置、ならびに当該方法を実現するようコンピュータを動作させるためのプログラムを記憶したコンピュータ読取可能な記録媒体

Country Status (2)

Country Link
US (1) US6931145B1 (ja)
JP (1) JP3414683B2 (ja)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100366382B1 (ko) * 2001-02-12 2002-12-31 (주) 멀티비아 동영상 부호화 장치 및 방법
KR100582784B1 (ko) * 2002-10-17 2006-05-23 엘지전자 주식회사 화상통신 시스템의 영상 처리 방법
US7474767B2 (en) * 2003-09-24 2009-01-06 Avago Technologies Ecbu Ip (Singapore) Pte. Ltd. Motion detection using multi-resolution image processing
WO2006030103A1 (fr) * 2004-09-15 2006-03-23 France Telecom Procede d'estimation de mouvement a l'aide de maillages deformables
EP2041721B1 (en) * 2006-07-05 2016-09-07 Philips Intellectual Property & Standards GmbH Prediction of cardiac shape by a motion model
US8884968B2 (en) * 2010-12-15 2014-11-11 Microsoft Corporation Modeling an object from image data
US9652664B1 (en) * 2014-12-30 2017-05-16 Morphotrust Usa, Llc Facial recognition using fractal features
CN106651904B (zh) * 2016-12-02 2019-08-09 北京空间机电研究所 一种宽尺寸范围多空间目标捕获跟踪方法
US10628667B2 (en) * 2018-01-11 2020-04-21 Futurewei Technologies, Inc. Activity recognition method using videotubes
JP7090245B2 (ja) * 2018-09-28 2022-06-24 株式会社Nttドコモ 顎評価システムおよび顎評価方法

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5226175A (en) * 1989-07-21 1993-07-06 Graphic Edge, Inc. Technique for representing sampled images
US5592228A (en) * 1993-03-04 1997-01-07 Kabushiki Kaisha Toshiba Video encoder using global motion estimation and polygonal patch motion estimation
JP3613543B2 (ja) * 1997-11-11 2005-01-26 株式会社日立国際電気 動画像編集装置
US5956026A (en) * 1997-12-19 1999-09-21 Sharp Laboratories Of America, Inc. Method for hierarchical summarization and browsing of digital video
KR20000059799A (ko) * 1999-03-09 2000-10-05 구자홍 웨이브릿 부호화를 이용한 움직임 보상 부호화 장치 및 방법

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
「顔」の情報処理,電子情報通信学会論文誌,日本,1997年 8月25日,Vol.J80−D−II No.8,pp.2047−2065
三次元運動学に基づく顔面アニメーション,情報処理学会研究報告,日本,1997年10月17日,Vol.97 No.98,pp.31−36
最適ポリゴン近似と連続変形法による3次元物体モデル生成法,電子情報通信学会論文誌,日本,1999年 3月25日,Vol.J82−D−II No.3,pp.458−467

Also Published As

Publication number Publication date
US6931145B1 (en) 2005-08-16
JP2001143088A (ja) 2001-05-25

Similar Documents

Publication Publication Date Title
JP4473754B2 (ja) 仮想試着装置
US6907140B2 (en) Image recognition/reproduction method and apparatus
US8086027B2 (en) Image processing apparatus and method
JP4930854B2 (ja) 関節物体位置姿勢推定装置及びその方法ならびにプログラム
JP2870415B2 (ja) 領域分割方法および装置
US7860340B2 (en) Three-dimensional shape estimation system and image generation system
JP2019075156A (ja) 多因子画像特徴登録及び追尾のための方法、回路、装置、システム、及び、関連するコンピュータで実行可能なコード
US6943792B2 (en) Three-dimensional data generating device
JP2002170112A (ja) 解像度変換プログラムを記録したコンピュータ読取可能な記録媒体、解像度変換装置および解像度変換方法
JP3414683B2 (ja) 対象物の表面動き測定方法および装置、ならびに当該方法を実現するようコンピュータを動作させるためのプログラムを記憶したコンピュータ読取可能な記録媒体
D'Apuzzo Surface measurement and tracking of human body parts from multi-image video sequences
JPH11108633A (ja) 3次元形状計測装置及びそれを用いた3次元彫刻装置
JP2005071344A (ja) 画像処理方法、画像処理装置及び画像処理プログラムを記録した記録媒体
JPH0896162A (ja) 表情再現装置
WO2023241298A1 (zh) 一种视频生成方法、装置、存储介质及电子设备
JP2002245455A (ja) 多変量空間処理方法および装置
JP2840816B2 (ja) 表情検出装置
JP2006215743A (ja) 画像処理装置及び画像処理方法
KR20210147647A (ko) 얼굴 이미지 색상 합성 장치 및 방법
JP2002259979A (ja) 画像補間方法と装置、および画像処理方法と装置
JP2001141425A (ja) 3次元形状計測装置
JP2670663B2 (ja) 像の実時間認識合成装置
JPH0714208B2 (ja) 動画像伝送方式
JP2003512802A (ja) 三次元モデリングのためのシステム及び方法
JP3401511B2 (ja) 画像の特徴点の抽出方法、およびコンピュータに当該画像の特徴点の抽出方法を実行させるためのプログラム記録した、コンピュータ読取可能な記録媒体ならびに画像特徴点抽出装置

Legal Events

Date Code Title Description
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20030311

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100404

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110404

Year of fee payment: 8

LAPS Cancellation because of no payment of annual fees