JPH10320588A - 画像処理装置および画像処理方法 - Google Patents
画像処理装置および画像処理方法Info
- Publication number
- JPH10320588A JPH10320588A JP9273573A JP27357397A JPH10320588A JP H10320588 A JPH10320588 A JP H10320588A JP 9273573 A JP9273573 A JP 9273573A JP 27357397 A JP27357397 A JP 27357397A JP H10320588 A JPH10320588 A JP H10320588A
- Authority
- JP
- Japan
- Prior art keywords
- image
- time
- dimensional
- point
- target object
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
- G06T7/251—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Image Processing (AREA)
- Processing Or Creating Images (AREA)
- Image Analysis (AREA)
- Length Measuring Devices By Optical Means (AREA)
Abstract
る物体のモデルを実用的な精度と処理速度を満足しつつ
自動作成する。 【解決手段】画像取込み部10、特徴点抽出部11、3次元
位置情報抽出部12、3次元パッチ群生成部13を有するこ
とにより、物体表面のモデルを自動作成する。画像取込
み部10は対象物体の時系列画像(動画像系列)を取り込
む。特徴点抽出部11はモデル作成を行なう物体の表面を
構成する特徴点を抽出する。3次元位置情報抽出部12は
連続画像間でこれら抽出した特徴点どうしの対応づけを
行い、その特徴点群の位置座標情報から各特徴点の3次
元位置情報を求める。3次元パッチ群生成部13はこれら
3次元位置情報が求まった特徴点を基に物体の表面を構
成する3次元パッチ群を生成する。この3次元パッチ群
は対象物体のモデル情報として出力部14に出力される。
Description
どの設計を支援するための3次元CAD(計算機援用設
計)、3次元CG(コンピュータグラフィックス)を用
いた映像作成、人物の顔画像を用いたHI(ヒューマン
インターフェイス)、移動ロボット制御などで用いられ
るものであり、対象物体のモデル記述の作成を支援する
ことに有用な画像処理装置及び画像処理方法に関する。
ッドトラッキング、テレビ会議やテレビ電話等において
人物の移動ベクトルを抽出することでの画像の通信に必
要な情報量を減らすビデオコンプレッション、ゲームへ
の応用を含むVR(バーチャルリアリティ;仮想現実)
上でのポインティングを行なう3次元ポインタ等を可能
にする画像処理装置および方法に関する。
めの3次元CAD(計算機援用設計)、3次元CG(コ
ンピュータグラフィックス)を用いた映像作成、あるい
は人物の顔画像を用いたHI(ヒューマンインターフェ
イス)など、画像生成、画像処理、画像認識といった画
像に関わる計算機処理のニースが、急速に拡大してい
る。
の幾何形状、表面属性、そして、必要に応じて動きのデ
ータを計算機に数値化して入力することが必要である。
この入力過程をモデリングと呼び、入力された数値デー
タをモデルと呼ぶ。現在、このモデリング作業は、人手
により多くの手間をかけて行なっており、生産性やコス
トの面からも自動化が強く望まれている。
により、対象物体の形状及び表面属性を自動的に求める
手法の研究が行なわれている。すなわち、複数台のカメ
ラを用いて3角測量の原理により距離を求めるステレオ
法や、簡素なシステムとして一台のカメラの焦点距離を
変えて得た画像を解析することにより距離を求める手法
を用いて、環境に存在する物体のモデリングを自動的に
行なう試みがなされている。
変える際には物体が静止していることが必要であり、ス
テレオ法において複数のカメラを用いる場合、一台のカ
メラを用いるのに比べてコストに問題がある。また、一
台のカメラで動物体を複数方向から撮影し、ステレオ法
を応用するためには、物体の向きと照明方向の相対変化
を考慮した対応づけ問題が一般に解決されておらず、例
えば、人間の頭部のように複雑形状、かつ、動きのある
物体のモデルを実用的な精度と処理速度を満足しつつ、
自動的に作成する方式は未だ実現されていない。
(バーチャルリアリティ)の分野では、2次元ではな
く、3次元CG(コンピュータグラフィクス)を用いた
映像を使う状況が急速に増えており、3次元映像内での
指示に用いるインタフェイスとして、3次元マウスの必
要性が高まっている。それに伴い、様々な装置が3次元
マウスとして開発されている。
より3次元空間内の移動やポインティングを行なうこと
が出来る3次元マウス等の装置も開発されているが、ポ
インテング操作がせっかく3次元的に行えるようになっ
ていても、画像表示するディスプレイが2次元であるた
め、感覚的に3次元の空間内の操作を行なうことはユー
ザにとって困難である。
ためのセンサが具備されたグローブ(手袋)形式になっ
ており、手にはめて3次元空間内の操作を行える装置も
開発されている。このグローブ形式の装置は、上記の3
次元マウスに比べてより感覚的な操作が行なえるもの
の、特殊なグローブを手に装着しなければならない、と
いう欠点がある。また、体全体で3次元ポインテングを
行おうとすると、姿勢検出や頭の移動等を検出する必要
があり、そのためには、センサなどを取り付けた特殊な
装置を検出対象部分に装着しなければならないなど、現
実的でない。
えて、その画像の動きや状態を解析し、得られた情報か
ら、3次元ポインティングや操作指示を行うことができ
るようにすれば、指の動きや体の動き、姿勢などで操作
ができ、操作者にとって直感的で分かりやすく、操作し
易いものとなって、問題が一挙に解決できそうである。
は、研究中であり、まだ、実用的な手法が確立していな
いのが現状である。
術においては、あらかじめモデルを保持しておき、“ま
ばたき”を発生させたり、言葉に合わせて“口”の形状
をCGで生成し、モデルに加える等の技術を用いて、伝
達する情報量を少なくさせるようにする等の工夫がなさ
れているが、画像中の対象物の動き情報をどのようにし
て得るかという技術については現在も確立されていな
い。
の方法では、焦点距離を変える際には物体が静止してい
ることが必要であり、ステレオ法において複数のカメラ
を用いる場合、一台のカメラを用いるのに比べてコスト
に問題があった。また、一台のカメラで動物体を複数方
向から撮影し、ステレオ法を応用するためには、物体の
向きと照明方向の相対変化を考慮した対応づけ問題が一
般に解決されておらず、例えば人間の頭部のように複雑
形状、かつ、動きのある物体を実用的にモデリングする
ことはできなかった。
うな点に鑑みなされたもので、人間の頭部のように複雑
形状、かつ、動きのある物体のモデルを一台のカメラで
実用的な精度と処理速度を満足しつつ自動的に作成する
ことのできる画像処理装置及び画像処理方法を提供する
ことにある。
イスは、ユーザにとって使いにくいものであったり、物
体の移動ベクトル解析には特殊な装置を頭部等の解析し
たい部位に装着して使わねばならないといった問題があ
り、これをテレビカメラなどにより、対象物の画像を動
画像として得て、これを解析し、3次元ポインティング
に使用したり、対象物のトラッキング(動きの追跡)、
姿勢検出や姿勢判定などをすれば、グローブ等の装置装
着の煩わしさを解消し、しかも、テレビ会議やテレビ電
話における“まばたき”発生や、言葉に合わせて“口”
の動く様子をCGで生成し、モデルに加える等の技術を
駆使した伝達情報量の削減処理が実現できるようになる
ことが考えられるものの、その手法が未解決である。
置の情報の取得をしたり、姿勢などの情報の取得、トラ
ッキングの手法の確立が急務である。
の動画像から、対象物の位置や姿勢などを解析できるよ
うにして、ユーザにとって、感覚的に3次元ポインティ
ングを行なうことが出来、しかも、解析したい部位に装
置を装着することなくポインティングあるいはトラッキ
ングを行なうことが出来るようにした画像処理装置およ
び画像処理方法を提供することにある。
るため、本発明は次のようにする。
装置は、対象物体の撮影により時系列的に得られる画像
を取り込む画像取込み手段と、この画像取込み手段によ
って取り込まれた時系列画像から上記対象物体の特徴点
を抽出する特徴点抽出手段と、この特徴点抽出手段によ
って抽出された上記時系列画像の各時点の画像に含まれ
る特徴点どうしを対応づけ、その対応づけられた各特徴
点の位置座標情報を解析処理することにより、3次元の
位置情報を求める3次元位置情報抽出手段と、この3次
元位置情報抽出手段によって得られた上記各特徴点の3
次元位置情報に基づいて上記対象物体の表面を構成する
3次元パッチ群を生成する3次元パッチ群生成手段と、
この3次元パッチ群生成手段によって生成された3次元
パッチ群を上記対象物体のモデル情報として出力する出
力手段とを具備したものである。
列画像のうちのA時点の画像を選択し、このA時点の画
像に含まれる上記検出された各特徴点と上記A時点と異
なるB時点の画像に含まれる上記検出された各特徴点ど
うしを対応づけるものであり、その際に上記A時点にお
ける画像中の位置と上記B時点における画像中の位置の
変化情報を用いて各特徴点どうしを対応づけることを特
徴とする。
徴点の3次元位置情報と共に上記各特徴点の画像中の明
度情報を用いることにより、上記対象物体の表面を構成
する3次元パッチ群を求めることを特徴とする。
記3次元位置情報の得られた各特徴点を通過する3次元
の曲面パッチを想定し、上記3次元位置情報の得られた
各特徴点における明度情報または上記3次元曲面パッチ
に含まれる各点の明度情報と、上記3次元位置情報の得
られた各特徴点の投影点における明度情報または上記曲
面パッチに含まれる各点の投影点における明度情報とを
比較して、上記3次元曲面パッチの方向パラメータを決
定することを特徴とする。
って得られる時系列画像を用い、その時系列画像の各時
点の画像に含まれる特徴点どうしを対応づけ、その対応
づけられた各特徴点の位置座標情報から3次元の位置情
報を求め、この各特徴点の3次元位置情報から上記対象
物体の表面を構成する3次元パッチ群を生成し、これを
上記対象物体のモデル情報として出力するものである。
のように複雑形状、かつ、動きのある物体を対象とし
て、そのモデルを自動作成することができる。この場
合、複数枚の動画像を用いてモデリングを行うため、静
止画像を用いる従来方式に比べると、高精度に、また、
処理的にも速くモデリングを行うことができる。
2に本発明の画像処理装置は、対象物体の撮影により時
系列的に得られる画像を取り込む画像取り込み手段と、
この画像取り込み手段によって取り込まれた時系列画像
から上記対象物体の特徴点を抽出する特徴点抽出手段
と、この特徴点抽出手段によって抽出された上記時系列
画像の各時点の画像中に含まれる特徴点どうしを対応づ
け、その対応づけられた各特徴点の位置座標情報を解析
処理することにより、上記時系列画像の各時点における
上記対象物体の位置と姿勢の変化を決定する手段と、そ
の対応づけられた各特徴点の輝度情報を解析処理するこ
とにより、上記時系列画像間の線形結合係数を計算する
手段と、上記により決定された上記対象物体の上記時系
列画像中の各時点の位置・姿勢と、上記により計算され
た上記時系列画像間の線形結合係数から、上記対象物体
の各点への距離情報を推定する手段とを具備するもので
ある。
る手段は、上記時系列画像のうち特定時点Aの画像を選
択し基準画像とし、この基準画像中で各画素における上
記対象物体までの距離Zを設定し、この距離Zの評価を
幾何学的条件と光学的条件の両方に基づいて行うもので
あり、この距離Zおよび上記により決定された上記対象
物体の各時点の位置・姿勢から、上記各画素と対応する
画素を上記特定時点Aと異なる3時点以上の画像群にお
いて決定する手段と、これら対応する画素における輝度
と上記基準画像中の画素における輝度との整合の度合
を、上記により計算された上記時系列画像間の線形結合
係数を介して計算する手段と、この整合の度合に応じて
任意に仮定された距離Zを評価することにより、この評
価に基づいて距離情報を推定する手段とから構成するこ
と特徴とする。
って得られる時系列画像を用い、その時系列画像の各時
点の画像に含まれる特徴点同士を対応付け、その対応付
けられた各特徴点の位置座標情報から対象物体の各時点
の3次元の位置と姿勢、従って、時系列画像間の幾何学
的結合条件を求め、一方でその対応づけられた各特徴点
の輝度情報から時系列画像間の光学的結合条件を計算
し、時系列画像問の幾何学的および光学的結合条件を用
いて各画素における距離情報を獲得し、これを上記対象
物体のモデル情報として出力する。
えば、人間の頭部のように複雑形状、かつ、動きのある
物体を対象に、一台のカメラを入力装置として当該対象
物体のモデル(数値データ)を自動作成することができ
る。
の画像処理装置は次のように構成する。
追跡を行なう装置において、時系列的に得られる前記対
象物体の画像から前記対象物体の特徴点を各時点毎に抽
出する特徴点抽出手段と、この特徴点抽出手段により抽
出された各時点毎の各特徴点のうち、前記時系列画像間
での対応する特徴点同士を対応づけ、その対応づけられ
た各特徴点の位置座標情報を解析処理することにより、
これら各特徴点の3次元位置情報を求める3次元位置情
報抽出手段と、この3次元位置情報抽出手段にて得られ
た各特徴点の3次元位置情報に基づいて、前記時系列画
像の各時点における前記対象物体の位置と姿勢のうち、
少なくとも一つを推定する推定手段と、から構成され
る。
れる前記対象物体の画像から前記対象物体の特徴点が各
時点毎に抽出され、この抽出された各時点毎の各特徴点
のうち、前記時系列画像間での対応する特徴点同士が対
応づけられ、その対応づけられた各特徴点の位置座標情
報を解析処理することにより、これら各特徴点の3次元
位置情報が求められる。そして、この求められた各特徴
点の3次元位置情報に基づいて、前記時系列画像の各時
点における前記対象物体の位置と姿勢のうち、少なくと
も一つを推定する。
像から、対象物の“特徴点”を抽出してその“特徴点の
追跡”を画像間に亘って行なうことにより、トラッキン
グや、位置、方向等の情報を簡易に取得できるようにな
る。
姿勢を求める手段においては、その具体的手法として、
上記3次元位置情報の得られた各特徴点を通過し、これ
らの各特徴点およびその周囲における上記対象物体表面
上の明度情報を保持する3次元の曲面パッチ(方向性を
持つパッチ)を生成し、この生成された3次元パッチ群
を、これら3次元パッチ群が通過する上記特徴点の3次
元位置情報とに基づいて、時系列画像の各時点の画像と
比較することにより、上記時系列画像の各時点における
上記対象物体の姿勢を推定する。
列的に取り込まれた各時点における対象物体の画像とを
比較する手段においては、上記各3次元パッチの明度情
報を基底画像の線形結合によって表現し、上記対象物体
の姿勢に従った線形結合係数を求めることにより、対象
物体の取り得る様々な姿勢に対応した合成画像を生成
し、この生成された画像と対象物体の画像の類似度に応
じて各々の姿勢を評価し、この評価に基づいて姿勢を推
定する。
を参照して説明する。
のある物体のモデルを実用的な精度と処理速度を満足し
つつ自動作成することのできる装置の例を実施形態1と
して説明する。
モデルを自動作成する場合を例にとって説明する。
に係る画像処理装置の全体構成を示すブロック図であ
る。本装置は、画像入力部1、データベース2、画像取
込み部10、特徴点抽出部11、3次元位置情報抽出部
12、3次元パッチ群生成部13、出力部14を有す
る。
ラからなり、モデリングを行う対象物体を撮影する。デ
ータベース2は、この画像入力部1によって時系列に入
力される時系列画像(動画像系列)を記憶するためのメ
モリである。画像取込み部10は、画像入力部1からリ
アルタイムで入力される対象物体の時系列画像あるいは
データベース2に保持されている対象物体の時系列画像
を取り込む。
よって取り込まれた時系列画像から対象物体の特徴点を
抽出する。この特徴点抽出部11は、孤立特徴点抽出部
23、連結特徴点抽出部26等を有して構成されるが、
その詳細な構成については、後に図4を用いて説明す
る。
部11によって抽出された時系列画像の各時点の画像に
含まれる特徴点どうしを対応づけ、その対応づけられた
各特徴点の位置座標情報を解析処理することにより、3
次元の位置情報を求める。この3次元位置情報抽出部1
2は、特徴点対応付け部31、計測行列設定部32等を
有して構成されるが、その詳細な構成については、後に
図5を用いて説明する。
情報抽出部12によって得られた各特徴点の3次元位置
情報に基づいて対象物体の表面を構成する3次元パッチ
群を生成する。この3次元パッチ群生成部13は、3次
元曲面設定部51、境界補完部53等を有して構成され
るが、その詳細な構成については、後に図7を用いて説
明する。
ンタ等の情報出力装置からなり、3次元パッチ群生成部
13によって生成された3次元パッチ群を対象物体のモ
デル情報として出力するものである。
に示すフローチャートを参照して説明する。
ク図である。本装置は、画像取込み部10、特徴点抽出
部11、3次元位置情報抽出部12、3次元パッチ群生
成部13を主として構成される。
10によって対象物体の時系列画像(動画像系列)を取
り込むことにより(図2のステップS1,S2)、ま
ず、特徴点抽出部11により、モデル作成を行なう物体
の表面を構成する特徴点を抽出する(ステップS3)。
なお、ここで用いる時系列画像(動画像系列)として
は、テレビカメラによって実時間で取込むものに限ら
ず、予め獲得されていたものを用いてもよい。
連続画像間でこれら抽出した特徴点どうしの対応づけを
行い、その対応づけられた特徴点群の位置座標情報
(X,Y方向)から生成される行列を係数行列として含
む関係式を変形操作することにより、各特徴点における
3次元の位置情報(X,Y,Z方向)を求める(ステッ
プS10)。
り、これら3次元位置情報が求まった特徴点を基に、物
体の表面を構成する基本要素である3次元パッチ群を生
成する(ステップS14)。ここで生成された3次元パ
ッチ群は、対象物体のモデル情報として出力部14に出
力される(ステップS18)。
置情報抽出部12、3次元パッチ群生成部13の詳細な
構成とその具体的な動作について説明する。
例]図4は特徴点抽出部11の詳細な構成を示すブロッ
ク図である。特徴点抽出部11は、平滑化処理部21、
2次空間差分処理部22、孤立特徴点抽出部23、局所
マスク設定部24、方向別分散値計算部25、連結特徴
点抽出部26からなる。
部21において、抽出する原画像に平滑化処理を施す
(ステップS4)。この処理をディジタルフィルタで実
現する場合は、数1に示すような係数を持つサイズ3の
空間フィルタで実現できる。
処理部22及び方向別分散値計算部25におけるノイズ
低減のための前処理として行われる。
平滑化処理部21で平滑化された画像に対し、2次空間
差分処理を施すことにより、孤立した特徴点部分の明度
強調を行なう(ステップS5)。この処理をディジタル
空間フィルタで実現する場合は、数2に示すような係数
を持つサイズ3の空間フィルタで実現できる。
処理部22で得られた明度強調結果の中で一定のしきい
値以上の部分を抽出することにより、例えば頭部におけ
る“ほくろ”のような孤立した特徴点を抽出し、その特
徴点の座標値を記憶部(図示せず)に順次格納する(ス
テップS6)。
滑化処理部21で平滑化された画像に対し、例えば頭部
における“目尻”、“唇”の端点のような連結特徴点を
抽出するための局所マスク領域を順次設定する(ステッ
プS7)。この連結特徴点は、例えば“目尻”であれ
ば、目領域の上輪郭と下輪郭の交差する点、“唇”の端
点であれば、上唇の輪郭と下唇の輪郭の交差する点とい
うように、複数の輪郭線(エッジ)の交差した部分とし
て求められる。局所マスク領域の大きさは、抽出する特
徴点を構成する輪郭線(エッジ)の長さに応じて最適と
なるように設定しておく。
この設定された各局所マスク内の方向別分散値を計算す
る。この方向としては、例えば垂直、水平、右45度、
左45度の4方向を選択し、局所マスク内の各方向に連
続した画素の明度値を用いて、各方向別分散値を計算す
る(ステップS8)。
方向別分散値計算部25で得られた方向別分散値が、2
つ以上の方向に対し、一定のしきい値以上の値を有する
局所マスクの中心点を連結特徴点として抽出し、この座
標値を記憶部(図示せず)に順次格納する(ステップS
9)。
出部12の構成例]図5は3次元位置情報抽出部12の詳
細な構成を示すブロック図である。3次元位置情報抽出
部12は、特徴点対応づけ部31、計測行列設定部3
2、計測行列変形操作部33からなる。
徴点対応づけ部31において、特徴点抽出部11で抽出
された孤立特徴点群及び連結特徴点群の連続時系列画像
間における対応づけを行なう(ステップS10)。具体
的には、時系列画像のうちのA時点の画像を選択し、こ
のA時点の画像に含まれる上記検出された各特徴点と上
記A時点と異なるB時点の画像に含まれる上記検出され
た各特徴点どうしを順次対応づける。この場合、少なく
とも4枚の画像を用いて、各特徴点どうしの対応づけを
行う必要がある。
構成例を示す。特徴点対応づけ部31は、特徴点対選択
部41、局所マスク設定部42、相関値計算部43、対
応判定部44からなる。
画像間における対応づけを行なう特徴点の組を選択す
る。次に、局所マスク設定部42において、これら特徴
点を含む局所マスク領域を各々の画像中に設定する。そ
して、相関値計算部43において、これら局所マスク領
域間の相関係数の値を計算する。
係数値がしきい値以上、かつ、最大となる特徴点の組
を、対応づけが求まったものとして記憶部(図示せず)
に格納する処理を、抽出された各特徴点について順次行
う。
の得られた特徴点の座標値を用いて、3次元位置を求め
るための計測行列を作成する(ステップS12)。本実
施形態では、モデル作成を行なう対象物体が観測に用い
るカメラから十分遠方にある(正射影の条件を満たす)
場合について、因子分解法を適用した例について述べ
る。
おいて、f枚目の画像中のp番目の特徴点の位置を(X
fp,Yfp)とする。また、画像の総枚数をF、特徴
点の組の数をPとする。f枚目の画像中のP個の特徴点
の重心位置を(Af,Bf)とすると、AfとBfは、
数3に示すような式で表される。
で与えられる。この計測行列Wは、2FxPの行列であ
る。
計測行列wに対し、変形操作を行なって、 W=MS という2つの行列の積の形に分解する(ステップS1
3)。ただし、 M=(I1,…,IF,J1,…,JF)は2Fx3の
行列、 S=(S1,S2,………………,SP)は3×Pの行
列 である。ここでの分解は、例えば特異値分解処理を用い
ることにより実行される。
Jf)は、f番目の画像の基本ベクトルであり、動画像
系列における各時点での画像の中心位置を与えており、
これらの差が画像間の動きとなる。一方、Sにおける成
分Spは、対応づけられたp番目の特徴点の3次元位置
(Xp,Yp,Zp)である。
これらの値を用いて3次元パッチ群の生成を行なう。一
般に、特徴点どうしを連結することによりパッチ(特徴
点を通る平面の最小単位)を生成すると、凹凸の激しい
不自然な形状(平面の集まりによって形成されるため)
となり、CGなどのモデルとして不適切なものになると
いう問題点がある。このため、本発明では、各特徴点を
通る最適な曲面パッチ(方向性を持つパッチ)を想定
し、これを補完することにより、滑らかで自然な3次元
パッチ群を生成する手段を提供している。
の構成例]図7は3次元パッチ群生成部13の詳細な構
成例を示すブロック図である。3次元パッチ群生成部1
3は、3次元曲面設定部51、曲面パラメータ決定部5
2、境界補完部53からなる。
報抽出部12によって得られた3次元位置情報の各特徴
点に対し、この点を通過する曲面を設定する(ステップ
S15)。本実施形態では、曲面として方向gの平面D
gを設定する。
の曲面の各パラメータを決定する(ステップS16)。
本実施形態では、例えば人間の頭部のように、対象が拡
散反射面で構成される場合について、平面パッチの方向
gを決定する例について述べる。
画像中のi番目の特徴点xi(j)の明度Ii(j)
は、数5に示すような(a)式で計算される。
クトル、R(j)は最初の画像からからj番目の画像ま
での回転行列、nkは光源の数、Skはk番目の照明の
強度ベクトルであり、これらは予め与えられるものとす
る。また、Dk(j)はこの点がk番目の照明に正対し
ている(照明光が入射する)場合は“1”、これ以外は
“0”を採る関数である。
cz+d=0とすると、xi(j)に対応するパッチ上
の点Xi(j)との関係は、数6に示すような(b)式
で表せられる。
り、Hgは3×3の行列である。Dgは数7のように与
えられる変換行列である。
られた各画像の基本ベクトル及び各特徴点の3次元位置
情報から一意に決定される。Hgは本実施形態では単位
行列Iと設定する。
せつつ、上記数5の(a)式で与えられるIi(j)
と、数6の(b)式で計算される点の画像中の明度I
(P(j)DgHgXi(j))との誤差Eg(数8)
が最小となるgを求めることにより、3次元曲面パッチ
の方向パラメータが決定される。
曲面パッチの境界輪郭を連続関数で補完することによ
り、全体として滑らか、かつ自然な3次元パッチを生成
する(ステップS17)。例えば曲面パッチとして各特
徴点を通る平面を用いた場合には、各平面の交線を境界
とすることにより、3次元パッチを構成する。
て、例えば頭部のような滑らか、かつ、動きのある物体
のモデルが3次元パッチの形式で自動的に作成される。
この場合、複数枚の動画像を用いてモデリングを行うた
め、静止画像を用いる従来方式に比べると、高精度に、
また、処理的にも速くモデリングを行うことができる。
に限定されるものではない。
局所マスクにおける方向別分散値を計算する代わりに、
画像に一次空間差分フィルタを施すことにより、輪郭エ
ッジを強調し、この輪郭エッジの上で曲率の変化の大き
い所として連結特徴点を求めることも可能である。
いて、対象物以外の物体が存在する環境で安定にモデル
作成を行なうために、対象物に含まれる特徴点を手動で
選択する機能を持たせてもよい。
いて、対象物以外の物体が存在する環境で安定にモデル
作成を行なうために、図8に示すように、計測行列変形
操作部33で得られる行列Mより、動画像系列における
各時点での画像の中心位置を求め、これらの差(画像間
の動き)を評価する画像間動き評価部60を付加する。
この画像間動き評価部60の評価結果に応じて、上記計
測行列設定部32における特徴点の選択を変更すること
により、最適な動き情報を与える特徴点群としてモデル
化対象に含まれる特徴点を選択する機能を備えた構成と
することもできる。
いて、k番目の照明の強度ベクトルSkを予め与えられ
るものとしたが、この代わりに複数時点における各特徴
点の明度から決定される行列を解析することにより求め
ることも可能である。
ける曲面パラメータ決定部52において、上記実施形態
では、3次元位置情報の得られた特徴点の明度情報を用
いて曲(平)面パッチの方向を決定したが、この代わり
に、予めパッチの大きさを与えておき、このパッチに包
含される各点の明度情報を用いて、数9に示す式で計算
されるEgを最小にするgを求めることにより、方向を
決定することも可能である。
のk番目の点であり、この点に対応するj番目の画像中
の点をxik(j)とし、この点の明度をIim(j)
とする。nmはパッチ上の点の数である。
ける境界補完部53において、複数のパッチのまとまり
を指定することにより、これらのパッチ群全体を滑らか
に補間する曲面を計算により求め、この曲面を新たに3
次元パッチとして用いてもよい。
で、図6に示した特徴点対応づけ部31において、繰り
返し処理を行なうことにより対応づけの信頼度を高める
ことも可能である。図9にこの変形例を示す。
いて、局所マスク領域間の相関等に基づいて特徴点対の
候補を選択する。次に、対応点候補選択部72で、特徴
点対選択部71で得られた特徴点対候補の中からランダ
ムに最低7個の特徴点対を取り出す。変換行列補正部7
3では、対応点候補選択部72で取り出された特徴点対
を基に、これらの特徴点を含む2枚の画像間の変換行列
を計算する。
4において評価する。評価方法としては、例えば上記特
徴点対選択部71で得られた特徴点対候補のうち、変換
行列の計算に用いられなかった候補を取り出し、この中
から計算された変換行列と適合する特徴点対の数の多さ
によって評価することが可能である。
評価部74までの処理を繰り返することで、最も高い評
価が得られた変換行列を2枚の画像間の基本行列として
求める。
候補選択部72でランダムに取り出された特徴点対と、
対応評価部74においてこの基本行列に適合した特徴点
対候補の両方を合わせて、対応づけの完了した特徴点と
する。更に、上記対応づけの完了した特徴点を用いて2
枚の画像間の変換行列を再度計算し、その結果を更新さ
れた基本行列として決定する。最後に、上記決定された
基本行列による制約に基づいて特徴点対を探索し、適合
する対を対応づけの完了した特徴点の集合に追加するこ
とにより、信頼性の高い対応づけ結果を得る。
ける特徴点対応づけ部31において、画像中の各特徴点
の対応づけ候補点の位置の変化情報を用いることによ
り、対応づけの信頼度を高める手段を付加することも可
能である。
の位置座標がP1(x1,y1)、特徴点P1の時点2
における対応候補点の位置座標が特徴点P2(x2,y
2)、特徴点3の時点3における対応候補点の位置座標
がP3(x3,y3)であるとする。連続時間における
動きの連続性の拘束条件を用いると、ベクトルP1P2
とベクトルP2P3はほぼ等しいとみなせる。つまり、
次式(数10)が成立する。
2−x1−x3|+|2y2−y1−y3|の値が、予
め設定されたしきい値Thより小さい候補のみを選択す
ることにより、信頼性の高い対応づけ結果を得ることが
できる。
ない範囲で種々変形して実施することができる。
理装置は、対象物体の撮影により時系列的に得られる画
像を取り込む画像取込み手段と、この画像取込み手段に
よって取り込まれた時系列画像から上記対象物体の特徴
点を抽出する特徴点抽出手段と、この特徴点抽出手段に
よって抽出された上記時系列画像の各時点の画像に含ま
れる特徴点どうしを対応づけ、その対応づけられた各特
徴点の位置座標情報を解析処理することにより、3次元
の位置情報を求める3次元位置情報抽出手段と、この3
次元位置情報抽出手段によって得られた上記各特徴点の
3次元位置情報に基づいて上記対象物体の表面を構成す
る3次元パッチ群を生成する3次元パッチ群生成手段
と、この3次元パッチ群生成手段によって生成された3
次元パッチ群を上記対象物体のモデル情報として出力す
る出力手段とを具備したものである。
上記時系列画像のうちのA時点の画像を選択し、このA
時点の画像に含まれる上記検出された各特徴点と上記A
時点と異なるB時点の画像に含まれる上記検出された各
特徴点どうしを対応づけるものであり、その際に上記A
時点における画像中の位置と上記B時点における画像中
の位置の変化情報を用いて各特徴点どうしを対応づけ
る。
記各特徴点の3次元位置情報と共に上記各特徴点の画像
中の明度情報を用いることにより、上記対象物体の表面
を構成する3次元パッチ群を求める。
記3次元位置情報の得られた各特徴点を通過する3次元
の曲面パッチを想定し、上記3次元位置情報の得られた
各特徴点における明度情報または上記3次元曲面パッチ
に含まれる各点の明度情報と、上記3次元位置情報の得
られた各特徴点の投影点における明度情報または上記曲
面パッチに含まれる各点の投影点における明度情報とを
比較して、上記3次元曲面パッチの方向パラメータを決
定する。
って得られる時系列画像を用い、その時系列画像の各時
点の画像に含まれる特徴点どうしを対応づけ、その対応
づけられた各特徴点の位置座標情報から3次元の位置情
報を求め、この各特徴点の3次元位置情報から上記対象
物体の表面を構成する3次元パッチ群を生成し、これを
上記対象物体のモデル情報として出力するようにしたも
のである。
間の頭部のように複雑形状、かつ、動きのある物体を対
象として、そのモデルを自動作成することができる。こ
の場合、複数枚の動画像を用いてモデリングを行うた
め、静止画像を用いる従来方式に比べると、高精度に、
また、処理的にも速くモデリングを行うことができる。
して、必要に応じて動きのデータを計算機に数値化する
処理であるモデリングを、人間の頭部のように複雑形
状、かつ、動きのある物体のモデル作成を例に、一台の
カメラで実用的な精度と処理速度を満足しつつ自動的に
作成することのできる画像処理装置及び画像処理方法の
別の例を実施形態2として次に説明する。
明の画像処理装置は、対象物体の撮影により時系列的に
得られる画像を取り込む画像取り込み手段と、この画像
取り込み手段によって取り込まれた時系列画像から上記
対象物体の特徴点を抽出する特徴点抽出手段と、この特
徴点抽出手段によって抽出された上記時系列画像の各時
点の画像中に含まれる特徴点どうしを対応づけ、その対
応づけられた各特徴点の位置座標情報を解析処理するこ
とにより、上記時系列画像の各時点における上記対象物
体の位置と姿勢の変化を決定する手段と、その対応づけ
られた各特徴点の輝度情報を解析処理することにより、
上記時系列画像間の線形結合係数を計算する手段と、上
記により決定された上記対象物体の上記時系列画像中の
各時点の位置・姿勢と、上記により計算された上記時系
列画像間の線形結合係数から、上記対象物体の各点への
距離情報を推定する手段とを具備したものである。
は、上記時系列画像のうち特定時点Aの画像を選択し基
準画像とし、この基準画像中で各画素における上記対象
物体までの距離Zを設定し、この距離Zの評価を幾何学
的条件と光学的条件の両方に基づいて行うものであり、
この距離Zおよび上記により決定された上記対象物体の
各時点の位置・姿勢から、上記各画素と対応する画素を
上記特定時点Aと異なる3時点以上の画像群において決
定する手段と、これら対応する画素における輝度と上記
基準画像中の画素における輝度との整合の度合を、上記
により計算された上記時系列画像間の線形結合係数を介
して計算する手段と、この整合の度合に応じて任意に仮
定された距離Zを評価することにより、この評価に基づ
いて距離情報を推定する手段を有することを特徴とす
る。
って得られる時系列画像(動画像系列)を用い、その時
系列画像の各時点の画像に含まれる特徴点同士を対応付
け、その対応付けられた各特徴点の位置座標情報から対
象物体の各時点の3次元の位置と姿勢、従って、時系列
画像間の幾何学的結合条件を求め、一方でその対応づけ
られた各特徴点の輝度情報から時系列画像間の光学的結
合条件を計算し、時系列画像問の幾何学的および光学的
結合条件を用いて各画素における距離情報を獲得し、こ
れを上記対象物体のモデル情報として出力するものであ
る。
部のように複雑形状、かつ、動きのある物体を対象に、
一台のカメラを入力装置として当該対象物体のモデル
(数値データ)を自動作成することができる。
を用いるUS Patent 5475422(US
Patent 5475422−Dec.12,199
5(NTT)“Method and apparat
us for reconstructing thr
ee−dimensional objects”)等
に提案されている技術とは内容を異にするものである。
物体の動きを算出するためにC.Tomasi等による
因子分解法(参考文献2;C.Tomasi and
T.Kanade,“Shape and motio
n from imagestreams under
orthography:A factorizat
ion method”International
Journal of Computer Visio
n V0l.9:2 pp137−154,1992参
照)を用いており、その際、一撃計算により特定に選択
された点の3次元位置が同時に求まるが、これの外挿を
基本とするモデル化の話は実施形態1において説明し
た。
ステレオ法を応用することで対象物体の3次元表面全体
を復元しようとするものであり、モデル化の枠組が異な
っている。
表面モデルを自動生成する場合を例にとって説明する。
10に本発明の基本的な構成例を、また、図11に詳細
を示す。この例においては、図10に示すように、基本
的な装置構成は画像取込み部200、特徴点抽出部20
1、3次元動き推定部202、線形結合係数計算部20
3、距離情報検出部204よりなる。さらに特徴点抽出
部201は、孤立特徴点抽出機能と連結特徴点抽出機能
とを持ち、3次元動き推定部202は特徴点対応づけ機
能と計測行列設定機能とを持ち、線形結合係数計算部2
03は特徴点対応づけ機能と輝度行列設定機能を持ち、
距離情報検出部204は3次元基底画素計算機能と距離
判定機能を持つ。
像を取り込むためのものであり、特徴点抽出部201は
この画像取込み部200により得られた動画像系列か
ら、モデル作成を行なう物体の表面を構成する特徴点を
抽出するものである。また、3次元動き推定部202は
特徴点抽出部201からの特徴点情報を得て、連続画像
間でこれら抽出した特徴点同士の対応づけを行ない、対
応づけられた特徴点群の2次元座標から生成される行列
を係数行列として含む関係式を変形操作することによ
り、頭部の位置・姿勢を求めるものである。
係数計算部203により求められた画像間の線形結合係
数を、頭部の位置・姿勢と画像間の線形結合係数に従
い、幾何学輝度拘束条件に基づいて、物体への距離情報
を検出し、形状復元を行なうものである。
200により得られた動画像系列から、まず特徴点抽出
部201により、モデル作成を行なう物体の表面を構成
する特徴点を抽出する。つまりモデル作成に必要な特徴
点抽出を行う。次に、3次元動き情報抽出部202によ
り、連続画像間でこれら抽出した特徴点同士の対応づけ
を行ない、対応づけられた特徴点群の2次元座標から生
成される行列を係数行列として含む関係式を変形操作す
ることにより、頭部の位置・姿勢を求める。つまり、3
次元動き情報抽出部202は連続画像間でこれら抽出し
た特徴点どうしの対応づけを行ない、その特徴点群の位
置座標情報から対象物体の動き情報、すなわち3次元位
置・姿勢の変化情報を求める。
対応づけられた各特徴点の輝度情報から生成される行列
を係数行列として含む関係式を変形操作することによ
り、画像間の線形結合係数を求める。つまり、時系列画
像間に成り立つ線形結合拘束を求める。
部の位置・姿勢と画像間の線形結合係数に従って、幾何
学輝度拘束条件に基づいて、物体への距離情報を検出
し、形状復元を行なう。具体的には、画像中各点におけ
る距離を幾何的輝度拘束条件にしたがって探索により求
めることにより物体の3次元形状を決定する。
り、対応付けに基づくステレオ法を応用することで対象
物体の3次元表面全体を復元される。
構成例について説明する。はじめに特徴点抽出部201
の詳細を説明する。
成例]図12に、前記特徴点抽出部201の詳細な構成
例を示す。特徴点抽出部201は孤立特徴点抽出機能と
連結特徴点抽出機能とを持つが、孤立特徴点抽出機能は
2次元空間差分処理部211と孤立特徴点対抽出部12
1とより構成し、連結特徴点抽出機能は局所マスク設定
部213と方向別分散値計算部214と連結特徴点抽出
部215とより構成する。また、孤立特徴点抽出機能と
連結特徴点抽出機能の入力初段に平滑化処理部210を
設けて、画像取り込み部200からの動画像系列データ
を平滑処理してから取り込む構成としてある。
する原画像に平滑化処理を施すためのものであり、次の
2次空間差分処理部211、および方向別分散値計算部
214におけるノイズ低減のための前処理を施すための
ものである。
された原画像(平滑化処理結果)に対し、2次空間差分
処理を施すことにより、孤立した特徴点部分の明度強調
を行なうものであり、孤立特徴点対抽出部212は、こ
の明度強調結果で適宜に設定した閾値以上の部分を抽出
することにより、画像中の孤立した特徴点を抽出し、こ
の座標値を図示しない記憶部(図示せず)に順次格納す
る機能を有する。
滑化処理部210の平滑化処理結果に対し、画像中の連
続する特徴点を抽出するための局所マスク領域を設定す
るものである。
設定された各局所マスク内の方向別分散値を計算するた
めのものであり、例えば、垂直、水平、右45度、左4
5度の4方向を選択し、局所マスク内の各方向に連続し
た画素の明度値を用いて、各方向別分散値を計算して連
結特徴点抽出部215に与えるものである。
散値計算部214において計算された方向別分散値が、
2つ以上の方向に対し一定閾値以上の値を有する局所マ
スクの中心点を連結特徴点として抽出し、この座標値を
図示しない記憶部に順次格納する機能を有するものであ
る。
いて、まずその平滑化処理部210において、抽出する
原画像に平滑化処理を施す。この処理をディジタルフィ
ルタで実現する場合は、例えば、
ルタで実現できる。この処理は、次の2次空間差分処理
部211、および方向別分散値計算部214における、
ノイズ低減のための前処理として行なわれる。2次空間
差分処理部211では、上記平滑化処理結果に対し、2
次空間差分処理を施すことにより、孤立した特徴点部分
の明度強調を行なう。この処理をディジタル空間フィル
タで実現する場合は、例えば、
ルタで実現できる。
この明度強調結果で適当に設定した閾値以上の部分を抽
出することにより、例えば、画像中の“頭部”における
“ほくろ”のような孤立した特徴点を抽出し、この座標
値を記憶部(図示せず)に順次格納する。さらに、局所
マスク設定部213では、前記平滑化処理部210の結
果に対し、例えば“頭部における目尻”、“唇の端点”
のような連続特徴点を抽出するための局所マスク領域を
順次設定する。
“目領域の上輪郭と下輪郭の交差する点”、“唇の端
点”であれば“上唇の輪郭と下唇の輪郭の交差する
点”、というように、複数の輪郭線(エッジ)の交差部
分、すなわち、複数の方向に輝度勾配が強い点として求
められる。マスク領域の大きさは、抽出する特徴点を構
成する輪郭線(エッジ)の長さと必要となる演算量を考
慮して最適となるように設定する。
て、この設定された各局所マスク内の方向別分散値を計
算する。
右45度、左45度の4方向を選択し、局所マスク内の
各方向に連続した画素の明度値を用いて、各方向別分散
値を計算する。次に、連結特徴点抽出部215におい
て、上記方向別分散値計算部214において計算された
方向別分散値が、2つ以上の方向に対し一定閾値以上の
値を有する局所マスクの中心点を連結特徴点として抽出
し、この座標値を記憶部(図示せず)に順次格納する。
画像取込み部200により得られた動画像系列から、モ
デル作成を行なう物体の表面を構成する特徴点を抽出す
ることができる。
を説明する。
部202の構成]3次元動き情報抽出部202の詳細な
構成例について、図13を用いて説明する。3次元動き
情報抽出部202は、特徴点対応づけ機能と計測行列設
定機能とを持つが、図13に示すように、特徴点対応づ
け機能は特徴点対応づけ部220で実現され、計測行列
設定機能は計測行列設定部221と計測行列変形操作部
222で実現される。
2は、前段の前記特徴点抽出部201で抽出された孤立
特徴点群、および連結特徴点群の、連続時系列画像間に
おける対応づけを行なうためのものであり、計測行列設
定部221はこれら対応づけの得られた特徴点の画像中
の座標値を用いて、3次元動き情報を求めるための計測
行列を作成するものであり、計測行列変形操作部222
はこの計測行列に対し、変形操作を行って2つの行列の
積の形に分解する操作を行い、画像間における物体の3
次元の動き情報である“フレーム間の物体の3次元の動
き情報”を決定するものである。そして、これにより、
動画像系列中におけるある時点での入力画像の任意の点
の座標と、その点までの推測される距離とから、他の画
像において対応する点の座標を算出することができるよ
うにするものである。
02は、その特徴点対応づけ部220において、前記特
徴点抽出部201で抽出された孤立特徴点群、および連
結特徴点群の、連続時系列画像間における対応づけを行
なう。
いて、少し詳しくふれておく。特徴点対応づけ部220
は画像間線形結合計算部203にも共通に利用される機
能要素であり、図14に、この特徴点対応づけ部220
の詳細な構成例を示す。特徴点対応づけ部220は図1
4に示すように、特徴点選択部223、局所マスク設定
部224、相関値計算部225、対応判定部226とよ
り構成される。
ず、その特徴点選択部223で、連続時系列画像間にお
ける対応づけを行なう特徴点の組を選択する。次に、局
所マスク設定部224において、これら特徴点を含む
“5×5”や“7×7”などのサイズを持つ局所マスク
領域を各々の画像中に設定する。
ら局所マスク領域間の相関係数の値を計算する。次に、
対応判定部226において、上記相関係数値がしきい値
以上、かつ最大となる組を、対応づけが求まったものと
して記憶部(図示せず)に格納する処理を、抽出された
各特徴点について順次行なう。
では特徴点抽出部201により抽出された孤立特徴点
群、および連結特徴点群の、連続時系列画像間における
対応づけ処理が行われる。以上が、特徴点対応づけ部2
20の動作の詳細である。
応づけ処理が終わると、その処理結果は計測行列設定部
221に渡される。そして、計測行列設定部221で
は、これら対応づけの得られた特徴点の画像中の座標値
を用いて、3次元動き情報を求めるための計測行列を作
成する。
のものの奥行きに対し、観測に用いるカメラが対象から
十分遠方にある(正射影の条件を満たす)場合につい
て、因子分解法を適用した例を説明する。
る場合、通常カメラを特に遠方に配置しなくても満たさ
れる。対応づけが得られた特徴点の組において、f枚目
の画像中のp番目の特徴点の位置を(Xfp,Yfp)
とする。
をPとする。f枚目の画像中の特徴点群の重心位置を
(Af,Bf)とすると、これらは、
差をとって、 X′fp=Xfp−Af,Y′fp=Yfp−Bf …(2-2) とする。このとき、計測行列Wは、
F×P”の行列である。次に、計測行列変形操作部22
2では、上記計測行列Wに対し、変形操作を行って W=MS …(2-3) という具合に、2つの行列の積の形に分解する。ただ
し、
処理を用いることにより実行される。
応づけられたp番目の特徴点の3次元位置(Xp,Yp,
Zp)である。
yf)は、f番目の画像の基本ベクトルであって、動画
像系列における各時点での画像の中心位置を与えてお
り、これらの差から“フレーム間の物体の3次元の動き
情報”、すなわち、“位置と姿勢の変化”を決定するこ
とができる。
が、Mの行列の要素ベクトルが正規直交系を構成するよ
うにするなどの適宜なる拘束条件の下に、分解を一意に
決定できる(詳細は前記参考文献2参照)。
点での入力画像の任意の点の座標と、その点までの推測
される距離Zとから、他の画像において対応する点の座
標を算出することができる。
用である。
細を説明する。
3の構成例]前記画像間線形結合計算部203の詳細に
ついて、図15を用いて説明する。画像間線形結合計算
部203は図15に示すように、特徴点対応づけ部22
0、評価関数計算部241、距離判定部242とより構
成される。特徴点対応づけ部220は図14で説明した
ものと同様であり、図では3次元動き情報抽出部202
と画像間線形結合計算部203とで、それぞれ独自に同
じものを持たせたように記述してあるが、共用化してそ
の出力を3次元動き情報抽出部202と画像間線形結合
計算部203とで、それぞれ利用するようにして良い。
は、動画像系列中の各々の特徴点に対して対応づけ処理
を実施するものである。この対応づけ処理により対応づ
けされた特徴点の輝度値Ii(j)を、輝度Iにおいて記録
することが出来る。
部220により対応づけの得られた特徴点における輝度
値を用いて、輝度行列を作成して輝度行列変形操作部2
32に渡すものであり、輝度行列変形操作部232はこ
れより、次段(距離情報検出部204)での距離情報検
出に必要な近似表現の行列を得るものである。
算部203の作用を説明する。
るとき、ある画素xiの輝度Iは、その画素に対応する
物体表面上の点の内向きの3次元単位法線ベクトルに表
面反射率を乗じた量Biと、点光源の光の方向を示す3
次元単位ベクトルに光源の強さを乗じた量slとの内
積、すなわち、 I=Bisl で表現されることに注意する必要がある(図18参
照)。
られる完全拡散反射表面を持つ凸物体の任意の画像は、
同一平面上にない3個の単一点光源によって対象物体を
同じ方向から撮影した任意の3枚の画像を基底画像と
し、それらの線形結合で表現できることがShashu
a(参考文献3;A.Shashua“Geometr
y and photometry in 3D vi
sual recognition” Ph.D.Th
esis,Dept.Brain and Cogni
tive Science,MIT,1992.参照)
によって示されている。
x(j)に投影される時、無限遠のnk個の点光源による反
射を“Lambertianモデル”で表現すると、j番目の画像
のi番目の点の輝度値Ii(j)は、
iは物体表面の内向きの単位法線ベクトルに表面反射率
を乗じたものであり、R(j)は最初の画像からj番目の
画像までの物体の回転を表す行列であり、skはk番目
の光の方向を示す単位べクトルに光源の強さを乗じたも
のである。
と、内積が負の値をとるのでmax(・,0)とする必要
がある。
番目の光源がj番目の画像を照射しているかどうかで、
“1”または“0”の値をとる。画像中の特徴点がni
個であり、nj枚の動画像系列を解析する場合、輝度I
は、以下の行列表現をとることが出来る。
点対応づけ部220で、nj枚通して全ての動画像系列
中の各々の特徴点に対して対応づけ処理が成されること
によって対応づけされた特徴点の輝度値Ii(j)を、輝度
Iにおいて記録することが出来る。
“対応づけされた特徴点の輝度値”が求められると、次
に輝度行列設定部231での処理に移る。輝度行列設定
部231では、これら対応づけの得られた特徴点におけ
る輝度値を用いて、輝度行列を作成する。そして、これ
を輝度行列変形操作部232に渡す。
次段(距離情報検出部204)での距離情報検出に必要
な近似表現の行列を得る。
点光源を考えるとき、輝度行列変形操作部232では、
上記計測行列である輝度Iの行列に対し、例えば、特異
値分解等を行なうことによって、rank3の行列による近
似表現を得ることが出来る。
分解は一意ではなく、一般には任意の3×3正則行列A
を用いて次のように表現される:
02では、特徴点抽出部201で抽出された孤立特徴点
群、及び連結特徴点群の連続時系列画像間における対応
づけが行われ、動画像系列中におけるある時点での入力
画像の任意の点の座標と、その点までの推測される距離
とから、他の画像において、対応する点の座標を求める
ことになる。
与えられ、ここで距離情報の検出が行われるが、当該距
離情報検出部204の詳細は次の通りである。
成]前記距離情報検出部204の詳細な構成例につい
て、図16を用いて説明する。図16に示すように、距
離情報検出部204は3次元基底画素計算部240、評
価関数計算部241、距離判定部242とより構成され
る。
0は、3次元動き情報抽出部202と画像間線形結合計
算部203の出力から、3次元基底画像を求めるもので
あり、評価関数計算部241は、この求められた基底画
像と線形結合係数によって合成される輝度と実際の輝度
との自乗誤差に基づいて所定の評価関数Ei(Z)を計
算するものである。また、距離判定部242は、推測の
距離Zを変化させつつ上記評価関数Ei(Z)の計算を
行い、評価関数を最小(理想的には零)とする距離Zを
以てその点での距離とすると云った処理を行うものであ
る。
念は、動画像中から、ある基本画像を選択し、この画像
中で“顔”に相当する部分の各画素において、他の画像
との幾何的輝度拘束(幾何学的に対応する点における輝
度間に成立する線形拘束)にしたがって距離を推定する
というものであり、ここでの処理には前記3次元動き情
報抽出部202の処理結果と、前記画像間線形結合計算
部203での処理結果の双方を利用するものである。
ると、図17に4枚の時系列画像を用いて示される如く
である。つまり、図17に示す例は、実施形態2におけ
る画像処理装置の、図10及び図11に示した距離情報
検出部204において用いられる幾何学的輝度拘束を示
すスケッチ図であり、f1,f2,f3,f4はそれぞ
れ異なる時点での画像であり、Target Objectは目的の
被写体、Object Motionは被写体の運動方向、zは被写
体に対するカメラの光軸、そして、Ii(1),Ii
(2),Ii(3),Ii(4)はそれぞれ画素の輝度で
あって、基準画像の任意の画素の輝度Ii(1)は、他
の3枚の画像において幾何学的に対応している点の輝度
Ii(2),Ii(3),Ii(4)の線形結合で表され
る。なお図中、対象物体の動きは撮影するカメラ(Camer
a)の逆位相の動きとして解釈されている。
面のある点Xiが投影された画素の輝度Ii(1)を考える
とき、その点Xiへの距離Zを仮定し、これに従って同
じ点Xiが異なる時点の画像において投影された輝度I
i(2),Ii(3),Ii(4)を推測し、これらの輝度が、画
像間線形結合計算部203で計算された線形結合係数に
基づいた線形結合拘束を正しく満たす度合を評価する。
この評価により、正しい距離Zを探索によって求めるこ
とができるので、この評価により、正しい距離Zを探索
によって求める。
る。
するとき、これに対する3次元基底画素計算部240と
評価関数計算部241を以下のように構成する。
化させつつ上記評価関数Ei(Z)の計算を行い、評価
関数を最小(理想的には零)とするZを以てその点での
距離とする。
ることで、画像全体の距離画像を得る。
に限定されるものではない。例えば、距離情報検出部4
において3次元物体の形状の連続性が仮定できる際に
は、検出された形状に含まれる誤差を平滑化により緩和
することができる。
る際、3次元動き情報抽出部202において物体の動き
と同時に抽出される特徴点の3次元位置情報Sを用いて
距離Zの推測範囲を限定することができる。
おいて線形結合係数として光源の方向Sが既知である場
合は、3次元基底画素計算部240における式(2-15)
は次式で置き換えられる。
点光源における議論を基に、その組合せとして一般光源
へ拡張した環境へも対応することが可能である。このよ
うに、本発明は物体の幾何的条件と光学的条件を組み合
わせることにより様々な拡張が可能である。
のある物体の形状復元を、実用的な精度と処理速度を満
足して行なうための画像処理方法およびその装置を提供
することが可能となり、3次元CAD、また3次元CG
(コンピュータグラフィクス)を用いた映像作成等の技
術に、大きく貢献する。
る本発明の画像処理装置は、対象物体の撮影により時系
列的に得られる画像を取り込む画像取り込み手段と、こ
の画像取り込み手段によって取り込まれた時系列画像か
ら上記対象物体の特徴点を抽出する特徴点抽出手段と、
この特徴点抽出手段によって抽出された上記時系列画像
の各時点の画像中に含まれる特徴点どうしを対応づけ、
その対応づけられた各特徴点の位置座標情報を解析処理
することにより、上記時系列画像の各時点における上記
対象物体の位置と姿勢の変化を決定する手段と、その対
応づけられた各特徴点の輝度情報を解析処理することに
より、上記時系列画像間の線形結合係数を計算する手段
と、上記により決定された上記対象物体の上記時系列画
像中の各時点の位置・姿勢と、上記により計算された上
記時系列画像間の線形結合係数から、上記対象物体の各
点への距離情報を推定する手段とを具備したものであ
る。
る手段は、上記時系列画像のうち特定時点Aの画像を選
択し基準画像とし、この基準画像中で各画素における上
記対象物体までの距離Zを設定し、この距離Zの評価を
幾何学的条件と光学的条件の両方に基づいて行うもので
あり、この距離Zおよび上記により決定された上記対象
物体の各時点の位置・姿勢から、上記各画素と対応する
画素を上記特定時点Aと異なる3時点以上の画像群にお
いて決定し、これら対応する画素における輝度と上記基
準画像中の画素における輝度との整合の度合を、上記に
より計算された上記時系列画像間の線形結合係数を介し
て計算し、この整合の度合に応じて任意に仮定された距
離Zを評価することにより、この評価に基づいて距離情
報を推定する。
って得られる時系列画像を用い、その時系列画像の各時
点の画像に含まれる特徴点同士を対応付け、その対応付
けられた各特徴点の位置座標情報から対象物体の各時点
の3次元の位置と姿勢、従って、時系列画像間の幾何学
的結合条件を求め、一方でその対応づけられた各特徴点
の輝度情報から時系列画像間の光学的結合条件を計算
し、時系列画像問の幾何学的および光学的結合条件を用
いて各画素における距離情報を獲得し、これを上記対象
物体のモデル情報として出力する。
えば、人間の頭部のように複雑形状、かつ、動きのある
物体を対象に、一台のカメラを入力装置として当該対象
物体のモデル(数値データ)を自動作成することができ
る。
の動きを追うヘッドトラッキング、テレビ会議やテレビ
電話等において人物の移動ベクトルを抽出することでの
画像の通信に必要な情報量を減らすビデオコンプレッシ
ョン、ゲームへの応用を含むVR(バーチャルリアリテ
ィ;仮想現実)上でのポインティングを行なう3次元ポ
インタ等を可能にする画像処理装置および方法に関す
る。
ィ)の分野においては、2次元ではなく、3次元CG
(コンピュータグラフィクス)を用いた映像を使う状況
が急速に増えており、3次元映像内での指示に用いるイ
ンタフェイスとして、3次元マウスの必要性が高まって
おり、それに伴い、様々な装置が3次元マウスとして開
発されている。
より3次元空間内の移動やポインティングを行なうこと
が出来る3次元マウス等の装置も開発されているが、ポ
インテング操作がせっかく3次元的に行えるようになっ
ていても、画像表示するディスプレイが2次元であるた
め、感覚的に3次元の空間内の操作を行なうことはユー
ザにとって困難である。
ためのセンサが具備されたグローブ(手袋)形式になっ
ており、手にはめて3次元空間内の操作を行える装置も
開発されている。このグローブ形式の装置は、上記の3
次元マウスに比べてより感覚的な操作が行なえるもの
の、特殊なグローブを手に装着しなければならない、と
いう欠点がある。また、体全体で3次元ポインテングを
行おうとすると、姿勢検出や頭の移動等を検出する必要
があり、そのためには、センサなどを取り付けた特殊な
装置を検出対象部分に装着しなければならないなど、現
実的でない。
えて、その画像の動きや状態を解析し、得られた情報か
ら、3次元ポインティングや操作指示を行うことができ
るようにすれば、指の動きや体の動き、姿勢などで操作
ができ、操作者にとって直感的で分かりやすく、操作し
易いものとなって、問題が一挙に解決できそうである。
は、研究中であり、まだ、実用的な手法が確立していな
いのが現状である。
術においては、あらかじめモデルを保持しておき、“ま
ばたき”を発生させたり、言葉に合わせて“口”の形状
をCGで生成し、モデルに加える等の技術を用いて、伝
達する情報量を少なくさせるようにする等の工夫がなさ
れているが、画像中の対象物の動き情報をどのようにし
て得るかという技術については現在も確立されていな
い。
物の画像を動画像として得て、これを解析し、3次元ポ
インティングに使用したり、対象物のトラッキング(動
きの追跡)、姿勢検出や姿勢判定などをすれば、グロー
ブ等の装置装着の煩わしさを解消し、しかも、テレビ会
議やテレビ電話における“まばたき”発生や、言葉に合
わせて“口”の動く様子をCGで生成し、モデルに加え
る等の技術を駆使した伝達情報量の削減処理を実現でき
るようにする。
や位置の情報の取得をしたり、姿勢などの情報の取得、
トラッキングを如何にして実現するか、その具体的手法
を実施形態3として説明する。
成]図19に本発明の基本的な構成例を示す。図中、3
00は画像取り込み部、301は特徴点抽出部、302
は3次元位置抽出部、303は姿勢情報検出部である。
物の画像を動画像として取り込むものであって、対象物
を撮像して得られる動画像データを提供するものであ
る。特徴点抽出部301は、この画像取り込み部300
より得られた動画像データ系列から、モデル作成を行な
う物体の表面を構成する特徴点を抽出するものであっ
て、図20に示すように孤立特徴点を抽出する機能と連
結特徴点を抽出する機能を備えている。
れた特徴点の情報を用い、連続画像間でこれら特徴点同
士の対応付けを行い、対応づけられた特徴点群の位置座
標から生成される行列を係数行列として含む関係式を変
形操作して、各特徴点の3次元位置情報を求めるもので
あって、図20に示すように、特徴点対応づけ機能と計
測行列を設定する機能とを備えている。
次元位置情報が求まった特徴点を基に、物体の移動情報
を検出し、トラッキングを行なうものであって、図20
に示すように、3次元基底画像を計算する機能と姿勢判
定する機能を備えている。
300により得られた動画像系列から、まず特徴点抽出
部301により、モデル作成を行なう物体の表面を構成
する特徴点を抽出する。
り、連続画像間でこれら抽出した特徴点同士の対応付け
を行い、対応づけられた特徴点群の位置座標から生成さ
れる行列を係数行列として含む関係式を変形操作するこ
とにより、各特徴点の3次元位置情報を求める。
れら3次元位置情報が求まった特徴点を基に、物体の移
動情報を検出し、トラッキングを行なう。
し、あるいは物体の位置を情報や姿勢の変化を取得する
ために、対象物体の時系列画像(動画像系列)を元に、
特徴点抽出部301にて、追跡する対象物体のモデル作
成を行なうために特徴点を抽出し、3次元位置情報抽出
部302にて、連続画像間でこれら抽出した特徴点どう
しの対応づけを行ない、その特徴点群の位置座標情報か
ら各特徴点の3次元情報を求め、そして、移動情報検出
部303にて、これら3次元情報が求まった特徴点を基
に、時系列画像の各フレームで抽出される特徴点の位置
とその輝度情報に従って、物体の動きを自動的に追跡す
る。
構成例について説明する。
の構成]図21に、前記特徴点抽出部301の詳細な構
成例を示す。
平滑化処理部304、2次元空間差分処理部305、孤
立特徴点対抽出部306、局所マスク設定部307、方
向別分散値計算部308、連結特徴点抽出部309から
構成される。
徴点抽出する原画像に平滑化処理を施すものであり、画
像取り込み部300から入力された動画像系列の画像に
ついて各画像毎に平滑化処理を加えて出力するものであ
る。また、2次元空間差分処理部5は、上記平滑化処理
部304による平滑化処理結果に対し、2次空間差分処
理を施すことにより、孤立した特徴点部分の明度強調を
行なうものである。
明度強調結果で一定閾値以上の部分を抽出することによ
り、孤立した特徴点を抽出し、この抽出した孤立特徴点
の座標値(原画像の画面上での座標点)を図示しない記
憶部(図示せず)に順次格納するといった処理を行うも
のである。
理部304の平滑化処理済み画像に対し、例えば“頭部
における目尻”、“唇の端点”のような連続特徴点を抽
出するための局所マスク領域を、順次設定するものであ
り、方向別分散値計算部308は、この設定された各局
所マスク内の方向別分散値を計算するものである。
向別分散値計算部308において計算された方向別分散
値が、2つ以上の方向に対し、一定閾値以上の値を有す
る局所マスクの中心点を連結特徴点として抽出し、この
座標値を図示しない記憶部(図示せず)に順次格納する
ものである。
明する。
る原画像に平滑化処理を施す。この処理をディジタルフ
ィルタで実現する場合は、例えば、
で実現できる。この処理は、次の2次空間差分処理部3
04、および方向別分散値計算部308における、ノイ
ズ低減のための前処理として行なわれる。2次空間差分
処理部304では、上記平滑化処理結果に対し、2次空
間差分処理を施すことにより、孤立した特徴点部分の明
度強調を行なう。この処理をディジタル空間フィルタで
実現する場合は、例えば、
ルタで実現できる。
この明度強調結果で一定閾値以上の部分を抽出すること
により、例えば“頭部”における“ほくろ”のような孤
立した特徴点を抽出し、この座標値を記憶部(図示せ
ず)に順次格納する。
記平滑化処理部304の結果に対し、例えば“頭部にお
ける目尻”、“唇の端点”のような連続特徴点を抽出す
るための局所マスク領域を、順次設定する。
「“目”領域の上輪郭と下輪郭の交差する点」、“唇”
の端点であれば「“上唇”の輪郭と“下唇”の輪郭の交
差する点」、というように、複数の輪郭線(エッジ)の
交差部分として求められる。マスク領域の大きさは、抽
出する特徴点を構成する輪郭線(エッジ)の長さに応じ
て最適となるように設定する。
て、この設定された各局所マスク内の方向別分散値を計
算する。この方向としては例えば、垂直、水平、右45
度、左45度の4方向を選択し、局所マスク内の各方向
に連続した画素の明度値を用いて、各方向別分散値を計
算する。
方向別分散値計算部308において計算された方向別分
散値が、2つ以上の方向に対し一定閾値以上の値を有す
る局所マスクの中心点を連結特徴点として抽出し、この
座標値を記憶部(図示せず)に順次格納する。
などを解析できるようにして、ユーザにとって、感覚的
に3次元ポインティングを行なうことが出来、しかも、
解析したい部位に装置を装着することなくポインティン
グあるいはトラッキングを行なうことが出来るようにす
るには次のようにする。
物体の追跡を行なう装置として、時系列的に得られる前
記対象物体の画像から前記対象物体の特徴点を各時点毎
に抽出する特徴点抽出手段と、この特徴点抽出手段によ
り抽出された各時点毎の各特徴点のうち、前記時系列画
像間での対応する特徴点同士を対応づけ、その対応づけ
られた各特徴点の位置座標情報を解析処理することによ
り、これら各特徴点の3次元位置情報を求める3次元位
置情報抽出手段と、この3次元位置情報抽出手段にて得
られた各特徴点の3次元位置情報に基づいて、前記時系
列画像の各時点における前記対象物体の位置と姿勢のう
ち、少なくとも一つを推定する推定手段とを具備する。
られる前記対象物体の画像から前記対象物体の特徴点を
各時点毎に抽出し、この抽出した各時点毎の各特徴点の
うち、前記時系列画像間での対応する特徴点同士を対応
づける。そして、その対応づけられた各特徴点の位置座
標情報を解析処理することにより、これら各特徴点の3
次元位置情報を求める。そして、この求めた各特徴点の
3次元位置情報に基づいて、前記時系列画像の各時点に
おける前記対象物体の位置と姿勢のうち、少なくとも一
つを推定する。
像から、対象物の“特徴点”を抽出してその“特徴点の
追跡”を画像間に亘って行なうことにより、トラッキン
グや、位置、方向等の情報を簡易に取得できるようにな
る。
姿勢を求める手段においては、その具体的手法として、
上記3次元位置情報の得られた各特徴点を通過し、これ
らの各特徴点およびその周囲における上記対象物体表面
上の明度情報を保持する3次元の曲面パッチ(方向性を
持つパッチ)を生成し、この生成された3次元パッチ群
を、これら3次元パッチ群が通過する上記特徴点の3次
元位置情報とに基づいて、時系列画像の各時点の画像と
比較することにより、上記時系列画像の各時点における
上記対象物体の姿勢を推定する。
列的に取り込まれた各時点における対象物体の画像とを
比較する手段においては、上記各3次元パッチの明度情
報を基底画像の線形結合によって表現し、上記対象物体
の姿勢に従った線形結合係数を求めることにより、対象
物体の取り得る様々な姿勢に対応した合成画像を生成
し、この生成された画像と対象物体の画像の類似度に応
じて各々の姿勢を評価し、この評価に基づいて姿勢を推
定する。
物体の追跡を行なうに当たり、対象物体の撮影により時
系列的に得られる画像を取り込み、各時点においてこの
取り込まれた画像から上記対象物体の特徴点を抽出し、
この抽出された特徴点については上記時系列画像の各時
点の画像中に含まれる特徴点どうしを対応づけ、その対
応づけられた各特徴点の位置座標情報を解析処理するこ
とにより、これら各特徴点の3次元位置情報を求め、こ
の求められた各特徴点の3次元位置情報に基づいて、上
記時系列画像の各時点における上記対象物体の位置と姿
勢を推定する。そして、対象物の撮像された時系列画像
から、対象物の“特徴点”を抽出してその“特徴点の追
跡”を画像間に亘って行なうことにより、トラッキング
や、位置、方向等の情報を簡易に取得できるようにする
が、以下に説明する実施形態3においては、人間の頭部
の動きをトラッキングする場合を例にとり、図19〜図
24を用いて説明する。
部302の構成]次に、前記3次元位置情報抽出部30
2の詳細な構成例について、図22を用いて説明する。
部302は、特徴点対応づけ部310、計測行列設定部
311、計測行列変形操作部312とより構成される。
は、前記特徴点抽出部301で抽出された孤立特徴点
群、および連結特徴点群の、連続時系列画像間における
対応づけを行なうものであり、計測行列設定部311
は、この対応づけられた特徴点群の位置座標から行列を
生成しするものであり、計測行列変形操作部312は、
この生成された行列を係数行列として含む関係式を変形
操作することにより、各特徴点の3次元位置情報を求め
るものである。
02は、特徴点抽出部301が求めて記憶部(図示せ
ず)に記憶させた特徴点の情報を用いて、ますはじめに
特徴点対応づけ部310により、孤立特徴点群および連
結特徴点群の、連続時系列画像間における対応づけを行
なう。
詳細な構成例を示す。特徴点対応づけ部310は、図2
3に示すように特徴点対選択部313、局所マスク設定
部314、相関値計算部315、対応判定部316とよ
り構成される。
間における対応づけを行なう特徴点の組を選択するもの
であり、局所マスク設定部314は、これら特徴点を含
む局所マスク領域を各々の画像中に設定するものであ
る。また、相関値計算部315は、これら局所マスク領
域間の相関係数の値を計算するものであり、対応判定部
316は、相関係数値が閾値以上、かつ最大となる組
を、対応づけが求まったものとして図示しない記憶部
(図示せず)に格納する処理を行うものであり、これを
前記抽出された各特徴点について順次行なうものであ
る。
て、まず、その特徴点選択部313で、連続時系列画像
間における対応づけを行なう特徴点の組を選択する。次
に、局所マスク設定部314において、これら特徴点を
含む局所マスク領域を各々の画像中に設定する。
ら局所マスク領域間の相関係数の値を計算する。次に、
対応判定部316において、上記相関係数値が閾値以
上、かつ最大となる組を、対応づけが求まったものとし
て図示しない記憶部に格納する処理を、抽出された各特
徴点について順次行なう。
対応づけの得られた特徴点の座標値を用いて、3次元位
置を求めるための計測行列を作成する。
に用いるカメラ(動画像を取得するための撮像装置で、
一般的にはテレビカメラ)から十分遠方にある(正射影
の条件を満たす)場合について、因子分解法を適用した
例について述べる。
f枚目の画像中のp番目の特徴点の位置を(Xfp,Y
fp)とする。また、画像の総枚数をF、特徴点の組の
数をPとする。
位置を(Af,Bf)とすると、これらは、
差をとって、 X′fp=Xfp−Af,Y′fp=Yfp−Bf …(3-2) とする。このとき計測行列Wは、
F×Pの行列である。次に、計測行列変形操作部12で
は、上記計測行列Wに対し変形操作を行なって W=MS …(3-3) と2つの行列の積の形に分解する。ただし、
処理を用いることにより実行される。ここで、Mの行列
の成分のうち(xf,yf)は、f番目の画像の基本べク
トルであり、動画像系列における各時点での画像の中心
位置を与えており、これらの差が画像間の動きとなる。
れたp番目の特徴点の3次元位置(Xp,Yp,Zp)で
ある。
3の構成]次に、前記姿勢情報検出部303の詳細な構
成例について、図24を用いて説明する。図24に示す
ように、姿勢情報検出部303は3次元基底画像計算部
317、評価関数計算部318、姿勢判定部319とよ
り構成される。3次元基底画像計算部317は、3次元
基底画像を表す行列を求めるとともに、この3次元基底
画像を適宜な線形係数と組み合わせて対象物体の特徴点
の輝度値を任意の姿勢に対して合成するものである。ま
た、評価関数計算部318は、3次元基底画像計算部3
17の求めた値を用いて姿勢検出対象の移動情報検出を
行なうものであり、この移動情報から過去の画像フレー
ムにおける姿勢の履歴に基づき、現在の画像フレームで
の姿勢がある姿勢になる確率を求めるものである。姿勢
判定部319は、この確率が最大となる姿勢を判定する
ものである。
元位置情報抽出部302で求められた各特徴点の3次元
位置情報を受けると、まずはじめに3次元基底画像計算
部317において、対象物体の特徴点の輝度値を任意の
姿勢に対して合成する。
点に投影される時、無限遠の点光源n,による反射を
“Lambertianモデル”で表現すると、j番目の画像のi
番目の点の輝度値は、
目の画像を照射しているかどうかで、“1”または
“0”の値をとる。(なお、上記パッチとは特徴点を通
る平面の最小単位を指す。) 画像中の特徴点がni個であり、nj枚の動画像系列を解
析する場合、以下の行列表現をすることが出来る。
行なうことによって、rank 3の行列による近似表現を得
ることが出来る。
ある。この3次元基底画像を適当な線形係数と組み合わ
せることにより、対象物体の特徴点の輝度値を任意の姿
勢に対して合成することができ、これらの値は時系列画
像の各フレームにおける物体の姿勢を検出する際の評価
値の計算に用いることが出来る。
の値を用いて実際に人体頭部の移動情報の検出を行な
う。
度および角速度であり、σuとσmはこれら速度に対し
て仮定し得る標準的値である。これは、例えば時刻tま
での全フレームにおける線形速度、角速度各々の平均を
求めることによって推測できる。
も前々フレームと前フレームの線形速度および角速度の
差を用いることも出来る。
ことによって、姿勢判定部319の判定した姿勢の変遷
より頭部のトラッキングが行えることになる。
限定されるものではない。例えば、式(3-15)においてI
lに特徴点の輝度値を用いるのではなく、事前に画像中
の特徴点周辺に3次元パッチ(曲面パッチ;方向性を持
つパッチ)を生成し、そのパッチの輝度値と現フレーム
での画像におけるパッチの輝度値とのマッチング、ある
いは特徴点およびパッチの両方を用いて物体の姿勢を決
定し、物体のトラッキングを行なうことも出来る。この
場合、トラッキングを行なう際のパッチの生成には、姿
勢を推定できる程度の数と大きさがあれば充分であり、
頭部のモデルを再構成する程に密である必要はない。ま
た、本発明の適用可能な対象物体は特に人体頭部とは限
らず、特徴点が抽出可能な物体一般に適用することが出
来る。
の頭部のように複雑形状な任意の物体の動きを、実用的
な精度と処理速度を満足しつつ時系列画像中から自動追
跡することができるようにするため、動画像中に含まれ
る対象物体の追跡を行なう装置において、時系列的に得
られる前記対象物体の画像から前記対象物体の特徴点を
各時点毎に抽出する特徴点抽出手段と、この特徴点抽出
手段により抽出された各時点毎の各特徴点のうち、前記
時系列画像間での対応する特徴点同士を対応づけ、その
対応づけられた各特徴点の位置座標情報を解析処理する
ことにより、これら各特徴点の3次元位置情報を求める
3次元位置情報抽出手段と、この3次元位置情報抽出手
段にて得られた各特徴点の3次元位置情報に基づいて、
前記時系列画像の各時点における前記対象物体の位置と
姿勢のうち、少なくとも一つを推定する手段とから構成
した。
画像処理方法および装置は、一連の動画像中に含まれる
対象物体の追跡を行なうに当たり、対象物体の撮影によ
り時系列的に得られる画像を取り込み、各時点において
この取り込まれた画像から上記対象物体の特徴点を抽出
し、この抽出された特徴点については上記時系列画像の
各時点の画像中に含まれる特徴点どうしを対応づけ、そ
の対応づけられた各特徴点の位置座標情報を解析処理す
ることにより、これら各特徴点の3次元位置情報を求
め、この求められた各特徴点の3次元位置情報に基づい
て、上記時系列画像の各時点における上記対象物体の位
置と姿勢を推定するようにした。
時系列画像から、対象物の特徴点を抽出してその特徴点
の追跡により、トラッキングや、位置、方向等の情報を
取得できるようになり、3次元ポインテングに利用でき
ると共に、複雑形状かつ動きのある物体を、実用的な精
度と処理速度を満足したトラッキングを行なうことがで
きて、テレビ電話やテレビ会議の伝達情報のためのCG
代用に利用する口元、まばたき、頭の動き、姿勢等の検
出に適用できるなど、3次元ポインタとして、またテレ
ビ会議およびテレビ電話の通信情報量の軽減等の技術
に、大きく貢献できる。
れるものではなく、種々変形して実施可能である。
明によれば、対象物体の撮影によって得られる時系列画
像を用い、その時系列画像の各時点の画像に含まれる特
徴点どうしを対応づけ、その対応づけられた各特徴点の
位置座標情報から3次元の位置情報を求め、この各特徴
点の3次元位置情報から上記対象物体の表面を構成する
3次元パッチ群を生成し、これを上記対象物体のモデル
情報として出力するようにしたため、例えば人間の頭部
のように複雑形状、かつ、動きのある物体の表面(サー
フェス)モデルを実用的な精度と処理速度を満足しつつ
自動的に作成することができる。したがって、例えば3
次元CGなどに本発明を適用することにより、高精度な
画像処理を実現することができるものである。
ば、複雑形状かつ動きのある物体の形状復元を、実用的
な精度と処理速度を満足して行なうための画像処理方法
およびその装置を提供することが可能となり、3次元C
AD、また3次元CG(コンピュータグラフィクス)を
用いた映像作成等の技術に、大きく貢献する。
処理方法および装置は、一連の動画像中に含まれる対象
物体の追跡を行なうに当たり、対象物体の撮影により時
系列的に得られる画像を取り込み、各時点においてこの
取り込まれた画像から上記対象物体の特徴点を抽出し、
この抽出された特徴点については上記時系列画像の各時
点の画像中に含まれる特徴点どうしを対応づけ、その対
応づけられた各特徴点の位置座標情報を解析処理するこ
とにより、これら各特徴点の3次元位置情報を求め、こ
の求められた各特徴点の3次元位置情報に基づいて、上
記時系列画像の各時点における上記対象物体の位置と姿
勢を推定するようにしたものである。
像から、対象物の特徴点を抽出してその特徴点の追跡に
より、トラッキングや、位置、方向等の情報を取得でき
るようになり、3次元ポインテングに利用できると共
に、複雑形状かつ動きのある物体を、実用的な精度と処
理速度を満足したトラッキングを行なうことができて、
テレビ電話やテレビ会議の伝達情報のためのCG代用に
利用する口元、まばたき、頭の動き、姿勢等の検出に適
用できるなど、3次元ポインタとして、またテレビ会議
およびテレビ電話の通信情報量の軽減等の技術に、大き
く貢献する画像処理装置および画像処理方法を提供でき
る。
実施形態1に係る画像処理装置の全体構成を示すブロッ
ク図。
実施形態1に係る全体的な処理の流れを示すフローチャ
ート。
実施形態1に係るシステムの基本的な構成を示すブロッ
ク図。
実施形態1に係るシステムにおける図3の特徴点抽出部
の詳細な構成を示すブロック図。
実施形態1に係るシステムにおける図3に示した3次元
位置情報抽出部の詳細な構成を示すブロック図。
実施形態1に係るシステムにおける図5の特徴点対応づ
け部の詳細な構成を示すブロック図。
実施形態1に係るシステムにおける図3に示した3次元
パッチ群生成部13の詳細な構成を示すブロック図。
実施形態1に係るシステムにおける図3に示した3次元
位置情報抽出部12の詳細構成変形例を示すブロック
図。
実施形態1に係るシステムにおける図3に示した特徴点
対応づけ部の詳細構成変形例を示すブロック図。
の実施形態2に係わる画像処理装置の全体構成を示すブ
ロック図。
の実施形態2に係わる画像処理装置の基本的な構成を示
すブロック図。
の実施形態2に係わる画像処理装置における図10及び
図11に示した特徴点抽出部201の詳細な構成を示す
ブロック図。
の実施形態2に係わる画像処理装置における図10及び
図11に示した3次元動き抽出部202の詳細な構成を
示すブロック図。
の実施形態2に係わる画像処理装置における図10及び
図11に示した3次元動き情報抽出部202および画像
間線形結合計算部203の持つ特徴点対応づけ機能の詳
細な構成を示すブロック図。
の実施形態2に係わる画像処理装置における図10及び
図11に示した画像間線形結合計算部203の詳細な構
成を示すブロック図。
の実施形態2に係わる画像処理装置における図10及び
図11に示した距離情報検出部204の詳細な構成を示
すブロック図。
の実施形態2に係わる画像処理装置における図10及び
図11に示した距離情報検出部204において用いられ
る幾何学的輝度拘束を示すスケッチ図。
の実施形態2に係わる画像処理装置で使用する物体の表
面反射モデル例を示すスケッチ図。
の実施形態3に係わる動画像処理装量の全体構成を示す
ブロック図。
の実施形態3に係わる動画像処理装量の全体構成を示す
ブロック図。
の特徴点抽出部301の詳細な構成を示すブロック図。
の3次元位置抽出部302の詳細な構成を示すブロック
図。
の特徴点対応づけ部310の詳細な構成を示すブロック
図。
の姿勢情報検出部303の詳細な構成を示すブロック
図。
Claims (18)
- 【請求項1】対象物体の撮影により時系列的に得られる
画像を取り込む画像取込み手段と、 この画像取込み手段によって取り込まれた時系列画像か
ら上記対象物体の特徴点を抽出する特徴点抽出手段と、 この特徴点抽出手段によって抽出された上記時系列画像
の各時点の画像に含まれる特徴点どうしを対応づけ、そ
の対応づけられた各特徴点の位置座標情報を解析処理す
ることにより、3次元の位置情報を求める3次元位置情
報抽出手段と、 この3次元位置情報抽出手段によって得られた上記各特
徴点の3次元位置情報に基づいて上記対象物体の表面を
構成する3次元パッチ群を生成する3次元パッチ群生成
手段と、 この3次元パッチ群生成手段によって生成された3次元
パッチ群を上記対象物体のモデル情報として出力する出
力手段とを具備したことを特徴とする画像処理装置。 - 【請求項2】上記3次元位置情報抽出手段は、上記時系
列画像のうちのあるA時点の画像を選択し、このA時点
の画像に含まれる上記検出された各特徴点と上記A時点
と異なるB時点の画像に含まれる上記検出された各特徴
点どうしを順次対応付けるものであり、その際に、上記
A時点における画像中の位置と上記B時点における画像
中の位置の変化情報を用いて各特徴点どうしを対応づけ
ることを特徴とする請求項1記載の画像処理装置。 - 【請求項3】上記3次元パッチ群生成手段は、上記各特
徴点の3次元位置情報と共に上記各特徴点の画像中の明
度情報を用いることにより、上記対象物体の表面を構成
する3次元パッチ群を求めることを特徴とする請求項1
記載の画像処理装置。 - 【請求項4】 上記3次元パッチ群生成手段は、上記3
次元位置情報の得られた各特徴点を通過する3次元の曲
面パッチを想定し、上記3次元位置情報の得られた各特
徴点における明度情報または上記3次元曲面パッチに含
まれる各点の明度情報と、上記3次元位置情報の得られ
た各特徴点の投影点における明度情報または上記曲面パ
ッチに含まれる各点の投影点における明度情報とを比較
して、上記3次元曲面パッチの方向パラメータを決定す
ることを特徴とする請求項1記載の画像処理装置。 - 【請求項5】対象物体の撮影により時系列的に得られる
画像を取り込み、 この取り込まれた時系列画像から上記対象物体の特徴点
を抽出し、 この抽出された上記時系列画像の各時点の画像に含まれ
る特徴点どうしを対応づけ、その対応づけられた各特徴
点の位置座標情報を解析処理することにより、3次元の
位置情報を求め、 この各特徴点の3次元位置情報に基づいて上記対象物体
の表面を構成する3次元パッチ群を生成し、 この生成された3次元パッチ群を上記対象物体のモデル
情報として出力するようにしたことを特徴とする画像処
理方法。 - 【請求項6】上記3次元位置情報を生成する場合におい
て、上記時系列画像のうちのA時点の画像を選択し、こ
のA時点の画像に含まれる上記検出された各特徴点と上
記A時点と異なるB時点の画像に含まれる上記検出され
た各特徴点どうしを、上記A時点における画像中の位置
と上記B時点における画像中の位置の変化情報を用いて
対応づけることを特徴とする請求項5記載の画像処理方
法。 - 【請求項7】上記3次元パッチ群を生成する場合におい
て、上記各特徴点の3次元位置情報と共に上記各特徴点
の画像中の明度情報を用いることにより、上記対象物体
の表面を構成する3次元パッチ群を求めることを特徴と
する請求項5記載の画像処理方法。 - 【請求項8】上記3次元パッチ群を生成する場合におい
て、 上記3次元位置情報の得られた各特徴点を通過する3次
元の曲面パッチを想定し、上記3次元位置情報の得られ
た各特徴点における明度情報または上記3次元曲面パッ
チに含まれる各点の明度情報と、上記3次元位置情報の
得られた各特徴点の投影点における明度情報または上記
曲面パッチに含まれる各点の投影点における明度情報と
を比較して、上記3次元曲面パッチの方向パラメータを
決定することを特徴とする請求項5記載の画像処理方
法。 - 【請求項9】一連の動画像中に含まれる対象物体の形状
獲得のための画像処理装置において、 対象物体の撮影により時系列的に得られる画像を取り込
む画像取り込み手段と、 この画像取り込み手段によって取り込まれた時系列画像
から上記対象物体の特徴点を抽出する特徴点抽出手段
と、 この特徴点抽出手段によって抽出された上記時系列画像
の各時点の画像中に含まれる特徴点どうしを対応づけ、
その対応づけられた各特徴点の位置座標情報を解析処理
することにより、上記時系列画像の各時点における上記
対象物体の位置と姿勢の変化を決定する動き情報抽出手
段と、 この動き情報抽出手段において対応づけられた各特徴点
とその周囲の輝度情報を解析処理することにより、上記
時系列画像間の線形結合係数を計算する画像間線形結合
係数計算手段と、 上記決定手段により決定された上記対象物体の上記時系
列画像中の各時点の位置・姿勢と、上記画像間線形結合
係数計算手段により計算された上記時系列画像間の線形
結合係数とから、上記対象物体の各点への距離情報を推
定する距離情報検出手段と、を具備したことを特徴とす
る画像処理装置。 - 【請求項10】上記距離情報検出手段は、 上記時系列画像のうち特定時点Aの画像を選択し基準画
像とし、この基準画像中で各画素における上記対象物体
までの距離Zを設定し、この距離Zの評価を幾何学的条
件および光学的条件とに基づいて行うものであって、 この距離Zおよび上記動き情報抽出手段により決定され
た上記対象物体の各時点の位置・姿勢の変化から、上記
各画素と対応する画素を上記特定時点Aと異なる3時点
以上の画像群において決定する手段と、 これら対応する画素における輝度と上記基準画像中の画
素における輝度との整合の度合を、上記画像間線形結合
係数計算手段により計算された上記時系列画像間の線形
結合係数を介して計算する整合度合計算手段と、 この整合度合計算手段により求められた整合の度合に応
じて任意に仮定された距離Zを評価することにより、こ
の評価に基づいて距離情報を推定する手段とを備えるこ
とを特徴とする請求項9記載の画像処理装置。 - 【請求項11】一連の動画像中に含まれる対象物体の形
状を獲得する方法において、 対象物体の撮影により時系列的に得られる画像を取り込
む画像取り込みステップと、 この画像取り込みステップにより取り込まれた時系列画
像から上記対象物体の特徴点を抽出する特徴点抽出ステ
ップと、 この特徴点抽出ステップにより抽出された上記時系列画
像の各時点の画像中に含まれる特徴点どうしを対応づ
け、その対応づけられた各特徴点の位置座標情報を解析
処理することにより、上記時系列画像の各時点における
上記対象物体の位置と姿勢の変化を決定するステップ
と、 上記対応づけられた各特徴点とその周囲の輝度情報を解
析処理することにより、上記時系列画像間の線形結合係
数を計算するステップと、 上記決定された上記対象物体の上記時系列画像中の各時
点の位置・姿勢と、上記により計算された上記時系列画
像間の線形結合係数とから、上記対象物体の各点への距
離情報を推定するステップと、を具備したことを特徴と
する画像処理方法。 - 【請求項12】上記対象物体の距離情報を推定する方法
は、 上記時系列画像のうち特定時点Aの画像を選択し基準画
像とし、この基準画像中で各画素における上記対象物体
までの距離Zを設定し、この距離Zの評価を幾何学的条
件と光学的条件の両方に基づいて行うものであって、こ
の距離Zおよび上記決定された上記対象物体の各時点の
位置・姿勢の変化から、上記各画素と対応する画素を上
記特定時点Aと異なる3時点以上の画像群において決定
し、 これら対応する画素における輝度と上記基準画像中の画
素における輝度との整合の度合を、上記により計算され
た上記時系列画像間の線形結合係数を介して計算すると
共に、 この整合の度合に応じて任意に仮定された距離Zを評価
することにより、この評価に基づいて距離情報を推定す
ることを特徴とする請求項9記載の画像処理方法。 - 【請求項13】動画像中に含まれる対象物体の追跡を行
なう装置において、 時系列的に得られる前記対象物体の画像から前記対象物
体の特徴点を各時点毎に抽出する特徴点抽出手段と、 この特徴点抽出手段により抽出された各時点毎の各特徴
点のうち、前記時系列画像間での対応する特徴点同士を
対応づけ、その対応づけられた各特徴点の位置座標情報
を解析処理することにより、これら各特徴点の3次元位
置情報を求める3次元位置情報抽出手段と、 この3次元位置情報抽出手段にて得られた各特徴点の3
次元位置情報に基づいて、前記時系列画像の各時点にお
ける前記対象物体の位置と姿勢のうち、少なくとも一つ
を推定する推定手段と、から構成されることを特徴とす
る画像処理装置。 - 【請求項14】請求項13記載の画像処理装置におい
て、 前記推定手段は、 前記3次元位置情報の得られた各特徴点を通過し、これ
らの各特徴点およびその周囲における上記対象物体表面
上の明度情報を保持する3次元の曲面パッチを生成する
手段と、 この生成された3次元パッチ群を、これら3次元パッチ
群が通過する前記特徴点の3次元位置情報に基づいて、
時系列画像の各時点における対象物体の画像と比較する
ことにより、前記時系列画像の各時点における前記対象
物体の位置と姿勢を推定する比較・推定手段と、を有す
ることを特徴とする画像処理装置。 - 【請求項15】請求項14記載の画像処理装置におい
て、 前記比較・推定手段は、 前記各3次元パッチの明度情報を基底画像の線形結合に
より表現し、前記対象物体の姿勢に従った線形結合係数
を求めることにより、対象物体の取り得る多様な姿勢に
対応した合成画像を生成し、この生成された画像と対象
物体の画像の類似度に応じて各々の姿勢を評価し、この
評価に基づいて姿勢を推定する手段で構成されているこ
とを特徴とする画像処理装置。 - 【請求項16】動画像中に含まれる対象物体の追跡を行
なう方法において、 時系列的に得られる前記対象物体の画像から前記対象物
体の特徴点を各時点毎に抽出する特徴点抽出ステップ
と、 この抽出された各時点毎の各特徴点のうち、前記時系列
画像間での対応する特徴点同士を対応づけ、その対応づ
けられた各特徴点の位置座標情報を解析処理することに
より、これら各特徴点の3次元位置情報を求める3次元
位置情報抽出ステップと、 この3次元位置情報抽出ステップにて得られた各特徴点
の3次元位置情報に基づいて、前記時系列画像の各時点
における前記対象物体の位置と姿勢のうち、少なくとも
一つを推定する推定ステップと、からなることを特徴と
する画像処理方法。 - 【請求項17】請求項16記載の動画像処理方法におい
て、 前記推定ステップは、 前記3次元位置情報の得られた各特徴点を通過し、これ
らの各特徴点およびその周囲における上記対象物体表面
上の明度情報を保持する3次元の曲面パッチを生成する
ステップと、 この生成された3次元パッチ群を、これら3次元パッチ
群が通過する前記特徴点の3次元位置情報に基づいて、
時系列画像の各時点における対象物体の画像と比較する
ことにより、前記時系列画像の各時点における前記対象
物体の位置と姿勢を推定する比較・推定ステップと、よ
りなることを特徴とする画像処理方法。 - 【請求項18】請求項17記載の画像処理方法におい
て、 前記比較・推定ステップは、 前記各3次元パッチの明度情報を基底画像の線形結合に
より表現し、前記対象物体の姿勢に従った線形結合係数
を求めることにより、対象物体の取り得る多様な姿勢に
対応した合成画像を生成し、この生成された画像と対象
物体の画像の類似度に応じて各々の姿勢を評価し、この
評価に基づいて姿勢を推定するものであることを特徴と
する画像処理方法。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP27357397A JP3512992B2 (ja) | 1997-01-07 | 1997-09-19 | 画像処理装置および画像処理方法 |
US09/001,465 US6072903A (en) | 1997-01-07 | 1997-12-31 | Image processing apparatus and image processing method |
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP76797 | 1997-01-07 | ||
JP9-767 | 1997-01-07 | ||
JP9-65142 | 1997-03-18 | ||
JP6514297 | 1997-03-18 | ||
JP27357397A JP3512992B2 (ja) | 1997-01-07 | 1997-09-19 | 画像処理装置および画像処理方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JPH10320588A true JPH10320588A (ja) | 1998-12-04 |
JP3512992B2 JP3512992B2 (ja) | 2004-03-31 |
Family
ID=27274590
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP27357397A Expired - Fee Related JP3512992B2 (ja) | 1997-01-07 | 1997-09-19 | 画像処理装置および画像処理方法 |
Country Status (2)
Country | Link |
---|---|
US (1) | US6072903A (ja) |
JP (1) | JP3512992B2 (ja) |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002092647A (ja) * | 2000-09-19 | 2002-03-29 | Olympus Optical Co Ltd | 情報呈示システム及びモデル誤差検出システム |
US6504944B2 (en) | 1998-01-30 | 2003-01-07 | Kabushiki Kaisha Toshiba | Image recognition apparatus and method |
JP2005529417A (ja) * | 2002-06-07 | 2005-09-29 | ダイナミック ディジタル デプス リサーチ プロプライエタリー リミテッド | 改善された変換および符号化技法 |
JP2006510081A (ja) * | 2002-12-11 | 2006-03-23 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | ビデオホン画像における頭部姿勢を補正する方法及び装置 |
JP2008511932A (ja) * | 2004-09-02 | 2008-04-17 | シーメンス メディカル ソリューションズ ユーエスエー インコーポレイテッド | 直接因数分解による変形可能な形状のレジストレーション及びモデリングのためのシステム及び方法 |
JP2009536499A (ja) * | 2006-05-05 | 2009-10-08 | トムソン ライセンシング | 2次元画像から3次元オブジェクトを再構成するシステム及び方法 |
US8433157B2 (en) | 2006-05-04 | 2013-04-30 | Thomson Licensing | System and method for three-dimensional object reconstruction from two-dimensional images |
US9076064B2 (en) | 2013-03-08 | 2015-07-07 | Canon Kabushiki Kaisha | Image processing apparatus and image processing method |
KR20180071764A (ko) * | 2016-12-20 | 2018-06-28 | (주)마젠타로보틱스 | 3차원맵을 이용한 비정형 라인 길이측정시스템 |
Families Citing this family (95)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6504957B2 (en) | 1997-07-07 | 2003-01-07 | General Electric Company | Method and apparatus for image registration |
JP3660492B2 (ja) * | 1998-01-27 | 2005-06-15 | 株式会社東芝 | 物体検知装置 |
WO1999052068A1 (en) * | 1998-04-03 | 1999-10-14 | Koninklijke Philips Electronics N.V. | Image processing method and system involving contour detection steps |
JP3549725B2 (ja) * | 1998-04-13 | 2004-08-04 | シャープ株式会社 | 画像処理装置 |
US6546052B1 (en) * | 1998-05-29 | 2003-04-08 | Canon Kabushiki Kaisha | Image processing apparatus and method, and computer-readable memory |
US20020176619A1 (en) * | 1998-06-29 | 2002-11-28 | Love Patrick B. | Systems and methods for analyzing two-dimensional images |
US6263113B1 (en) * | 1998-12-11 | 2001-07-17 | Philips Electronics North America Corp. | Method for detecting a face in a digital image |
JP3688489B2 (ja) * | 1998-12-25 | 2005-08-31 | 株式会社東芝 | 画像認識方法および画像認識装置 |
US6694057B1 (en) * | 1999-01-27 | 2004-02-17 | Washington University | Method and apparatus for processing images with curves |
JP2000357234A (ja) * | 1999-06-16 | 2000-12-26 | Canon Inc | 画像処理装置およびその方法 |
US7016540B1 (en) * | 1999-11-24 | 2006-03-21 | Nec Corporation | Method and system for segmentation, classification, and summarization of video images |
US6807290B2 (en) * | 2000-03-09 | 2004-10-19 | Microsoft Corporation | Rapid computer modeling of faces for animation |
JP2001325611A (ja) * | 2000-05-15 | 2001-11-22 | Sony Corp | 3次元モデル処理装置および3次元モデル処理方法、並びにプログラム提供媒体 |
JP2002024807A (ja) * | 2000-07-07 | 2002-01-25 | National Institute Of Advanced Industrial & Technology | 物体運動追跡手法及び記録媒体 |
US7643655B2 (en) * | 2000-11-24 | 2010-01-05 | Clever Sys, Inc. | System and method for animal seizure detection and classification using video analysis |
US6678413B1 (en) * | 2000-11-24 | 2004-01-13 | Yiqing Liang | System and method for object identification and behavior characterization using video analysis |
US7020305B2 (en) * | 2000-12-06 | 2006-03-28 | Microsoft Corporation | System and method providing improved head motion estimations for animation |
US6980697B1 (en) * | 2001-02-01 | 2005-12-27 | At&T Corp. | Digitally-generated lighting for video conferencing applications |
JP3709803B2 (ja) * | 2001-03-28 | 2005-10-26 | 日本電気株式会社 | パターン照合装置とそのパターン照合方法、及びパターン照合プログラム |
EP1395664A4 (en) * | 2001-05-15 | 2004-11-03 | Psychogenics Inc | SYSTEMS AND METHODS FOR INFORMATICS OF BEHAVIOR MONITORING |
WO2003002935A1 (en) * | 2001-06-29 | 2003-01-09 | Square D Company | Overhead dimensioning system and method |
GB2377576B (en) * | 2001-07-12 | 2005-06-01 | Vision Works Ltd D | Modelling of three dimensional shapes |
GR1004257B (el) * | 2002-06-05 | 2003-06-09 | Μεθοδος στερεοσκοπικης απεικονισης | |
US6978167B2 (en) * | 2002-07-01 | 2005-12-20 | Claron Technology Inc. | Video pose tracking system and method |
US20040109608A1 (en) * | 2002-07-12 | 2004-06-10 | Love Patrick B. | Systems and methods for analyzing two-dimensional images |
EP1556805B1 (en) * | 2002-10-22 | 2011-08-24 | Artoolworks | Tracking a surface in a 3-dimensional scene using natural visual features of the surface |
US7317812B1 (en) * | 2002-11-15 | 2008-01-08 | Videomining Corporation | Method and apparatus for robustly tracking objects |
US8655051B2 (en) * | 2003-01-31 | 2014-02-18 | Fujitsu Limited | Image editing method, image editing apparatus, computer program, and memory product |
DE10310636A1 (de) * | 2003-03-10 | 2004-09-30 | Mobotix Ag | Überwachungsvorrichtung |
US7792335B2 (en) * | 2006-02-24 | 2010-09-07 | Fotonation Vision Limited | Method and apparatus for selective disqualification of digital images |
US7437007B1 (en) * | 2003-10-31 | 2008-10-14 | Hewlett-Packard Development Company, L.P. | Region-of-interest editing of a video stream in the compressed domain |
CN100565141C (zh) * | 2004-03-01 | 2009-12-02 | 亚蒂亚成像有限公司 | 产生含有深度信息的图像的方法和设备 |
US8275193B2 (en) * | 2004-08-04 | 2012-09-25 | America Gnc Corporation | Miniaturized GPS/MEMS IMU integrated board |
JP4110478B2 (ja) * | 2004-09-02 | 2008-07-02 | ソニー株式会社 | 画像処理装置および方法、撮影装置、並びにプログラム |
US8488023B2 (en) * | 2009-05-20 | 2013-07-16 | DigitalOptics Corporation Europe Limited | Identifying facial expressions in acquired digital images |
US20110102553A1 (en) * | 2007-02-28 | 2011-05-05 | Tessera Technologies Ireland Limited | Enhanced real-time face models from stereo imaging |
JP4613617B2 (ja) * | 2005-01-07 | 2011-01-19 | ソニー株式会社 | 画像処理システム、学習装置および方法、並びにプログラム |
DE102005008131A1 (de) * | 2005-01-31 | 2006-08-03 | Daimlerchrysler Ag | Objektdetektion auf Bildpunktebene in digitalen Bildsequenzen |
US9092458B1 (en) | 2005-03-08 | 2015-07-28 | Irobot Corporation | System and method for managing search results including graphics |
US7710452B1 (en) | 2005-03-16 | 2010-05-04 | Eric Lindberg | Remote video monitoring of non-urban outdoor sites |
JP4177826B2 (ja) * | 2005-03-23 | 2008-11-05 | 株式会社東芝 | 画像処理装置および画像処理方法 |
US9002511B1 (en) * | 2005-10-21 | 2015-04-07 | Irobot Corporation | Methods and systems for obstacle detection using structured light |
US7551754B2 (en) * | 2006-02-24 | 2009-06-23 | Fotonation Vision Limited | Method and apparatus for selective rejection of digital images |
US7804983B2 (en) * | 2006-02-24 | 2010-09-28 | Fotonation Vision Limited | Digital image acquisition control and correction method and apparatus |
FR2903211B1 (fr) * | 2006-06-30 | 2009-03-06 | Gen Electric | Procedes et dispositifs de correction d'une mammographie a implant et de segmentation d'un implant |
US7940444B2 (en) * | 2006-09-19 | 2011-05-10 | Florida Atlantic University | Method and apparatus for synchronous laser beam scanning |
EP2115662B1 (en) | 2007-02-28 | 2010-06-23 | Fotonation Vision Limited | Separating directional lighting variability in statistical face modelling based on texture space decomposition |
US8588472B2 (en) * | 2007-03-09 | 2013-11-19 | Trigonimagery Llc | Method and system for characterizing movement of an object |
US20090062002A1 (en) * | 2007-08-30 | 2009-03-05 | Bay Tek Games, Inc. | Apparatus And Method of Detecting And Tracking Objects In Amusement Games |
GB2452508A (en) * | 2007-09-05 | 2009-03-11 | Sony Corp | Generating a three-dimensional representation of a sports game |
CN101159855B (zh) * | 2007-11-14 | 2011-04-06 | 南京优科漫科技有限公司 | 基于特征点分析的多目标分离预测方法 |
US8750578B2 (en) | 2008-01-29 | 2014-06-10 | DigitalOptics Corporation Europe Limited | Detecting facial expressions in digital images |
US8284190B2 (en) * | 2008-06-25 | 2012-10-09 | Microsoft Corporation | Registration of street-level imagery to 3D building models |
US8634635B2 (en) * | 2008-10-30 | 2014-01-21 | Clever Sys, Inc. | System and method for stereo-view multiple animal behavior characterization |
WO2010136593A2 (en) * | 2009-05-29 | 2010-12-02 | Tessera Technologies Ireland Limited | Methods and apparatuses for foreground, top-of-the-head separation from background |
US8411107B2 (en) * | 2009-08-18 | 2013-04-02 | Autodesk, Inc. | Adaptive snapping |
EP2333692A1 (en) * | 2009-12-11 | 2011-06-15 | Alcatel Lucent | Method and arrangement for improved image matching |
KR20110097140A (ko) * | 2010-02-24 | 2011-08-31 | 삼성전자주식회사 | 이동 로봇의 위치 추정 장치 및 방법 |
US8917395B2 (en) | 2010-04-19 | 2014-12-23 | Florida Atlantic University | MEMS microdisplay optical imaging and sensor systems for underwater scattering environments |
US9019503B2 (en) | 2010-04-19 | 2015-04-28 | The United States Of America, As Represented By The Secretary Of The Navy | MEMS microdisplay optical imaging and sensor systems for underwater and other scattering environments |
US9053562B1 (en) | 2010-06-24 | 2015-06-09 | Gregory S. Rabin | Two dimensional to three dimensional moving image converter |
US8971628B2 (en) | 2010-07-26 | 2015-03-03 | Fotonation Limited | Face detection using division-generated haar-like features for illumination invariance |
US8483427B2 (en) * | 2010-09-28 | 2013-07-09 | Futurewei Technologies, Inc. | System and method for image authentication |
US9993655B2 (en) | 2011-03-09 | 2018-06-12 | Osaka University | Image data processing device and transcranial magnetic stimulation apparatus |
JP6162681B2 (ja) * | 2011-03-31 | 2017-07-12 | エーティーエス オートメーション ツーリング システムズ インコーポレイテッドAts Automation Tooling Systems Inc. | 光媒体を通じた3次元的な光検知 |
US8582821B1 (en) | 2011-05-23 | 2013-11-12 | A9.Com, Inc. | Tracking objects between images |
US9019367B2 (en) * | 2011-06-10 | 2015-04-28 | Wuerth Elektronik Ics Gmbh & Co. Kg | Method for dynamically detecting the fill level of a container, container therefor, and system for dynamically monitoring the fill level of a plurality of containers |
EP2538388B1 (en) * | 2011-06-20 | 2015-04-01 | Alcatel Lucent | Method and arrangement for image model construction |
WO2013016409A1 (en) * | 2011-07-26 | 2013-01-31 | Magna Electronics Inc. | Vision system for vehicle |
US9116928B1 (en) * | 2011-12-09 | 2015-08-25 | Google Inc. | Identifying features for media file comparison |
JP6323993B2 (ja) * | 2012-08-28 | 2018-05-16 | キヤノン株式会社 | 情報処理装置、情報処理方法、及びコンピュータプログラム |
DE102012221374A1 (de) * | 2012-11-22 | 2014-05-22 | Sirona Dental Systems Gmbh | Verfahren zur Planung einer dentalen Behandlung |
US9105103B2 (en) * | 2013-01-23 | 2015-08-11 | Leap Motion, Inc. | Systems and methods of tracking object movements in three-dimensional space |
US9406143B2 (en) * | 2013-02-21 | 2016-08-02 | Samsung Electronics Co., Ltd. | Electronic device and method of operating electronic device |
US9286693B2 (en) * | 2013-02-25 | 2016-03-15 | Hanwha Techwin Co., Ltd. | Method and apparatus for detecting abnormal movement |
US9844324B2 (en) | 2013-03-14 | 2017-12-19 | X-Nav Technologies, LLC | Image guided navigation system |
US9836846B2 (en) * | 2013-06-19 | 2017-12-05 | Commonwealth Scientific And Industrial Research Organisation | System and method of estimating 3D facial geometry |
KR20150049535A (ko) * | 2013-10-30 | 2015-05-08 | 삼성전자주식회사 | 전자장치 및 그 이용방법 |
US9443311B2 (en) * | 2014-06-12 | 2016-09-13 | Topcon Positioning Systems, Inc. | Method and system to identify a position of a measurement pole |
JP2016045874A (ja) * | 2014-08-26 | 2016-04-04 | ソニー株式会社 | 情報処理装置、情報処理方法、及びプログラム |
US9943374B2 (en) | 2014-09-16 | 2018-04-17 | X-Nav Technologies, LLC | Image guidance system for detecting and tracking an image pose |
US9402691B2 (en) | 2014-09-16 | 2016-08-02 | X-Nav Technologies, LLC | System for determining and tracking movement during a medical procedure |
KR101732981B1 (ko) * | 2015-10-29 | 2017-05-08 | 삼성에스디에스 주식회사 | 개인화 특성 분석 시스템 및 방법 |
US10962363B2 (en) | 2016-01-25 | 2021-03-30 | Topcon Positioning Systems, Inc. | Method and apparatus for single camera optical measurements |
CN106204619B (zh) * | 2016-07-21 | 2019-07-16 | 浙江大华技术股份有限公司 | 一种目标对象分布密度确定方法及装置 |
WO2018056129A1 (ja) * | 2016-09-20 | 2018-03-29 | 日本電気株式会社 | 情報処理装置、情報処理方法、および記憶媒体 |
US10235572B2 (en) * | 2016-09-20 | 2019-03-19 | Entit Software Llc | Detecting changes in 3D scenes |
US10606814B2 (en) * | 2017-01-18 | 2020-03-31 | Microsoft Technology Licensing, Llc | Computer-aided tracking of physical entities |
JP6885896B2 (ja) * | 2017-04-10 | 2021-06-16 | 富士フイルム株式会社 | 自動レイアウト装置および自動レイアウト方法並びに自動レイアウトプログラム |
CN110892452A (zh) * | 2017-05-04 | 2020-03-17 | Mim软件有限公司 | 用于预测性融合的系统和方法 |
CN109141266B (zh) * | 2018-07-19 | 2020-10-16 | 北京建筑大学 | 一种钢结构测量方法及系统 |
CN111489448B (zh) * | 2019-01-24 | 2024-08-20 | 宏达国际电子股份有限公司 | 检测真实世界光源的方法、混合实境系统及记录介质 |
WO2022078437A1 (zh) * | 2020-10-15 | 2022-04-21 | 左忠斌 | 一种移动物体之间的三维处理设备及方法 |
CN113298870B (zh) * | 2021-05-07 | 2023-03-28 | 中国科学院深圳先进技术研究院 | 一种物体的姿态跟踪方法、装置、终端设备和存储介质 |
CN115143969B (zh) * | 2022-09-01 | 2022-11-04 | 北京理工大学 | 一种群目标位置结构特征检测及提取方法 |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4654872A (en) * | 1983-07-25 | 1987-03-31 | Omron Tateisi Electronics Co. | System for recognizing three-dimensional objects |
US4982438A (en) * | 1987-06-02 | 1991-01-01 | Hitachi, Ltd. | Apparatus and method for recognizing three-dimensional shape of object |
US5227985A (en) * | 1991-08-19 | 1993-07-13 | University Of Maryland | Computer vision system for position monitoring in three dimensions using non-coplanar light sources attached to a monitored object |
JP3263724B2 (ja) * | 1993-04-16 | 2002-03-11 | 日本電信電話株式会社 | 2次元レーザパターンによる形状特徴抽出装置 |
EP0631250B1 (en) * | 1993-06-21 | 2002-03-20 | Nippon Telegraph And Telephone Corporation | Method and apparatus for reconstructing three-dimensional objects |
JP3054681B2 (ja) * | 1995-07-19 | 2000-06-19 | 工業技術院長 | 画像処理方法 |
US5768415A (en) * | 1995-09-08 | 1998-06-16 | Lucent Technologies Inc. | Apparatus and methods for performing electronic scene analysis and enhancement |
-
1997
- 1997-09-19 JP JP27357397A patent/JP3512992B2/ja not_active Expired - Fee Related
- 1997-12-31 US US09/001,465 patent/US6072903A/en not_active Expired - Fee Related
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6504944B2 (en) | 1998-01-30 | 2003-01-07 | Kabushiki Kaisha Toshiba | Image recognition apparatus and method |
US6690815B2 (en) | 1998-01-30 | 2004-02-10 | Kabushiki Kaisha Toshiba | Image recognition apparatus and method |
JP2002092647A (ja) * | 2000-09-19 | 2002-03-29 | Olympus Optical Co Ltd | 情報呈示システム及びモデル誤差検出システム |
JP2005529417A (ja) * | 2002-06-07 | 2005-09-29 | ダイナミック ディジタル デプス リサーチ プロプライエタリー リミテッド | 改善された変換および符号化技法 |
JP2006510081A (ja) * | 2002-12-11 | 2006-03-23 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | ビデオホン画像における頭部姿勢を補正する方法及び装置 |
JP2008511932A (ja) * | 2004-09-02 | 2008-04-17 | シーメンス メディカル ソリューションズ ユーエスエー インコーポレイテッド | 直接因数分解による変形可能な形状のレジストレーション及びモデリングのためのシステム及び方法 |
US8433157B2 (en) | 2006-05-04 | 2013-04-30 | Thomson Licensing | System and method for three-dimensional object reconstruction from two-dimensional images |
JP2009536499A (ja) * | 2006-05-05 | 2009-10-08 | トムソン ライセンシング | 2次元画像から3次元オブジェクトを再構成するシステム及び方法 |
US9076064B2 (en) | 2013-03-08 | 2015-07-07 | Canon Kabushiki Kaisha | Image processing apparatus and image processing method |
KR20180071764A (ko) * | 2016-12-20 | 2018-06-28 | (주)마젠타로보틱스 | 3차원맵을 이용한 비정형 라인 길이측정시스템 |
Also Published As
Publication number | Publication date |
---|---|
US6072903A (en) | 2000-06-06 |
JP3512992B2 (ja) | 2004-03-31 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP3512992B2 (ja) | 画像処理装置および画像処理方法 | |
JP4284664B2 (ja) | 三次元形状推定システム及び画像生成システム | |
JP4473754B2 (ja) | 仮想試着装置 | |
KR101323966B1 (ko) | 이미지 프로세싱을 기반으로 한 3d 공간 차원용 시스템 및 방법 | |
CN113421328B (zh) | 一种三维人体虚拟化重建方法及装置 | |
Sundaresan et al. | Markerless motion capture using multiple cameras | |
JPWO2019035155A1 (ja) | 画像処理システム、画像処理方法、及びプログラム | |
JP2011198349A (ja) | 情報処理方法及びその装置 | |
Zou et al. | Automatic reconstruction of 3D human motion pose from uncalibrated monocular video sequences based on markerless human motion tracking | |
JP5503510B2 (ja) | 姿勢推定装置および姿勢推定プログラム | |
JP2010211732A (ja) | 物体認識装置および方法 | |
Kang et al. | Appearance-based structure from motion using linear classes of 3-d models | |
WO2022018811A1 (ja) | 被写体の3次元姿勢推定装置、3次元姿勢推定方法、及びプログラム | |
JP3940690B2 (ja) | 画像処理装置及びその方法 | |
JPH09179988A (ja) | 手振り認識装置 | |
Grest et al. | Human model fitting from monocular posture images | |
Malciu et al. | Tracking facial features in video sequences using a deformable-model-based approach | |
Di Bernardo et al. | Monocular tracking of the human arm in 3d: Real-time implementation and experiments | |
US11508121B2 (en) | Method for annotating points on a hand image to create training dataset for machine learning | |
JP2024512672A (ja) | 複数のカメラからの表面テクスチャリング | |
JP4623320B2 (ja) | 三次元形状推定システム及び画像生成システム | |
JPH0273471A (ja) | 三次元形状推定方法 | |
Wang et al. | Markerless body motion capturing for 3d character animation based on multi-view cameras | |
Jian et al. | Realistic face animation generation from videos | |
de La Rivière et al. | Hand Postures Recognition in Large–Display VR Environments |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20040106 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20040108 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20080116 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20090116 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100116 Year of fee payment: 6 |
|
LAPS | Cancellation because of no payment of annual fees |