JPH11502335A - 動体の奥行きモデル化と奥行き情報を提供する装置およびその方法 - Google Patents
動体の奥行きモデル化と奥行き情報を提供する装置およびその方法Info
- Publication number
- JPH11502335A JPH11502335A JP8528099A JP52809996A JPH11502335A JP H11502335 A JPH11502335 A JP H11502335A JP 8528099 A JP8528099 A JP 8528099A JP 52809996 A JP52809996 A JP 52809996A JP H11502335 A JPH11502335 A JP H11502335A
- Authority
- JP
- Japan
- Prior art keywords
- depth
- frame
- occlusion
- point
- vector
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/262—Analysis of motion using transform domain methods, e.g. Fourier domain methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
- G06T7/579—Depth or shape recovery from multiple images from motion
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Mathematical Physics (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
(57)【要約】
奥行き情報は直接得られないが、オクルージョン情報は導出できる場合の、信号ストリーム中の動く対象物の奥行きを間接的に評価または決定し、モデル化する装置とその方法。このために、(1)認識点を選択し特徴づける段階と、(2)各フレームの各点が可視点か隠されているかを検証し、オクルージョンリストに、オクルージョンの各観測がリストの一行に対応し各点がリストの一列に対応し、隠された点は小さな値を有し、他を隠す点は大きな値を有し、その他の点は不明点として記録されるようにオクルージョンデータを収集する段階と、(3)スコアベクトルと呼ばれる列ベクトルとローディングベクトルと呼ばれる行ベクトルと、ファクタと呼ばれる各フレームの値を有するスコアベクトルと各点の値を有するローディングベクトルを集め、オクルージョンリストに主成分分析を行う段階と、(4)対応点の奥行き情報として、最初のファクタの各ローディングベクトル要素の数値を、カメラまたは観測者に近い場合は大きな数値を、離れた場合は小さな数値を出力する段階とからなる、少なくとも二つのフレームからなる画像シーケンスの奥行きを推定する方法。
Description
【発明の詳細な説明】
動体の奥行きモデル化と奥行き情報を提供する装置
およびその方法発明の分野
本発明は、直接には奥行き情報が得られないが、オクルージョン(隠れ)情報
が導出できるような信号ストリーム中において、動体の奥行きの間接的な定量評
価や決定およびモデル化を行うための装置およびその方法に関する。このような
データの例としては、一次元あるいは二次元カメラで取ったデジタルビデオ信号
がある。発明の背景
レーダのような計測器と違ってビデオカメラは観測している対象物までの距離
や奥行きを直接得ることはできない。水平、垂直方向の位置あるいは動きだけが
直接観測できるのみである。光学的に密な物体が互いに前後して動くとき、結果
として隠された物体からの信号のロスとしてオクルージョンが観測される。
しかし、画像のモデル化や圧縮法にとっては、奥行きについて簡潔な描写を得
ることは重要である。ここで奥行きは、カメラあるいは観測者からの視点と結ぶ
線上の距離で定義される。
奥行き情報は、物体を対象とした画像の圧縮システム
において最も必要とされ、一つの利用法として、重なった対象物を効率的に取り
扱う方法がある。符号器は、奥行き情報を対象物の補正のための映像成分を割り
当てるために用い、復号器は、重なった場合に最前の対象物だけが表示されるよ
うに、この奥行き情報を用いることができる。このような奥行きモデリングは、
順序的あるいは定性的奥行きモデリングと呼ぶことができるであろう。
奥行きが重要となる他の画像モデル化システムとしては、例えば、移動する飛
行機により異なる位置から撮った地勢写真を基に自動的に地図を作成する自動地
図生成システムがある。この方法では、立体記録図法の理論に基づき、それぞれ
の地勢に対する奥行き、高さや数値モデルが計算される。地勢の中に険しい山が
あるときは、一連の画像の幾つかのフレームにオクルージョンが生じる。そのよ
うなオクルージョンは既存の幾つかの方法に対し問題を提起するかもしれないが
、本発明によるシステムにおいては、情報源となる。このような奥行きモデリン
グは、定量的奥行きモデリングと呼ぶことができる。
その他の画像モデル化システムの例としては、コンベヤベルトに隣接して設置
されたカメラとロボットアームからなる廃物区分システムを考えてみる。近赤外
領域で動作する数種のカメラは異なったタイプの物質、例えばプラスティックな
どを認識するのに優れており、そのような分析から得られた結果は、コンベヤベ
ルトから物を
掴み出し区分貯蔵容器に投棄するロボットアームを制御するのに用いることがで
きる。ここで重要なのは、ロボットアームは一部でも他の物と重なっていない対
象物を掴もうとすることである。本発明によりカメラ画像の分析を行えば、奥行
きグラフが得られ、どの対象物が他を遮蔽するかの情報が得られる。このような
奥行きモデリングは、奥行きグラフモデリングと呼ぶことができる。
さらに別の画像モデル化システムの例としては、自動車自動操縦用画像システ
ムが考えられる。他の車や周りの地形と互いに遮ることが起きる。どの対象物が
遮蔽し合うかだけでなく、それらの速さ、加速、また近い将来どのように遮蔽し
合うかを知ることは興味深い。本発明によるそのような情報は、一つの空間部と
時間部からなるbilinear(共一次内挿)モデルによって要約される。
ある画像モデル化技術においては、奥行き寸法の時間変化を決定し、表現でき
ることは有利である。現在の画像コーデック(符号器/復号器)システムは、奥
行き寸法の時間変化について系統的に十分記述できない。
本発明は、オクルージョン、すなわちどの点や領域がどのフレームから現れる
かについての情報にのみ依存し、場面の「理解」を必要とするような奥行きにつ
いての手掛かりは不要である。そのような手掛かりとは、例えば、(カメラや観
測者から)青く見える山はしばしば緑に見える山より遠いとか、水平線に近い対
象物は水平線から
離れた対象物より遠いとか、小さく見える顔は大きく見える顔より遠いとか、静
止している物より速く動く物の方がたいてい近いとか、あるいはカメラのピント
が合っている物といない物とでは奥行きが異なるなどである。また、本発明は、
立体視や視差などの手段を必要としない。しかしながら、そのような情報が得ら
れれば推定をさらに確かなものとするために用いることはできる。
従って本発明の目的は、一般的には空間的に分離された信号(入力信号)から
、より詳細には一次元、二次元カメラの画像データから、信号順序的な、あるい
は定性的奥行き情報を導出する装置およびその方法を提供するものである。
また、奥行き方向の時間的、空間的不一致を検出し、これらの不一致を分析し
簡潔にモデル化することも本発明の目的である。
さらに他の目的として、画像の異なる部分から定量的な奥行き情報を生成し、
どんな形にでも出力することである。
さらに、フレーム中の異なる部分の奥行きがどのように時間と共に変化するか
の定量的な情報を生成し、どんな形にでも出力することを目的とする。
さらに、奥行き情報を簡潔なモデル表現で表すことを目的とする。
さらに、この簡潔なモデル表現を基に時間的・空間的
な内挿および外挿を可能にすることを目的とする。
さらに、「真の」奥行きを求めることなく、一連のフレームが上手く復号ある
いは再構成されるようにシーケンスの詳細まで十分定量的に見積もることを目的
とする。
さらに、名目的・順序的な計測レベルでの定性的なオクルージョンデータを、
比や差の計測レベルでの奥行き予測に変換することを目的とする。発明の概要
奥行き分析は二つの主要な段階によってなされる。第一に、多数の簡単な局所
オクルージョンを検出、記述する。第二に、これらのオクルージョンはロバスト
(robust)分析とともに一般の奥行きモデルを導出するために分析される。
この局所オクルージョンは、画像のどの部分を隠したり、あるいは隠されたり
といった情報を与える、将来位置サーチ、逆方向動き推定、仮説テストや他の方
法によって見出される。
専門家に良く知られた技術、例えばロバスト多変量モデリング、ロバスト位相
幾何(トポロジー)分類やそれらの組み合わせにより、オクルージョンを連結的
に分析することができる。多変量モデリングは、奥行きオーダを変えるのにより
適しており、画像の幾何学的データを利用することもできる。一方、位相幾何分
類は多くの応用に有用な奥行きグラフを生成し、多変量モデリングの
一つのステップとして用いることができる。
この連結分析では、予備的な奥行きモデルを見つけ、局所オクルージョン間の
不一致を検出する。次にこの情報は、局所オクルージョン分析を繰り返すために
局所オクルージョン検知器に戻される。新たに奥行きモデルが作られ、このプロ
セスは収束するまで繰り返される。
その結果得られる奥行きモデルには四つの型がある。第一は、関与した画像部
分についての順序的な奥行きオーダであり、第二はそれらの定量的な奥行きであ
る。第三は、少数の空間的奥行き変化パターンを表す「ローディング(loading)
」と呼ばれる空間部分と、フレーム中の各空間的奥行き変化パターンが幾つ有る
かを表す「スコア(score)」と呼ばれる時間部分とからなる bilinearモデルであ
る。第四は、画像のどの部分が他の部分を隠すかを示すオクルージョン・グラフ
(または、「奥行きグラフ」)である。この四つのタイプは連結され、特に、定
量的奥行きとオクルージョン・グラフの結合が得られる。
多変量奥行きモデルは空間的・時間的パラメータを有しており、画面要素の奥
行きやオクルージョンの起きる時点あるいはオクルージョン情報の得られない時
点について予測することができる。これらの内挿・外挿は局所的な時間的・空間
的滑らかさの仮定に基づいており、有益な距離情報を与える。
もし観測している場面の対象物の奥行きが互いに変化したり回転した場合、局
所オクルージョン・パターンに系統的な変化を生じる。多変量奥行きモデルは、
そのような系統的奥行き変化によってもモデルの複雑さの増大は適度である。
もし画像平面内の可視部分の動きについて信頼できる推定が得られれば、これ
は奥行きモデリングを安定化・補強するために利用できるし、また奥行きの推定
あるいは画像平面に垂直な動きについての推定も同様である。
このモデリングのアプローチは柔軟性を有するため、未知の画像シーケンスの
自動分析に適している。図面の簡単な説明
図1は、本発明の二つの主要な機能、すなわち局所オクルージョン検出器と大
局奥行きモデル生成器についての概要を示す図である。
図2は、一つの対象物が他の対象物の後ろを動く単純な場合の一次元(1D)
カメラのデータを示す図である。
図3は、どのように時間的モデリングが取り込まれるかを説明する図である。
図4は、図3のデータに従って結果をプロットした図である。
図5は、2因子の bilinear 奥行きモデルで最も良くモデル化される、一次元
カメラによる回転体の動きパターンの例を示す図である。
図6aないしfは、画像の幾何学的データが如何に奥行きモデルを向上させる
か、より定量的なデータを与えるかを示す図。またこれらの図は、この方法が入
力データの些細な誤りに対し強いことを示している。
図7は、図6から得られた結果をプロットした図である。
図8は、本発明を単一の点の代わりに対象物に応用し、対象物が重なる領域か
らオクルージョン・マトリックスを収集する原理を説明する図である。
図9は、3つ以上の対象物が重なった場合に、どのようにオクルージョン情報
を収集するかを説明する図である。
図10は、本方法において、オクルージョン領域の代わりにイノベーション領
域にどのように応用するかを説明する図である。
図11は、オクルージョンマトリクスをあり得るループを有するグラフとして
どのように見なすか、如何にこれらをループのないグラフにするか、グラフが奥
行き順序、一対の奥行き関係に変換されたときどのように結果が見えるかを説明
する図である。
図12は、オクルージョン・マトリクスの予測を説明する図である。第一の実施例
図1は、局所オクルージョン検出器110、大局奥行
きモデル生成器120、オクルージョン予測器140、奥行きモデル130を含
む奥行きモデラ100からなる本発明の第一の実施例の概観である。局所オクル
ージョン検出器110は画像入力150を受け、画像入力のフレームを局所オク
ルージョン・パターンに分析し、大局奥行きモデル生成器120は局所オクルー
ジョン・パターン情報を結合し奥行きモデル130を生成する。この奥行きモデ
ル130に基づき推定奥行き160が出力される。この奥行きモデル130はま
た、オクルージョン予測器140においてオクルージョンを予測するために用い
られる。その結果は、奥行き予測190として出力される。この予測は局所オク
ルージョン検出器110の動作を向上するためにフィードバックされる。
復号(フレームの再構成)のための奥行きモデラ100からの出力の利用法は
、WO95/34127に説明されており、ここに文献として含める。
局所オクルージョン検出器110と大局奥行きモデル生成器120の連携動作
について図2を参照して説明する。
後述においては、平面上のカメラで得られるような単純な一次元(1D)の場
合について本発明を図説する。しかしこの分野の専門家であれば、この方法を直
接2次元(2D)カメラ・データの場合に一般化できることがわかるであろうし
、幾つかの点でどのように2次元デー
タに応用するか、明白な説明も為される。
図2の最も左の列205は、真の奥行きを含む点の配置を示している。図2の
それぞれの行は、一つの画像フレームに対応する一つのオクルージョン観測結果
に対応する。対象物ab210は2つの認識点、a214とb216を有し、対
象物cd212は2つの認識点、c218とd220を有する。この認識点を有
する対象物を上方から見た場合を前方のカメラ位置222と共に示してある。
第二列225は、カメラ222が観測するものを図示している。第一フレーム
では、二つの対象物210と212は共に完全に見ることができる。
局所オクルージョン検出器110は特徴点検出器に基づいており、シーケンス
の中に現れる特徴点のリストを保守し、それぞれの特徴点がいつ見えるかを検出
するように動作する。
特徴点は画像の認識できる部分であればどこでも良い。一つの可能性としては
、角のような幾何学的原点を特徴点とすることであり、このことは,S.タボー
ン(S.Tabbone)による「ガウス演算子のラプラシアンを用いた角検出("Corner
Detection Using Laplacian of Gaussian Operator")」("Proceedings of Th
e 8th Scandinavian Conference on Image Analysis",1993)に記述されており
、ここに文献として挙げる。
局所オクルージョン検出器110の機能は、次の疑似コードに要約される。
Initialize 特徴点リストを空白に(初期化する)
For それぞれのフレームに(ついて):
Repeat フレーム中に新しい特徴点が見つかる
まで(繰り返す)
Search 特徴点に適合する特徴点リストへの
登録を(探す)
If (もし)適合がうまく行かない場合:
特徴点リストへ算入する
Mark このフレームについて特徴点が見つか
った("Found")として(マークする)
For それぞれのフレームについて:
For 特徴点リスト中の特徴点について:
Output 特徴点インデックスを(出力する)
If(もし)このフレームについて特徴点が
見つかった場合
Output "Found"を(出力する)
else(さもなければ)
Output "NotFound"を(出力する)
この疑似コードにより、システムは特徴点に関するリストを構築する。それぞ
れの点は後で唯一に認識できる
ように特徴付けられなければならない。一つの方法は、大きさや方向のような特
性を用いることである。第二の方法は、フレーム中の特徴点をリストの中から探
すとき、リスト中の特徴点との一致を受けつける前に、他の特徴点に対し基準を
満たすような位置付けができるような、他の特徴点との関連づけを含めることで
ある。第三の方法は、その特徴点の周囲のレファレンスから集めた画素領域を保
存することである。これらの三つの方法は結合することができる。このような特
徴付けは特徴点リストの一部である。
局所オクルージョン検出器110からの出力は従って、特徴点インデックスの
リストであり、各特徴点には"Found"か"NotFound"といったラベルが付されてい
る。
この実施例では、見つからなかった特徴点は隠れているとみなされる。しかし
、以下の二つの場合が考えられるであろう。
第一点は、特徴点はフレーム中の対象物の変化によって Found から NotFound
へ、あるいはその逆に変わり得ることである。例として顔のしわを考えてみる
。最初しわが見えるとき、特徴点として集められる。次に、皮膚が伸びてしわが
見えなくなったとしても、隠れているわけではない。そのような問題を解決する
一つの方法は、通常オクルージョンは突然の出来事であるのに対し、しわを例と
するような出現や消失は通常しばらくの間続く
と仮定することである。従って、特徴点について確度の高い計算が可能である。
特徴点が存在するときは高い値を、存在しないときは低い値を有し、推定値が突
然しかもかなりの値変化するときにのみ、FoundまたはNotFoundを特徴点に付す
。他の場合にはNeutralと付される。
第二は、特徴点がフレーム外に移動する、あるいはフレーム内に入ってくる場
合である。奥行き推定においては、特徴点が隠れて見えなくなるのと、カメラが
向きを変えるため見えなくなるのとでは本質的に異なることである。これら二つ
の場合を識別するために、動き推定を用いる局所オクルージョン検出器110は
実際に役立つ。そのような局所オクルージョン検出器について、このような応用
の性質上問題にならないとの仮定の上で、以下に説明する。
上記の疑似コードによれば、シーケンスは2度、フレームにわたり二つの異な
るforループに従って通過する。他の可能性は、これらを二つに結合した場合で
、新しい特徴点が見つかるか解析されるに応じて特徴点リストは増大または縮小
する。大局奥行きモデル生成器120はそのような動的で更新されるデータ構造
を扱えなければならないし、また局所オクルージョン検出器110はこのような
サイズの変化が大局奥行きモデル生成器120には見えないようフォーマットし
なければならない。後者についての単純な方法は、一定の最大特徴点数をもつ
よう特徴点リストの大きさを前もって割り当てておき、所定の時間に定義されて
いない特徴点に対応する位置をゼロで埋めておくことである。代わりに見つから
ない値を用いることができるが、これについて以下に説明する。
上記のタイプの表現は特殊なケースとして、J.W.A.ワン(J.Y.A.Wang)
とE.H.エーデルソン(E.H.Adelson)による「画像シーケンスのコーディン
グのためのレイヤ表現(Layered representation for image sequence coding)
」(pp.221-224,IEEE ICASSP,vol.5,Minneapolis,Minnesota,1993)に述べ
られているような画像をレイヤ(layer)として表現する場合を含んでいる。こ
こに上記を文献として挙げる。この表現法においては、特徴点は認識可能な画素
であり、特徴点リストはレイヤの集合である。
本実施例では、局所オクルージョンデータは第三列235に記述されているよ
うに一フレームにつき一つオクルージョンリスト230に記載され保存される。
オクルージョンリスト230は各点に対し一桁を有し、各フレームにおいて、各
点はオクルージョンリスト230の対応する所に記載される。本実施例では、所
定のフレーム中の可視点については+1、不可視点については−1を記載する。
第一フレームでは、全ての点は可視点なので、オクルージョンリスト230中に
は4つの+1が現れる。Neutralと付された点は、0(ゼロ)が与えられる。
+1または−1という値の選び方は重要な問題ではない。使用する値は、状態
を表示すべきであり、これに限らず多くの選択が可能である。例えば、統計的に
確かな観測に対し大きな正または負の値を、不確かな観測に対しては小さな値を
与えればよい。
可視点について+1、不可視点について−1とする選択は、後でわかるように
、観測者に近い点については大きな正の値を与えるとする、奥行きの尺度を意味
している。
第二フレームで、第二行は対象物ab214,216が部分的に対象物cd2
18,220の後方に移動し、点b216はカメラから隠れた位置にあることを
示している。
その先のフレームについて第三行から第五行に、対応する局所オクルージョン
データと共に示している。
オクルージョンリスト230が大局奥行きモデル生成器120の基礎である。
第一の実施例では、大局奥行きモデル生成器は非中心主成分分析(Principal Co
mponent Analysis:PCA)に基づく bilinear モデリングを用いて実行される。P
CAは、マーテンとナエス(Marten & Naes)による「多変量較正(Multivariate
Calibration)」(J.Wiley & Sons 社,Chichester UK)に述べられておりこ
こに文献として挙げる。例で用いた全ての数値PCA結果は、バリー M.ワイ
ズ(Barry M.Wise)に
よる「Matlabと用いるPLS道具箱(PLS Toolbox for use with Matlab)」(Eig
envector technologies 社,4145Laurel Drive,West Richland,WA 99352 USA,
1994)の"mdpca"機能を用いて導出した。
オクルージョンリスト230の中で示したデータのセットについては、全フレ
ームの平均値は平均奥行き=[0.2 0.2 1 1]である。これが数フレ
ームにわたる奥行きを見積もる最も単純な方法で、この簡単な場合には十分であ
ろう。ここで奥行きは全てのフレームにおいて同じと仮定した。
さらに柔軟な奥行き推定は、奥行きは全てのフレームにおいて必ずしも同じで
はないとする主成分分析によって得られる。第一の例において、一つの主成分を
用いることによって主成分モデルはかなりよい一致が得られた。この主成分のう
ち「ローディング」240は空間的情報を、一方「スコア」は時間的情報を表し
ている。各フレームについての値を有するスコアベクトルと各点についての値を
有するローディングベクトルの集積したものを「ファクタ」と呼ぶ。点a,b,
c,dについて、ファクタはそれぞれローディング[0.27 0.27 0.
65 0.65]を有し、奥行きに関し点aとb、cとdは同様であることを示
しており、利用できるオクルージョンデータは点aとbの間、点cとdの間の奥
行きの違いについて何ら手掛かりを与えない。スコアにローデ
ィングを乗ずることにより、推定奥行きリストに示すように各フレームについて
の奥行きを見積もることができる。各フレームに関し、点cとdの奥行き推定値
は点aとbに比べ高く、点cとdはカメラあるいは観測者に近いことを示してい
る。必ずしも「真の」物理的奥行きとは同じではないが、それらの値は、カメラ
の観測と矛盾しない一連の奥行きを実際反映している。
図3では、図2の例がより複雑になっており、対象物ab310は横方向に動
くだけではなく奥行き(カメラへの距離)も変化しており、あるフレームでは対
象物cdの後ろにあり、あるフレームではその前にある。
また他のタイプの局所オクルージョン検出器110を仮定する。可視点か不可
視点かを区別するだけでなく、図2の説明で述べているように、特徴点が隠され
ているとき局所オクルージョン検出器110はどの点が遮蔽しているのかを示す
ことができる。そのような局所オクルージョン検出器は動き推定を用いることに
より作られる。一つの例は前述の”ワンとエーデルソン(Wang & Adelson)”で
しているように、数フレームにわたって画像の領域を追跡することである。オク
ルージョンが生じたとき、時間的・空間的な外挿による動きの判断から最前の、
または遮蔽する点は仮説テストによって見出され、他の点は隠される点のはずで
ある。外挿した動きによって、ある点がカメラの視野外に移動すると推定され
るときは、Neutral とマークされオクルージョンリスト中に不明値として表され
る。
このような動き推定に基づいた局所オクルージョン検出器の他の例は、D.P
.エリアスとK.K.パン(D.P.Elias and K.K.Pang)による「動き依存セグメ
ンテーションのコヒーレント動きフィールド獲得法(Obtaining a Coherent Mot
ion Field for Motion-Based Segmentation)」(Proceedings of Internationa
l Picture Coding Symposium,1996,Melbourne,Australia)に示されている方
法である。ここに上記を文献として挙げる。
オクルージョンリスト中では他を隠す点を+1、隠される点を−1で表し、オ
クルージョンに関与しない点は図3に疑問符(?)で示すように不明値として表
される。
図3において各フレームから推定される局所オクルージョンを第三列に記載し
てあり、オクルージョンリスト330はAがBの前に有ることを示す表示”A>
B”で記載されるこれら局所オクルージョンを直接反映している。
オクルージョン観測結果のそれぞれをオクルージョンリスト330の一つの行
として表すこともできる。例えば第三フレームに関し、c>aは[−1 ? 1
? ]で、d>bを[? −1 ? 1]で表すことができる。
この代わりに、フレーム中のオクルージョンを一つに
結合してc>aとd>bをオクルージョンリスト330に一つの記載、すなわち
[−1 −1 1 1]で表す。
オクルージョン観測結果のそれぞれを一つの行でと表すことは、得られるオク
ルージョンデータをより直接的にオクルージョンリストに表せるので、通常、よ
り良い結果をもたらすという利点がある。フレーム中のオクルージョンを一行に
表すことはフレームと bilinear モデルとの関係を単純にする利点がある。説明
を単純にするために後者の方法にのみ図説する。
全てのフレームにわたりオクルージョンの平均をとることは、奥行き推定にと
って意味のあることではない。
主成分を計算するために用いる方法は、不明な値を含む入力データを扱えなけ
ればならない。前述のバリーM.ワイズ(Barry M.Wise)による「Matlab と用
いるPLS道具箱(PLS Toolbox for use with Matlab)」(1994)のマニ
ュアルに述べられている”mdpca”という機能はこの能力を有する。不明な
値を扱う一つの方法として以下の方法がある。不明な値にゼロの重み付けをした
主成分モデルを計算し、そのモデルに最も合わない不明値を置き換えていく。次
に新しい主成分モデルを計算し、このプロセスを不明データの推定値が収束する
まで繰り返す。
奥行きモデリングのみならず不明値推定は、観測した単純な局所オクルージョ
ンデータと良好な一致を得られ
るよう可能な限り少ない bilinear ファクタを用いてなされる。bilinear モデ
ルの大きさは標準的な方法、たとえば交差検定により決められる。
最初と最後のフレームではスコアは記載されていないが、これは局所オクルー
ジョンが得られないからである。これらのフレームにはどのような奥行き順序も
許されることを意味するので、ある種の応用には有用である。その他のフレーム
にはスコアの変化はなく、シーケンスを通じて奥行きの変化がないことを示して
いる。
一つのファクタの bilinear モデルは単純なオクルージョン仮定に妥当な一致
を与えることが分かっている。また[−0.5 −0.5 0.5 0.5]の
値をもつローディング340は、c点の奥行きがd点と区別がつかないのと同様
にa点の奥行きがb点と区別がつかないという特性を有している。しかしフレー
ム毎にスコアは変化しており、すなわちフレーム2,3,4ではスコアは−2、
フレーム6,7ではスコアは+2であり、奥行きが変化していることを示してい
る。
この例では時間的に系統的な変化が有ることを仮定している。すなわちオクル
ージョンの得られないフレームについては、近傍のフレームとの時間的な内挿、
外挿が用いられることを意味している。これについて図4に示す。図2に説明し
た方法を用い図3に示したスコアをフレーム数の関数として丸印でプロットして
ある。フレー
ム1,5,8については丸印は無い。これらのデータに基づき最小二乗回帰によ
りフレーム1,5,8についても求めた値を×印と直線で示す。
図4に示す解析の結果は、図3での予測スコアの列に含められている。これら
の予測スコアにローディング340を乗じることにより予測奥行き350が得ら
れる。また物理的な奥行きには直接対応していないが得られた予測奥行きはカメ
ラで観測したデータと矛盾しない。
このようにこの例では奥行き変化は定量的にモデル化される。フレームの奥行
き情報はオクルージョン情報が得られないとき、時間連続の仮定を用い予測され
る。
最小二乗回帰の代わりに他の種類の時間的内挿、外挿が不明のスコア値を埋め
るために用いることができたであろう。特に不明のスコアは、近傍のフレームの
スコアの平均、メジアン、あるいは加重平均により置き換えることができる。そ
の結果はその後、ローパスフィルタ、メジアンフィルタ、自己回帰移動平均(au
to-regressive moving average:ARMA)フィルタ、区分多項式(スプライン)ま
たはそれに類似のものによって処理することができる。
図には示していないが、不明値を埋めることはまたローディングについても用
いることができる。ローディング要素に不明値が観測されたときは対応する点に
はオクルージョンが観測されていないことを示している。近傍
の値を用いて要素を埋めることは多くの応用において妥当である。スコアについ
ての前述の議論と同じ技術が走査線カメラの応用に用いられる。2次元画像を撮
る通常のカメラの場合は、例えば近傍の加重合計によって埋められる。
ある場合には唯一つのファクタによる主成分分析表示は奥行きの変化を表示す
るには十分ではない。このことを剛体が回転している場合について図5に示す。
図5の第1列から3列にオクルージョンデータを示す。一つのファクタの bilin
ear モデルでは、これらのデータと適切な一致はしなかったが、二つのファクタ
のモデルでは一致し、従ってモデルには2次元モデルを選択した。各フレームの
二つのファクタについてのスコアを8列、9列に示す。また最下段の2行は点a
,b,cに対応するローディングを示す。
スコアに二つのファクタの各々のローディングを乗じ、その積の和をとること
により10列から12列に示す、点a,b,cに推定奥行きデータが得られる。
オクルージョン情報の観測されない点については中間的奥行き(0)として推定
する。
この図は複数の bilinear 動きモデルが回転による奥行き変化を扱えることを
示している。
複数のファクタをモデルに導入することにより、級数展開近似法としての特質
を有する bilinear モデルは、
非剛体の動きのようなさらに複雑な奥行き変化のモデル化にも用いることができ
る。これは既に前述したとおりである。ただ最終結果の人間の解釈に違いがある
かもしれない。したがって非剛体やさらに複雑な奥行き変化のモデル化について
はここでは説明しない。
オクルージョン以外のデータを奥行きモデルを向上するために用いることがで
きる。奥行き方向に垂直な動きの推定を単純な局所オクルージョンデータととも
に解析した実施例を図6aからfに示す。
図6aにおいて、1つの輪がカメラの方を向いて形成されている。その輪上に
8個の認識可能な点(輪の周辺に互いに45度ずつ離れて位置する点a、b、c
、d、e、f、g及びh)がある。それらのオクルージョンパターンは各点の間
を45度づつ回転して、7つの位置で(単純に)経時的に観測される。
図6bは各フレームにおいてどの点が見えるかを示す。
図6cは補助情報で拡張したオクルージョンリストを示す。
この例では水平方向の動きは得られる補助情報を表している。簡単のためによ
り普通のピンホールカメラモデルに対し、映写型カメラモデルを仮定した。輪の
半径を任意に100に設定し、図6cの最も右の部分は各フレームの各点の水平
位置を表している。可視点の水平位置を図6cの9列から16列に示している。
これらの水平
位置データは、暗に輪の回転に応じた水平方向の動きを反映している。
図6aと矛盾するデータが図6cに含まれていることに注意すべきである。フ
レーム3で見えているはずの点dがこのフレームで不可視とマークされており、
フレーム7で見えていないはずの点eがこのフレームで可視とマークされている
。また、点aの水平位置が100ではなく、50となっている。局所オクルージ
ョン検出器のこのような典型的な誤りは、このシステムが入力データ中の適度の
誤りやノイズに対しシステムが強いことを示すために挿入したものである。
図5における回転体との類推から bilinear モデルの2因子を選んだ。ローデ
ィングを図6dに、スコアを図6eに奥行きの再構成を与えるローディングとス
コアの積を図6fに示す。
定性的オクルージョンデータと定量的な補助水平位置データは多変量奥行きモ
デル生成器においてモデル化される。水平位置データが多変量全最小二乗(結合
主成分)モデルにうまく作用させるために、データは100分の1に縮小されて
いる。この代わりにPLS2回帰(前述の Marten & Naes,1989 による)も用
いることができるであろう。
図7は図6fの右側の予測水平位置に対して図6f左側をプロットした、フレ
ーム1に関する予測奥行きを示
したものである。かなり円形の定量的予測奥行きを示している。入力奥行き情報
が単に定性的オクルージョンデータと水平位置データとからなるにもかかわらず
、この結果が得られたことに注意すべきである。またオクルージョンリストにエ
ラーが含まれることを仮定していたことにも注意すべきである。
結果として、オクルージョンデータのノイズや不適切を補償するため、または
定量的な奥行き予測の精度を上げるため、適切な補助情報が得られる場合には奥
行きモデルに取り込むことがある。
この方法は直接二次元カメラの場合に拡張できる。その一つの方法は局所的動
き、オクルージョン分析を一次元のかわりに二次元で行うことである。その結果
得られるリストは図6cのようなベクトルとして表され、図6cの右側のように
水平位置のデータでのオクルージョンリストの増大だけではなく、垂直位置デー
タによっても増大させることができる。
主成分分析の他の方法も本発明で用いることができる。結合主成分分析の代わ
りに他の因子分析法、例えば同様な反復不明値推定によるPLS2などを用いる
ことができる。PLS2回帰は「多変量較正(Multivariate Calibration)」(
H.Marten & T.Naes,J.Wiley & Sons社,1991)146−165頁に述べられて
いる。他の文献としては、「非線形多変量分析(Nonlinear multivariate
analysis)」(8章,A.Gifi,J.Wiley & Sons 社,Chichester UK,1990)があ
る。
bilinearモデリングにおいて不明値を扱う他の方法は、A.ギフィ(A.Gifi)に
よる「非線形多変量分析(Nonlinear multivariate analysis)」(J.Wiley & So
ns 社,Chichester UK)の2.4、3、4、8章、リンゴース,J.C.、ロ
スカム,E.E.、ボルグ,I(Lingoes,J.C.,Roskam E.E.and Borg,I.)によ
る「関連データの幾何学的表現(Geometric representations of relational dat
a )」(Mat hesis Press,Ann Arbor,Michigan USA,1979)、マーテンとナエ
ス(Marten & Naes:前述)158頁の文献に述べられている。bilinearモデリ
ングの最適スケーリングについては前述のA.ギフィ(A.Gifi,1990)、リンゴ
ース等(Lingoes,et al.,1979)、およびヤング F.W.,タカネ Y.,デ
リュー J.による「混合測定レベル多変量データの主成分:最適スケーリング
特性を有する反復最小二乗法(The prncipal components of mixed measurement
level multivariate data: An alternating least squares method with optim
al scaling features)」(Young,F.W.,Takane,Y.and De Leeuw,J.,1979,Psy
chometrika 43(2))の279−281頁に述べられている。少し異なる技術とし
てはタカネY.,ヤング F.W.による「非計量共通因子分析:最適スケーリ
ング特性を有する反復最小二乗法
(Nonmetric common factor analysis: An alternating least squares method
with optimal scaling features)」( Takane,Y.,Young,F.W.,1979,Behavio
rmetrica 6)45−56頁に述べられている。
これらの方法はすべて、本発明の範囲から考えたとき、奥行き順序を記述する
ファクタをもたらすという同じ機能を有しているので、以下では主成分分析ある
いはPCAと一括して呼ぶ。
奥行きモデル生成器からの奥行きあるいはオクルージョン情報は照合や向上の
ために局所オクルージョン検出器にフィードバックされる。
それによりオクルージョンの誤った解釈を減ずることができる。例えばあるフ
レームnの場合、フレーム1,2,...,n−1に基づきオクルージョンが予
測された位置の近くにオクルージョンは期待される。したがって予測されたオク
ルージョンの近くのオクルージョン情報が不確かな場合はオクルージョンが存在
すると解釈され、かなり離れた所でのオクルージョン情報が不確かな場合はオク
ルージョンは存在しないと解釈される。第二の実施例
第一の実施例では本発明によるシステムは、個々の画像点についての応用とし
て説明した。第一の実施例の方法は、それぞれが「点」として扱える画素あるい
は他の基本的なものからなる画像対象物についても応用できる。
しかし、個々の対象物の個々の画素についての奥行き値を必要とする場合と違い
、個々の対象物に唯一つの奥行き値を必要とする場合では、必要な計算上の手順
は、多数の画素に比べ少数の対象物に大部分の操作を施すことにより極めて単純
化される。
シーケンス中の画像を分割する方法は幾つかある。一つの方法は前述の Wang
& Adelson の文献中に記載されている。レイヤ(Layer)と呼ばれる対象物は
、一つあるいは複数のフレームから集めた画素値の集合とそれぞれの画素がどれ
くらい透明かを示す、いわゆるアルファ・マップにより定義される。個々のフレ
ーム、個々の対象物について、所定のフレームの、所定の対象物の画素を再構成
するためアルファ・マップの非ゼロ部分の画素がどのように動いたかを示すアフ
ィン変換を計算する。対象物に対し「堅固な」アフィン変換モデルを仮定し、ロ
バストな動き推定と回帰法を用いるので、幾つかのフレームで対象物の間に重な
りが生じた場合でも動き推定が可能である。
第二の実施例における本発明の原理の例を図8を参照して以下に説明する。4
つのフレーム810,815,820,825からなる原シーケンスを入力とす
る。3つの対象物811,812,813が最終的に826,827,828と
深く重なるまで互いに移動する。
以下では、簡単のため3つの対象物の背景は考慮しな
いが、他の対象物と同じようにこの例の中では取り扱う。
この例では、対象物は重なり始める前に中間的な位置816,817,818
を有し、十分な動き推定とセグメントについての情報が得られる。すなわち最適
なシステムは対象物をうまく区分できることを意味している。抽出した対象物は
分離した画像831,832,833として表される。これら抽出した対象物画
像の強度は、フレームの内の一つから直接取ったものか、前述の Wang & Adels
on の文献にあるように数フレームについて平均またはメジアンフィルタリング
のようなロバスト操作により得られた結果の場合がある。あるいはWO 95/
08240に記載のような多重ファクタモデルによって表されるものかもしれな
い。
対象物の可視部分の動き推定は、たとえば前述の Wang & Adelson の文献に
あるロバストな方法により実行することができる。この推定に基づき、シルエッ
ト841,842,843,846,847,848,851,852,853
,861,862,863が再構成される。このような再構成をするに際して、
動き推定や参照シルエットに応じて対象物の強度を動かさなければならない。画
像を動かす方法については、文献として「デジタル画像ワーピング(Digital Im
age Warping)」(第3版G.Wolberg,IEEE Computer Society Press,1994)があ
る。
これらのシルエットが重なる領域854,855,856,864,865,
866が計算される。原フレーム810,815,820,825の対応部の強
度が、これら重なり領域に対応する抽出対象物831,832,833の部分の
強度と比較される。
対象物は参照位置において比較される。すなわちそれぞれの対象物について重
なり領域に対応する原画像の部分は対象物の参照位置に戻され、例えば絶対値の
差や二乗値の差の和または他の類似の計量値をその画素にわたって計算すること
により強度を比較する。
あるいは対象物はフレーム位置において比較される。すなわち対象物は動き推
定を用いて再構成され、強度の差は原フレームと再構成フレームとの差として計
算される。
対象物AとBが動いて重なったとき、AがBの前にあると仮定したとき、重な
り領域におけるAと原像の差は残差(residual)として見える。同様にBがAの
前にあると仮定したときは、重なり領域におけるBと原像の差が残差として見え
る。
表記「ResA>B」はAがBの前にあるとしたときの残差を表し、「ResB>A
」はBがAの前にあるとしたときの残差を表す。
ここで、そのような残差を要約するのに2つの方法が与えられる。
残差を要約する第一の方法は、第一の実施例を点の代わりに対象物に直接当て
はめることである。この場合オクルージョンリスト870は各対象物に対し一列
を有することになる。AとBの重なり領域に関し、オクルージョンリストは最も
小さい残差については+1が、最も大きな残差については−1が登録され、それ
ら残差の違いに応じて重み付けを計算する。この重み付けは直接残差の違いの場
合もあるし、最小または最大の残差に対する相対値あるいは、F検定または類似
の統計的確率値かもしれない。
全ての対象物についての奥行き順序を推定するプロセスは、点の代わりに対象
物を考えること、例えばインシデンス(incidence)マトリクスの各列が対象物
に当たる、を除けば第一の実施例と同じである。
残差を要約する第二の方法は、トポロジーに基づく分類である。グラフ上で一
つの対象物は一つのノード(節:node)として表される。確率PでAがBの前に
あるという仮定は、AからBへ対応する強度Pをもったエッジ(稜線:edge)と
して表される。この構造は、例えば「線形代数入門(Introduction to linear
algebra)」(G.Strang,pp.339-348, Wellesley-Cambridge Press,1993)で
定義されているようなインシデンス(incidence)マトリクスとして表される。
図11aからeは、様々な重なりがどのように奥行き
グラフに表されるかを説明する図である。この例では背景は考慮されていないが
、3つの対象物に当てはめられた原理は背景についても応用できる。
図11aは、2つの対象物A1111とB1112がフレーム1110では重
なっていないことを示している。奥行きグラフ1115は独立した唯2つのノー
ド1116,1117からなっている。多くの応用にとってこれは価値のある情
報である。例えば画像復号器では、重なりにZバッファ法のようなプロセスを用
いることなしに、独立して復号できる。
図11bは2つの対象物A1121、B1112がフレーム1120で重なる
基本的な場合について示している。これらは一カ所で重なり、AはBの前(A>
B)にある。奥行きグラフ1126は対象物A1125が対象物B1127の前
にあることを示す。
図11cはフレーム1130において、一つの対象物A1131が対象物B1
132を隠し、さらにそれが第三の対象物C1133を隠している。A1131
は間接的にC1133を隠しており、それは奥行きグラフ1136において、A
1135からC1138へ直接のエッジ(矢印)がないことに反映されている。
図11dは、図11cのような間接の重なりと直接の重なりの組み合わせの場
合を示している。
図11eは、3つの対象物A1151、B1152、
C1153が特定の奥行き順序ではなく重なった場合を示す。これは奥行きグラ
フ1156がループになっていることで示される。多くの実際のシーケンスでは
、得られたオクルージョンが物理的に「正しい」重なりの場合もあるし、カメラ
のノイズや不完全な動き推定、または他の誤りの場合もある。前もってどのオク
ルージョンが「正しい」か、どれが「誤り」かを知ることはできない。多くの実
際例では「誤り」のオクルージョンは奥行き順序、奥行きグラフでのループに矛
盾を生じる傾向がある。一方でこのような誤りの重なりに対応するオクルージョ
ンは正しいオクルージョンに比べ、時間的に系統的でない、または画素が少ない
、強度差が弱いなどの傾向をしばしば有する。したがってオクルージョンについ
て得られる、すべてのデータを収集することが有利であり、矛盾のない奥行き順
序を得るためにどのオクルージョンを無視するか見つけなければならない。
図11fは4つの対象物を有するフレーム1160を示す。対象物B1162
が対象物A1161とD1164を隠し、A1161とD1164はさらにC1
163を隠している。これは奥行き順序B>A>D>C、B>D>A>Cの両者
と矛盾しない。AとDの独立は図11aで説明したのと同じ理由で重要であるが
、最前のB1162のA1161およびC1163への影響は考慮されなければ
ならない。
トポロジカルな分類は全体の順序、この場合では奥行き順序、と矛盾しない部
分的順序、すなわちオクルージョンを見つけることである。このようなトポロジ
カルな分類はUNIXのオペレーティング・システムの中に「tsort」とい
うプログラムとして備えられている。「tsort」はUNIX版ソラリス2.
4(UNIX-version Solaris 2.4)のマンページ(man-page)に記述されている。
「tsort」のような基本的なトポロジカル分類システムは、入力データに
ループ(tsort の man-page では「サイクル(cycle)」と呼ばれる)がある
ときは動作しない。入力データ中のループは、カメラのノイズや他のデータ誤り
により生ずる。このデータ誤りは、一連のフレーム・シーケンスにわたるオクル
ージョンの蓄積や、動き推定あるいは他の局所オクルージョン検出の部分につい
ての最適下限の結果、または実際に相互に隠し合う対象物によって引き起こされ
る。
どんな場合でも多くの応用にとって、このようなループは解決されなければな
らない。一つの実施例としては、オクルージョングラフの中の弱い強度のエッジ
を、ループのないグラフが得られるまで取り除くことである。ループの除去とト
ポロジカル分類の組み合わせはロバスト・トポロジカル分類と呼ばれる。
一つの実施例として、ループの除去は以下の疑似コー
ドによりなされる。
While ループがグラフ中に見つかる(間)
Find 最も弱い強度のエッジを(見つける)
Set そのエッジの強度をゼロに(設定する)
ループをグラフ中に見つけるのは、幅第一(width-first)検索や連結(conne
ctivity)マトリクスの累乗のような標準的な方法により行える。
エッジの除去はエッジ強度に閾値を設けることである。前記の疑似コードによ
りエッジを除去する前、間または後で、ある閾値より強度の小さいものはゼロと
することである。
一つのフレームに対し、このようなグラフを表すインシデンス・マトリクスが
一つ与えられる。あるいは数フレームのインシデンス・マトリクスは、単純にイ
ンシデンス・マトリクスを連鎖することによりまとめられる。互いに隠し合う対
象物の組み合わせが幾つかあるときは、強度が残差に比例するように表されてい
る場合は強度の和をとることにより、また確率として表されている場合は掛け合
わせることによりインシデンス・マトリクスの一行に結合できる。
オクルージョンデータのループが他のサブシステムからのノイズや間違った結
果から生じたとき、またこれらの効果によって「正しい」オクルージョンより不
確かなオクルージョンが現れるときは、上記のプロセスはノイ
ズを取り除く効果がある。
ループがシーケンス中で奥行き順序が変化することや互いに隠し合う対象物に
より生じた場合は、上記のプロセスは可能な限り穏やかにループを破る効果があ
る。
シーケンスの間、奥行き順序は変化してもよいが、どのフレームにおいてもル
ープがあってはならない応用においては、ループの除去はフレーム毎に行われる
。
以下の例を考えてみる。シーケンス・エンコーダがシーケンスを解析し奥行き
順序の変化があったときには、多重ファクタの bilinear モデルによってのみ、
良好にモデル化される。オクルージョンの確かさの閾値として小さな値を用い、
ループを除去するため上記の方法を用い、意味のないオクルージョンのみがプロ
セス中で無視される。概して、このことは bilinear 奥行きモデルにおいて必要
なファクタの数を減ずることになる。次にbilinearモデルはデコーダに伝達され
る。
グラフ中のゼロでないエッジは奥行きグラフを表している。それらはインシデ
ンス・グラフ、リスト、他の適切なフォーマットで出力される。
上記の2つの対象物の重なり領域についての、オクルージョンマトリクス情報
を生じさせる、残差の計算原理は、さらに多数の対象物の場合に拡張できる。図
8に3つの対象物を含む場合について示してある。
さらに詳細を、図9aから図9cに示す。3つの対象
物910,912,914が重なり、それらの再構成シルエット920,922
,924が領域928で一致している。
図9cは、3つの対象物A910,920、B912,922、C914,9
24が図9a、9bに示すように重なった領域における、一つの画素位置928
の値を示している。強度スケール930上に、それぞれ所定の画素位置で対象物
をデコードし再構成した画素値A931,B932,C933を、原画像フレー
ム対応する画素の強度936と共に示してある。再構成した画素値、例えば画素
A931、はまた不確かさを有し、上限値934と下限値935が仮定されてい
る。この不確かさは多くの原因から推定することができる。それは熱雑音のよう
なカメラの特性によるものかもしれないし、デジタイズ、ストア、圧縮や他のプ
ロセスに必要な量子化に起因する画像システムの他の制限によるものかもしれな
い。その前のフレームの対象物や画素の位置の統計的な場合もある。あるいは、
動き推定やセグメント化と共に、奥行き推定をその一部とするプロセスにおける
緩和パラメータ(relaxation parameter)によって定義できるし、第一に主で確
かな情報に次に詳細な点に集中するために奥行き推定にモジュール内で緩和パラ
メータを用いる。
図9cの例において、元々の画素値936はCの再構成画素値の不確定限度9
34,935の中にあり、B9
32とC933の不確定限度の外にある。再構成画素値Cが与えられた値と一致
するが、AとBは一致しない。A、B、Cはフレーム中の同じ画素位置に対応す
るので、この観測は見える画素はCの一部であることを支持しており、さらにC
はAとBの前面にあることを意味している。しかしこれは、BとAの順序につい
てはほとんど情報がないことに注意すべきである。この例についての結論はC>
Aかつ(and)C>Bと、前述の違いに基づく対応する強度である。したがっ
てResC>A、ResC>B、ResA>CかつResB>Cがオクルージョンリストを更
新するのに用いることができる。
図9dの例において、画素値940は2つの対象物AとBの不確定値の中にあ
り、Cの不確定値の外にある。したがってこの画素は、AかBまたは両者はCの
前面にある、すなわちA>Cまたは(or)B>Cである。この実施例では、こ
の「または(or)」の関係は、ReSA>C、ResC>A、ResB>CかつResC >B
がオクリュージョンリストを更新するのに用いることができるという点で、前
節の「かつ(and)」の関係と同じように取り扱うことができる。
図9eは、観測された画素強度950が対象物の全ての許される範囲の外にあ
る場合である。この場合、オクルージョンについての結論は得られない。
上記のプロセスは次の疑似コードに要約される。
For 重なり領域のそれぞれの画素位置(について):
For 重なりに関連するそれぞれの対象物(について)
Reconstruct 画素に対応する画素値を、範囲を
示す矢印とともに(再構成する)
If (もし)観測した画素が矢印の範囲に適合
した場合:
Mark 対象物を「許容された」("Allowed")
として(マークする)
else(さもなければ)
Mark 「許容されない」("NotAllowed")
として(マークする)
For 許容された対象物(について):
For 許容されない対象物(について):
Accumulate 観測した値と再構成した画素値の
差に応じてオクルージョンマトリクス中に
ResAllowed>NotAllowed
を(蓄積する)
この方法は、画素のそれぞれが許容されるか、されないかというかなり難しい
、イエスかノーかの判断を採っている。多くの応用にとっては、画素数は非常に
大きく全出力は動きも連続的にみえるので、この方法は十分である。不確定さを
許容されるか、されないかの閾値とし
て用いるより、違った種類の許容性を生ずるものとして用いることができる。図
9cでは観測画素値936は再構成画素値931に非常に近いので、この画素は
非常に1に近い許容性を有していることを意味しているであろう。図9eでは観
測画素値950はゼロの許容性を有し、図9dの観測画素値940中間的な値を
有する。オクルージョン・マトリクスに蓄積される前に、残差はこの許容性と掛
けられる。これはファジー論理タイプに該当する。
前述ではオクルージョンは奥行き情報源として用いられた。イノベーション(
innovation)はオクルージョンと同じ現象として見えるので、したがってこれま
での全ての原理は直接応用できる。
時間の方向が重要な応用として図10を用い説明する。3つのフレーム100
1,1002,1003は最初互いに重なり合う3つの対象物1005,100
6,1007を含むが、それらは次に離れて新たなイノベーション(innovation
)と呼ばれる領域が見えてくる。
第一のフレーム基づき対象物への分割がなされ、オクルージョンのため不完全
な観測対象物1015,1016,1017に分割されたと仮定する。これらは
フレームを通じて追跡でき、初期の位置1030,1031,1032,103
5,1036,1037を有する。再構成1021,1022,1023におい
て包含されな
い原フレーム1001,1002,1003の一部分は、観測対象物1015,
1016,1017として割り当てられる。たとえばこれは以下の原理による:
While シーケンス中でカバーされない画素を有する
フレームがある(間は):
Select 参照フレームを(選ぶ) 例えば、カバー
されない画素を最も多く有するフレーム
For 参照フレーム中のカバーされない画素の
それぞれ(について):
For 参照フレーム近い各対象物(について):
For シーケンスの他の各対象物(について):
Find 他のフレームのどの画素が参照フレー
ムの画素に対応するか、対象物の動き
を外挿して(見つける)
Collect 平均、標準偏差など画素値の統計
値
を(集める)
Assign 最も良い統計値、例えば最小の標準偏差を
与える画素を対象物に(割り当てる)
このプロセスにより対象物に割り当てたイノベーションは、オクルージョンを
生じさせ、よって奥行きを推定
するのに用いられる。これを行うために、各フレームの動き推定に基づき最終対
象物のシルエットを再構成し、重なり領域1060,1061,1062,10
65,1066を見つけ、図8で説明したような処理を行う。
図12に示すようにインシデンス・マトリクスは予測である。インシデンス・
マトリクスがシーケンス中のあるフレーム、例えば図12aの最初の2フレーム
1210,1215、について知られていれば、他の関連するフレームのインシ
デンス・マトリクスは、インシデンス・マトリクスの分かっている2つのフレー
ムの間にある場合は線形内挿により、インシデンス・マトリクスの分かっている
フレームに引き続く場合は外挿により作ることができる。この一例を図12bに
示す。まずオクルージョンリストの中から、幾つかのフレームの結果と矛盾しな
いような共通の構造を選ぶ。この共通のオクルージョンリスト1230のオクル
ージョンのセットは第一行にA>B、第二行にA>C、第三行にB>Cが登録さ
れている。この例では、オクルージョンの重みを計算するため残差が用いられて
いる、すなわち重み前述の残差に基づいている。最初のフレーム1210,12
15の重み1235,1240は次のフレームの重みを予測、内挿または外挿す
るために用いられる。したがってこれらは矛盾を見つけ解決するための基礎とな
る。
図12cは等価なデータ構造を示す。オクルージョン
リストの代わりに各対象物に一列、観測毎またはオクルージョンパターンの要約
に対し一行を有する。オクルージョンマトリクス1250は各対象物に一行一列
を当てている。オクルージョンマトリクス中の位置i,jにおける値xは対象物
iが対象物jを強度xで隠していることを示し、ここでの強度とは前述のように
重み、残差の違い、確率、確度などである。一つのオクルージョンマトリクス1
260は他のオクルージョンマトリクス1250,1255の対応する要素から
予測することができる。
図12bまたは12cによる予測は多変量技術を用いて行える。図12bの重
み1235,1240はbilinearモデルによりモデル化され、各フレームに一連
のスコアがあり、これらのスコアは予測でき、スコアにローディングを掛けるこ
とにより重みが予測される。この方法は図12cで概観したように、bilinearモ
デリングと再構成がマトリクスにフォーマットされる前に行ベクトルに強度がフ
ォーマットされなければならない点を除き、オクルージョンマトリクスの場合と
同じである。
その他の bilinear モデリングと矛盾解決の組み合わせは以下の通りである。
エンコーダは幾つかのフレームに対応するインシデンス・マトリクスを集める
ことができる。これらのマトリクスは、ある2つの対象物の間のオクルージョン
がいつ
も同じ位置に起きるよう調整される。次にこれらのマトリクスの bilinear モデ
リングが可能になり、時間的スコアと空間的ローディングが得られる。各フレー
ムについて bilinear モデルに矛盾があってもよい。このbilinearモデルはエン
コーダからデコーダに伝達される。スコアとローディングを掛けることにより見
つかった、各フレームについての再構成オクルージョンリスト中の矛盾はデコー
ダ側で個々のフレームに対し解消される。
本発明について特に実施例を参照し説明したが、当業者であれば容易に、本発
明の趣旨と範囲から逸脱せずに形式や詳細を様々に変えうることができる。した
がって「複数(plurality)」という表現は、「一つまたはそれ以上の(one or
more)」の意味で解釈されてもよい。
【手続補正書】特許法第184条の8第1項
【提出日】1997年5月23日
【補正内容】
補正書の翻訳文
請求の範囲
1. 少なくとも二つのフレームからなる画像シーケンスの奥行きを推定する方
法において
認識点がフレームを通して引き続き、
その認識点に基づくオクルージョン情報が、奥行きのバイリニア(bilinear)
モデルを作るために用いられ、
バイリニアモデルがスコア(score)マトリクスとローディング(loading)マ
トリクスからなり、スコアマトリクスがスコアベクトルと呼ばれる列ベクトルか
らなり、ローディングマトリクスがローディングベクトルと呼ばれる行ベクトル
からなり、各フレームの値を有するスコアベクトルと各点の値を有するローディ
ングベクトルの集合はファクタと呼ばれ、
各フレームの奥行きがすべてのファクタからの寄与を加えることにより再構成
され、各ファクタの寄与がフレームとファクタに対応するスコア値とファクタに
対応するローディングベクトルの積であることを特徴とする方法。
2. (1)認識点を選択し特徴づける段階と、
(2)各フレームの各点が可視点か隠されているかを検証し、オクルージョン
リストに、各フレームがリストの一行に対応し各点がリストの一列に対応し、可
視点に対応す
るリスト中の要素は大きな値を有し隠された点は小さな値を有するようにオクル
ージョンデータを収集し、
(3)オクルージョンリストにバイリニアモデリングを実行する段階と、
(4)対応点の奥行き情報として、最初のファクタの各ローディングベクトル
要素の数値を、カメラまたは観測者に近い場合は大きな数値を、離れた場合は小
さな数値を出力する段階と、
からなることを特徴とする請求項1に記載の方法。
3. (1)認識点を選択し特徴づける段階と、
(2)各フレームの各点が可視点か隠されているかを検証し、オクルージョン
リストに、オクルージョンの各観測がリストの一行に対応し各点がリストの一列
に対応し、隠された点は小さな値を有し、他を隠す点は大きな値を有し、その他
の点は不明点として記録されるようにオクルージョンデータを収集し、
(3)不明値を取り扱うことのできる方法を用い、オクルージョンリストにバ
イリニアモデリングを実行する段階と、
(4)対応点の奥行き情報として、最初のファクタの各ローディングベクトル
要素の数値を、カメラまたは観測者に近い場合は大きな数値を、離れた場合は小
さな数値を、何らかの奥行きを示す場合は不明値を出力する段階と、からなるこ
とを特徴とする請求項1に記載の方法。
4. 各点について、画像の各座標の次元について一つの列を有し、その列が各
フレーム中の点の座標を含むことを特徴とする請求項1から3に記載の方法。
5. 画像シーケンスが、少なくとも三つのフレームからなり、
1以上でシーケンス中のフレームの数以下の、適切な数のファクタが選ばれ、
スコアおよびローディングマトリクスの前記の適切なファクタ数に対応する部
分のみが奥行きの推定をするために用いられることを特徴とする請求項1から4
に記載の方法。
6. (1)−(3)選択されたフレームを除き、シーケンスの各フレームにつ
いて請求項2から5の内のどれか一つの(1)−(3)を実行する段階と、さら
に
(4)他のフレームに対応するスコアに基づき、選択したフレームに対応する
スコアを内挿または外挿する段階と、
(5)前記段階(4)により内挿または外挿したスコアに得られているローデ
ィングベクトルを掛け、それにより前記フレームのオクルージョンデータを予測
し、各点に対応する予測したオクルージョンデータの要素が、前記フレームの点
の奥行きを表す段階と、
からなることを特徴とする、少なくとも3つのフレームからなる画像シーケンス
の一部で、選択されたフレームの奥行きを予測する方法。
7. 認識点の代わりに、映像を対象物として用いたこと
を特徴とする請求項1から6に記載の方法。
8. 映像対象物の点の奥行きが請求項1から6のどれかにより推定され、かつ
映像対象物内の点の奥行き値に基づき対象物の代表奥行き値を計算することによ
り映像対象物の奥行きを得ることを特徴とする、少なくとも2つのフレームから
なるシーケンスの映像対象物の奥行きを推定する方法。
9. (1)認識点を定義し特徴づける段階と、
(2)各フレームの各対象物の動きを推定する段階と、
(3)第一の対象物Aと第二の対象物Bがフレーム中で重なるように動くとき
、対象物Aはそのフレームに関し再構成され、再構成したものと元のものとの差
を表すインジケータを計算し、その結果をオクルージョンマトリクスの位置(A
,B)に蓄積し、次に対象物Bはそのフレームに関し再構成され、再構成したも
のと元のものとの差を表すインジケータを計算し、その結果をオクルージョンマ
トリクスの位置(B,A)に蓄積し、各対象物に一つの行と一つの列を有するオ
クルージョンマトリクスにオクルージョンデータを統合する段階と、
(4)各対象物がノード(node)に変換され、オクルージョンマトリクスのゼ
ロでない要素が、要素の行に関連するノードから要素の列に関連するノードへ向
かい、オクルージョンマトリクスの値をその強度とするエッジに変換されるよう
なグラフにオクルージョンマトリクスを変換する
段階と、
(5)最も強度の弱いエッジが取り除かれ、グラフ中に残っているエッジがシ
ーケンス中の対象物間の奥行き依存性を表すように、グラフ中のループを検出し
解明する段階と、
からなることを特徴とする、少なくとも2つのフレームからなるシーケンスの奥
行き依存性を推定する方法。
10. 請求項9の(3)段階において、オクルージョンマトリクスの要素(A
,B)および(B,A)が対象物A、Bの重なりのあるフレームから重なりのな
いフレームへ戻る動き推定から計算され、(A,B)および(B,A)に蓄積さ
れるその値が、重なり領域の動き推定が重なりのないフレームの対象物Aまたは
Bを向いているかどうかに依存することを特徴とする請求項9に記載の方法。
11. 少なくとも三つのフレームからなるシーケンスのうち、ある一つのフレ
ームの奥行き依存性を予測する方法において
(1)前記フレームを除く各フレームに、請求項9の(3)段階によりオクル
ージョンマトリクスを計算する段階と、
(2)望むフレームについて、オクルージョンマトリクスの個々の要素を、内
挿または外挿により予測する段階と、
(3)請求項9の(4)−(5)段階を用いて、グラフ中に残っているエッジ
が前記フレーム中の対象物の奥行き
依存性を表すように、予測オクルージョンマトリクスに基づき奥行き依存性を計
算する段階とからなることを特徴とする方法。
12. (1)各フレームの認識可能な対象物点を定義し特徴づける段階と、
(2)各フレームの各対象物の動きを推定する段階と、
(3)各フレームについて、再構成フレームを空白に初期化することにより再
構成し、すべての対象物について、推定した動きに応じて各対象物の強度を動か
し、前記再構成フレームの結果を収集する段階と、
(4)段階(3)の再構成により扱われなかったフレームの部分に段階(1)
の対象物のあるものを割り当てる段階と、
(5)段階(4)で割り当てられた部分について、請求項1から3および8の
どれかにより奥行きを推定する段階とからなることを特徴とする、少なくとも2
つのフレームからなるシーケンスの奥行き依存性を推定する方法。
13. ループの検出および解明が、請求項9または10のどちらかにより推定
した奥行き順序に基づくことを特徴とする請求項11あるいは12に記載の方法
。
14. (1)認識点を選択し特徴づける手段と、
(2)各フレームの各点が可視点か隠されているかを検証し、オクルージョン
リストに、各フレームがリストの一行に対応し各点がリストの一列に対応し、可
視点に対応す
るリスト中の要素が大きな値を有し隠された点は小さな値を有するようにオクル
ージョンデータを収集する手段と、
(3)結果としてスコアベクトルと呼ばれる列ベクトルからなるスコアマトリ
クスと、ローディングベクトルと呼ばれる行ベクトルからなるローディングマト
リクスと、ファクタと呼ばれる各フレームの値を有するスコアベクトルと各点の
値を有するローディングベクトルの集合とを生じ、オクルージョンリストの一行
は全てのファクタからの寄与を加えることにより再構成または近似でき、各ファ
クタの寄与がフレームとファクタに対応するスコア値とファクタに対応するロー
ディングベクトルの積であるような、オクルージョンリストにバイリニアモデリ
ングを実行する手段と、
(4)対応点の奥行き情報として、最初のファクタの各ローディングベクトル
要素の数値を、カメラまたは観測者に近い場合は大きな数値を、離れた場合は小
さな数値を出力する手段と、
からなることを特徴とする、少なくとも二つのフレームからなる画像シーケンス
の奥行きを推定する装置。
15. 請求項1から13のいずれかの方法に従い用いるのに適した請求項14
に記載の装置。
16. フレームからなる画像シーケンスの奥行きを表すデータ構造において、
前記フレームのそれぞれが空間パターンにおいて配列された複数のデータサンプ
ルからなり、
前記データ構造がデータプロセス・システムにより実行されるアプリケーション
・プログラムが使えるように、前記データプロセス・システムのメモリ内にあり
、前記データ構造が前記アプリケーション・プログラムが使うデータベース中に
ある情報からなり、
(1)各ロード(load)の各要素が前記参照画像の一部に対応する奥行きロー
ディングベクトルと呼ばれる、複数の空間変化パターンを有し、
(2)各奥行きスコアベクトルが一つの奥行きローディングベクトルに対応し
、前記スコアベクトルのそれぞれが各フレームに対応する一つの奥行きスコアを
有する複数の奥行きスコアベクトルからなり、
一つのフレームの前記画像各部の奥行き値が、前記フレームに対応する奥行き
スコアに奥行きローディングベクトルを掛けることにより計算されることを特徴
とするデータ構造。
17. フレームからなる画像シーケンスのオクルージョンの程度を表すデータ
構造において、前記フレームが空間パターンにおいて配列された複数のデータサ
ンプルからなり、前記データ構造がデータプロセス・システムにより実行される
アプリケーション・プログラムが使えるように、前記データプロセス・システム
のメモリ内にあり、前記データ構造が前記アプリケーション・プログラムが使う
データベース中にある情報からなり、
(1)各ロード(load)の各要素が前記参照画像の部分の一組み合わせに対応
するオクルージョン・ローディングベクトルと呼ばれる、複数の変化パターンを
有し、
(2)各オクルージョン・スコアベクトルが一つのオクルージョン・ローディ
ングベクトルに対応し、前記スコアベクトルのそれぞれが各フレームに対応する
一つのオクルージョンスコアを有する複数のオクルージョン・スコアベクトルか
らなり、
一つのフレームの前記参照画像部分の前記各組み合わせの間のオクルージョン
の程度の近似が、前記フレームに対応するオクルージョンスコアにオクルージョ
ンローディングベクトルを掛けることにより計算されることを特徴とするデータ
構造。
18. 請求項16または17のいずれかによるデータ構造からなることを特徴
とするデータキャリア。
19. 請求項1から13のいずれかによる方法によって作られるデータ構造か
らなることを特徴とするデータキャリア。
20. 請求項16または17のいずれかによるデータ構造を読むのに適した装
置。
21. 請求項16または17のいずれかによるデータ構造を伝達するのに適し
た装置。
22. 請求項1から13のいずれかによる方法によって作られる情報を含む信
号をデコードするのに適した装置。
23. 請求項1から13のいずれかによる方法によって作られる情報を含む信
号を伝達するのに適した装置。
24. 請求項16または17のいずれかによるデータ構造を含むデータキャリ
アと読解装置からなることを特徴とするシステム。
25. 請求項16または17のいずれかによるデータ構造を含むデータキャリ
アと伝達装置からなることを特徴とするシステム。
26. 通信あるいはプロセシングのシステムにおいて、入力、ストア、アクセ
ス、プロセシング、伝達、評価、表示または出力のために、請求項16または1
7のいずれかによるデータ構造の使用。
─────────────────────────────────────────────────────
フロントページの続き
(81)指定国 EP(AT,BE,CH,DE,
DK,ES,FI,FR,GB,GR,IE,IT,L
U,MC,NL,PT,SE),OA(BF,BJ,CF
,CG,CI,CM,GA,GN,ML,MR,NE,
SN,TD,TG),AP(KE,LS,MW,SD,S
Z,UG),UA(AM,AZ,BY,KG,KZ,MD
,RU,TJ,TM),AL,AM,AT,AU,AZ
,BB,BG,BR,BY,CA,CH,CN,CZ,
DE,DK,EE,ES,FI,GB,GE,HU,I
S,JP,KE,KG,KP,KR,KZ,LK,LR
,LS,LT,LU,LV,MD,MG,MK,MN,
MW,MX,NO,NZ,PL,PT,RO,RU,S
D,SE,SG,SI,SK,TJ,TM,TR,TT
,UA,UG,US,UZ,VN
(72)発明者 レベルク ヤン オットー
ドイツ連邦共和国 ウンターフェーニング
デー−85774 フィシュテンシュトラー
セ 2
【要約の続き】
ンスの奥行きを推定する方法。
Claims (1)
- 【特許請求の範囲】 1. (1)認識点を選択し特徴づける段階と、 (2)各フレームの各点が可視点か隠されているかを検証し、オクルージョン リストに、オクルージョンの各観測がリストの一行に対応し各点がリストの一列 に対応し、隠された点は小さな値を有し、他を隠す点は大きな値を有し、その他 の点は不明点として記録されるようにオクルージョンデータを収集する段階と、 (3)スコアベクトルと呼ばれる列ベクトルとローディングベクトルと呼ばれ る行ベクトルと、ファクタと呼ばれる各フレームの値を有するスコアベクトルと 各点の値を有するローディングベクトルを集め、オクルージョンリストに主成分 分析を行う段階と、 (4)対応点の奥行き情報として、最初のファクタの各ローディングベクトル 要素の数値を、カメラまたは観測者に近い場合は大きな数値を、離れた場合は小 さな数値を出力する段階と、 からなることを特徴とする、少なくとも二つのフレームからなる画像シーケンス の奥行きを推定する方法。 2. (1)認識点を選択し特徴づける段階と、 (2)各フレームの各点が可視点か隠されているかを検証し、オクルージョン リストに、オクルージョンの各観測がリストの一行に対応し各点がリストの一列 に対応 し、隠された点は小さな値を有し、隠す点は大きな値を有し、その他の点は不明 値として記録される段階と、 (3)スコアと呼ばれる列ベクトルとローディングと呼ばれる行ベクトルを生 ずる、不明値を取り扱うことのできる方法を用い、主成分分析を実行する段階と (4)対応点の奥行き情報として、最初のファクタの各ローディングベクトル 要素の数値を、カメラまたは観測者に近い場合は大きな数値を、離れた場合は小 さな数値を、どのような奥行きでも持ちうる点には不明値を出力する段階と、 からなることを特徴とする、少なくとも二つのフレームからなる画像シーケンス の奥行きを推定する方法。 3. (1)認識点を選択し特徴づける段階と、 (2)各フレームの各点が可視点か隠されているかを検証し、オクルージョン リストに、各フレームがリストの一行に対応し各点がリストの一群の列に対応し 、各点についてオクルージョンを表す一列と画像の各座標次元に一列を有し、各 フレームの各点に対し、可視点の場合は大きな値を不可視点の場合は小さな値を 第一列の要素に与え、その他の各列の要素には、可視点の場合は列に対応する画 像次元の点の画像座標に応じた値が与えられるか、不可視点の場合には不明値と して記録される段階と、 (3)スコアベクトルと呼ばれる列ベクトルとローデ ィングベクトルと呼ばれる行ベクトルを生じ、各フレームの値を有するスコアベ クトルと各点の値を有するローディングベクトルの集合はファクタと呼ばれ、最 初のファクタのローディングベクトルが各点に対応する一群の値を有する、不明 値を取り扱うことのできる方法を用い、主成分分析を実行する段階と、 (4)対応点の奥行き情報として、その群の最初の数値を出力する段階と、 からなることを特徴とする、少なくとも二つのフレームからなる画像シーケンス の奥行きを推定する方法。 4. (1)−(3)請求項1,2,3のどれかの段階(1)−(3)からなる 段階と、さらに (4)1以上でシーケンス中のフレームの数以下の、適切な数のファクタが選 ぶ段階と、 (5)各フレームに対し、フレームに対応するスコアに適切なファクタのロー ディングベクトルを掛け、それによりオクルージョンデータの再構成を得、各点 について再構成したオクルージョンデータの対応する要素が、対応するフレーム の点の奥行きを表わす段階と、 からなることを特徴とする、少なくとも三つのフレームからなる画像シーケンス の奥行き変化をモデル化する方法。 5. (1)−(3)奥行き予測を行うフレームを除き、シーケンスの各フレー ムについて請求項1,2,3の内 のどれか一つの段階(1)−(3)、または請求項4の段階(1)−(4)を実 行する段階と、さらに (4)他のフレームに対応するスコアに基づき、前記フレームに対応するスコ アを内挿または外挿する段階と、 (5)前記段階(4)により内挿または外挿したスコアに得られているローデ ィングベクトルを掛け、それにより前記フレームのオクルージョンデータを予測 し、各点に対応する予測したオクルージョンデータの要素が、前記フレームの点 の奥行きを表す段階と、 からなることを特徴とする、少なくとも3つのフレームからなる画像シーケンス の一部のフレームの奥行きを予測する方法。 6. (1)認識点を定義し特徴づける段階と、 (2)各フレームの各対象物が他を隠しているか隠されているかを検証し、オ クルージョンリストに、オクルージョンの各観測がリストの一行に対応し各点が リストの一列に対応し、隠された対象物は小さな値を有し、他を隠す対象物は大 きな値を有し、その他の対象物は不明値として記録されるようにオクルージョン データを収集する段階と、 (3)スコアベクトルと呼ばれる列ベクトルとローディングベクトルと呼ばれ る行ベクトルと、ファクタと呼ばれる各フレームの値を有するスコアベクトルと 各点の値を有するローディングベクトルを集め、不明値を取り 扱うことのできる方法を用い、オクルージョンリストに主成分分析を行う段階と 、 (4)対応するフレームの奥行き情報として、最初のファクタの各ローディン グベクトル要素の数値を、カメラまたは観測者に近い場合は大きな数値を、離れ た場合は小さな数値を、どのような奥行きでも持ちうる対象物には不明値を出力 する段階と、 からなることを特徴とする、少なくとも二つのフレームからなる画像シーケンス の対象物の奥行きを推定する方法。 7. (1)請求項1から5の内のどれか一つの段階(1)−(3)により点の 奥行きを推定する段階と、 (2)対象物内の前記各点の奥行き値に基づき対象物の奥行き代表値を見つけ る段階と、 からなることを特徴とする、少なくとも二つのフレームからなるシーケンス内の 対象物の奥行きを推定する方法。 8. (1)認識対象物を定義し特徴づける段階と、 (2)各フレームの各対象物の動きを推定する段階と、 (3)第一の対象物Aと第二の対象物Bがフレーム中で重なるように動くとき 、対象物Aはそのフレームに関し再構成され、再構成したものと元のものとの差 を表すインジケータを計算し、その結果をオクルージョンマトリクスの位置(A ,B)に蓄積し、次に対象物Bはそのフレームに関し再構成され、再構成したも のと元のもの との差を表すインジケータを計算し、その結果をオクルージョンマトリクスの位 置(B,A)に蓄積し、各対象物に一つの行と一つの列を有するオクルージョン マトリクスにオクルージョンデータを統合する段階と、 (4)各対象物がノード(node)に変換され、オクルージョンマトリクスのゼ ロでない要素が、要素の行に関連するノードから要素の列に関連するノードへ向 かい、オクルージョンマトリクスの値をその強度とするエッジに変換されるよう なグラフにオクルージョンマトリクスを変換する段階と、 (5)最も強度の弱いエッジが取り除かれ、グラフ中に残っているエッジがシ ーケンス中の対象物間の奥行き依存性を表すように、グラフ中のループを検出し 解明する段階と、 からなることを特徴とする、少なくとも2つのフレームからなるシーケンスの奥 行き依存性を推定する方法。 9. 請求項8の(3)段階において、オクルージョンマトリクスの要素(A, B)および(B,A)が対象物A、Bの重なりのあるフレームから重なりのない フレームへ戻る動き推定から計算され、(A,B)および(B,A)に蓄積され るその値が、重なり領域の動き推定が重なりのないフレームの対象物AまたはB を向いているかどうかに依存することを特徴とする請求項8に記載の方法。 10. 少なくとも三つのフレームからなるシーケンスのうち、ある一つのフレ ームの奥行き依存性を予測する方法において (1)前記フレームを除く各フレームに、請求項8の(3)段階によりオクル ージョンマトリクスを計算する段階と、 (2)望むフレームについて、オクルージョンマトリクスの個々の要素を、内 挿または外挿により予測する段階と、 (3)請求項8の(4)−(5)段階を用いて、グラフ中に残っているエッジ が前記フレーム中の対象物の奥行き依存性を表すように、予測オクルージョンマ トリクスに基づき奥行き依存性を計算する段階とからなることを特徴とする方法 。 11. (1)各フレームの認識可能な対象物を定義し特徴づける段階と、 (2)各フレームの各対象物の動きを推定する段階と、 (3)各フレームについて、再構成フレームを空白に初期化することにより再 構成し、すべての対象物について、推定した動きに応じて各対象物の強度を動か し、前記再構成フレームの結果を収集する段階と、 (4)段階(3)の再構成により扱われなかったフレームの部分に段階(1) の対象物のあるものを割り当てる段階と、 (5)段階(4)で割り当てられた部分について、請求項1から3、6および 8のどれかにより奥行きを推定する段階と、 からなることを特徴とする、少なくとも2つのフレームからなるシーケンスの奥 行き依存性を推定する方法。 12. ループの検出および解明が、請求項8または9のどちらかにより推定し た奥行き順序に基づくことを特徴とする請求項10あるいは11に記載の方法。 13. (1)認識点を選択し特徴づける手段と、 (2)各フレームの各点が可視点か隠されているかを検証し、オクルージョン リストに、各フレームがリストの一行に対応し各点がリストの一列に対応し、可 視点に対応するリスト中の要素が大きな値を有し隠された点は小さな値を有する ようにオクルージョンデータを収集する手段と、 (3)結果としてスコアベクトルと呼ばれる列ベクトルと、ローディングベク トルと呼ばれる行ベクトルと、ファクタと呼ばれる各フレームの値を有するスコ アベクトルと各点の値を有するローディングベクトルの集合とを生ずるような、 オクルージョンリストに主成分分析を実行する手段と、 (4)対応点の奥行き情報として、最初のファクタの各ローディングベクトル 要素の数値を、カメラまたは観測者に近い場合は大きな数値を、離れた場合は小 さな数 値を出力する手段と、 からなることを特徴とする、少なくとも二つのフレームからなる画像シーケンス の奥行きを推定する装置。 14. 請求項2から12のいずれかの方法に従い用いるのに適した請求項13 に記載の装置。 15. フレームからなる画像シーケンスの奥行きを表すデータ構造において、 前記フレームのそれぞれが空間パターンにおいて配列された複数のデータサンプ ルからなり、前記データ構造がデータプロセス・システムにより実行されるアプ リケーション・プログラムが使えるように、前記データプロセス・システムのメ モリ内にあり、前記データ構造が前記アプリケーション・プログラムが使うデー タベース中にある情報からなり、 (1)各ロード(load)の各要素が前記参照画像の一部に対応する奥行きロー ディングベクトルと呼ばれる、複数の空間変化パターンを有し、 (2)各奥行きスコアベクトルが一つの奥行きローディングベクトルに対応し 、前記スコアベクトルのそれぞれが各フレームに対応する一つの奥行きスコアを 有する複数の奥行きスコアベクトルからなり、 一つのフレームの前記画像各部の奥行き値が、前記フレームに対応する奥行き スコアに奥行きローディングベクトルを掛けることにより計算されることを特徴 とするデータ構造。 16. フレームからなる画像シーケンスのオクルージョンの規則を表すデータ 構造において、前記フレームが空間パターンにおいて配列された複数のデータサ ンプルからなり、前記データ構造がデータプロセス・システムにより実行される アプリケーション・プログラムが使えるように、前記データプロセス・システム のメモリ内にあり、前記データ構造が前記アプリケーション・プログラムが使う データベース中にある情報からなり、 (1)各ロード(load)の各要素が前記参照画像の部分の一組み合わせに対応 するオクルージョン・ローディングベクトルと呼ばれる、複数の変化パターンを 有し、 (2)各オクルージョン・スコアベクトルが一つのオクルージョン・ローディ ングベクトルに対応し、前記スコアベクトルのそれぞれが各フレームに対応する 一つのオクルージョンスコアを有する複数のオクルージョン・スコアベクトルか らなり、 一つのフレームの前記参照画像部分の前記各組み合わせの間のオクルージョン の規則の近似が、前記フレームに対応するオクルージョンスコアにオクルージョ ンローディングベクトルを掛けることにより計算されることを特徴とするデータ 構造。 17. 請求項15または16のいずれかによるデータ構造からなることを特徴 とするデータキャリア。 18. 請求項2から12のいずれかによる方法によっ て作られるデータ構造からなることを特徴とするデータキャリア。 19. 請求項15または16のいずれかによるデータ構造を読むのに適した装 置。 20. 請求項15または16のいずれかによるデータ構造を伝達するのに適し た装置。 21. 請求項2から12のいずれかによる方法によって作られる情報を含む信 号をデコードするのに適した装置。 22. 請求項2から12のいずれかによる方法によって作られる情報を含む信 号を伝達するのに適した装置。 23. 請求項15または16のいずれかによるデータ構造を含むデータキャリ アと読解装置からなることを特徴とするシステム。 24. 請求項15または16のいずれかによるデータ構造を含むデータキャリ アと伝達装置からなることを特徴とするシステム。 25. 通信あるいはプロセシングのシステムにおいて、入力、ストア、アクセ ス、プロセシング、伝達、評価、表示または出力のために、請求項15または1 6のいずれかによるデータ構造の使用。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
EP95104227 | 1995-03-22 | ||
AT95104227.4 | 1995-03-22 | ||
PCT/EP1996/001269 WO1996029678A1 (en) | 1995-03-22 | 1996-03-22 | Method and apparatus for depth modelling and providing depth information of moving objects |
Publications (1)
Publication Number | Publication Date |
---|---|
JPH11502335A true JPH11502335A (ja) | 1999-02-23 |
Family
ID=8219104
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP8528099A Pending JPH11502335A (ja) | 1995-03-22 | 1996-03-22 | 動体の奥行きモデル化と奥行き情報を提供する装置およびその方法 |
Country Status (7)
Country | Link |
---|---|
US (1) | US6252974B1 (ja) |
EP (1) | EP0815538A1 (ja) |
JP (1) | JPH11502335A (ja) |
KR (1) | KR19980702922A (ja) |
AU (1) | AU6726596A (ja) |
WO (1) | WO1996029678A1 (ja) |
ZA (1) | ZA962306B (ja) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7251364B2 (en) | 2000-09-12 | 2007-07-31 | International Business Machines Corporation | Image processing method, image processing system and storage medium therefor |
JP2008533892A (ja) * | 2005-03-17 | 2008-08-21 | ブリティッシュ・テレコミュニケーションズ・パブリック・リミテッド・カンパニー | ビデオシーケンスにおけるオブジェクト追跡の方法 |
Families Citing this family (113)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
FR2775409B1 (fr) * | 1998-02-25 | 2000-04-14 | Patrice Longhi | Dispositif et procede pour detecter la presence d'un telephone cellulaire de type gsm en fonction |
TW401699B (en) * | 1998-04-01 | 2000-08-11 | Koninkl Philips Electronics Nv | A method and device for generating display frames from a sequence of source frames through synthesizing one or more intermediate frames exclusively from an immediately preceding source frame |
US6628819B1 (en) * | 1998-10-09 | 2003-09-30 | Ricoh Company, Ltd. | Estimation of 3-dimensional shape from image sequence |
JP3596314B2 (ja) * | 1998-11-02 | 2004-12-02 | 日産自動車株式会社 | 物体端の位置計測装置および移動体の通行判断装置 |
US6798897B1 (en) * | 1999-09-05 | 2004-09-28 | Protrack Ltd. | Real time image registration, motion detection and background replacement using discrete local motion estimation |
US6868191B2 (en) * | 2000-06-28 | 2005-03-15 | Telefonaktiebolaget Lm Ericsson (Publ) | System and method for median fusion of depth maps |
US6618155B2 (en) * | 2000-08-23 | 2003-09-09 | Lmi Technologies Inc. | Method and apparatus for scanning lumber and other objects |
FR2813485B1 (fr) * | 2000-08-24 | 2003-12-26 | France Telecom | Procede de construction d'au moins une image interpolee entre deux images d'une sequence animee, procedes de codage et de decodage, signal et support de donnees correspondant |
CN1308892C (zh) * | 2002-02-06 | 2007-04-04 | 皇家飞利浦电子股份有限公司 | 用于分割的装置和方法 |
KR20040105866A (ko) * | 2002-04-11 | 2004-12-16 | 코닌클리케 필립스 일렉트로닉스 엔.브이. | 움직임 추정 유닛 및 움직임 벡터 추정 방법 |
US7020347B2 (en) * | 2002-04-18 | 2006-03-28 | Microsoft Corp. | System and method for image-based surface detail transfer |
AUPS283602A0 (en) * | 2002-06-07 | 2002-06-27 | Dynamic Digital Depth Research Pty Ltd | Improved conversion and encoding techniques |
US7489812B2 (en) | 2002-06-07 | 2009-02-10 | Dynamic Digital Depth Research Pty Ltd. | Conversion and encoding techniques |
KR20050090000A (ko) * | 2003-01-06 | 2005-09-09 | 코닌클리케 필립스 일렉트로닉스 엔.브이. | 디지털 이미지들의 깊이 오더링을 위한 방법 및 장치 |
US7505048B2 (en) * | 2003-04-25 | 2009-03-17 | Microsoft Corporation | Estimation of overlap of polygons |
KR20060135770A (ko) * | 2004-02-23 | 2006-12-29 | 코닌클리케 필립스 일렉트로닉스 엔.브이. | 이미지들의 내삽 및 외삽을 조합에 의한 이미지 신호들의스캔-레이트 변환의 아티팩트들의 감소 |
JP4482795B2 (ja) * | 2004-03-05 | 2010-06-16 | ソニー株式会社 | 画像処理装置、移動物体追跡方法、移動物体追跡プログラム、監視装置及びゲーム装置 |
US7382374B2 (en) * | 2005-05-02 | 2008-06-03 | Bitplane Ag | Computerized method and computer system for positioning a pointer |
KR100813168B1 (ko) * | 2006-06-08 | 2008-03-17 | 삼성전자주식회사 | 사전 모양 정보를 이용한 디지털 영상에서의 물체를추출하기 위한 방법 및 상기 방법을 수행하는 시스템 |
US20080071764A1 (en) * | 2006-09-19 | 2008-03-20 | Kazunari Omi | Method and an apparatus to perform feature similarity mapping |
KR100873638B1 (ko) | 2007-01-16 | 2008-12-12 | 삼성전자주식회사 | 영상 처리 방법 및 장치 |
ES2522589T3 (es) | 2007-02-08 | 2014-11-17 | Behavioral Recognition Systems, Inc. | Sistema de reconocimiento conductual |
US8073277B2 (en) * | 2007-06-21 | 2011-12-06 | The University Of Southern Mississippi | Apparatus and methods for image restoration |
WO2009001255A1 (en) * | 2007-06-26 | 2008-12-31 | Koninklijke Philips Electronics N.V. | Method and system for encoding a 3d video signal, enclosed 3d video signal, method and system for decoder for a 3d video signal |
US8411935B2 (en) | 2007-07-11 | 2013-04-02 | Behavioral Recognition Systems, Inc. | Semantic representation module of a machine-learning engine in a video analysis system |
US8200011B2 (en) * | 2007-09-27 | 2012-06-12 | Behavioral Recognition Systems, Inc. | Context processor for video analysis system |
US8175333B2 (en) * | 2007-09-27 | 2012-05-08 | Behavioral Recognition Systems, Inc. | Estimator identifier component for behavioral recognition system |
US8300924B2 (en) * | 2007-09-27 | 2012-10-30 | Behavioral Recognition Systems, Inc. | Tracker component for behavioral recognition system |
CN101822068B (zh) * | 2007-10-11 | 2012-05-30 | 皇家飞利浦电子股份有限公司 | 用于处理深度图的方法和设备 |
US7983487B2 (en) * | 2007-11-07 | 2011-07-19 | Mitsubishi Electric Research Laboratories, Inc. | Method and system for locating and picking objects using active illumination |
US9633275B2 (en) | 2008-09-11 | 2017-04-25 | Wesley Kenneth Cobb | Pixel-level based micro-feature extraction |
KR20110090958A (ko) * | 2008-10-28 | 2011-08-10 | 코닌클리케 필립스 일렉트로닉스 엔.브이. | 이미지 속성들에 대한 오클루젼 데이터의 생성 |
US9373055B2 (en) * | 2008-12-16 | 2016-06-21 | Behavioral Recognition Systems, Inc. | Hierarchical sudden illumination change detection using radiance consistency within a spatial neighborhood |
US8285046B2 (en) * | 2009-02-18 | 2012-10-09 | Behavioral Recognition Systems, Inc. | Adaptive update of background pixel thresholds using sudden illumination change detection |
US8416296B2 (en) * | 2009-04-14 | 2013-04-09 | Behavioral Recognition Systems, Inc. | Mapper component for multiple art networks in a video analysis system |
US9182814B2 (en) * | 2009-05-29 | 2015-11-10 | Microsoft Technology Licensing, Llc | Systems and methods for estimating a non-visible or occluded body part |
US9805271B2 (en) * | 2009-08-18 | 2017-10-31 | Omni Ai, Inc. | Scene preset identification using quadtree decomposition analysis |
US8625884B2 (en) * | 2009-08-18 | 2014-01-07 | Behavioral Recognition Systems, Inc. | Visualizing and updating learned event maps in surveillance systems |
US8295591B2 (en) * | 2009-08-18 | 2012-10-23 | Behavioral Recognition Systems, Inc. | Adaptive voting experts for incremental segmentation of sequences with prediction in a video surveillance system |
US20110043689A1 (en) * | 2009-08-18 | 2011-02-24 | Wesley Kenneth Cobb | Field-of-view change detection |
US8358834B2 (en) | 2009-08-18 | 2013-01-22 | Behavioral Recognition Systems | Background model for complex and dynamic scenes |
US8493409B2 (en) * | 2009-08-18 | 2013-07-23 | Behavioral Recognition Systems, Inc. | Visualizing and updating sequences and segments in a video surveillance system |
US8379085B2 (en) * | 2009-08-18 | 2013-02-19 | Behavioral Recognition Systems, Inc. | Intra-trajectory anomaly detection using adaptive voting experts in a video surveillance system |
US8280153B2 (en) * | 2009-08-18 | 2012-10-02 | Behavioral Recognition Systems | Visualizing and updating learned trajectories in video surveillance systems |
US8340352B2 (en) | 2009-08-18 | 2012-12-25 | Behavioral Recognition Systems, Inc. | Inter-trajectory anomaly detection using adaptive voting experts in a video surveillance system |
US8797405B2 (en) * | 2009-08-31 | 2014-08-05 | Behavioral Recognition Systems, Inc. | Visualizing and updating classifications in a video surveillance system |
US8167430B2 (en) * | 2009-08-31 | 2012-05-01 | Behavioral Recognition Systems, Inc. | Unsupervised learning of temporal anomalies for a video surveillance system |
US8270733B2 (en) * | 2009-08-31 | 2012-09-18 | Behavioral Recognition Systems, Inc. | Identifying anomalous object types during classification |
US8786702B2 (en) * | 2009-08-31 | 2014-07-22 | Behavioral Recognition Systems, Inc. | Visualizing and updating long-term memory percepts in a video surveillance system |
US8270732B2 (en) * | 2009-08-31 | 2012-09-18 | Behavioral Recognition Systems, Inc. | Clustering nodes in a self-organizing map using an adaptive resonance theory network |
US8285060B2 (en) * | 2009-08-31 | 2012-10-09 | Behavioral Recognition Systems, Inc. | Detecting anomalous trajectories in a video surveillance system |
US8218818B2 (en) * | 2009-09-01 | 2012-07-10 | Behavioral Recognition Systems, Inc. | Foreground object tracking |
US8218819B2 (en) * | 2009-09-01 | 2012-07-10 | Behavioral Recognition Systems, Inc. | Foreground object detection in a video surveillance system |
US8180105B2 (en) * | 2009-09-17 | 2012-05-15 | Behavioral Recognition Systems, Inc. | Classifier anomalies for observed behaviors in a video surveillance system |
US8170283B2 (en) * | 2009-09-17 | 2012-05-01 | Behavioral Recognition Systems Inc. | Video surveillance system configured to analyze complex behaviors using alternating layers of clustering and sequencing |
JP5644097B2 (ja) * | 2009-12-08 | 2014-12-24 | ソニー株式会社 | 画像処理装置、画像処理方法及びプログラム |
US8941726B2 (en) * | 2009-12-10 | 2015-01-27 | Mitsubishi Electric Research Laboratories, Inc. | Method and system for segmenting moving objects from images using foreground extraction |
WO2011140178A1 (en) * | 2010-05-04 | 2011-11-10 | Bae Systems National Security Solutions Inc. | Inverse stereo image matching for change detection |
US9053562B1 (en) * | 2010-06-24 | 2015-06-09 | Gregory S. Rabin | Two dimensional to three dimensional moving image converter |
US8811726B2 (en) * | 2011-06-02 | 2014-08-19 | Kriegman-Belhumeur Vision Technologies, Llc | Method and system for localizing parts of an object in an image for computer vision applications |
US9100574B2 (en) | 2011-10-18 | 2015-08-04 | Hewlett-Packard Development Company, L.P. | Depth mask assisted video stabilization |
IN2014DN08349A (ja) | 2012-03-15 | 2015-05-08 | Behavioral Recognition Sys Inc | |
US9111353B2 (en) | 2012-06-29 | 2015-08-18 | Behavioral Recognition Systems, Inc. | Adaptive illuminance filter in a video analysis system |
US9113143B2 (en) | 2012-06-29 | 2015-08-18 | Behavioral Recognition Systems, Inc. | Detecting and responding to an out-of-focus camera in a video analytics system |
US9317908B2 (en) | 2012-06-29 | 2016-04-19 | Behavioral Recognition System, Inc. | Automatic gain control filter in a video analysis system |
WO2014004901A1 (en) | 2012-06-29 | 2014-01-03 | Behavioral Recognition Systems, Inc. | Unsupervised learning of feature anomalies for a video surveillance system |
US9723271B2 (en) | 2012-06-29 | 2017-08-01 | Omni Ai, Inc. | Anomalous stationary object detection and reporting |
US9911043B2 (en) | 2012-06-29 | 2018-03-06 | Omni Ai, Inc. | Anomalous object interaction detection and reporting |
BR112015003444A2 (pt) | 2012-08-20 | 2017-07-04 | Behavioral Recognition Sys Inc | método e sistema para detectar óleo em superfície de mar |
KR101977802B1 (ko) * | 2012-10-10 | 2019-05-13 | 삼성전자주식회사 | 영상 시스템에서 움직임 추정 장치 및 방법 |
US20140126818A1 (en) * | 2012-11-06 | 2014-05-08 | Sony Corporation | Method of occlusion-based background motion estimation |
WO2014075022A1 (en) | 2012-11-12 | 2014-05-15 | Behavioral Recognition Systems, Inc. | Image stabilization techniques for video surveillance systems |
US10080017B2 (en) * | 2012-12-26 | 2018-09-18 | Avago Technologies General Ip (Singapore) Pte. Ltd. | Reduction of I-pulsing artifacts |
US9639521B2 (en) | 2013-08-09 | 2017-05-02 | Omni Ai, Inc. | Cognitive neuro-linguistic behavior recognition system for multi-sensor data fusion |
US10719939B2 (en) | 2014-10-31 | 2020-07-21 | Fyusion, Inc. | Real-time mobile device capture and generation of AR/VR content |
US10275935B2 (en) | 2014-10-31 | 2019-04-30 | Fyusion, Inc. | System and method for infinite synthetic image generation from multi-directional structured image array |
US10650574B2 (en) | 2014-10-31 | 2020-05-12 | Fyusion, Inc. | Generating stereoscopic pairs of images from a single lens camera |
US9940541B2 (en) | 2015-07-15 | 2018-04-10 | Fyusion, Inc. | Artificially rendering images using interpolation of tracked control points |
US10262426B2 (en) | 2014-10-31 | 2019-04-16 | Fyusion, Inc. | System and method for infinite smoothing of image sequences |
US10586378B2 (en) | 2014-10-31 | 2020-03-10 | Fyusion, Inc. | Stabilizing image sequences based on camera rotation and focal length parameters |
US10726560B2 (en) | 2014-10-31 | 2020-07-28 | Fyusion, Inc. | Real-time mobile device capture and generation of art-styled AR/VR content |
US10726593B2 (en) | 2015-09-22 | 2020-07-28 | Fyusion, Inc. | Artificially rendering images using viewpoint interpolation and extrapolation |
US10176592B2 (en) | 2014-10-31 | 2019-01-08 | Fyusion, Inc. | Multi-directional structured image array capture on a 2D graph |
US10409910B2 (en) | 2014-12-12 | 2019-09-10 | Omni Ai, Inc. | Perceptual associative memory for a neuro-linguistic behavior recognition system |
US10409909B2 (en) | 2014-12-12 | 2019-09-10 | Omni Ai, Inc. | Lexical analyzer for a neuro-linguistic behavior recognition system |
US10750161B2 (en) | 2015-07-15 | 2020-08-18 | Fyusion, Inc. | Multi-view interactive digital media representation lock screen |
US10147211B2 (en) | 2015-07-15 | 2018-12-04 | Fyusion, Inc. | Artificially rendering images using viewpoint interpolation and extrapolation |
US10242474B2 (en) | 2015-07-15 | 2019-03-26 | Fyusion, Inc. | Artificially rendering images using viewpoint interpolation and extrapolation |
US11006095B2 (en) | 2015-07-15 | 2021-05-11 | Fyusion, Inc. | Drone based capture of a multi-view interactive digital media |
US10852902B2 (en) | 2015-07-15 | 2020-12-01 | Fyusion, Inc. | Automatic tagging of objects on a multi-view interactive digital media representation of a dynamic entity |
WO2017011700A1 (en) * | 2015-07-15 | 2017-01-19 | Fyusion, Inc. | Artificially rendering images using viewpoint interpolation and extrapolation |
US10698558B2 (en) | 2015-07-15 | 2020-06-30 | Fyusion, Inc. | Automatic tagging of objects on a multi-view interactive digital media representation of a dynamic entity |
US10222932B2 (en) | 2015-07-15 | 2019-03-05 | Fyusion, Inc. | Virtual reality environment based manipulation of multilayered multi-view interactive digital media representations |
US11095869B2 (en) | 2015-09-22 | 2021-08-17 | Fyusion, Inc. | System and method for generating combined embedded multi-view interactive digital media representations |
US11783864B2 (en) | 2015-09-22 | 2023-10-10 | Fyusion, Inc. | Integration of audio into a multi-view interactive digital media representation |
KR102502451B1 (ko) * | 2016-01-07 | 2023-02-22 | 삼성전자주식회사 | 깊이 추정 방법 및 장치, 및 거리 추정기 학습 방법 및 장치 |
US9744665B1 (en) | 2016-01-27 | 2017-08-29 | X Development Llc | Optimization of observer robot locations |
EP3273686A1 (en) | 2016-07-21 | 2018-01-24 | Thomson Licensing | A method for generating layered depth data of a scene |
US11202017B2 (en) | 2016-10-06 | 2021-12-14 | Fyusion, Inc. | Live style transfer on a mobile device |
US10353946B2 (en) | 2017-01-18 | 2019-07-16 | Fyusion, Inc. | Client-server communication for live search using multi-view digital media representations |
US10437879B2 (en) | 2017-01-18 | 2019-10-08 | Fyusion, Inc. | Visual search using multi-view interactive digital media representations |
US11044464B2 (en) | 2017-02-09 | 2021-06-22 | Fyusion, Inc. | Dynamic content modification of image and video based multi-view interactive digital media representations |
US10440351B2 (en) | 2017-03-03 | 2019-10-08 | Fyusion, Inc. | Tilts as a measure of user engagement for multiview interactive digital media representations |
US10356395B2 (en) | 2017-03-03 | 2019-07-16 | Fyusion, Inc. | Tilts as a measure of user engagement for multiview digital media representations |
US10200677B2 (en) | 2017-05-22 | 2019-02-05 | Fyusion, Inc. | Inertial measurement unit progress estimation |
US10237477B2 (en) | 2017-05-22 | 2019-03-19 | Fyusion, Inc. | Loop closure |
US10313651B2 (en) | 2017-05-22 | 2019-06-04 | Fyusion, Inc. | Snapshots at predefined intervals or angles |
US11069147B2 (en) | 2017-06-26 | 2021-07-20 | Fyusion, Inc. | Modification of multi-view interactive digital media representation |
US10356341B2 (en) | 2017-10-13 | 2019-07-16 | Fyusion, Inc. | Skeleton-based effects and background replacement |
US10687046B2 (en) | 2018-04-05 | 2020-06-16 | Fyusion, Inc. | Trajectory smoother for generating multi-view interactive digital media representations |
US10592747B2 (en) | 2018-04-26 | 2020-03-17 | Fyusion, Inc. | Method and apparatus for 3-D auto tagging |
US10382739B1 (en) | 2018-04-26 | 2019-08-13 | Fyusion, Inc. | Visual annotation using tagging sessions |
US10937232B2 (en) | 2019-06-26 | 2021-03-02 | Honeywell International Inc. | Dense mapping using range sensor multi-scanning and multi-view geometry from successive image frames |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5751927A (en) * | 1991-03-26 | 1998-05-12 | Wason; Thomas D. | Method and apparatus for producing three dimensional displays on a two dimensional surface |
US5764871A (en) * | 1993-10-21 | 1998-06-09 | Eastman Kodak Company | Method and apparatus for constructing intermediate images for a depth image from stereo images using velocity vector fields |
US5611000A (en) * | 1994-02-22 | 1997-03-11 | Digital Equipment Corporation | Spline-based image registration |
US5846086A (en) * | 1994-07-01 | 1998-12-08 | Massachusetts Institute Of Technology | System for human trajectory learning in virtual environments |
-
1996
- 1996-03-22 AU AU67265/96A patent/AU6726596A/en not_active Abandoned
- 1996-03-22 EP EP96910925A patent/EP0815538A1/en not_active Withdrawn
- 1996-03-22 WO PCT/EP1996/001269 patent/WO1996029678A1/en not_active Application Discontinuation
- 1996-03-22 ZA ZA962306A patent/ZA962306B/xx unknown
- 1996-03-22 US US08/930,339 patent/US6252974B1/en not_active Expired - Fee Related
- 1996-03-22 JP JP8528099A patent/JPH11502335A/ja active Pending
- 1996-03-22 KR KR1019970706330A patent/KR19980702922A/ko not_active Application Discontinuation
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7251364B2 (en) | 2000-09-12 | 2007-07-31 | International Business Machines Corporation | Image processing method, image processing system and storage medium therefor |
JP2008533892A (ja) * | 2005-03-17 | 2008-08-21 | ブリティッシュ・テレコミュニケーションズ・パブリック・リミテッド・カンパニー | ビデオシーケンスにおけるオブジェクト追跡の方法 |
Also Published As
Publication number | Publication date |
---|---|
ZA962306B (en) | 1996-09-27 |
US6252974B1 (en) | 2001-06-26 |
EP0815538A1 (en) | 1998-01-07 |
AU6726596A (en) | 1996-10-08 |
KR19980702922A (ko) | 1998-09-05 |
WO1996029678A1 (en) | 1996-09-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JPH11502335A (ja) | 動体の奥行きモデル化と奥行き情報を提供する装置およびその方法 | |
Dockstader et al. | Multiple camera tracking of interacting and occluded human motion | |
JP2978406B2 (ja) | 局所異常の排除による動きベクトルフィールド生成装置およびその方法 | |
US5719954A (en) | Stereo matching method and disparity measuring method | |
CN111340922B (zh) | 定位与地图构建的方法和电子设备 | |
CN111833393A (zh) | 一种基于边缘信息的双目立体匹配方法 | |
CN107980150A (zh) | 对三维空间建模 | |
US20160117573A1 (en) | Method and apparatus for extracting feature correspondences from multiple images | |
CN112785705A (zh) | 一种位姿获取方法、装置及移动设备 | |
JP2000306108A (ja) | オプティカルフロー推定方法 | |
CN117274515A (zh) | 基于ORB和NeRF映射的视觉SLAM方法及系统 | |
KR20210131358A (ko) | 객체 두께를 결정하기 위한 이미지 처리 | |
Dante et al. | Precise real-time outlier removal from motion vector fields for 3D reconstruction | |
Chowdhury et al. | Stochastic approximation and rate-distortion analysis for robust structure and motion estimation | |
Yu et al. | Shadow graphs and surface reconstruction | |
CN112233139A (zh) | 用于在3d数据重建过程中检测运动的系统和方法 | |
CN111402429A (zh) | 一种尺度还原、三维重建方法、系统、存储介质及设备 | |
CN116228992A (zh) | 基于视觉定位系统模型的不同类型图像的视觉定位方法 | |
Choi et al. | Implementation of Real‐Time Post‐Processing for High‐Quality Stereo Vision | |
EP1522049B1 (en) | Topological image model | |
Mitiche et al. | MDL estimation of a dense map of relative depth and 3D motion from a temporal sequence of images | |
KR20060015755A (ko) | 3차원 모델을 사용하는 화상 시퀀스를 표현하는 방법 및 그장치와 신호 | |
EP2786344B1 (en) | Hybrid recursive analysis of spatio-temporal objects | |
JPH05288543A (ja) | 視覚情報と触覚情報とを統合した認識装置 | |
Bu et al. | Research on improved census binocular stereo matching algorithm |