JPH06511339A - センサの動きとシーン構造を決定する方法及びイメージ処理システム - Google Patents

センサの動きとシーン構造を決定する方法及びイメージ処理システム

Info

Publication number
JPH06511339A
JPH06511339A JP5506981A JP50698193A JPH06511339A JP H06511339 A JPH06511339 A JP H06511339A JP 5506981 A JP5506981 A JP 5506981A JP 50698193 A JP50698193 A JP 50698193A JP H06511339 A JPH06511339 A JP H06511339A
Authority
JP
Japan
Prior art keywords
model
image
scene
motion
image sensor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP5506981A
Other languages
English (en)
Other versions
JP3253962B2 (ja
Inventor
ハンナ,キース・ジエームズ
Original Assignee
サーノフ コーポレイション
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by サーノフ コーポレイション filed Critical サーノフ コーポレイション
Publication of JPH06511339A publication Critical patent/JPH06511339A/ja
Application granted granted Critical
Publication of JP3253962B2 publication Critical patent/JP3253962B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/12Details of acquisition arrangements; Constructional details thereof
    • G06V10/14Optical characteristics of the device performing the acquisition or on the illumination arrangements
    • G06V10/147Details of sensors, e.g. sensor lenses
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/527Global motion vector estimation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/537Motion estimation other than block-based
    • H04N19/543Motion estimation other than block-based using regions

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • Vascular Medicine (AREA)
  • General Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Studio Devices (AREA)

Abstract

(57)【要約】本公報は電子出願前の出願データであるため要約のデータは記録されません。

Description

【発明の詳細な説明】 センサの動きとシーン横道を決定する方法及びイメージ処理システム本発明は、 lシーンにおけるイメージセンサの動きとシーン構造をそのシーンの2以上のイ メージから決定する方法に関する0本発明はまた、そのシーンにおけるイメージ センサの動きとシーン横道を決定するシステムに関する。
発明の背景 この分野では、イメージデータ内に画像的に表されている対象物のパターン形状 を認識する手法が知られている。この分野では更に、予め選択された角度を有す る、動いている対象物と静止している対象物、或いは他の特徴を有する対象物を 区別する手法も知られている。
イメージ化されたシーンの動画の連続する各フレーム内に含まれる単一の動体を 位置づける公知の方法では、連続する2つのフレーム間において空間的に対応す るイメージデータの各画素の基準値が抽出されて、そのシーンにおける静止物を 定義する画素が除去され、そのシーンにおける単一の動体を定義する画素のみが 差分イメージデータとして残される。更に、フレームレートと、この差分イメー ジデータにおける単一の動体の画素の置き換えを知ることにより、この単一の動 体の速度を計算することができる。しかしながら、連続するフレームのイメージ データが2つの動きを定義する場合、例えばそのシーンを記録するカメラの動き (例えば並進、回転及びズーム)に従っである全体的な速度パターンで動く背景 領域の動きを定義する場合には問題が非常に困難となる。この場合、背景領域に 対して局部的に動く前景により占められるシーン領域は、その動画において背景 領域とその背景領域の全体的な速度パターンの両方に対するそれ自身の速度の関 数である速度で動く。イメージセンサの動きによる全体的な速度パターンは、シ ーンの構造に依存するので非常に複雑である。
問題は、動画の一連の連続するフレーム内のイメージデータをリアルタイムで用 い、(1)全体的な動きの影W(視差によるものを含む)を測定及び除去し、( 2)この全体的な動きを除いて局部的に動いている前景の対象物を検出及びトラ ッキングすることにある。従来の一般的なイメージ動き解析法では、各ビデオシ ーケンスの各画素に対する異なる置換ベクトルが分離して算出される。これは、 各画素がお互いに異なって動いているフレーム間でパターンマンナングを行うこ とを必要とするので、挑戦的な課題である。特に、上記問題点をリアルタイムで 解決するために開発された「多数的な動き」手法として、パート(Burt)等 のr ”Proceeding of the Workshop on Vi sual Motion″、 Irvin、Ca1iforn奄=AMar ch、 1989Jとr ”Pattern Recognition for  Advanced Missile Systems C盾獅■■窒■ nce”、 Huntsville、 November、 1988Jが開示 されている。
パート等により開示されたこの特別な手法では、各フレームのほぼ全領域内に含 まれるイメージデータを多数の別個の連続した小さな局部的解析ウィンドウ領域 にセグメント化している。このセグメント化は、各局部的解析ウィンドウにおけ る動きが、それ自身の計算された単一の並進的な動きの速度のみを有すると仮定 する範囲では望ましい、(セグメントより大きい)単一の画素により占められる 各局部的解析ウィンドウのサイズがより近くなるにつれて、この仮定はより正し くなる。しかしながら、実際には各局部的解析ウィンドウのサイズは、単一の画 素により占められるそれより実質的に大きく、したがって、1つの局部的解析ウ ィンドウにおいて計算される単一の並進的な動きの速度は、実際にはそのウィン ドウ内の全ての画素の平均速度である。このセグメント化手法は、連続する各フ レームにおいて局部的に動いている対象物の周辺が、そのフレーム内で占められ る局部的解析ウィンドウの境界とは関係がないという点で人工的である。もしあ る特定のウィンドウの全領域を占める場合には、そのウィンドウにおいて計算さ れる単一の並進的な動きの速度は正しい。しかしながら、もしある特定のウィン ドウのある未決定の部分のみを占める場合には、そのウィンドウにおいて計算さ れる単一の並進的な動きの速度は正しくない。しかも、その問題にもかかわらず 、パート等により開示されてセグメント化法を用いた「多数的な動き」や他の手 法は、あるダイナミックな2つの動きのイメージ解析には有用である。例えば全 体的な動きによる影響が除去され、局部的に動く前景の対象物が検出されてトラ ッキングされる。
コンピュータ映像における多くの問題として、異なる視点から記録されたり、或 いは異なる時間で記録された2以上のイメージを用いてイメージセンサの動きを 決定することが重要である。環境に対して動くイメージセンサの動きは、移動中 の障害物の検出と航行のような課題に有用な情報を提供する。移動中の障害物を 検出する場合に、イメージセンサの動きモデルにおける局部的な不一致を用いて 幾つかの潜在的な障害物をつき止めることができる。航行の場合には、道路や壁 のように近づいてくる対象物の表面的な方向を推定するためにイメージセンサの 動きを用いることができる。
従来の手法は、イメージセンサの動きとシーン構造を有し、これらはイメージセ ンサの動きのモデルと、あるシーンの2つのイメージ間において予め決定された 流れ場に対する深さのシーンのモデルを一敗させることにより回復される。流れ 場を計算する手法は数多く存在し、また、各手法はイメージ内において対応する 点を回復するようにしている。流れ場の回復による問題点は、十分に抑制されず 、計算された流れ場が正確でないことにある。その結果、イメージセンサの動き の推定値と3次元構造が不正確である。
イメージセンサの動きを回復する1つの手法は、全体的なイメージセンサの動き モデルを、イメージ対から計算される流れ場に一致させることである。イメージ の流れ情報と局部的なイメージ勾配情報の両方を用いたイメージセンサ動き回復 方向が提案された。イメージセンサの動きモデルに対する各流れベクトルの貢献 度が局部的イメージ勾配により重み付けされ、開口の問題によりイメージの流れ における局部的あいまいさから発生する、回復されたイメージセンサの動きの推 定値における誤差が減少される。
しかしながら、イメージセンサに対するシーン内の動きが不均一な場合には、イ メージセンサの動きを正確に決定する方法及び装置が必要となる。また、イメー ジシステムにより提供されるイメージからシーンの構造を正確に決定する方法及 び装置が必要となる。これらの2つの能力を有するシステムは、障害物を有する 環境を自動的に航行することができる。
発明の概要 本発明は、例えばイメージ対の明るさ導関数のような局部的なシーンの特徴を用 い、シーンにおけるイメージセンサの動きを正確に決定する方法である。全体的 なイメージセンサの動きの抑制が局部的なシーンの特徴の抑制に結合され、局部 的な表面構造が全体的なイメージセンサの動きモデルと局部的なシーンの特徴に 関係付けされて抑制される。ある与えられた解像度におけるlシーンの2以上の イメージからそのシーンにおけるイメージセンサの動きモデルとそのシーンのシ ーン構造モデルを決定する方法は、 (a)局部的なシーンモデル及びイメージセンサの動きモデルの初期推定値をセ ットする工程と、 (b)前記イメージ内で測定された誤差と前記モデルにより予測される誤差の間 の差を最小化することにより前記モデルの1つの新しい値を決定する工程と、( C)前記(b)の工程で決定される前記モデルの1つの新しい値を用い、局部的 シーンモデルとイメージセンサの動きモデルの各初期推定値を再セットする工程 と、 (d)前記(b)の工程で決定される前記モデルの新しい推定値を用い、前記イ メージ内で測定された誤差と前記モデルにより予測される誤差の間の差を最小化 することにより前記モデルの第2番目の新しい値を決定する工程と、(c)前記 与えられたイメージ解像度における前記モデルの現在の推定値を用い、イメージ の1つを他のイメージに対してワープする工程と、(「)前記モデルの新しい値 及び前回の繰り返し処理で決定された値の差がある値より小さくなるまで、又は 所定数の繰り返し処理が行われるまで前記(b)、(C)、(d)及び(e)の 工程を繰り返す工程と、より成る。
本発明はまた、イメージセンサの動きと1シーンの構造を決定するイメージ処理 システムであり、このシステムは、 1ンーンの1以上のイメージを得るためのイメージセンサ手段と、第1のイメー ジ解像度における局部的シーンモデルの初期推定値とイメージセンサの動きモデ ルをセットする手段と、前記局部的シーンモデルとイメージセンサの動きモデル を繰力返して正確化する手段と、 前記局部的シーンモデルとイメージセンサの動きモデルの正確化された現在の債 を用いて前記第1のイメージを第2のイメージにワーブする手段とを有する。
図面の簡単な説明 図1は、従来の「多数的動き」手法に用いられ、■フレーム領域を局部的解析ウ ィンドウにセグメント化したことを示す。
図2は、従来の「多数的動き」手法を具体化した従来のフィードバックループを 示すブロック図である。
図3は、本発明を具体化したフィードバックループを示すブロック図である。
図4aは、既知の深さマツプと既知のイメージセンサの動きパラメータから合成 され、再サンプリングされたイメージ対を示す。
図4bは、原イメージ対の間の差分イメージを示す。
図40は、回復された深さマツプと実際の深さマツプの間の差分パーセンテージ の絶対値を示す。
図4dは、明るい点が暗い点よりイメージセンサに近い場合の局部的表面パラメ ータ(逆深さ)のイメージを示す。
図4eは、各解像度において回復されたイメージセンサの動きと実際のイメージ センサの動きを示す。
図5a−eは、イメージの中心が推定されかつ正確なイメージセンサの動きが未 知の場合の自然のイメージ対の第2のイメージの結果を示す。
図6a−eは、イメージ組織が殆ど無い道路シーケンスの結果を示す。
図7a−eは、他の道路シーケンスの結果を示す。
望ましい実施例の説明 図1及び図2は、本発明の理解に役立つ従来の動き検出方法を示している。図1 において、移動中のイメージセンサ(例えばビデオカメラ)が航空機内から下の 地面を逼像し、地面に対して局部的に動いている例えば自動車のような目的物を 探し、この地面に対して局部的に動いている目的物とその動きをリアルタイムで トラッキングすると仮定する。この場合、盪像される領域が連続するフレーム間 で僅かな量だけ変化するように、カメラは地面領域の一連の映像フレームを比較 的高い速度(例えば1秒当たり30フレーム)で生成する。連続する各映像フレ ームのフレーム領域100は、航空機のコヒーレントな動きにより決定される全 体的な速度で移動する多数的領域と、地面上で局部的に動く自動車により占めら れる少数的領域に分割される。境界領域102を除く、連続する1対のフレーム の各フレーム領域100は小領域ウィンドウ104−11・・・104mnのア レイに分割され、これらの小領域ウィンドウの各局部的速度(図1においてベク トルで示す)が計算される。この計算は、連続する1対のフレームの1つの各小 領域ウィンドウにおけるイメージデータを、連続する1対のフレームの他の各小 領域ウィンドウにおいて対応するイメージデータに置き換えてその間で整合をと ることにより達成することができる。境界領域102は境界線の問題を避けるた めに除外される。更に、1つのフレームの1つの小領域ウィンドウ内に含まれる イメージデータは、そのフレームの隣接する小領域ウィンドウ内に含まれるイメ ージデータに対しである程度オーバラップしてもよい。如何なる場合にも、各小 領域ウィンドウのサイズは、連続する1対のフレームの間のイメージデータの最 大の置換値と比較して大きい。
全ての局部的速度の平均速度が計算され、各局部的速度とこの平均速度の差分誤 差のサイズが決定される。一般に、これらの誤差は小さく、また視差効果と、移 動中のカメラにより撮影される地面が平坦ではないという事実に起因する。しか しながら、図1に示すように、局部的に移動中の自動車101を含む2つの小領 域ウィンドウの誤差は極めて大きい。その理由は、計算された速度が航空機に搭 載された移動中のカメラの全体的な速度と、地上の移動体の局部的な速度を含む からである。したがって、局部的に移動している自動車101を含む2つの小領 域ウィンドウは、それぞれの誤差が所定の闇値を越えるという事実により除外さ れ、また、残りの小領域ウィンドウのみから平均速度が再計算される。この再計 算された平均速度は、カメラの動きに依る動画の全体的な速度の初期推定値を構 成する。全体的な速度の初期推定値のみが引き出されるので、その計算に用いら れる各小領域ウィンドう104−11・・・104mnのイメージデータは、連 続する1対のフレームの対応する多数の各小領域ウィンドウ104−11・・・ I04mnに対して必要なマツチングを行うために望ましくは比較的小さな解像 度のものである。
図2には、従来技術の方法を寓現するフィードバンクループが一般的な形式で示 されている。このフィードバックループは、動きモデル200(これはこのフィ ードバンクループの動作により全体的に又は少なくとも部分的に引き出される) と、残留動き推定器202と、加算器204と、イメージワープ器206と、フ レーム遅延器208.210と、現フレームとイメージワープ器206によりシ フトされた前フレームからのイメージデータにより構成されている。残留動き推 定器202は、現フレームとシフトされた前フレームからのイメージデータが人 力すると現在の残留動きを引出す、この残留動きは加算器204により、動きモ デル200から出力される前の推定値に加算され、次いでワーブ制御人力として イメージワープ器206に印加される。フレーム遅延器208により遅延された 現フレームのイメージデータはイメージワープ器206の人力として印加される 。イメージワープ器206はこのlフレーム分遅延された現フレームのイメージ データをワープ制御入力に従ってシフトし、次いで次のシフトされた前フレーム を引き出すためにフレーム遅延器210に出力する。
図2のフィードバックループは、全体的速度による少数的領域の各小領域ウィン ドウの実質的に全ての速度が除去される点で、全体的速度の初期推定値を正確に するための繰り返しプロセスを遂行する。この繰り返しプロセスは、連続して発 生ずる1対の連続フレームの小領域ウィンドウ1011−11・・・104mn のそれぞれの局部的残留速度を引出し、次いでこれらの各残留速度を使用して全 体的残留速度の現在の推定値を引き出す。特に、各1対の連続フレームのそれぞ れの局部的速度が計算され、そして、全体的速度の前の推定値が抽出された後、 全体的残留速度の現在の推定値が上記繰り返しプロセスの各サイクルで計算され る。第1のサイクルにおける全体的速度の前回の初期値は設定されていないので ゼロである。したがって、この場合には残留速度自体が前述した全体的速度の初 期推定値を構成している。
この繰り返しプロセスの効果は、サイクルが後になるにつれて残留速度の大きさ が徐りに小さくなることにある。したがって、残留動き推定器202は、各連続 サイクルにおけるイメージデータをマツチングするために必要な精度を最小化す るために、この繰り返しプロセスの第1のサイクルの間では解像度が最も低いイ メージデータを用い、また、連続した各サイクルでは直前のサイクルより高い解 像度のイメージデータを用いることが望ましい。
残留動き推定器202は、ハードウェアとソフトウェアの両方又は一方により構 成することができる。残留動き推定器202の幾つかの代わりの具体例が前記パ ート等に開示されている。これらの各別は、一般的な目的の計算要素と特定の目 的の計算要素の間の計算負荷を効果的に分割している。それぞれの小領域ウィン ドウ内の局部的動きを突き止める第1のステップは、カスタムハードウェアに好 適である。データレートは、この解析法がリアルタイムなビデオレートのイメー ジデータに基いているので高いが、プロセスは、局部的並進のみが推定されるの で簡単かつ均一である。全体的モデルが全ての小領域ウィンドウの全体の局部的 動きベクトルに−敗しななければならない第2のステップは、マイクロプロセッ サ内のソフトウェアに好適である。何故ならば、その計算が比較的複雑かつ全体 的であるが、局部的動きベクトルのデータセットが比較的小さいからである。
更に、前述したパート等の記載に示されているように、繰り返しプロセスの異な るサイクルにおいて望ましくは用いられているイメージデータの解像度の調整は 、例えばアンダーソン等の米国特許4,692,806号やパン・デル・フルの 米国特許4,703.514号においてイメージ処理技術として知られているラ プラス及びガウスのピラミッド手法により効果的に達成される。
ハート等には、窩手法を用いた「多数的動き」手法の改良が記載されている。
この手法では、前述した繰り返しプロセスの各サイクルが終了すると、そのサイ クルの間で決定され、かつ全体的な動きを定義していない全ての解析領域の少数 的の部分(例えば自動車101はこの少数的部分に含まれている。)が、繰り返 しプロセスの次のサイクルの間において全ての解析領域として用いられる。更に 各小領域ウィンドウのサイズは、連続する各サイクルでは減少され、連続する各 サイクルにおける解析領域が小領域ウィンドウと同一の数になるように小さく分 割される。
lシーンの一連のイメージを解析することによりイメージセンサの動きを決定す る従来例では、イメージセンサがシーン全体を航行することができることが必要 とされる。しかしながら、イメージセンサがシーン全体を航行すると、センサ( ノーン構造)からの距離と方向が変化する目的物が異なる速度(速度と方向)で 移動するという複雑さが発生する。これらの不均一性により、解析が実質的に複 雑化し、また、前述したパート等に開示されている手法とは異なる手法が必要と なる0本発明者は、局部的なシーン構造と全体的なイメージセンサの動きを決定 するために、イメージセンサの動きとそのイメージに対するシーン構造モデルを 直接に一致させる方法と装置を開発した。全体的なイメージセンサの動きの制約 は局部的シーンの特徴の制約に結合され、局部的表面モデルが全体的なイメージ センサの動きモデルと局部的シーンの特徴に関係付けされる。繰り返しプロセス では、最初にイメージセンサの動きを制約として用いることにより局部的表面モ デルが正確化され、次いで、局部的表面モデルを制約として用いることによりイ メージセンサの動きモデルが正確化される。ある与えられた解像度におけるイメ ージセンサの動きとシーン構造の各推定値が繰り返しプロセスにより正確化され 、イメージセンサの動きとシーン構造のより正確な各推定値が得られる。すなわ ちイメージを連続してワーブすることにより、シーンの特徴の局部的モデルと全 体的なイメージセンサのモデルとの間で[ピンポン」動作が行われ、お互いに許 容可能な調和が取られる。この正確化プロセスは、初期のイメージセンサ及び局 部的シーン構造のモデルの推定で開始され、これは前フレーム又は前回の推定値 の他のソースから推定される。次いでこの繰り返しプロセスは、許容可能な正確 さが得られるまで徐々に高い解像度で繰り返される。特に、これらのモデルは、 粗い解像度で表されるイメージ対に整合され、次いで、その結果であるモデルは 、同一の整合プロセスを用いて次の最も高い解像度で正確化される。
イメージの流れは、局部的なシーンの特徴の変化と全体的なイメージセンサの動 きの制約の間の中間としてバイパスされる。局部的なシーンの特徴の定常性の抑 制はイメージセンサの動きの制約に結合され、局部的に平坦なすなわち局部的に 一定の深さのモデルがイメージセンサの動きモデル及び局部的なシーンの特徴の 導関数に関係付けされる。局部的に平坦なモデルは、局部的なシーンが例えば壁 のような平坦な表面の形状を有することを仮定する。局部的に一定の深さの表面 モデルは局部的に平坦なモデルの特別な場合である。この平坦な表面はセンサの 表面に対して平行に方向付けされるものと仮定する。イメージセンサの動きと局 部的な表面のパラメータの各初期推定値に始まり、局部的な表面モデルは、全体 的なイメージセンサの動きモデルを抑制として用いることにより正確化される0 次いで、全体的なイメージセンサの動きモデルは、局部的な表面モデルを抑制と して用いることにより正確化される。
次に示す解析では、本発明の詳細な説明するために局部的な明るさの変化を局部 的なシーンの特徴として用いている。他の局部的なシーンの特徴は、エツジと、 コーナと、陸標と他の特徴を含む、イメージの明るさは、以下に示すように局部 的な表面モデルとイメージセンサの動きモデルに関係付けされる。明るさが一定 と仮定した場合の第一次テーラ−展開式から、明るさの抑制方程式は、l’ d u=IL (1) で表すことができる。但し、17はイメージの明るさの値の勾配ベクトル、dU は増分イメージ動きベクトル、ILはイメージの明るさの値の時間導関数である 。投影式イメージセンサモデルと移動中の目的物の3次元位置の導関数を用いる と、静止状態の目的物のイメージの動きUは、イメージセンサの並進値下とイメ ージセンサの回転角度Ωを用いて次のように表すことができる。
u=KTZ−’+AΩ (2) 但し、Zは目的物の深さ、 x、yはイメージの座標、「はイメージセンサの焦点距離である。
局部的な平坦なパンチモデルとして、 R’P=l R=(X、Y、Z)T Pm(a、b、c)” (4)但し、R4 は世界座標の点、Pは平面の方向及び深さを表している。式(4)と標準の投影 式方程式x=Xf/Z、y=Yf/Zを組み合わせ、更にX、Yを除去すること により、 Z”=F’ P F= (x/f、y/r、1)T (5)式(5)を弐(2) に代入することにより、イメージセンサの動きと、局部的表面の方向及び深さに 対するイメージの動きは、u=KTF’ P+AΩ (6) 前の解像度すなわち繰り返しにより、全体的なセンサの動きのパラメータT。
、Ω。の推定値と、各局部的な表面モデルの推定値Paが存在してもよい0式( 6)は増分イメージセンサ動き方程式を表すために用いることができる。すなわ ち、 du= (KTFTP+AΩ)−u0 = (KTF’ P+AΩ) (KTo F” Pa +AΩ。) (7)但し 、u6は局部的表面及びイメージセンサの動きモデルの前回の各推定値に対応す るイメージの動きである。この増分イメージセンサ動き方程式を明るさの抑制方 程式(式1)に代入すると、 I’ KTF” P+I’AΩ −T” KT6 F” P、 −I丁AΩ。+It=O(8)この式の誤差は、 局部的な表面モデルと全体的なイメージセンサの動きモデルの両方を正確化する ために用いられる。特に、式(8)における最小2乗誤差は、各局部領域を越え る局部的表面パラメータに関して最小化される。次いで、この最小2乗誤差は、 全ての局部領域におけるイメージセンサの動きパラメータに関して最小化される 。各局部的イメージ領域では、この最小2乗誤差の度合いがPに関して以下のよ うに最小化される。
弐(9)をPい1.に関して微分すると、最小値では、de/dPはゼロであり 、p@i、lはPm1m −4”ΣVFKTF[VFAQ−’7FKFTP6− VFAQ6+It] (11)G−Σ(V ITTFFF (12) 平坦なバッチモデルは、Pm (0,0,c)’になるように一定の深さモデル に簡略化され、したがって、式(11)は次のようになる。
但し、CDは前回のスケールすなわち繰り返しからの局部的な深さの推定値であ る。
全体的なイメージ領域では、最小化された最小2乗誤差の度合いは、T及びΩに 関して次のようになる。
但し、各局部的傾城のChi。は式(13)により与えられる。弐(14)は局 部的な一定の深さモデルに対してのみ有効である。このような式で表すと、誤差 はΩについては二次であるがTについては二次ではなく、非線形最小化手法が必 要となる。現在の方法では、初期の開始値としてΩ。、T、を用いることにより ガウス−ニュートンの最小化方法が用いられる。なお、他の最小化方法を用いる ことができることは勿論である。もし例えば一連のフレームの前回のフレームか らΩ。、Toの初期の推定値が不明な場合には、試行的な並進値が式(14)に 代入され、Ω−Ω。の値がめられ(式14がΩ−Ω。に関して二次であるので閉 じた形式で請求めるべき初期推定値として式(14)において最小誤差を与える TおよびΩ−Ω。が選択される。望ましくは局部的及び全体的な最小化法がマル チ解像度ピラミッド手法の範囲内で用いられる。
本発明は、与えられたイメージの解像度においてlシーンの2以上のイメージか らそのシーンに対するイメージセンサの動きのモデルと、そのシーンの構造モデ ルを決定する方法であって、その方法は、(a)局部的なシーンモデル及びイメ ージセンサの動きモデルの初期推定値をセットする工程と、 (b)前記イメージ内で測定された誤差と前記モデルにより予測される誤差の間 の差を最小化することにより前記モデルの1つの新しい値を決定する工程と、( C)前記(b)の工程で決定される前記モデルの1つの新しい値を用い、局部的 シーンモデルとイメージセンサの動きモデルの各初期推定値を再セットする工程 と、 (d)前記(b)の工程で決定される前記モデルの新しい推定値を用い、前記イ メージ内で測定された誤差と前記モデルにより予測される誤差の間の差を最小化 することにより前記モデルの第2番目の新しい値を決定する工程と、(e)前記 与えられたイメージ解像度における前記モデルの現在の推定値を用い、イメージ の1つを他のイメージに対してワープする工程と、(f)前記モデルの新しい値 及び前回の繰り返し処理で決定された値の差がある値より小さくなるまで、又は 所定数の繰り返し処理が行われるまで前記(b)、(C)、(d)及び(e)の 工程を繰り返す工程と、(g)イメージを高い解像度に伸長する工程と、(h) 前記モデルの現在の推定値を初期の開始値として用い、前記高い解像度において 前記(b)、(c)、(d)、(e)及び(f)の工程を繰り返す工程より成る 。
本発明はまた、1シーンのイメージセンサの動き及び構造を決定するイメージ処 理システムであって、 1シーンの1以上のイメージを得るためのイメージセンサ手段と、第1のイメー ジ解像度における局部的シーンモデル及び前記イメージセンサ手段の動きの初期 推定値をセントする手段と、第1のイメージ解像度における局部的シーンモデル 及び前記イメージセンサ手段の動きの初期推定値を用い、第1のイメージを第2 のイメージに対してワーブする手段と、 1つの最小化工程により全ての局部的シーンモデルを正値化する共に、イメージ センサの動きモデルを正確化する手段と、前記(b)及び(c)の工程を数回繰 り返す繰力返し手段とを有するシステムである。
局部的な最小化処理では、全体的なイメージセンサの動きの抑制は、表面パラメ ータを局部的に正確化することを抑制している。逆に、全体的な最小化処理では 、局部的なイメージ構造により与えられる局部的な抑制は、全体的なイメージセ ンサの動きパラメータを正確化することを抑制している。
前記方法の第1の部分では、各局部的な表面パラメータCを正確化するために、 イメージセンサの動きの抑制と局部的なイメージの明るさ導関数が用いられる、 増分イメージセンサ動きの方程式(図7)は、より簡単な局部的な一定の深さモ デルに書き換えることができる。すなわち、due (KTc+AΩ) −(K T6 Co +AΩ、) (15)Ω=Ω。、T=T、では due =KT、(c−Co ) (16)但し、duoはパラメータCを増加 した場合の増分動きである。したがって、局部的な動きにおける増分は、速度空 間における1ラインに沿ってベクトルKT。
の方向に抑制される(このラインはイメージセンサの動き抑制ライン)、ベクト ルKT、はイメージ対の焦点伸長の現在の推定値を示している。
1つのエフ2二状のイメージ構造を含む局部的領域内においては、明るさ抑制方 程式:よ、速度空間におけるlラインに沿ってエツジの方向(■に垂直)に存在 する動きを抑制している。イメージセンサの動きと明るさの動き抑制を結合する ことにより、表面パラメータCが正確化され、正確化により導かれる増分動きは 、イメージセンサの動き抑制ラインと局部的な明るさ抑制ラインが交差する点に 存在する。この場合、開口の問題に起因する局部的動きの不明確さは、イメージ センサの動き抑制のみを用いることにより解決される。しかしながら、イメージ センサの動き抑制ラインと局部的な動きの抑制ラインが平行な場合には、局部的 動きの不明確さは、イメージセンサの動き抑制を用いても解決されない、この場 合、Σ1゜C1,(ITKT、)” =0であり、図13における分母はゼロに 近づく。物理的な解釈では、局部的なエツジ構造は焦点伸長の現在の推定値の方 向に配列されている。この局部的な表面パラメータは、信輔できるほど正確化す ることができない、何故ならば、イメージセンサの動きの推定値は局部的な明る さの抑制に対して殆ど或いは全く抑制していないからである。現在の方法では、 式13の分母が闇値より低い場合には局部的な表面パラメータは正確化されない 。
コーナ状のイメージ構造を含む局部的領域内では、両方の動きの要素は局部的な 情報から解決することができ、また、局的な明るさの抑制は、増分動きが速度空 間における1点に存在するように抑制する。しかしながら、イメージセンサの動 きの推定値は、増分動きが速度空間におけるイメージセンサの動きの抑制ライン に存在するように抑制する。もし点とラインが速度空間において交差する場合に は、正確化により導かれる増分動きは速度空間における点に対応している。もし 点とラインが交差しない場合には、増分動きは速度空間における点とラインの間 に存在する。
1個のエツジ状のイメージ構造を含む局部的領域内では、明るさ抑制方程式(弐 l)は、弐lにおける誤差がエツジの勾配ベクトル(■)に垂直な如何なるdu に対しても一定のままであることを示している。その結果、エツジに対して正常 な局部的動き要素のみが全体的なイメージセンサの動きの推定値を正確化するた めに用いられる。エツジの方向に沿った動き要素は何ら貢献しないので、全体的 なイメージセンサの動きの推定値における誤差は、開口の問題に起因する局部的 動きの不明確さにより発生しない。
コーナ状のイメージ構造を含む局部的領域内では、両方の動き要素は如何なる局 部的な情報からも解決することができ、また、両方の動き要素は全体的なイメー ジセンサの動きの推定値を正確化する際に貢献する。
本発明者は、ガウスまたはラプラスのピラミッド手法を用い、イメージセンサの 動きの推定値と局部的な表面パラメータを複数の(マルチ)解像度で正確化する ようにしている。このピラミッド手法では、元のイメージの解像度では大きな画 素を置き換えて代表し、粗い解像度では小さな画素を置き換えて代表させる。
したがって、明るさ定常性抑制の第一次テーラ−展開式(式1は小さなduに対 してのみ略正しい)は、イメージの動きが元の解像度において大きい場合であっ ても粗い解像度においては有効となる。前の解像度から得られる局部的な深さの 推定値が用いられ、イメージ対が次の最も高い解像度においてより近くなるよう に登録される。その結果、第一次テーラ−展開式は、ピラミッド手法では全ての 解像度において有効でなければならず、また、例えば閉塞境界で発生する明るさ の仮定における基本的な妨害を無視する。加えて、シーン内で独立して移動する 目的物はまた、イメージセンサの動きの抑制を妨害する。予備的な結果では、イ メージセンサの動きの回復された推定値は、モデルが不良であってもそれ程敏感 ではないことが示されている。
ここに記載されているイメージセンサの動きの回復方法では、ガウスまたはラプ ラスにより導かれ、ピラミッド内で不明瞭なイメージの明るさの付加的な変化は 未だ決定されていない。イメージセンサの動きの回復された推定値は、各解像度 において同様であることが多く、また、流れに基づくマルチ解像度のイメージセ ンサの動きの回復方法を用いてイメージセンサ並進の関数として計算される誤差 表面は、全ての解像度において同様である。
図3において、本発明を構成するフィードバンクルー1300はビデオカメラの ようなイメージセンサ302を有し、このイメージセンサ302の出力はある解 像度の1シーンの一連のイメージである。他のイメージセンサ302としては、 レーダ探知機、光学的ラインセンサ、1を磁式又は音波式の探知機、他の信号源 を含む。このイメージは第1のピラミッドプロセッサ306に対し、また、フレ ーム遅延器308を介して第2のピラミッドプロセッサ310に対して、スイッ チ304により交互に印加される。このようなピラミッドプロセッサは、例えば アンダーソン等の米国特許4,692.806号とパン・デル・フルの米国特許 4.703.514号に示されているイメージ処理技術において知られている。
この2つのピラミッドプロセッサの出力イメージは、フレーム遅延器308によ る遅延により時間的に分離されており、また、現フレームに対応しているが現フ レームの解像度より低い解像度rである。この時間的に遅延されたイメージは、 ワーブ器312を介して推定器314に印加される。このワーブ器312は時間 的に遅延されたイメージに対して動作するように示されているが、他のイメージ に対して同等に動作する。他のイメージは直接に推定器314に印加される。推 定器314では、第1のステップとして実際のイメージの動きとイメージセンサ の動きモデルとのミスマツチによる誤差が機能し、また、全体的なイメージセン サの動きの現在の推定値を一定にしたままで局部的なシーン構造が各局部的なシ ーンモデルに対して最小化される。
第2の工程では、全体的なイメージセンサの動きとイメージセンサの動きモデル とのミスマツチによる誤差が機能し、また、局部的シーンモデルの現在の推定値 を一定にしたままで局部的シーン構造が全体的なイメージセンサの動きに対して 最小化される。推定器314は全体的な動きモデルの推定値と、局部的シーン構 造すなわちそのイメージの局部的な深さモデルを出力する。初期化器315は推 定器314に対して、局部的シーン構造と全体的な動きモデルに関する初期の抑 制値を出力する。この情報は初期化器315内に内蔵してもよく、また、他のセ ンサから供給するようにしてもよい。推定器314の出力は、全体的なセンサ・  の動きと局部的シーン構造モデルの新しい各推定値である。この新しい推定値 はシンセサイザ316に印加され、シンセサイザ316によりワーブ制御信号が 引き出されてワーブ器312に印加される。ワープ器312は時間的に遅延され たイメージを歪ませ、他のイメージと一致するように接近させる。このサイクル は、必要な数の繰り返しが完了するまで又は2つのイメージ間の差がある値以下 に減少するまで繰り返される0局部的な深さモデルの情報はポート318で与え られ、また、全体的動きモデルの情報は図示319で与えられる。これらのイメ ージはより高い解像度で再び計算され、繰り返しサイクルが繰り返される。ある 与えられた解像度レベルにおける繰り返しとより高い解像度における繰り返しの シーケンスは、各繰り返し処理におけるモデル間の差がある値より小さくなるま で、すなわち解像度REの十分なレベルが達成されるまで繰り返される。
このイメージセンサの動きを用いた方法は、自然のイメージとコンピュータによ るイメージの両方のシーケンスについてテストされた。イメージシーケンスにお ける動きは、元の解像度では略4ないし8画素の範囲にあり、したがって、動き が増分動き推定器の範囲外であるので、元の解像度のみにおける解析は不正確で ある。ここでは4つの解像度が用いられている。他に記載されていない限り、T =(0,0,1)’及びΩ= (0,0,0)丁がイメージセンサの動きの初期 推定値として用いられている。逆の局部的深さの推定値は全てゼロに初期化され ている。
次に、256X256画素のサイズのコンピュータイメージと、256X240 画素のサイズの自然画像を用いた本方法を以下に示す、ラプラスのピラミッドは 、上記コンピュータイメージに対して解像度を減少した128X120.64× 64.32×32画素のサイズのイメージと、上記自然画像に対する128×1 20.64X60.32×30画素のサイズのイメージを生成するために用いら れた0局部的表面モデルは、イメージ内の各点の中心に位置する5×5画素のウ ィンドウに一致し、また、イメージセンサの動きモデルがイメージ内の各点に一 致するようにした0例えば車両航行システムの一部では、前方の道路や近づく目 的物のようなイメージ領域を直接目的とする多数のより大きな局部的ウィンドウ に対して解析が制限される。全体的なイメージセンサモデルは、イメージ内の各 点に一敗するようにされる。
本発明者は、本方法では非常に粗い解像度(ここではイメージサイズに対して+ 6X16画素に対応する)で解析を開始した時に不正確な解決点に収束したり、 全く収束しないことを発見した。これは、非常に粗いスケールにおけるイメージ 強度が過度にぼやけたり、非常に粗い解像度におけるサンプル点の数が限られて いるためと思われる。
図48は既知の深さマツプと既知のイメージセンサの動きパラメータから合成さ れ、再サンプルされたイメージ対を示している。このイメージ対のために、最も 粗い解像度における17x17=289の並進値をサンプルすることにより、イ メージセンサの動きの初)IJIliL定価が回復された0図4bは元のイメー ジ対の間の差分イメージを示している0図40は回復された深さマツプと実際の 深さマツプの差のパーセンテージの絶対値を示している0図40は深さの誤差測 度パーセンテージ(100(真の深さ一計算された深さ)/真の深さ〕を示し、 これはシーンの前景において回復された深さマツプにおける誤差が全く均一であ り、また、上記前景における180X100画素のウィンドウにおける実際の測 定値が略1%のrms誤差を有することを示している。(稜線を丁度越えた)シ ーンの前景部分では誤差は非常に大きく、100X15画素のウィンドウにおけ る測定値が略8%のrms誤差を有する。この差は、両方の領域における実際の 動きと回復された動きの差が略0.05−0.1画素であるのに対し、実際の動 きが前景では略4−8画素、背景では略1画素であることを観測することにより 説明される。本発明者は、イメージの前景部分と背景部分において回復された動 きの正確さを期待する。何故ならば、このイメージは重く組織化されているが、 組織が全くないイメージ最上部では回復された深さと動きが大きな誤差を有する からである。
図4dは局部的表面パラメータ(逆の深さ)のイメージにおいてイメージセンサ に対して明るい点が暗い点より近いことを示している。イメージの底の部分は、 「カメラ」から深さが会速に変化する稜線に対して傾斜している表面を示してい る。このイメージの最上部は、組織が全くないイメージ空白部分において回復さ れたパラメータを示している。
図4eは各解像度における回復されたイメージセンサの動きと実際のイメージセ ンサの動きを示している。明るさが一定と仮定することが損なわれるイメージ中 心を閉塞境界が横切るにもかかわらず、最終の解像度におけるイメージセンサの 動き要素の推定値は、「カメラ」の実際のイメージセンサの動きに非常に近い。
一般に、最終2乗法による手法は、モデル内の偏差により導かれるかもしれない 孤立値に敏感でなければならない、同一の増分動き推定器(図1)を粗い精度の 解析手法内において用いる他の動き一致手法において、孤立点が正確に観測され た。
図5aは、イメージ中心が既に推定され、また、正確なイメージセンサの動きが 未知の自然イメージ対の第2イメージを示している。前景におけるイメージの動 きはイメージセンサに対して略5画素である0図5bは最も高い解像度で回復さ れた逆の深さイメージを示している。この回復された深さは、イメージ境界と回 復されたフォーカス伸長近く(イメージ中心のゲート近く)を除く、殆ど全ての 場所で尤もらしい、逆の深さマツプの右手側の底における明るいドツトは、地面 上でイメージセンサの方に風が吹いている原イメージの葉っばかもしれない。
発明者は、全ての場所で重く組織化されているシーンから上記光もらしい結果が 得られることを期待してもよい0図5cは、各解像度において計算されたイメー ジセンサの動きを示している。このイメージセンサの動きの推定値は、2つの最 も精密なスケールにおいて回復された推定値に近いが、この回復された推定値は 未だ、2つの最も粗い解像度における場合とは異なる。この粗い解像度では、不 正確な推定値を導く誤差表面において低い勾配の不正確な方向に続いて最小化処 理が行われた。これは、推定処理が如何に次の不正確な最小化バスから回復する ことができるかを示しており、また、イメージのぼけにより導かれる差により、 解像度間では誤差表面が如何に殆ど差がないことを示している0図5eは各解像 度において回復されたイメージセンサの動きと実際のイメージセンサの動きを示 している。
図68はイメージ組織が殆ど存在しない道路シーケンスの第2のイメージを示す 、この前景におけるイメージの動きはイメージセンサに対して略9画素である。
図6bは最も高い解像度において回復された逆の深さイメージを示す。この場合 にはイメージの上部(空)に対応する逆の深さパラメータは全く不正確である。
また、事実、局部的表面パラメータはたぶん、このような小さなイメージ勾配を 含むイメージ領域では正確化すべきではないが、同一の理由によりこの領域は、 回復されたイメージセンサの動きの推定値に関して最小限の効果しかない0図6 cはこの場合、回復された解決策が、各解像度におけるイメージセンサの動きの 初期推定価に近く存在することを示している0本発明者は、道路中央における2 道路の可視部分の端部に焦点伸長が存在することを計算した。図6eは各解像度 において回復されたイメージセンサの動きと実際のイメージセンサの動きを示し ている。
図7は他の道路シーケンスの結果を示している。この場合、回復された解決策が 、各解像度におけるイメージセンサの動きの初期推定値に近く存在する。イメー ジ(空)の最上部に対応する逆の深さパラメータは全く不正確であり、また、事 実、局部的表面パラメータは、そのような小さな勾配を含むイメージ領域ではた ぶん正確化すべきではないが、同一の理由によりその領域は、回復されたイメー ジセンサの動きの推定値に関しては最小の効果しかない。本発明者は、道路中央 における道路の可視部分の端部に焦点伸長が存在することを決定した。
2つのイメージにおけるイメージ勾配から直接にイメージセンサの動きを推定す る繰り返し的マルチ解像度による方法が開示され、また、局部的イメージ構造と は異なる抑制がイメージセンサの動きの抑制に対して如何に関係があるかが開示 される。イメージセンサの動きと深さは、コンピュータによる例では全く正確に 回復され、また、この回復されたイメージセンサの動きと深さは、真値が得られ ない自然イメージのシーケンスにおいて尤もらしいと見えた。
現在の単一解像度による解析法に対する、マルチ解像度による解析法の主要な効 果は次の通りである。
(a)動き範囲の増大:原イメージの解像度では、一致するイメージを制限する ことは、略1画素より大きな動きを正確に測定することができないことを示して いる。マルチ解像度による解析法を用いることにより、動き範囲は原イメージの 解像度における略16(又はそれ以上の)画素まで増大する。これにより、イメ ージセンサの動きとシーン構造回復の方法は、単一解像度による解析法では適用 することができない応用範囲にも用いることができる。事実、イメージの違いす なわちイメージの動きは、多くの(全てではなくとも)応用範囲においては1画 素以上である。
(b)動き推定値の正確さ:前の解像度からの結果を用いて次の最も高い解像度 ではイメージセンサの動きとシーン構造の推定値を最新化するので、最も高い解 像度(原イメージの解像度)におけるイメージセンサの動きとシーン構造の各推 定値は、前の推定値を正確化することなく原イメージの解像度のみで推定値を計 算する単一解像度の解析法より全く正確である。
(c)方法の効率性:粗い解像度ではこの方法が非常に早(動作するのでイメー ジ表示が小さい、もしイメージセンサの動きとシーン構造の正確化された推定値 が目的によっては十分正確な場合には、粗い解像度で処理を停止することができ る、したがって、単一解像度の解析法と比べて、ハードウェアソース及び/又は 計夏力と、イメージセンサの動き及びシーン構造の推定値の関係において柔軟性 がある。
要約すると、深さとイメージセンサの動きの推定値をマルチ解像度(単一解像度 で正確化する場合も同様に)で正確化するので、ワーブされる深さ手法は、他の 方法より非常に正確である。また、マルチ解像度の解析法により、この方法が動 作する許容可能な動き範囲は他の方法より非常に広い、この結果、ワーブされる 深さ法は、他の方法を用いることができない多くの応用例に用いることができ、 この方法が効果的である。この結果、ハードウェア及びソフトウェアのリアルタ イムな具体例が比較的簡単である。
イメージセンサの動きとシーン構造モデルはイメージ全体に一致する必要がなく 、特定の領域を選択してその領域でのみ処理を行えばよい、イメージセンサの動 き及びシーン構造の推定値を粗い一精密な解像度で正確化する処理は、イメージ 対よりもむしろイメージンーケンスにおける推定値を正確化するまで延長するこ とができる。この方法は、2以上のイメージ対からシーン構造及び/又はイメー ジセンサの動きを推定することが必要な多くの問題に適用することができる。
適用例としては車両航行、障害物検出、深さ回復及びイメージ安定化を含む。
ここに開示されている方法は、局部的なイメージの明るさ及びイメージの明るさ の導関数の他に、局部的なイメージの特徴すなわち抑制に有用であった。他のイ メージの特徴も本発明の方法に用いることができることは理解されるべきである 。また、局部的なシーンの特徴をより高い解像度に拡張する他のピラミッド処理 を用いることができることも理解されるべきである。
Fig、 4 (a) Fig、 4 (b)Fig、 4 (e) Fig、 5 (a) Fig、 5 (b)Fig、 5 (C) Fig、  5 (d)Fig、 5 (e) Fig、 6 (a) Fig、 6 (b)Fig、 6 (c) Fig、  6 (d)Fig、 7 (a) Fig、 7 (b)r’ig、 7 ( cl Fig、 7 (d)Fig、 7 (e)

Claims (8)

    【特許請求の範囲】
  1. 1.ある与えられたイメージの解像度において1シーンの2又はそれ以上のイメ ージからそのシーンに対するイメージセンサの動きのモデルと、そのシーンのシ ーン−構造モデルを決定する方法であって、(a)局部的なシーンモデル及びイ メージセンサの動きモデルの初期推定値をセットする工程と、 (b)前記イメージ内で測定された誤差と前記モデルにより予測される誤差の間 の差を最小化することにより前記モデルの1つの新しい値を決定する工程と、( c)前記(b)の工程で決定される前記モデルの1つの新しい値を用い、局部的 シーンモデルとイメージセンサの動きモデルの各初期推定値を再セットする工程 と、 (d)前記(b)の工程で決定される前記モデルの推定値を用い、前記イメージ 内で測定された誤差と前記モデルにより予測される誤差の間の差を最小化するこ とにより前記モデルの第2番目の新しい値を決定する工程と、(e)前記与えら れたイメージ解像度における前記モデルの現在の推定値を用い、イメージの1つ を他のイメージに対してワープする工程と、そして(f)前記モデルの新しい値 及び前回の繰り返し処理で決定された値の差がある値より小さくなるまで、又は 所定数の繰り返し処理が行われるまで前記(b)、(c)、(d)及び(e)の 工程を繰り返す工程と、を有する方法。
  2. 2.請求項1記載の方法において、 (g)イメージをより高い解像度に伸長する工程と、そして(h)前記モデルの 現在の推定値を初期の開始値として用い、前記より高い解像度において前記(b )、(c)、(d)、(e)及び(f)の工程を繰り返す工程とを更に有する方 法。
  3. 3.請求項1記載の方法において、前記(b)の工程は、2又はそれ以上のイメ ージ間において測定されたシーンの特徴の変化分と前記モデルにより予測される 変化分との間の差を前記第1のモデルに関して最小化することにより、前記モデ ルの1つの新しい値を決定する工程を有する方法。
  4. 4.請求項1記載の方法において、前記(d)の工程は、2又はそれ以上のイメ ージ間において測定されたシーンの特徴の変化分と前記モデルにより予測される 変化分との間の差を前記第2のモデルに関して最小化することにより、前記モデ ルの1つの新しい値を決定する工程を有する方法。
  5. 5.ある与えられたイメージの解像度において1シーンの2又はそれ以上のイメ ージからそのシーンのシーソー構造モデルのためのモデルを決定する方法であっ て、 (a)局部的なシーンモデル及びイメージセンサの動きモデルの初期推定値をセ ットする工程と、 (b)前記イメージ内で測定された誤差と前記モデルにより予測される誤差の間 の差を最小化することにより前記シーン構造モデルの1つ又はイメージセンサの 動きモデルの新しい値を決定する工程と、(c)前記(b)の工程で決定される 前記モデルの1つの新しい値を用い、局部的シーンモデルとイメージセンサの動 きモデルの各初期推定値を再セットする工程と、 (d)前記(b)の工程で決定される前記モデルの新しい推定値を用い、前記イ メージ内で測定された誤差及び前記モデルにより予測される誤差の間の差を最小 化することにより前記モデルの第2番目の新しい値を決定する工程と、(e)前 記与えられたイメージ解像度における前記モデルの現在の推定値を用い、イメー ジの1つを他のイメージに対してワープする工程と、そして(f)前記モデルの 新しい値及び前回の繰り返し処理で決定された値の間の差がある値より小さくな るまで、又は所定数の繰り返し処理が行われるまで前記(b)、(c)、(d) 及び(e)の工程を繰り返す工程と、を有する方法。
  6. 6.請求項5記載の方法において、 (g)イメージを高い解像度に伸長する工程と、そして(h)前記モデルの現在 の推定値を初期の開始値として用い、前記高い解像度において前記(b)、(c )、(d)、(e)及び(f)の工程を繰り返す工程とを更に有する方法。
  7. 7.イメージセンサの動きと1シーンの構造を決定するイメージ処理システムで あって、 1シーンの1以上のイメージを得るためのイメージセンサ手段と、第1のイメー ジ解像度において局部的シーンモデルの初期推定値とイメージセンサの動きモデ ルをセットする手段と、最小化工程を繰り返すことにより全ての局部的シーンモ デルとイメージセンサの動きモデルを正確化する手段と、そして第1のイメージ 解像度において前記局部的シーンモデルとイメージセンサの動きモデルの正確化 された現在の推定値を用いて前記第1のイメージを第2のイメージに対してワー プする手段と、 前記(b)及び(c)を繰り返す繰り返し手段と、を有するシステム。
  8. 8.請求項7記載の装置において、イメージを第1の解像度からより高い解像度 に伸長する処理装置を更に有する装置。
JP50698193A 1991-10-04 1992-10-02 センサの動きとシーン構造を決定する方法及びイメージ処理システム Expired - Fee Related JP3253962B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US771,715 1991-10-04
US07/771,715 US5259040A (en) 1991-10-04 1991-10-04 Method for determining sensor motion and scene structure and image processing system therefor

Publications (2)

Publication Number Publication Date
JPH06511339A true JPH06511339A (ja) 1994-12-15
JP3253962B2 JP3253962B2 (ja) 2002-02-04

Family

ID=25092745

Family Applications (1)

Application Number Title Priority Date Filing Date
JP50698193A Expired - Fee Related JP3253962B2 (ja) 1991-10-04 1992-10-02 センサの動きとシーン構造を決定する方法及びイメージ処理システム

Country Status (5)

Country Link
US (1) US5259040A (ja)
EP (1) EP0606385B1 (ja)
JP (1) JP3253962B2 (ja)
DE (1) DE69231812T2 (ja)
WO (1) WO1993007585A1 (ja)

Families Citing this family (134)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB9206396D0 (en) * 1992-03-24 1992-05-06 British Broadcasting Corp Video image motion measurement
US5627586A (en) * 1992-04-09 1997-05-06 Olympus Optical Co., Ltd. Moving body detection device of camera
US5325449A (en) * 1992-05-15 1994-06-28 David Sarnoff Research Center, Inc. Method for fusing images and apparatus therefor
US6034723A (en) * 1992-11-20 2000-03-07 Sony Corporation Image movement vector detection apparatus
US6236682B1 (en) * 1993-03-08 2001-05-22 Sony Corporation Video motion vector detection including rotation and/or zoom vector generation
WO1994030007A1 (en) * 1993-06-04 1994-12-22 David Sarnoff Research Center, Inc. System and method for electronic image stabilization
EP0633546B1 (en) * 1993-07-02 2003-08-27 Siemens Corporate Research, Inc. Background recovery in monocular vision
JP2725599B2 (ja) * 1994-06-21 1998-03-11 日本電気株式会社 隆線方向抽出装置
US5777690A (en) * 1995-01-20 1998-07-07 Kabushiki Kaisha Toshiba Device and method for detection of moving obstacles
US5973733A (en) * 1995-05-31 1999-10-26 Texas Instruments Incorporated Video stabilization system and method
DE69635347T2 (de) 1995-07-10 2006-07-13 Sarnoff Corp. Verfahren und system zum wiedergeben und kombinieren von bildern
US5835138A (en) * 1995-08-30 1998-11-10 Sony Corporation Image signal processing apparatus and recording/reproducing apparatus
US5784175A (en) * 1995-10-05 1998-07-21 Microsoft Corporation Pixel block correlation process
US5929940A (en) * 1995-10-25 1999-07-27 U.S. Philips Corporation Method and device for estimating motion between images, system for encoding segmented images
JPH09168152A (ja) * 1995-10-26 1997-06-24 Hyundai Electron Ind Co Ltd 動画像処理における動きの推定装置及びその方法
US5706054A (en) * 1995-12-01 1998-01-06 Intel Corporation Method and apparatus for adjusting video data to limit the effects of automatic focusing control on motion estimation video coders
US5801970A (en) * 1995-12-06 1998-09-01 Martin Marietta Corporation Model-based feature tracking system
US5802220A (en) * 1995-12-15 1998-09-01 Xerox Corporation Apparatus and method for tracking facial motion through a sequence of images
US5692063A (en) * 1996-01-19 1997-11-25 Microsoft Corporation Method and system for unrestricted motion estimation for video
US5799113A (en) * 1996-01-19 1998-08-25 Microsoft Corporation Method for expanding contracted video images
US5751838A (en) * 1996-01-26 1998-05-12 Nec Research Institute, Inc. Correction of camera motion between two image frames
US6049619A (en) * 1996-02-12 2000-04-11 Sarnoff Corporation Method and apparatus for detecting moving objects in two- and three-dimensional scenes
US5778098A (en) * 1996-03-22 1998-07-07 Microsoft Corporation Sprite coding
US5764814A (en) * 1996-03-22 1998-06-09 Microsoft Corporation Representation and encoding of general arbitrary shapes
US8107015B1 (en) 1996-06-07 2012-01-31 Virage, Incorporated Key frame selection
US6075905A (en) * 1996-07-17 2000-06-13 Sarnoff Corporation Method and apparatus for mosaic image construction
GB2317525B (en) 1996-09-20 2000-11-08 Nokia Mobile Phones Ltd A video coding system
US6075875A (en) * 1996-09-30 2000-06-13 Microsoft Corporation Segmentation of image features using hierarchical analysis of multi-valued image data and weighted averaging of segmentation results
US5748789A (en) * 1996-10-31 1998-05-05 Microsoft Corporation Transparent block skipping in object-based video coding systems
US6088472A (en) * 1996-12-20 2000-07-11 Siemens Corporate Research, Inc. Global models with parametric offsets for object recovery
US6160907A (en) * 1997-04-07 2000-12-12 Synapix, Inc. Iterative three-dimensional process for creating finished media content
US6124864A (en) * 1997-04-07 2000-09-26 Synapix, Inc. Adaptive modeling and segmentation of visual image streams
US6084590A (en) * 1997-04-07 2000-07-04 Synapix, Inc. Media production with correlation of image stream and abstract objects in a three-dimensional virtual stage
US6130707A (en) * 1997-04-14 2000-10-10 Philips Electronics N.A. Corp. Video motion detector with global insensitivity
US6219462B1 (en) 1997-05-09 2001-04-17 Sarnoff Corporation Method and apparatus for performing global image alignment using any local match measure
JPH10341367A (ja) * 1997-06-06 1998-12-22 Toshiba Corp 静止画像生成方法及び静止画像取り込みシステム
EP0998825B1 (en) * 1997-07-28 2002-12-04 IDT INTERNATIONAL DIGITAL TECHNOLOGIES DEUTSCHLAND GmbH Method and apparatus for multiresolution object-oriented motion estimation
IL122299A (en) * 1997-11-25 2003-11-23 Broadcom Corp Video encoding device
JPH11213174A (ja) * 1998-01-28 1999-08-06 Hitachi Denshi Ltd 動画像編集方法
US6823013B1 (en) * 1998-03-23 2004-11-23 International Business Machines Corporation Multiple encoder architecture for extended search
MXPA00009686A (es) 1998-04-02 2004-09-10 Kewazinga Corp Metodo y sistema de telepresencia navegable utilizando una formacion de camaras.
US6400831B2 (en) 1998-04-02 2002-06-04 Microsoft Corporation Semantic video object segmentation and tracking
US6522325B1 (en) 1998-04-02 2003-02-18 Kewazinga Corp. Navigable telepresence method and system utilizing an array of cameras
US6266053B1 (en) 1998-04-03 2001-07-24 Synapix, Inc. Time inheritance scene graph for representation of media content
US6249285B1 (en) 1998-04-06 2001-06-19 Synapix, Inc. Computer assisted mark-up and parameterization for scene analysis
US6297825B1 (en) 1998-04-06 2001-10-02 Synapix, Inc. Temporal smoothing of scene analysis data for image sequence generation
GB2340327A (en) * 1998-07-29 2000-02-16 Nokia Mobile Phones Ltd Motion estimation in a video coding system
US6269175B1 (en) * 1998-08-28 2001-07-31 Sarnoff Corporation Method and apparatus for enhancing regions of aligned images using flow estimation
US6711278B1 (en) * 1998-09-10 2004-03-23 Microsoft Corporation Tracking semantic objects in vector image sequences
KR20010041862A (ko) * 1999-01-12 2001-05-25 요트.게.아. 롤페즈 카메라 움직임 파라미터 추정방법
US6307959B1 (en) * 1999-07-14 2001-10-23 Sarnoff Corporation Method and apparatus for estimating scene structure and ego-motion from multiple images of a scene using correlation
US6353678B1 (en) 1999-07-14 2002-03-05 Sarnoff Corporation Method and apparatus for detecting independent motion in three-dimensional scenes
US6650704B1 (en) 1999-10-25 2003-11-18 Irvine Sensors Corporation Method of producing a high quality, high resolution image from a sequence of low quality, low resolution images that are undersampled and subject to jitter
EP1727089A3 (en) * 1999-11-26 2007-09-19 MobilEye Technologies, Ltd. System and method for estimating ego-motion of a moving vehicle using successive images recorded along the vehicle's path of motion
CA2392652A1 (en) * 1999-11-26 2001-05-31 Amnon Shashua System and method for estimating ego-motion of a moving vehicle using successive images recorded along the vehicle's path of motion
WO2001045420A1 (de) * 1999-12-17 2001-06-21 Koninklijke Philips Electronics N.V. Bewegungsschätzung in videobildern
US6516087B1 (en) 2000-01-10 2003-02-04 Sensar, Inc. Method for real time correlation of stereo images
US20010043721A1 (en) * 2000-03-21 2001-11-22 Sarnoff Corporation Method and apparatus for performing motion analysis on an image sequence
US6718317B1 (en) * 2000-06-02 2004-04-06 International Business Machines Corporation Methods for identifying partial periodic patterns and corresponding event subsequences in an event sequence
JP3679988B2 (ja) * 2000-09-28 2005-08-03 株式会社東芝 画像処理装置及び画像処理方法
US6445832B1 (en) * 2000-10-10 2002-09-03 Lockheed Martin Corporation Balanced template tracker for tracking an object image sequence
CA2430591C (en) * 2000-12-01 2011-04-19 Imax Corporation Techniques and systems for developing high-resolution imagery
JP2002224982A (ja) * 2000-12-01 2002-08-13 Yaskawa Electric Corp 薄型基板搬送用ロボットおよび薄型基板検出方法
FI109633B (fi) * 2001-01-24 2002-09-13 Gamecluster Ltd Oy Menetelmä videokuvan pakkauksen nopeuttamiseksi ja/tai sen laadun parantamiseksi
WO2003001788A2 (en) * 2001-06-25 2003-01-03 Redhawk Vision Inc. Video event capture, storage and processing method and apparatus
DE10133761A1 (de) * 2001-07-11 2003-01-30 Vitronic Dr Ing Stein Bildvera Verfahren und Vorrichtung zur virtuellen Lagebestimmung eines Fahrzeugaufbaus
KR100792283B1 (ko) * 2001-08-07 2008-01-07 삼성전자주식회사 이동물체 자동 추적장치 및 방법
CN1235172C (zh) * 2002-02-20 2006-01-04 佳能株式会社 图像输入装置
CN1650622B (zh) * 2002-03-13 2012-09-05 图象公司 用于数字重新灌录或修改电影或其他图像序列数据的系统和方法
US7631261B2 (en) * 2002-09-12 2009-12-08 Inoue Technologies, LLC Efficient method for creating a visual telepresence for large numbers of simultaneous users
US7577636B2 (en) * 2003-05-28 2009-08-18 Fernandez Dennis S Network-extensible reconfigurable media appliance
TWI225622B (en) * 2003-10-24 2004-12-21 Sunplus Technology Co Ltd Method for detecting the sub-pixel motion for optic navigation device
US7346226B2 (en) * 2003-12-16 2008-03-18 Genesis Microchip Inc. Method and apparatus for MPEG artifacts reduction
US7499494B2 (en) * 2003-12-23 2009-03-03 Genesis Microchip Inc. Vector selection decision for pixel interpolation
US7457438B2 (en) * 2003-12-23 2008-11-25 Genesis Microchip Inc. Robust camera pan vector estimation using iterative center of mass
US7480334B2 (en) * 2003-12-23 2009-01-20 Genesis Microchip Inc. Temporal motion vector filtering
US7346109B2 (en) * 2003-12-23 2008-03-18 Genesis Microchip Inc. Motion vector computation for video sequences
US7650016B2 (en) * 2004-07-30 2010-01-19 Lockheed Martin Corporation System and method for tracking motion of an object image
US7715589B2 (en) * 2005-03-07 2010-05-11 Massachusetts Institute Of Technology Occluding contour detection and storage for digital photography
US20060215036A1 (en) * 2005-03-25 2006-09-28 Multivision Intelligent Surveillance (Hk) Ltd. Method and apparatus for video stabilization
JP4909991B2 (ja) * 2005-09-12 2012-04-04 タパング,カルロス フレーム毎かつピクセル毎コンピュータ映像用カメラフレーム合致モデル生成グラフィックス画像
US7801335B2 (en) * 2005-11-11 2010-09-21 Global Rainmakers Inc. Apparatus and methods for detecting the presence of a human eye
US8260008B2 (en) 2005-11-11 2012-09-04 Eyelock, Inc. Methods for performing biometric recognition of a human eye and corroboration of same
CA2636858C (en) 2006-01-27 2015-11-24 Imax Corporation Methods and systems for digitally re-mastering of 2d and 3d motion pictures for exhibition with enhanced visual quality
US8364646B2 (en) * 2006-03-03 2013-01-29 Eyelock, Inc. Scalable searching of biometric databases using dynamic selection of data subsets
US20070208904A1 (en) * 2006-03-03 2007-09-06 Wu-Han Hsieh Wear leveling method and apparatus for nonvolatile memory
US7697725B2 (en) * 2006-04-03 2010-04-13 Sri International Method and apparatus for autonomous object tracking
US8340349B2 (en) * 2006-06-20 2012-12-25 Sri International Moving target detection in the presence of parallax
CN101479765B (zh) 2006-06-23 2012-05-23 图象公司 对2d电影进行转换用于立体3d显示的方法和系统
US8604901B2 (en) 2006-06-27 2013-12-10 Eyelock, Inc. Ensuring the provenance of passengers at a transportation facility
US8965063B2 (en) 2006-09-22 2015-02-24 Eyelock, Inc. Compact biometric acquisition system and method
US8280120B2 (en) 2006-10-02 2012-10-02 Eyelock Inc. Fraud resistant biometric financial transaction system and method
JP2008203992A (ja) * 2007-02-16 2008-09-04 Omron Corp 検出装置および方法、並びに、プログラム
US8953849B2 (en) 2007-04-19 2015-02-10 Eyelock, Inc. Method and system for biometric recognition
WO2008131201A1 (en) 2007-04-19 2008-10-30 Global Rainmakers, Inc. Method and system for biometric recognition
US9117119B2 (en) 2007-09-01 2015-08-25 Eyelock, Inc. Mobile identity platform
US9036871B2 (en) 2007-09-01 2015-05-19 Eyelock, Inc. Mobility identity platform
US9002073B2 (en) 2007-09-01 2015-04-07 Eyelock, Inc. Mobile identity platform
US8553948B2 (en) * 2007-09-01 2013-10-08 Eyelock, Inc. System and method for iris data acquisition for biometric identification
US8212870B2 (en) 2007-09-01 2012-07-03 Hanna Keith J Mirror system and method for acquiring biometric data
WO2009158662A2 (en) 2008-06-26 2009-12-30 Global Rainmakers, Inc. Method of reducing visibility of illimination while acquiring high quality imagery
US8306279B2 (en) * 2008-09-15 2012-11-06 Eyelock, Inc. Operator interface for face and iris recognition devices
US8279267B2 (en) * 2009-03-09 2012-10-02 Mediatek Inc. Apparatus and method for capturing images of a scene
US8195044B2 (en) 2009-03-30 2012-06-05 Eyelock Inc. Biometric camera mount system
JP4892113B2 (ja) * 2009-09-08 2012-03-07 株式会社東芝 画像処理方法及び装置
TWI416073B (zh) 2009-11-16 2013-11-21 Ind Tech Res Inst 移動攝影機對路景影像的處理方法及系統
US8896715B2 (en) * 2010-02-11 2014-11-25 Microsoft Corporation Generic platform video image stabilization
US9959595B2 (en) * 2010-09-21 2018-05-01 Mobileye Vision Technologies Ltd. Dense structure from motion
US9280711B2 (en) 2010-09-21 2016-03-08 Mobileye Vision Technologies Ltd. Barrier and guardrail detection using a single camera
EP2463843B1 (en) 2010-12-07 2015-07-29 Mobileye Vision Technologies Ltd. Method and system for forward collision warning
US10043229B2 (en) 2011-01-26 2018-08-07 Eyelock Llc Method for confirming the identity of an individual while shielding that individual's personal data
CN103477351B (zh) 2011-02-17 2019-06-28 眼锁有限责任公司 用于采用单个传感器采集场景图像和虹膜图像的高效方法和系统
US8711248B2 (en) 2011-02-25 2014-04-29 Microsoft Corporation Global alignment for high-dynamic range image generation
US20120268241A1 (en) 2011-04-19 2012-10-25 Eyelock Inc. Biometric chain of provenance
US9233659B2 (en) 2011-04-27 2016-01-12 Mobileye Vision Technologies Ltd. Pedestrian collision warning system
US9824426B2 (en) 2011-08-01 2017-11-21 Microsoft Technology Licensing, Llc Reduced latency video stabilization
EP2748768A4 (en) 2011-08-22 2016-05-11 Eyelock Llc SYSTEMS AND METHODS FOR IMAGE CAPTURE WITHOUT ARTIFACT
US9736456B1 (en) * 2012-09-28 2017-08-15 Pixelworks, Inc. Two dimensional to three dimensional video conversion
US9495526B2 (en) 2013-03-15 2016-11-15 Eyelock Llc Efficient prevention of fraud
CN105934764A (zh) 2013-12-23 2016-09-07 眼锁有限责任公司 用于功率高效的虹膜识别的方法和装置
EP3092601A4 (en) 2014-01-06 2017-11-29 Eyelock Llc Methods and apparatus for repetitive iris recognition
IL233684B (en) 2014-07-17 2018-01-31 Shamir Hanan Stabilizing and displaying remote images
WO2016040836A1 (en) 2014-09-12 2016-03-17 Eyelock Llc Methods and apparatus for directing the gaze of a user in an iris recognition system
WO2016081609A1 (en) 2014-11-19 2016-05-26 Eyelock Llc Model-based prediction of an optimal convenience metric for authorizing transactions
US10074011B2 (en) 2015-01-20 2018-09-11 Eyelock Llc Lens system for high quality visible image acquisition and infra-red iris image acquisition
BR112017019362A2 (pt) 2015-03-12 2018-06-05 Eyelock Llc métodos e sistemas para gestão de atividade de rede usando biometria
US10453207B2 (en) * 2015-07-31 2019-10-22 Versitech Limited Method and system for global motion estimation and compensation
EP3394594A4 (en) 2015-12-21 2019-08-14 Eyelock Llc REFLECTED OPTICAL CAMERA MODULE FOR THE RECOGNITION OF IRIS IN A COMPUTER DEVICE
EP3458997A2 (en) 2016-05-18 2019-03-27 Eyelock, LLC Iris recognition methods and systems based on an iris stochastic texture model
US10091435B2 (en) * 2016-06-07 2018-10-02 Disney Enterprises, Inc. Video segmentation from an uncalibrated camera array
WO2018156726A1 (en) 2017-02-24 2018-08-30 Eyelock, Llc Systems and methods for providing illumination for iris biometric acquisition
EP3373249A1 (en) 2017-03-08 2018-09-12 Nederlandse Organisatie voor toegepast- natuurwetenschappelijk onderzoek TNO Method of detecting moving objects from a temporal sequence of images
EP3451042B1 (en) 2017-08-31 2022-08-10 Eyelock, LLC Systems and methods of biometric acquisition using positive optical distortion
US11159798B2 (en) * 2018-08-21 2021-10-26 International Business Machines Corporation Video compression using cognitive semantics object analysis

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4835532A (en) * 1982-07-30 1989-05-30 Honeywell Inc. Nonaliasing real-time spatial transform image processing system
JPS59133667A (ja) * 1983-01-20 1984-08-01 Hitachi Ltd 画像補正処理方法

Also Published As

Publication number Publication date
DE69231812D1 (de) 2001-06-07
EP0606385B1 (en) 2001-05-02
EP0606385A1 (en) 1994-07-20
EP0606385A4 (en) 1994-10-19
JP3253962B2 (ja) 2002-02-04
WO1993007585A1 (en) 1993-04-15
US5259040A (en) 1993-11-02
DE69231812T2 (de) 2001-11-15

Similar Documents

Publication Publication Date Title
JPH06511339A (ja) センサの動きとシーン構造を決定する方法及びイメージ処理システム
CN106462976B (zh) 在异步传感器观测到的场景中追踪形状的方法
Ni et al. Visual tracking using neuromorphic asynchronous event-based cameras
Irani et al. Computing occluding and transparent motions
Papenberg et al. Highly accurate optic flow computation with theoretically justified warping
EP1318477B1 (en) Robust appearance models for visual motion analysis and tracking
CN104704384B (zh) 具体用于装置的基于视觉的定位的图像处理方法
Sidla et al. Pedestrian detection and tracking for counting applications in crowded situations
JP4467838B2 (ja) 画像認識装置および画像認識方法
CN113744337B (zh) 一种融合视觉、imu与声纳的同步定位与建图方法
CN110390685B (zh) 一种基于事件相机的特征点跟踪方法
CN106803265A (zh) 基于光流法和卡尔曼滤波的多目标跟踪方法
JP3557168B2 (ja) レンズ歪み係数算出装置および算出方法、レンズ歪み係数算出プログラムを記録したコンピュータ読み取り可能な記録媒体
CN112598709B (zh) 一种基于视频流的行人运动速度智能感知方法
Rabe Detection of moving objects by spatio-temporal motion analysis
Szeliski et al. A parallel feature tracker for extended image sequences
Davy et al. Detection of Small Anomalies on Moving Background
Yacoob et al. Temporal multi-scale models for flow and acceleration
CN109584277A (zh) 一种基于二次搜索的核相关滤波跟踪方法
CN112529936B (zh) 一种用于室外无人机的单目稀疏光流算法
JP2002170111A (ja) 画像合成装置、画像合成方法および画像合成プログラムを記録した記録媒体
Schuchert et al. Range flow for varying illumination
Pauwels et al. Fixation as a mechanism for stabilization of short image sequences
Wang et al. An improved particle filter tracking algorithm based on motion and appearance features
Engler et al. Recursive 3D scene estimation with multiple camera pairs

Legal Events

Date Code Title Description
R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20081122

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091122

Year of fee payment: 8

LAPS Cancellation because of no payment of annual fees