JP2009093644A - コンピュータによって実施されるシーン内を移動している物体の3d位置を追跡する方法 - Google Patents

コンピュータによって実施されるシーン内を移動している物体の3d位置を追跡する方法 Download PDF

Info

Publication number
JP2009093644A
JP2009093644A JP2008257073A JP2008257073A JP2009093644A JP 2009093644 A JP2009093644 A JP 2009093644A JP 2008257073 A JP2008257073 A JP 2008257073A JP 2008257073 A JP2008257073 A JP 2008257073A JP 2009093644 A JP2009093644 A JP 2009093644A
Authority
JP
Japan
Prior art keywords
scene
tracking
computer
cameras
implemented method
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2008257073A
Other languages
English (en)
Other versions
JP5197279B2 (ja
Inventor
Shmuel Avidan
シュミュエル・アビダン
Wojciech Matusik
ウォーチエック・マトゥシック
Neel S Joshi
ニール・エス・ジョシ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Research Laboratories Inc
Original Assignee
Mitsubishi Electric Research Laboratories Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Research Laboratories Inc filed Critical Mitsubishi Electric Research Laboratories Inc
Publication of JP2009093644A publication Critical patent/JP2009093644A/ja
Application granted granted Critical
Publication of JP5197279B2 publication Critical patent/JP5197279B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/292Multi-camera tracking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • G06T7/251Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence

Abstract

【課題】コンピュータによって実施される方法は、シーン内を移動している物体の3D位置を追跡する。
【解決手段】画像シーケンスがシーンから複数のカメラから成るセットによって取得され、それによって、各時点に画像のセットがシーンから取得され、ここで各画像は複数のピクセルを含む。画像の各セットは、複数のピクセルを含む合成開口画像に統合され、ターゲットウィンドウの複数の位置と複数の深度とに対応する画像の各セット内のピクセルは、外観モデルとマッチングされ、複数の位置及び複数の深度のスコアが求められる。最大スコアを有する特定の位置及び特定の深度が移動している物体の3D位置として選択される。
【選択図】図1

Description

本発明は、包括的には或るシーンから取得されたビデオの画像シーケンス内の物体を追跡することに関し、より詳細には、線形アレイカメラによって物体を追跡することに関する。
ビデオの画像シーケンス内の物体を追跡することは、多くのコンピュータビジョン用途において実施されている。追跡によって、各画像内の、対象の物体の外観にマッチする領域が位置特定される。物体の追跡は、単一のカメラによって実施されることが最も多い。しかしながら、1つのカメラを使用することの1つの基本的な限界は、遮蔽に対処すること、及び深度を正確に求めることである。単一カメラ方法によって、遮蔽をピクセルごとに検出することもできるし、物体の位置を予測することもできる。
遮蔽の問題は、いくつかの異なる方法で対処することができる。単一カメラ追跡によって追跡する場合、この問題に暗黙的に又は明示的に対処することができる。暗黙的な方法は、カルマンフィルタリング又は粒子フィルタリングのようなフィルタリング法を使用して、遮蔽されている物体の位置を予測する。明示的な方法は、多くの場合、ビデオ層のような発生モデルを使用するか、又は遮蔽のための追加の隠れプロセスをダイナミックベイジアンネットワークに組み込んで画像を解釈すると共に、遮蔽を明示的にモデル化する。
複数のカメラによって、対応問題及び割当問題が導入されるのと引き換えに遮蔽問題を解決することができる。すなわち、ほとんどの従来のマルチカメラシステムは、シーンを、3D空間内の、経時的に追跡される「ブロブ」の集合として表現する。これには、複数の画像にわたって対応するブロブを探すことが必要とされ、すなわちこれが対応問題である。また、2Dブロブを、システムによって保持されている現在の3Dブロブに割り当てることが必要とされ、すなわちこれが割当問題である。
しかしながら、マルチカメラシステムを幾何学的に複雑な屋外のシーン内に配置することは困難である場合がある。複数のカメラによって追跡システムの視野を広げると共に、3D位置の三角測量を可能にすることができる。しかしながら、重大な遮蔽の存在が依然として課題である。
物体追跡にステレオカメラを使用することもできる。その場合、深度が通常、画像内のもう1つのチャネルとして使用され、追跡はR、G、Bの色及び深度を含む4チャネル画像に対して実施される。
しかしながら、従来のステレオ方法では、遮蔽領域内で有用で信頼性のある深度推定値を取得することが困難であると分かることがあった。Vaish他著「Reconstructing occluded surfaces using synthetic apertures:Stereo,focus and robust measures」(CVPR 06,pages 2331−2338,2006)を参照されたい。当該文献では、128個のカメラから成るアレイを使用しているが、これはスタジオ設置にしか適していない。その結果は、遮蔽の量が増えるに従ってステレオ再構成性能が低下し、概して遮蔽が50%を超えると不満足な結果に終わったことを示した。遮蔽が50%を超えるシーン内で物体を追跡することが望まれている。
本発明は、画像シーケンスにおいて3Dで、密な遮蔽の中を移動している物体の3D位置を追跡する方法を提供する。3D位置とは、2D(x,y)位置及び深度dである。画像シーケンスは、線形アレイに配列された複数のカメラから成るセットによって取得される。複数のカメラから成るセットは、相対的に非常に大きな合成開口を提供する。したがって、本発明は、遮蔽物と物体とが異なる深度にある場合に、カメラアレイの基線にわたって導入される視差を利用することができる。この視差によって、物体の異なる複数の部分が、異なるカメラによって取得される画像内で遮蔽され、また遮蔽されない。複数のカメラにわたる画像データを統合することによって、本方法は、特定のカメラが物体のごくわずかな部分しか観察しない場合であっても、その物体を追跡することができる。
本方法は、シーンのいかなる明示的なモデル化又は再構成を実施することなく機能する。本方法は、いずれか1つのカメラの視野において物体の70%を上回る部分が遮蔽される場合に、物体を首尾よく追跡することができる。
実施の形態1.
図1に示されるように、本発明の実施の形態1は、線形アレイとして配列されたカメラ102のセットによってシーン103から取得される画像シーケンス(ビデオ)101において、移動している物体104の3D位置を追跡する方法を提供する。本明細書において定義される場合、3D位置は2D(x,y)位置及び深度dから成る。
複数のカメラから成るセットは同期されている。各カメラが1つのシーケンスを取得し、それによって、N個のカメラが存在する場合、任意の時点においてN個の画像から成るセットが存在する。シーンは、重大な遮蔽105を含む場合がある。実際に、この遮蔽は、シーンの70%程度を覆い隠している場合がある。
この実施の形態1では、8個のカメラから成る線形アレイを使用する。センサのサイズは、640×480ピクセルである。カメラは、外部ハードウェアトリガを有し、最大で毎秒30フレームでの同期されたビデオ捕捉を提供することができる。カメラの外因的なパラメータ及び内因的なパラメータが補正される。これらのカメラの射影の中心は、1つの平面上に存在する。すべてのカメラ平面を修正する平面射影変換が従来どおりに決定される。色補正も実施することができる。一定強度の光パネルを画像化すると共に、各カメラのピクセルごとの乗数を求めて画像平面にわたる減衰を修正することによって、ケラレ補正を実施することもできる。
図1は、本発明の線形合成開口方法100を示す。本方法は、最初に複数の画像101を統合し、次いで、マッチングして物体104を位置特定する。
初期2D追跡ウィンドウは、最初の画像内で追跡される物体の2D(x,y)位置を指定する。これは、手動で、又は或る従来の物体検出方法によって行うことができる。物体の初期深度dは、従来の平面掃引手法を使用して求められる。2D(x,y)位置及び深度dは、組み合わさって物体の3D位置を示す。
この初期3D位置から開始して、物体は、後続の画像において固有追跡手法を使用して追跡される。本方法は、トレーニングされて物体の外観をモデル化する線形部分空間とのマッチングを実施する。外観モデルは、固有空間の形態にある。このモデルは、画像の各セットが処理されている間にオンラインで学習することができる。
カメラ102のセットは、共通の可動範囲、すなわちシーン103の画像を取得する。画像101を取得すると、物体の複数の異なる部分がさまざまな画像内で遮蔽される。これによって、合成開口写真術を使用することが可能になる。合成開口写真術では、画像が所与の1つの平面内に整列されて、次いで統合されて、相対的に大きな開口を有するカメラを近似する。最大開口サイズは、カメラ102の線形アレイの基線の長さLに等しい。したがって、単一の従来のカメラによって取得される画像よりもはるかに大きな開口サイズに対応する画像を構築することが可能である。
開口サイズが大きいため、これらの合成によって構築された開口の画像115は、被写界深度が非常に浅く、カメラが物体に合焦するときに遮蔽物が大きく「ぼやけて」いる。利点として、本発明の方法は、各画像が物体の非常に小さな部分しか含まない場合であっても物体を追跡することができる。
シーン103自体はモデル化されないため、本方法は、複雑で動的なシーン、たとえば屋外のシーン、及び移動しているカメラで機能することができる。従来の合成開口は、遮蔽物を「透視する」のに使用されていたが、移動している物体を追跡するのには使用されていなかった。
合成開口追跡
図1に示すように、本方法100は、複数の合成開口画像をマッチングすることによって機能する。これらの画像のうちの1つが物体の深度で合焦されると、異なる深度にあり得る遮蔽物が大きく焦点から外れる、すなわち「ぼやける」。この深度差が重大である場合、カメラ102の線形アレイの所与の基線Lにとって、遮蔽物は透明であるように見える。
物体は、前の画像から得られる深度(d)付近に中心を有する深度範囲に関して、合成開口画像115を求めることによって追跡される。次いで、前の画像における物体の2D位置付近に中心を有するウィンドウの合成開口画像間でマッチングを実施し、最良にマッチする物体の3D位置、すなわち、最大スコアを有する特定の2D位置及び特定の深度を選択する。
具体的には、N個のカメラ102から成る線形アレイが、画像シーケンス101を取得する。或る時点に、N個の同期された画像の集合{I i=1101が存在する。
ゆがみ関数f(I,P,d)が集合内の各画像Iを特定の深度dに整列させ、ここで各カメラの射影行列がPである。深度整列された画像は、次式(1)で表される。
Figure 2009093644
ゆがめられ、深度整列された画像は統合されて、次式(2)で表される合成開口画像115が求められる。
Figure 2009093644
本発明の実施の形態1は、固有空間を使用して物体の外観をモデル化する。線形変換の所与の固有値に対応する固有空間は、その固有値を有するすべての固有ベクトルのベクトル空間である。
したがって、固有空間uチルダに関して、追跡ウィンドウに対応するピクセルがいかに良好に固有空間にマッチするかに従って、画像位置(x,y)に中心を有する固定サイズの追跡ウィンドウのスカラースコアを返すマッチング関数
Figure 2009093644
を定義する。マッチング関数は以下でより詳細に説明する。
複数の2Dウィンドウ位置(x,y)及び複数の深度(d)の有限探索範囲
Figure 2009093644
が与えられ、ここで、min及びmaxは探索範囲の限度を示している。
目的は、次式(3)で表される3D空間深度探索範囲における最大スコアを求めることである。
Figure 2009093644
最大(m)スコアは、移動している物体の追跡される位置(x,y,d)に対応する。
図1は、最初の方法のステップをより詳細に示している。画像Iのシーケンス(ビデオ)101がカメラ102の線形アレイ、たとえば8個のカメラによって取得される。一般的に中心に位置するカメラの最初の画像j=0に対して初期設定(105)が実施される。初期設定によって、シーケンス内の画像の最初のセットの2Dウィンドウが指定される。これは、ユーザによって、又は或る既知の物体認識手法を使用して行うことができる。次いで、視差を使用して初期深度を自動的に求めることができる。視差は、N個の画像から成るセットにおける差の測度である。視差を使用して物体の初期深度、及び、固有空間の初期基底画像である初期合成開口画像115を求めることができる。遮蔽フラグが非遮蔽に設定される。
次いで、j=1〜kの画像101の次の各セットに関して、画像の前のセットの深度付近に中心を有する深度範囲の合成開口画像115を求める(110)。これらの画像115のそれぞれに関して、2D追跡ウィンドウの固有空間に対するマッチスコア125を求める(120)。最大マッチスコアを有するウィンドウとなる物体の新たな位置(x,y,depth)135を設定する(130)。深度のいかなる変化も考慮するために、2Dウィンドウ及び基底画像145をスケーリングする(140)。スケーリングされたウィンドウを各カメラに射影して(150)、現在の画像の対象物のN個の画像を得ると共に、これらの画像にわたる分散155を求める。分散が所定の閾値よりも低い場合、物体は遮蔽されておらず、物体の合成開口画像を有する固有空間が更新される(160)。いずれの場合においても、画像の次のセットを処理することによって進行する。
マッチング
物体追跡において、目的は、固有空間uチルダの形態にある外観モデルまでの距離を最小化する、画像内の3D位置を求めることである。マッチング関数
Figure 2009093644
は、固有空間からの距離に従ってマッチスコア125を求める。このスコアは画像データ(ピクセル)を固有空間に射影することによって求められる。具体的には、追跡ウィンドウに対応するピクセルは、ベクトル形態のx及び固有ベクトル
Figure 2009093644
であり、
Figure 2009093644
が最小化されることが望ましい。
アウトライア(outlier)、すなわち、推測される遮蔽は、既知のフーバー反復再重み付け最小二乗(IRLS)プロセスを使用して、「ミニマックス」のロバストなノルムを最小化することによって軽く重み付けされる(down−weighted)。対角重み行列wが恒等行列に初期設定される。
Figure 2009093644
が最小化されることが望ましい。
残差ベクトルは、r=uλ−xである。重み付けされた最小二乗問題を解くことを1回反復した後、新たな各反復の前に重み行列が次式(5)のように更新される。
Figure 2009093644
ここで、Θは経験的に、範囲[0,1]内の画像データに関しては0.05に、またゼロ平均単位分散正規化画像データに関しては0.5に設定される。正規化は、以下で説明される。このプロセスが終了すると、結果求められた重みの和がマッチスコア125となる。
インライア(inlier)が1の重みを受け、且つアウトライアが軽く重み付けされる場合、重みの和はインライアの数の品質尺度となる。IRLSは、非常に時間がかかり得るが、2値重み付けを使用すると(すなわち、r<Θの場合はwii=1、それ以外の場合は0)、プロセスを加速することができることが分かった。非線形合成開口追跡に関して、遮蔽を2値として表現することは理に適った近似である。したがって、2値重みを速度最適化として非線形方法に使用する。さらに、低精度−高精度(coarse−fine)戦略を使用してマッチングプロセスの速度を向上させる。
遮蔽されたシーンにおけるオンライン学習
増分主成分分析(PCA)を使用して追跡される位置から物体の画像データを加えることによって画像が処理されている間に、物体の固有空間モデルが更新される。16個の最も重大な固有ベクトルが基底として使用される。オンライン学習プロセスにおけるドリフトを制限するために、最初の画像からのテンプレートが記憶される。各更新後に、最初の画像からのテンプレートの直交成分が更新された基底によって求められ、当該基底は、その後この直交成分を追加の基底ベクトルとして含む。これによって、最初の画像からのテンプレートが常に基底内にあることが確実になる。
遮蔽されたピクセルがアウトライアであり、したがってIRLS中に軽く重み付けされていることを確実にするために、物体と遮蔽物とは、外観が異なっていなければならず、固有空間外観モデルは、物体の外観のみを捕捉すべきである。したがってオンライン学習を実施するときに、固有空間は遮蔽がない場合にのみ更新される。最初の画像は、物体が遮蔽されていない場合に初期トレーニング画像とすることができる。
物体が遮蔽されているか否かを判断するために、特定の画像対最初の画像の、ピクセルごとの分散を、すべての画像にわたって求めることができる。最初の画像の深度及び2D位置は、N個の画像のすべてにわたって物体に対して初期設定されるため、すべての画像にわたるピクセルごとの分散は相対的に低い。後続の画像において、分散は、ピクセルが遮蔽に起因して、又は不正確な深度での追跡に起因して良好に整列されない場合に高くなり得る。
分散がγを下回る任意のピクセルを、良好に整列されていると共に遮蔽がないと考える。γ=500を使用する。分散データは、およそ[0,255]である。遮蔽のないピクセルの数が最初の画像に関して記憶される。任意の後続の画像に関してこの数が再計算され、この数が、最初の画像における遮蔽されていないピクセルの数の百分率閾値τ、たとえば95%を下回る場合、物体を「遮蔽されている」と考え、それに従って遮蔽フラグを設定する。
具体的には、深度dに関するピクセルごとの分散は、次式(6)で表される。
Figure 2009093644
ここで、I 及びIは、式(1)及び式(2)によって与えられる。遮蔽フラグは画像kの追跡後に、次式(7)のように更新される。
Figure 2009093644
ここで、Δは現在の画像の追跡ウィンドウであり、Δは追跡ウィンドウであり、V は分散である。
固有空間外観モデルがトレーニングされ、マッチングがRGBピクセル値に対して実施される。合成開口追跡は、ゼロ平均単位分散正規化画像パッチに対して動作する。これは、ぼやけた遮蔽物に起因して生じ得るコントラスト損失を補正する。ぼやけた黒色の遮蔽物が合成開口画像内にある場合を考える。合成開口画像を求めている間に、任意のピクセルが1つの画像においてでも遮蔽されていれば、これは黒色によって平均化される。この「遮蔽物ヘイズ(occluder haze)」によって、コントラスト損失が生じる。正規化空間内で操作することによって、これが無効化される。
本発明を好ましい実施形態の例として説明してきたが、さまざまな他の適応及び変更を、本発明の精神及び範囲内で行うことができることは理解されたい。したがって、添付の特許請求の範囲の目的は、本発明の真の精神及び範囲内に入るこのようなすべての変形及び変更を包含することである。
本発明の実施の形態1に係る線形合成開口追跡方法を示すブロック図である。

Claims (18)

  1. コンピュータによって実施されるシーン内を移動している物体の3D位置を追跡する方法であって、
    複数のカメラから成るセットの各カメラによって、或るシーンの時系列の画像を取得するステップであって、各時点で前記シーンの画像のセットが取得され、各前記画像は複数のピクセルを含む、取得するステップと、
    前記各時点の画像の各セットを、前記複数のピクセルを含む合成開口画像に統合するステップと、
    ターゲットウィンドウの複数の位置と複数の深度とに対応する画像の各セット内の前記複数のピクセルを、前記複数の位置及び前記複数の深度のスコアを求めるために、外観モデルとマッチングするステップと、
    最大スコアを有する特定の位置及び特定の深度を、前記移動している物体の3D位置として選択するステップと、
    を含む、コンピュータによって実施されるシーン内を移動している物体の3D位置を追跡する方法。
  2. 前記複数のカメラから成るセットが相対的に大きな合成開口を有するように、前記複数のカメラから成るセットを線形アレイに配列するステップをさらに含む、請求項1に記載のコンピュータによって実施されるシーン内を移動している物体の3D位置を追跡する方法。
  3. 前記複数のカメラから成るセットを同期させるステップをさらに含む、請求項1に記載のコンピュータによって実施されるシーン内を移動している物体の3D位置を追跡する方法。
  4. 前記シーンは、前記シーンの50%を上回る部分を覆い隠す遮蔽を含む、請求項1に記載のコンピュータによって実施されるシーン内を移動している物体の3D位置を追跡する方法。
  5. 前記複数のカメラから成るセットによって取得された画像の最初のセットからの2D位置、深度、及び前記外観モデルを初期設定するステップをさらに含む、請求項1に記載のコンピュータによって実施されるシーン内を移動している物体の3D位置を追跡する方法。
  6. 前記外観モデルは、固有空間の形態にある、請求項1に記載のコンピュータによって実施されるシーン内を移動している物体の3D位置を追跡する方法。
  7. 画像のセットごとに前記外観モデルを更新するステップをさらに含む、請求項1に記載のコンピュータによって実施されるシーン内を移動している物体の3D位置を追跡する方法。
  8. 前記開口のサイズは、前記複数のカメラから成るセットの基線の長さに等しい、請求項2に記載のコンピュータによって実施されるシーン内を移動している物体の3D位置を追跡する方法。
  9. 前記複数の位置及び前記複数の深度は、探索範囲
    Figure 2009093644
    を形成し、ここでmin及びmaxは前記探索範囲の限度を示している、請求項1に記載のコンピュータによって実施されるシーン内を移動している物体の3D位置を追跡する方法。
  10. 前記特定の位置及び前記特定の深度の前記最大スコア(x,y,d)は、
    Figure 2009093644
    であり、ここで、I は前記N個の画像の統合されたセットであり、Tはマッチング関数であり、uチルダは前記外観モデルに対応する固有空間である、請求項9に記載のコンピュータによって実施されるシーン内を移動している物体の3D位置を追跡する方法。
  11. 前記特定の位置及び前記特定の深度の前記最大スコア(x,y,d)は、
    Figure 2009093644
    であり、ここで、I は前記N個の画像の統合されたセットであり、Tはマッチング関数であり、uチルダは前記外観モデルに対応する固有空間である、請求項9に記載のコンピュータによって実施されるシーン内を移動している物体の3D位置を追跡する方法。
  12. 前記マッチング関数は、
    Figure 2009093644
    を最小化し、ここで前記追跡ウィンドウに対応する前記複数のピクセルがベクトル形態のxである、請求項10に記載のコンピュータによって実施されるシーン内を移動している物体の3D位置を追跡する方法。
  13. 前記マッチング関数は、
    Figure 2009093644
    を最小化し、ここで前記追跡ウィンドウに対応する前記複数のピクセルがベクトル形態のxである、請求項11に記載のコンピュータによって実施されるシーン内を移動している物体の3D位置を追跡する方法。
  14. 前記複数のカメラから成るセットが相対的に大きな合成開口を有するように、前記複数のカメラから成るセットを格子状に配列するステップをさらに含む、請求項1に記載のコンピュータによって実施されるシーン内を移動している物体の3D位置を追跡する方法。
  15. 前記複数のカメラから成るセットが相対的に大きな合成開口を有するように、前記複数のカメラから成るセットを交差パターンに配列するステップをさらに含む、請求項1に記載のコンピュータによって実施されるシーン内を移動している物体の3D位置を追跡する方法。
  16. 前記シーンは、関与媒質を含む、請求項1に記載のコンピュータによって実施されるシーン内を移動している物体の3D位置を追跡する方法。
  17. 前記関与媒質は、雪片を含む、請求項16に記載のコンピュータによって実施されるシーン内を移動している物体の3D位置を追跡する方法。
  18. 前記関与媒質は、遮蔽物を形成し、前記画像のセットのぼやけを除くために、前記遮蔽物を除去するステップをさらに含む、請求項16に記載のコンピュータによって実施されるシーン内を移動している物体の3D位置を追跡する方法。
JP2008257073A 2007-10-03 2008-10-02 コンピュータによって実施されるシーン内を移動している物体の3d位置を追跡する方法 Expired - Fee Related JP5197279B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US11/866,645 2007-10-03
US11/866,645 US7929804B2 (en) 2007-10-03 2007-10-03 System and method for tracking objects with a synthetic aperture

Publications (2)

Publication Number Publication Date
JP2009093644A true JP2009093644A (ja) 2009-04-30
JP5197279B2 JP5197279B2 (ja) 2013-05-15

Family

ID=40523272

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008257073A Expired - Fee Related JP5197279B2 (ja) 2007-10-03 2008-10-02 コンピュータによって実施されるシーン内を移動している物体の3d位置を追跡する方法

Country Status (2)

Country Link
US (1) US7929804B2 (ja)
JP (1) JP5197279B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013537661A (ja) * 2010-06-30 2013-10-03 タタ コンサルタンシー サービシズ リミテッド ステレオビジョン技術を使用することによる移動物体の自動検出

Families Citing this family (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI362628B (en) * 2007-12-28 2012-04-21 Ind Tech Res Inst Methof for producing an image with depth by using 2d image
US8588465B2 (en) * 2009-01-30 2013-11-19 Microsoft Corporation Visual target tracking
EP2579191A4 (en) * 2010-05-31 2014-04-09 Nec Corp RIVER LINE RECOGNITION SYSTEM, RIVER LINE RECOGNITION PROCEDURE AND RUNNER RANGE DETECTION PROGRAM
US9122955B2 (en) * 2010-06-28 2015-09-01 Ramot At Tel-Aviv University Ltd. Method and system of classifying medical images
US20130063556A1 (en) * 2011-09-08 2013-03-14 Prism Skylabs, Inc. Extracting depth information from video from a single camera
AU2011224051B2 (en) * 2011-09-14 2014-05-01 Canon Kabushiki Kaisha Determining a depth map from images of a scene
US9260122B2 (en) * 2012-06-06 2016-02-16 International Business Machines Corporation Multisensor evidence integration and optimization in object inspection
US9369677B2 (en) 2012-11-30 2016-06-14 Qualcomm Technologies International, Ltd. Image assistance for indoor positioning
WO2014145722A2 (en) * 2013-03-15 2014-09-18 Digimarc Corporation Cooperative photography
CN103413323B (zh) * 2013-07-25 2016-01-20 华南农业大学 基于部件级表观模型的物体跟踪方法
US9390328B2 (en) * 2014-04-25 2016-07-12 Xerox Corporation Static occlusion handling using directional pixel replication in regularized motion environments
CN104298968B (zh) * 2014-09-25 2017-10-31 电子科技大学 一种基于超像素的复杂场景下的目标跟踪方法
US9836635B2 (en) * 2014-10-09 2017-12-05 Cognex Corporation Systems and methods for tracking optical codes
AU2015333573A1 (en) * 2014-10-17 2017-03-23 Digihealth Pty Ltd Improvements to positional feedback devices
EP3035234A1 (en) 2014-12-18 2016-06-22 Thomson Licensing Method and electronic device for object tracking in a light-field capture
US10116915B2 (en) 2017-01-17 2018-10-30 Seiko Epson Corporation Cleaning of depth data by elimination of artifacts caused by shadows and parallax
US11120528B1 (en) 2018-09-11 2021-09-14 Apple Inc. Artificial aperture adjustment for synthetic depth of field rendering

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001094857A (ja) * 1999-08-09 2001-04-06 Fuji Xerox Co Ltd バーチャル・カメラの制御方法、カメラアレイ、及びカメラアレイの整合方法
JP2004058737A (ja) * 2002-07-25 2004-02-26 National Institute Of Advanced Industrial & Technology 駅ホームにおける安全監視装置
JP2006337075A (ja) * 2005-05-31 2006-12-14 Mitsubishi Electric Corp 3次元情報復元装置

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4645459A (en) * 1982-07-30 1987-02-24 Honeywell Inc. Computer generated synthesized imagery
US5850352A (en) * 1995-03-31 1998-12-15 The Regents Of The University Of California Immersive video, including video hypermosaicing to generate from multiple video views of a scene a three-dimensional video mosaic from which diverse virtual video scene images are synthesized, including panoramic, scene interactive and stereoscopic images
US5729471A (en) * 1995-03-31 1998-03-17 The Regents Of The University Of California Machine dynamic selection of one video camera/image of a scene from multiple video cameras/images of the scene in accordance with a particular perspective on the scene, an object in the scene, or an event in the scene
JP3745117B2 (ja) * 1998-05-08 2006-02-15 キヤノン株式会社 画像処理装置及び画像処理方法
US7623676B2 (en) * 2004-12-21 2009-11-24 Sarnoff Corporation Method and apparatus for tracking objects over a wide area using a network of stereo sensors
WO2007032819A2 (en) * 2005-07-21 2007-03-22 Regents Of The University Of Minnesota Camera placement and virtual-scene construction
US7420590B2 (en) * 2005-09-29 2008-09-02 Mitsubishi Electric Research Laboratories, Inc. Video matting using camera arrays
US8442304B2 (en) * 2008-12-29 2013-05-14 Cognex Corporation System and method for three-dimensional alignment of objects using machine vision

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001094857A (ja) * 1999-08-09 2001-04-06 Fuji Xerox Co Ltd バーチャル・カメラの制御方法、カメラアレイ、及びカメラアレイの整合方法
JP2004058737A (ja) * 2002-07-25 2004-02-26 National Institute Of Advanced Industrial & Technology 駅ホームにおける安全監視装置
JP2006337075A (ja) * 2005-05-31 2006-12-14 Mitsubishi Electric Corp 3次元情報復元装置

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013537661A (ja) * 2010-06-30 2013-10-03 タタ コンサルタンシー サービシズ リミテッド ステレオビジョン技術を使用することによる移動物体の自動検出

Also Published As

Publication number Publication date
US20090092282A1 (en) 2009-04-09
US7929804B2 (en) 2011-04-19
JP5197279B2 (ja) 2013-05-15

Similar Documents

Publication Publication Date Title
JP5197279B2 (ja) コンピュータによって実施されるシーン内を移動している物体の3d位置を追跡する方法
US11948282B2 (en) Image processing apparatus, image processing method, and storage medium for lighting processing on image using model data
US9019426B2 (en) Method of generating image data by an image device including a plurality of lenses and apparatus for generating image data
JP5538617B2 (ja) 複数カメラのキャリブレーション用の方法および構成
JP6961797B2 (ja) プレビュー写真をぼかすための方法および装置ならびにストレージ媒体
US11315274B2 (en) Depth determination for images captured with a moving camera and representing moving features
US10764496B2 (en) Fast scan-type panoramic image synthesis method and device
CN109389555B (zh) 一种全景图像拼接方法及装置
CN108234858B (zh) 图像虚化处理方法、装置、存储介质及电子设备
US9253415B2 (en) Simulating tracking shots from image sequences
WO2018171008A1 (zh) 一种基于光场图像的高光区域修复方法
Tehrani et al. Iterative colour correction of multicamera systems using corresponding feature points
CN110717936A (zh) 一种基于相机姿态估计的图像拼接方法
CN110245549A (zh) 实时面部和对象操纵
JP6272071B2 (ja) 画像処理装置、画像処理方法及びプログラム
CN113744307A (zh) 一种基于阈值动态调整的图像特征点跟踪方法和系统
CN110322476B (zh) 一种改进stc和surf特征联合优化的目标跟踪方法
CN111161143A (zh) 一种光学定位技术辅助的手术视野全景拼接方法
CN113947686A (zh) 一种图像的特征点提取阈值动态调整方法和系统
CN110349110B (zh) 一种基于累帧过融合的模糊图像增强方法及应用
CN113379842A (zh) 一种基于rgbd相机的弱纹理及动态场景视觉slam定位方法
Li et al. Real-time continuous geometric calibration for projector-camera system under ambient illumination
Gilbert et al. Inpainting of wide-baseline multiple viewpoint video
WO2018209603A1 (zh) 图像处理方法、图像处理设备及存储介质
KR101731695B1 (ko) 시간적 일관성을 유지하는 다시점 이미지의 색상 왜곡 보정 방법 및 장치

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110811

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120409

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120424

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120724

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130108

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130205

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160215

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees