JP4923101B2 - 画像間の空間対応を判別して三次元再構成をする方法および装置 - Google Patents

画像間の空間対応を判別して三次元再構成をする方法および装置 Download PDF

Info

Publication number
JP4923101B2
JP4923101B2 JP2009500720A JP2009500720A JP4923101B2 JP 4923101 B2 JP4923101 B2 JP 4923101B2 JP 2009500720 A JP2009500720 A JP 2009500720A JP 2009500720 A JP2009500720 A JP 2009500720A JP 4923101 B2 JP4923101 B2 JP 4923101B2
Authority
JP
Japan
Prior art keywords
image
camera system
function
pixel
evaluation unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2009500720A
Other languages
English (en)
Other versions
JP2009530930A (ja
Inventor
ゲバート,トビアス
クルーガー,ラース
ヴェーラー,クリスティアン
Original Assignee
ピルツ ゲーエムベーハー アンド コー.カーゲー
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from DE102006013598A external-priority patent/DE102006013598A1/de
Application filed by ピルツ ゲーエムベーハー アンド コー.カーゲー filed Critical ピルツ ゲーエムベーハー アンド コー.カーゲー
Publication of JP2009530930A publication Critical patent/JP2009530930A/ja
Application granted granted Critical
Publication of JP4923101B2 publication Critical patent/JP4923101B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C11/00Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
    • G01C11/04Interpretation of pictures
    • G01C11/06Interpretation of pictures by comparison of two or more pictures of the same area
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/97Determining parameters from multiple pictures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Description

本発明は、多様な観測地点から記録されるシーンの多数の画像シーケンス内の画像範囲間の空間対応を判別する、好ましくはこのシーンの三次元再構成をする方法、および三次元シーンの再構成をする装置に関する。
画像データによる三次元シーンを再構成する受動的方法は、一般に様々な方向および距離から記録されるシーンの多数の画像間の空間対応の判別に基づく。この対応の判別は、画像内の画素位置または画素範囲を再構成するシーン中の点または対象物または対象区画で識別することに相当する。対応を判別した後、通常シーンの三次元構造を周知の方法によって点群の形で判別するが、点群の各点または各点密度は相互に割り当てられ、かつ対応するそれぞれ画素位置または画素範囲に対応している。
これら空間対応を判別する手順は文献で正確には対応問題といわれており、この問題を解決する様々なアプローチが提案されている。
空間対応を判別するのによく用いられる方法が局所平面上の画像内容の相関であり、空間窓の内容を、例えば、相互相関係数、二乗誤差和、または差分絶対値和などの類似度の尺度として適した誤差尺度を適用することによって相互に比較する。この方法は、特に校正済みのステレオ画像の対、すなわち、共通のエピポーラ(epipolar)線上にある画素しか対応関係をもたない画像の対には一時的に効果的である。
下記非特許文献1では、相関解析に空間窓の内容だけを使用するのではなく、相関窓を時間の次元にまで広げることが提案されている。対応をとるための類似度として、時空間相関窓の二乗誤差和を使用する。
対応問題を解くための別のアプローチが、下記非特許文献2に記述されている。このアプローチでは、まず、画像の中の関連画像領域を判別する。画像内の二次元物体を関連画像領域から見出し、関連する物体の輪郭線を描く。次に、エピポーラ線との交点にある物体の輪郭線の輪郭特徴を比較することによって対応を判別する。
J. Davis, D. Nehab, R.Ramamoorthi, S. Rusinkiewiczの発表論文「Spacetime Stereo: A unifying framework for Depth from Triangulation(時空間ステレオ:三角測量からの奥行き計算のための統一フレームワーク)」IEEE Trans. Pattern Analysis and Machine Intelligence, Vol. 27, No. 2, 2005, C.Woehler, L. Kruegerの発表論文「A Contour based Stereo Vision Algorithm for Video Surveillance Applications(ビデオ監視向け輪郭に基づくステレオ視アルゴリズム)」SPIE Visual Communication and Image Processing, Lugano, 2003 Image and Vision Computing, Vo. l19, No. 9-10, pp.593‐618, 2001に掲載されたC. Woehler, J.K. Anlaufの論文「Real‐Time Object Recognition on Image Sequences with the Adaptable Time Delay Neural Network Algorithm‐Applications for Autonomous Vehicles(適応型時間遅延ニューラルネットワークアルゴリズムによる画像シーケンスの物体のリアルタイム認識―自律走行車両向け)」 W.H.Press, S.A. Teukolsky, W.T. Vetterling,B.P. Flannery著「Numerical Recipes(数値計算のレシピ)」, Cambridge University Press, Cambridge, UK,1992
本発明が取り組む問題は、対応問題の解決にあたり計算量を低くしながらも高い信頼性をもつ方法、および対応する装置を提供することである。
問題の解決策は請求項1に記載される方法、および請求項16に記載される装置によって与えられる。また、有利な実施形態を従属請求項によって記述する。
本発明により、シーンの多数の画像シーケンス内の画像範囲間の空間対応を判別する方法を提案する。
空間対応とは、多数の画像シーケンスからの画像範囲の割り当てであり、第1画像シーケンスからの画像範囲を第2画像シーケンスからの画像範囲に割り当て、適切なら、さらに別の画像シーケンスからのさらに別の画像範囲にも割り当てる。この場合の画像範囲という用語は、画像シーケンス内の拡張領域、すなわち、複数の画素および/または1つの画素を含む。
本発明の方法を実施するために画像シーケンスが記録されるが、1つの画像シーケンスはシーンの個々の画像の連続からなり、個々の画像は1つの観測地点から記録され、好ましくは等間隔の時間間隔をもつ。様々な観測地点、好ましくは様々な観測方向および/または観測距離から、および/または各種光学撮像装置を使用して、画像シーケンスが記録される。好ましくは、各多数の画像シーケンス内の画像それぞれが同じ瞬間に記録される。
関連画像領域、すなわち対応を判別するのに適した画像領域は、画像シーケンス内で判別される。これら画像領域から1つ以上の画像範囲が形成され、画像範囲は画像領域と同一であってもよく、および/または画像領域の一部分であってもよく、および/または画像領域と一部重なる部分として構成されてもよい。
各パラメータ化関数(parameterized function)h(u,v,t)は、画素位置u、画素位置v、画像値gおよび時間tによって定義される空間の画像範囲にマッチングし、すなわち変数として画素位置u、画素位置vと変数として時間tをもち、任意の数のパラメータをもつ関数である。空間R(uvgt)および関数h(u,v,t)の項はここでは、同じ技術内容を反映するすべての数学的表現を表す。具体的には、これらの項は数学的に等価な表現をカバーする。例えば、カラー画像を処理する場合、画像値gは、RGBカラーモデルの場合、空間Rが空間R(uvrgbt)として定義されるように修正または適応させなければならない。
本発明により、パラメータ化関数のパラメータを、多数の画像シーケンスの画像範囲間の類似度とするために使用する。パラメータとは、具体的には、関数h(u,v,t)の選ばれた数学的表現で使用される関数パラメータ、および/またはそれから導かれるパラメータとして理解されるべきである。好ましくは、第1画像シーケンスの画像範囲のパラメータを、第2画像シーケンスの画像範囲のパラメータに関係付け、適切なら、さらに別の画像シーケンスの画像範囲のパラメータにも関係付ける。そのため、具体的には、パラメータ同士が比較される。
本発明は、小さい画像領域の似た箇所を探すことに基づく対応付けアプローチが多数の誤対応を生じがちであり、それによって間違った空間位置をもつ3D点になるという問題が動機となっている。このような誤対応は、特にシーン中の動物体の場合、続いて起こる動きの解析、物体の分割または3D点群の分類がきわめて難しくなるか、または不可能になるため、大きな障害となる。一方、新規な方法の場合、関連画像範囲の空間位置とは別に、対応をとるのに時間の経過に伴う動きも利用する。このように、物体の似た動きをする部分だけを互いに対応として割り当てることが可能であり、そのため誤対応の数が大幅に減少する。
本発明の方法の好適な実施形態では、関連画像領域は対応をとるのに十分な画像値の変動量をもつことを提供する。具体的には、画像値は画素の濃淡値として構成できる。これにより、画像値分布が一様な画像領域は、対応をとるのに使用されない。
関連画像領域はインタレストオペレータによって判別されるのが好ましい。このためのデジタル画像処理による複数の方法が知られている。インタレストオペレータとして、エッジフィルタおよび/または局所統計による濃淡値解析を使用するのが好ましい。
好適な実施形態では、関連画像領域を判別するために時空間特徴を適用する。時空間特徴の生成は、例としてあげると、上記非特許文献3に記述されている。ここで、画像シーケンス内の物体を分類するのに最適な時空間特徴は、ニューラルネットワークの時空間受容野の重みの訓練法によって生成される。時空間特徴は陽関数で規定することもできる。それによって、例えば、右上から左下まで動くコーナーの位置が示される画像範囲でのみ対応解析を行うことが可能である。
本発明の方法の好適な実施形態では、画像範囲は画像領域から対象画素の形で抽出する。このような抽出は、例えば、非最大抑制および/またはスケルトン処理または同様な処理を関連画像領域に適用することによって行う。
前記方法は、関連画像領域内の1つ以上のエッジまたは中央線を勾配の変化に基づいて判別する。エッジまたは中央線の個々の画素を対象画素として使用する。
同じエピポーラに割り当てられる多数の画像シーケンスの画像範囲間でのみ類似度をとると、方法の特に有利な実施形態になる。これは、画像をエピポーラ幾何のフレームワーク内で記述できるカメラシステムがよく利用されていることを活用している。具体的には、この場合、対応問題は、1つの同じエピポーラの画像範囲のみを互いに割り当てればすむ。対象画素を画像範囲として使用する好適な事例では、同じエピポーラ上にある対象画素についてのみ類似度をとればよい。
パラメータ化関数h(u,v,t)と各対象画素およびその局所環境とのマッチングは、パラメータ化関数がその環境を考慮しながら各対象画素に合わせて適応されるように、空間R(uvgt)で有利に行われる。局所環境は、画素がそれぞれの対象画素に直接隣り合う画素範囲をカバーするのが好ましい。この画素範囲は正方形であることが好ましく、特に境界のエッジで奇数の画素をもつ。代わりにまたは追加で、局所環境は空間R(uvgt)の時間環境をカバーし、これは画像シーケンスのうち適切に選択した数の画像にまで及ぶ。この場合、画像の数は、例えば、検出される物体の種類と速度に依存する。
単純な実施形態では、パラメータ化関数h(u,v,t)は、空間R(uvgt)の超平面、すなわち(n−1)次元の平面、空間R(uvgt)の部分空間として設計される。方法のこの設計はパラメータ化関数を適応するときの計算量が少なくてすみ、それによって方法の全体的な計算量を最小化する。
例として、画像範囲から判別される超平面の法線ベクトル間の角度を、この実施形態の類似度として使用する。この差角は、様々な画像シーケンスの画像範囲内の画像値および/または濃淡値における類似の変化量の尺度である。代わりに、または追加で、多数の画像シーケンスからの画像範囲の超平面の強度(g)の次元における軸部パラメータの差を、類似度に使用する。この差は、それぞれの画像範囲における絶対平均画像値および/または濃淡値の尺度である。このように、関数hのパラメータを、例えば光束の判別に使用できる。
本発明の方法の有利な形態では、パラメータ化関数h(u,v,t)を、超平面より高次の関数および/または任意関数として設計し、具体的にはパラメータ化関数は空間R(uvgt)内の任意形状の面をなす。このような複素関数は確かにマッチングのための計算量を増大させるが、同時に画像範囲をより信頼性を高めて割り当てることができるようにマッチングの精度を向上させる。
類似度として、画像範囲から判別される面同士の差分量、および/または面の規定面積で囲まれた、観測する画素の局所環境のR(uvgt)空間量を利用するのが好ましい。
あるいは、類似度として、画像範囲から判別されるパラメータ化関数のパラメータの直接的な比較を使用することもできる。このためにパラメータ空間内の距離を使用することが好ましい。この場合のパラメータ空間はn次元の空間であり、nはパラメータ化関数h(u,v,t)の独立パラメータの数を表す。ユークリッドパラメータ空間を使用するのが好ましい。
計算量を最小化するために、関連画像領域を確定するための、具体的には画像シーケンスの画像とそのシーンの前に記録された参照画像の画像との、差分画像をとることを提供できる。こうして、現在の画像の代わりに、使用するのは、現在の画像とシーンの参照画像との差分絶対値となる。具体的には、画像シーケンスを固定カメラ、すなわち長時間動かないカメラによって記録する場合、この方法の変型が使用される。考えられるインタレストオペレータの基準は、この場合一定の閾値によって2値化した差分画像における0から1への上昇または1から0への下降である。このように、誤対応の数を大幅に減じることができる。計算量を軽減するために画像ピラミッドまたは時間ピラミッドを使用することも可能であり、現在の画像の代わりに、まず、例えば速い動きを検出できるようにするために、低解像度の画像から成る画像ピラミッドまたは時間ピラミッドを使用することも可能である。
請求項16の発明による装置は、三次元シーンの再構成に適する、および/または再構成のために設計されている。これはカメラシステムと、前記カメラシステムに接続されている少なくとも1つの評価ユニットとを備える。本発明により、第1評価ユニットはプログラミングにより、および/または前述の方法を実施する回路により設計されることを提供する。
好ましくは、カメラシステムは、2台のカメラを備えるステレオカメラシステムとして実現されることを提供する。具体的には、2台のカメラを平行な観測方向に配置する、および/または同一の設計とする。この実施形態はエピポーラ線を非常に簡単に判別することが可能である。
あるいは、カメラシステムを校正済みマルチカメラシステムとして、すなわち2台以上のカメラをもつように設計する。具体的には、カメラは重複観測エリアをもつ。カメラシステムを校正するのが好ましいが、あるいは自動校正を設けることも可能である。
装置の改良形態では、第2評価ユニットを設け、これが別のアルゴリズムに基づいて、具体的には相関解析に基づいて、三次元シーンの再構成のための対応の判別を行う。第2評価ユニットに任意でさらなるカメラシステムを設ける。この実施形態は、安全関連の応用の場合には確実に検出の信頼性を高めるために、相互に独立した2つの装置・アセンブリで同じシーンを観測し、それを再構成するという考えに基づく。
本発明に基づくさらに他の詳細、特徴、特徴の組合せ、利点、および効果は、本発明の好適な例示的実施形態の以下の説明と、図面から明らかになる。
図1は発明による方法の例示的な実施形態のフローチャートを示している。ステップ1で、画像シーケンスが少なくとも2台のカメラで記録され、画像シーケンスは時間的に等間隔な個々の画像からなる。画像が等間隔の瞬間に各カメラで同時に記録されるように、カメラは互いに同期させている。bが少なくとも2台のカメラの数を表す場合、各時間的に等間隔の瞬間に、このように個々の画像のb個組が生成される。
ステップ2で、画像シーケンスの個々の画像の画像値から、具体的には濃淡値から、それぞれ参照画像を減算することによって、差分画像を生成する。
前記少なくとも2台のカメラがエピポーラ(epipolar)条件を満たすように互いに配置されていない場合、ステップ3でb個組の個々の画像を互いに関係付けて調整する。これは周知の方法で、回転行列および平行移動行列を適用して行う。ステップ3の後、b個組の個々の画像を、対応する画像範囲が共通のエピポーラ線に割り当てられるように修正する。このステップ3はステップ2の前、または後で行うこともできる。
ステップ4で、インタレストオペレータによって関連画像領域を判別する。このために、差分画像を2値化し、定義した閾値を下回る画像値をもつ画像領域の画素に値0を与え、閾値を上回る画像領域に値1を与える。画素値1の画像領域を、以下、関連画像領域と呼ぶ。
ステップ5で、差分画像(2値化画像ではなく)の関連画像領域に、勾配が特に強い環境をもつ画素を抽出する画像処理方法を適用する。このような画素は空間対応を判別するのに特に適する。例えば、関連画像領域にスケルトン処理を適用し、関連画像領域にスケルトン状の中央線を生成する。抽出される画素、すなわちこの例では中央線の画素を、以下、対象画素と呼ぶ。
ステップ6で、好ましくはオリジナル画像および/または差分画像に基づいて、パラメータ化関数h(u,v,t)を各個々の対象画素およびその局所環境に適応させる。対象画素はこの場合、画素位置u、画素位置v、画像値または濃淡値g、および時間tで定義する四次元空間R(uvgt)で表される。パラメータ化関数h(u,v,t)は、もっとも単純な場合では超平面として設計される。このパラメータ化関数h(u,v,t)は、画像値または濃淡値分布に関する情報と、その時間的挙動を使用することによって、対象画素およびその環境にマッチングする。対象画素の局所環境は、画素位置u、画素位置vを参照した環境と、時間tを参照した環境とをカバーする。
記録される個々の画像の局所的な画素環境および/または時間的環境は、特定用途に向けて選択するのが好ましい。しかし、画素環境および/または時間的環境を物体のサイズによって特定の物体向けに選択することも可能である。固定カメラシステムの場合、対象画素の抽出は、シーンの現在の画像と参照画像から差をとることによって計算する差分画像で行われるのが好ましい。一般性を制限することなく、カメラシステムは、エピポーラ線が画像の線に対応するような平行な光学軸をもつ同一の2台のカメラからなると仮定してもよい。
実務上、画像の物体の境界には、参照画像と比較するとシーンに入ってきた、またはシーンから出ていった対象画素が多数ある。理想としては、このような物体の境界を画素強度のはっきりした不連続性によって記述することが可能である。しかし、実際の画像では、このような強度の不連続性は光学システムの点像必要分布関数によって「滑らか」にされるため、あまり観測されない。このため、物体の境界の強度変化を、例えば双曲線正接など、シグモイド(sigmoid)関数で記述するのが有利である。しかし、シグモイドの強度変化は画素強度のさらなる変動が重なると想定されるはずなので、対象画素の時空間環境の強度分布は、次の混合多項式シグモイド式としてモデル化するのが好ましい。
Figure 0004923101
この式において項p(v,t)、p(v,t)およびp(v,t)はvとtの多項式を記述し、p(u,v,t)はu、vおよびtの多項式である。ある時間ステップtの場合、開口問題(aperture problem)のために水平方向のエッジプロファイルに基づく視差を判別できないため、方程式(1)は本質的に垂直に変化する物体の境界をモデル化している。多項式p(v,t)は振幅を記述し、p(v,t)はシグモイド関数の傾きを記述し、どちらも画像の線vに依存するが、p(v,t)はモデル化されている物体の境界の線依存位置を再現する。p(v,t)の値は、光学システムがエッジをどの程度強調して撮像するかに実質的に依存し、大きい値がくっきりしたエッジを記述し、小さい値がぼけたエッジを記述する。多項式p(u,v,t)は物体内部および外部の局部的な強度の変動をモデル化する空間可変なオフセット項であり、そのため、例えば、乱れた背景を考慮できる。記述される特性はすべて時空間ステレオ法において時間的に可変であるとみなされ、これは多項式の直接時間依存性に反映される。関数h(u,v,t)の画素強度g(u,v,t)へのフィット残差が規定の閾値より大きい対象画素が拒絶される。
その一般形において、方程式(1)は非線形最適化法により各対象画素の関数h(u,v,t)のパラメータの判別を導く。このような最適化法はしばしば事前に解を知っておく必要がある。大域的最適解が実際に見つかるとは限らず、一般に長い計算時間を要するためである。特に、最後に挙げた問題点は、リアルタイム可能なシステムで非線形最適化に基づく方法を使用するのを難しくし、または不可能にする。
このため、各対象画素の関数h(u,v,t)のパラメータを判別するために、物理的手法を用いて簡略化した仮定に基づき、線形最適化によって関数のパラメータの判別を導く特別な計算パスを利用すると、特に有利である。このような最適化の問題を以下詳細に記述するが、文献から知られている方法を使用することによって(例えば、上記非特許文献4)計算式で非常に効率的に解くことができる。
有利な方法は以下の仮定に基づく。
1.オフセットp(u,v,t)は空間的に一定であり、空間画像座標uおよびvで平均化した、対象画素の局所環境の画素強度
Figure 0004923101
に対応する。
2.シグモイドの振幅p(v,t)は空間的に一定であり、対象画素の空間局所環境の画素強度の標準偏差σ(t)に比例し、p(v,t)=kσ(t)で表され、kはユーザが規定する定数を表す。kの値は0.8から3の間にあるのが好ましい。ここで、空間平均値および標準偏差の代わりに、時空間の平均値および標準偏差を使用することも可能である。
以上の仮定を使用すると、方程式(1)は次のように書き換えることができる。
Figure 0004923101
方程式(2)の左側はvとtの多項式であり、このパラメータは線形方程式系を解くことによって変換画像データ
Figure 0004923101
から求めることができ、線形方程式を解くのに効率的な方法を利用できる。
ここでは例としてガウス消去法を挙げてもよい。Θがユーザが規定するシステムパラメータである場合、
Figure 0004923101
で表される画素は、最適化手順には含まれていない。なぜなら変換画素値
Figure 0004923101
はシグモイド関数の逆関数を返しても求めることはできない、または逆正接関数の勾配が大きいためにかなり不正確にしか求めることができないためである。Θの値は好ましくは0.75より大きく、かつ必ず1未満でなければならない。発明による方法で基本原理として記述される式において、方程式(2)の左側の多項式のパラメータは、ステレオ画像の対および/またはステレオ画像シーケンスの対の対応の判別を可能にする。
仮定をさらに単純にすると、方法の別の有利な改良形態が得られる。
3.シグモイドの傾きp(v,t)は一定であり、p(v,t)=aで表される。
4.物体の境界は、一定速度cで動く勾配bの直線の一部分で表すことができる。これは以下の方程式に対応する。
Figure 0004923101
以上の仮定から、4つのモデルパラメータa、b、cおよびdの線形式が直接導かれる。
Figure 0004923101
このモデルでは、エッジの動きの挙動は、速度パラメータcで記述される。発明による方法において、モデルパラメータa、b、cおよびdから、ステレオ画像の対および/またはステレオ画像シーケンスの対の対応を判別できる。
方程式(1)は適合するモデルパラメータから、直接エッジ位置uの副画素を正確に判別できる。この値は視差の計算にとって非常に重要であり、これは対応の判別後にする。ここでは、uの値を水平方向の強度プロファイルの最大勾配の位置、すなわちシグモイド関数のゼロ点に対応するものとして定義するのが妥当である。この条件から以下の方程式を導く。
Figure 0004923101
、vおよびtは、観測する対象画素の局所環境の中央に関係する。vの値はさらに関連対象画素があるエピポーラ線を表す。
ステップ7で、b個組の様々な個々の画像に割り当てられ、共通のエピポーラ線上にある対象画素のパラメータ化関数h(u,v,t)のパラメータを相互比較する。例えば、類似度としてパラメータの最小差を使って比較を行う。
ステップ8で、類似度が最も高いb個組の様々な個々の画像の対象画素が互いに対応すると判別する。その後、これら対応する対象画素に基づいて、周知の方法で観測するシーンの三次元の再構成を行う。
請求項の用語には含まれていないが、非常に単純化した方法の実施形態では、画像シーケンスの代わりに、個々の画像、具体的には個々の画像の対または組だけを利用し、その場合空間R(u,v,g)に適応される関数l(u,v)のパラメータを比較することによって対応をとる。この単純化した実施形態は差分画像アプローチと組み合わせることもできる。一方、本発明の場合、パラメータ化関数h(u,v,t)は、少なくとも画像シーケンスの2つの連続する個々の画像の期間にわたって適応される。
図2は三次元シーンを再構成する装置を示す。物体9は、固定カメラ10a、10bおよび任意の10cからなるカメラシステムによって光学的に取得する。物体9は、例えば、ロボット保護エリア監視装置として三次元シーン再構成装置を装備する処理セル内の未知の物体であってもよい。カメラは画像を濃淡値形式で記録できるデジタルカメラ、具体的にはCCDカメラとして設計される。他の応用の場合、カラーカメラまたは熱画像カメラまたはUVカメラを使用することも可能である。カメラ10a、10b、10cは互いに同期させて、3つの個々の画像をもつ3個組を同時に記録できるようにする。
カメラ信号をケーブル11を介して第1評価ユニット12に渡す。図1に関連して説明する空間対応を判別する方法は、この評価ユニット12で行う。例として、このために適切なプログラムを算術論理演算器に格納する。カメラ10a、10b、10cの画像シーケンスの画像範囲で判別された対応を計算ユニット13に渡し、ここで取得した物体9を三次元で再構成する。
図2の点線で示すように、第2評価ユニット14が任意で備えられ、これは同様に画像シーケンスの画像範囲間の対応を判別するが、別の設計のアルゴリズムに基づいている。評価ユニット14は、例えば相関解析によって動作する。このように判別した対応を第2計算ユニット15に渡して、ここで同様に取得した物体9を三次元で再構成する。第1計算ユニット13と第2計算ユニット15の結果は、再構成の精度をより高めるために相互に比較することができ、または安全関連の応用の場合には安全性を高めるために互いに独立して評価できる。
本発明による方法の例示的な実施形態のフローチャートを示している。 本発明による装置の例示的な実施形態をブロック図で示している。

Claims (16)

  1. 異なる観測地点から記録されるシーンの複数の画像シーケンス内の画像範囲間の空間対応を判別する三次元再構成のための方法において、
    対応の判別に関連する画像領域を前記画像シーケンス内で決定し、
    前記画像範囲を前記関連画像領域から形成し、
    物体の境界の画像強度変化を表すパラメータ化関数h(u,v,t)を、空間画像座標およびv、画像値gならびに時間tで定義される空間R(uvgt)内の前記画像範囲のそれぞれにマッチングさせ、前記パラメータ化関数のパラメータを使用して、前記複数の画像シーケンスの前記画像範囲の類似度をとることを特徴とする方法。
  2. 前記関連画像領域は前記画像値、具体的には画素の濃淡値に対応をとるのに十分な変動量をもつことを特徴とする、請求項1に記載の方法。
  3. 前記関連画像領域は、エッジフィルタおよび/または局所統計濃淡値解析として設計されているインタレストオペレータによって判別されることを特徴とする、請求項1または請求項2に記載の方法。
  4. 前記関連画像領域は、時空間の特徴を評価することによって判別されることを特徴とする、前記請求項1〜3のいずれか1項に記載の方法。
  5. 前記画像範囲は、非最大抑制および/またはスケルトン処理を前記関連画像領域に適用することによって、対象画素として形成されることを特徴とする、前記請求項1〜4のいずれか1項に記載の方法。
  6. 前記類似度を、同じエピポーラに割り当てられる前記多数の画像シーケンスの画像範囲の間でとる、具体的には前記同じエピポーラおよび/またはエピポーラ線上にある対象画素の間でとることを特徴とする、前記請求項1〜5のいずれか1項に記載の方法。
  7. 前記パラメータ化関数h(u,v,t)を、前記対象画素およびその局所環境にマッチングさせることを特徴する、請求項5または請求項6に記載の方法。
  8. 前記パラメータ化関数は、空間R(uvgt)の超平面として構成されることを特徴とする、前記請求項1〜のいずれか1項に記載の方法。
  9. 前記関連画像領域が判別され、前記画像シーケンスの画像と参照画像の画像との差分画像を生成することを特徴とする、前記請求項1〜のいずれか1項に記載の方法。
  10. 各対象画素の前記関数h(u,v,t)の前記パラメータを判別するために、物理的手法を用いて簡素化した仮定に基づく特別計算パスを使用して、線形最適化によって前記関数パラメータの判別を導くことを特徴とする、前記請求項1〜のいずれか1項に記載の方法。
  11. カメラシステム(10a、10b、10c)と少なくとも1つの評価ユニット(12、14)とを有する三次元シーンを再構成する装置であって、第1評価ユニット(12)は請求項1〜10のいずれか1項の方法を実行するためのプログラムをインストールしたコンピュータおよび/または回路であることを特徴とする装置。
  12. 前記カメラシステムはステレオカメラシステム(10a、10b)として構成されていることを特徴とする、請求項11に記載の装置。
  13. 前記カメラシステムは、校正済みマルチカメラシステム(10a、10b、10c)として構成されていることを特徴とする、請求項11に記載の装置。
  14. 三次元シーン再構成のために対応を判別するためのプログラムをインストールしたコンピュータおよび/または回路によって構成された第2評価ユニット(14)を備えることを特徴とする、請求項11から請求項13のいずれか1項に記載の装置。
  15. 前記第2評価ユニット(14)はさらなるカメラシステム割り当てられることを特徴とする、請求項14に記載の装置。
  16. 前記第1および第2評価ユニット(12、14)は互いに独立して動作でき、および/または前記カメラシステムおよび前記さらなるカメラシステムは互いに独立していることを特徴とする、請求項15に記載の装置。
JP2009500720A 2006-03-22 2007-02-14 画像間の空間対応を判別して三次元再構成をする方法および装置 Active JP4923101B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
DE102006013598A DE102006013598A1 (de) 2005-09-01 2006-03-22 Verfahren und Vorrichtung zur Korrespondenzbestimmung, vorzugsweise zur dreidimensionalen Rekonstruktion einer Szene
DE102006013598.9 2006-03-22
PCT/EP2007/001271 WO2007107214A2 (de) 2006-03-22 2007-02-14 Verfahren und vorrichtung zur korrespondenzbestimmung, vorzugsweise zur dreidimensionalen rekonstruktion einer szene

Publications (2)

Publication Number Publication Date
JP2009530930A JP2009530930A (ja) 2009-08-27
JP4923101B2 true JP4923101B2 (ja) 2012-04-25

Family

ID=38421549

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009500720A Active JP4923101B2 (ja) 2006-03-22 2007-02-14 画像間の空間対応を判別して三次元再構成をする方法および装置

Country Status (5)

Country Link
US (1) US8135211B2 (ja)
EP (1) EP1997070B1 (ja)
JP (1) JP4923101B2 (ja)
CN (1) CN101443817B (ja)
WO (1) WO2007107214A2 (ja)

Families Citing this family (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100957129B1 (ko) * 2008-06-12 2010-05-11 성영석 영상 변환 방법 및 장치
CN101783027B (zh) * 2010-02-26 2012-02-29 浙江大学 基于多台图像传感器的动态场景三维记录方法
JP5574852B2 (ja) * 2010-06-30 2014-08-20 キヤノン株式会社 情報処理装置、情報処理方法、システム及びプログラム
EP2538242B1 (en) * 2011-06-24 2014-07-02 Softkinetic Software Depth measurement quality enhancement.
US9117281B2 (en) 2011-11-02 2015-08-25 Microsoft Corporation Surface segmentation from RGB and depth images
US10697587B2 (en) * 2014-09-29 2020-06-30 Scott Automation & Robotics Pty Ltd. Operator protection system for electric saw
CN105139445B (zh) * 2015-08-03 2018-02-13 百度在线网络技术(北京)有限公司 场景重建方法及装置
TWI608447B (zh) 2015-09-25 2017-12-11 台達電子工業股份有限公司 立體影像深度圖產生裝置及方法
FR3054347B1 (fr) * 2016-07-19 2019-08-23 Safran Procede et dispositif d'aide a la navigation d'un vehicule
CN107194332A (zh) * 2017-05-09 2017-09-22 重庆大学 一种基于四维空间平移及旋转的心理旋转机理实现模型
DE102017130897A1 (de) 2017-12-21 2019-06-27 Pilz Gmbh & Co. Kg Verfahren zum Bestimmen von Entfernungsinformation aus einer Abbildung eines Raumbereichs
US11069074B2 (en) 2018-04-23 2021-07-20 Cognex Corporation Systems and methods for improved 3-D data reconstruction from stereo-temporal image sequences
CN108507476B (zh) * 2018-04-27 2020-08-07 中国石油大学(北京) 用于材料表面的位移场测量方法、装置、设备及存储介质
CN108871197B (zh) * 2018-04-27 2020-07-28 中国石油大学(北京) 用于材料表面的位移场测量方法、装置、设备及存储介质
US10810734B2 (en) * 2018-07-02 2020-10-20 Sri International Computer aided rebar measurement and inspection system
CN112639819A (zh) * 2018-07-05 2021-04-09 优创半导体科技有限公司 使用多个传感器和复杂度降低的神经网络进行对象检测
DE102018221625A1 (de) * 2018-12-13 2020-06-18 Robert Bosch Gmbh Transfer von Zusatzinformation zwischen Kamerasystemen
KR102170795B1 (ko) * 2018-12-19 2020-10-27 한국전자기술연구원 농연 환경 데이터 시각화 장치 및 방법
CN113822924B (zh) * 2019-01-28 2024-04-05 弗劳恩霍夫应用研究促进协会 空间中的元素定位
US11288819B2 (en) * 2019-06-28 2022-03-29 Cognex Corporation Systems and methods for detecting motion during 3D data reconstruction

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5390291A (en) * 1990-10-05 1995-02-14 Atlantic Richfield Company Method for interpolating between two regions of a display
JPH0552933A (ja) * 1991-08-29 1993-03-02 Japan Radio Co Ltd 移動物体の位置計測方式及び装置
JPH0877356A (ja) * 1994-09-09 1996-03-22 Fujitsu Ltd 三次元多眼画像の処理方法及び処理装置
US6873723B1 (en) * 1999-06-30 2005-03-29 Intel Corporation Segmenting three-dimensional video images using stereo
US6975755B1 (en) * 1999-11-25 2005-12-13 Canon Kabushiki Kaisha Image processing method and apparatus
US6633297B2 (en) * 2000-08-18 2003-10-14 Hewlett-Packard Development Company, L.P. System and method for producing an antialiased image using a merge buffer
JP3823760B2 (ja) * 2001-05-28 2006-09-20 日本電気株式会社 ロボット装置
JP2004234423A (ja) * 2003-01-31 2004-08-19 Seiko Epson Corp ステレオ画像処理方法およびステレオ画像処理装置、並びにステレオ画像処理プログラム
JP4297501B2 (ja) * 2004-08-11 2009-07-15 国立大学法人東京工業大学 移動体周辺監視装置

Also Published As

Publication number Publication date
US8135211B2 (en) 2012-03-13
CN101443817A (zh) 2009-05-27
EP1997070A2 (de) 2008-12-03
WO2007107214A2 (de) 2007-09-27
CN101443817B (zh) 2013-06-12
WO2007107214A3 (de) 2008-09-18
EP1997070B1 (de) 2018-01-03
JP2009530930A (ja) 2009-08-27
US20090129666A1 (en) 2009-05-21

Similar Documents

Publication Publication Date Title
JP4923101B2 (ja) 画像間の空間対応を判別して三次元再構成をする方法および装置
CN105335955B (zh) 对象检测方法和对象检测装置
JP4429298B2 (ja) 対象個数検出装置および対象個数検出方法
US10853960B2 (en) Stereo matching method and apparatus
Song et al. DOE-based structured-light method for accurate 3D sensing
US11651581B2 (en) System and method for correspondence map determination
KR20090050567A (ko) Tof 카메라를 이용한 로봇의 물체 자세 인식 방법
CN111179329A (zh) 三维目标检测方法、装置及电子设备
CN110751097B (zh) 一种半监督的三维点云手势关键点检测方法
Song et al. Estimation of kinect depth confidence through self-training
Stommel et al. Inpainting of missing values in the Kinect sensor's depth maps based on background estimates
JP7554946B2 (ja) 画像データの処理方法及び装置
CN106651921B (zh) 运动检测方法及躲避和跟踪运动目标的方法
JP4918615B2 (ja) 対象個数検出装置および対象個数検出方法
JP6606340B2 (ja) 画像検出装置、画像検出方法およびプログラム
JP4674920B2 (ja) 対象個数検出装置および対象個数検出方法
CN114792417A (zh) 模型训练方法、图像识别方法、装置、设备及存储介质
US20090304263A1 (en) Method for classifying an object using a stereo camera
Morawski et al. Detection of Moving Heat-Emitting Object Using Single IR Camera
CN110942480A (zh) 一种单目单帧多光谱三维成像方法
KR102470916B1 (ko) 객체 추적이 가능한 인공지능 기반의 촬영 장치 및 그 제어 방법
Pirahansiah et al. Camera calibration for multi-modal robot vision based on image quality assessment
JP7405607B2 (ja) 三次元データを補間する三次元データ生成装置及びロボットシステム
WO2023119968A1 (ja) 3次元座標算出方法及び3次元座標算出装置
KR20240131600A (ko) 센서를 이용한 객체 크기 추정 시스템 및 방법

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110624

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110630

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20110926

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20111003

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20111027

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20111104

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20111125

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20111202

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20111214

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120112

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120206

R150 Certificate of patent or registration of utility model

Ref document number: 4923101

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150210

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250