JP2009139995A - Unit and program for real time pixel matching in stereo image pair - Google Patents
Unit and program for real time pixel matching in stereo image pair Download PDFInfo
- Publication number
- JP2009139995A JP2009139995A JP2007312428A JP2007312428A JP2009139995A JP 2009139995 A JP2009139995 A JP 2009139995A JP 2007312428 A JP2007312428 A JP 2007312428A JP 2007312428 A JP2007312428 A JP 2007312428A JP 2009139995 A JP2009139995 A JP 2009139995A
- Authority
- JP
- Japan
- Prior art keywords
- image
- pixel
- search
- block
- camera
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Length Measuring Devices By Optical Means (AREA)
- Measurement Of Optical Distance (AREA)
- Image Processing (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
- Image Analysis (AREA)
Abstract
Description
この発明はステレオ画像のリアルタイムディスパリティ推定のための装置及びコンピュータプログラムに関し、特に、2D/3D頭部姿勢検出、認識、3Dゲーム開発、アニメーション、放送及び通信のための、ステレオ画像対のリアルタイムの、フレームごとの画素のマッチングのための装置及びプログラムに関する。 The present invention relates to an apparatus and computer program for real-time disparity estimation of stereo images, and more particularly to real-time stereo image pairs for 2D / 3D head posture detection, recognition, 3D game development, animation, broadcast and communication. The present invention relates to an apparatus and a program for pixel matching for each frame.
メディア放送コンテンツにおいて、本物らしい感じを達成するために、送信及び音声―映像マルチメディア技術が速いペースで進展している。視聴者に本物らしさを感じさせるためには、視聴者に対し、超現実的な音声及び映像コンテンツを配信しなければならない。この発明では、3次元(3D)視覚コンテンツ獲得に焦点を当てる。 In media broadcast content, transmission and audio-video multimedia technologies are evolving at a fast pace to achieve a genuine feel. In order to make the viewer feel authentic, surreal audio and video content must be distributed to the viewer. The present invention focuses on acquiring three-dimensional (3D) visual content.
長年にわたって、周知の赤/緑立体視眼鏡に基づく表示、容積表示(非特許文献1)、自動立体視表示(非特許文献2、3)等の様々な種類の3D表示技術が開発されてきた。赤/緑立体視眼鏡に基づく表示は2つのカメラからの入力を必要とするが、処理はほとんど不要である。ただし視聴者は特別な眼鏡をかけなければならない。自動立体視3D表示では特別な眼鏡は必要ないが、コンテンツは3Dでキャプチャし3Dで配信しなければならない。自然なシーンの3Dによるコンテンツの獲得で、既存のテレビジョン放送の品質に達するには、依然としてかなりの困難がある。 Over the years, various types of 3D display technologies such as display based on the well-known red / green stereoscopic glasses, volume display (Non-Patent Document 1), auto-stereoscopic display (Non-Patent Documents 2 and 3) have been developed. . Display based on red / green stereoscopic glasses requires input from two cameras, but requires little processing. However, viewers must wear special glasses. Auto-stereoscopic 3D display does not require special glasses, but content must be captured in 3D and distributed in 3D. There is still considerable difficulty in reaching the quality of existing television broadcasts with the acquisition of content in 3D of natural scenes.
従来の2Dテレビジョンと対照的に、自動立体視3Dテレビジョンはあるシーンの視覚的外観だけでなく、そのシーンの密度の濃い深度マップ情報を必要とする。このため、主に2つの科学的課題がある。すなわち、シーンの視覚的外観と深度マップとをリアルタイムで獲得することと、結果として得られる3Dテレビジョン上の3D外観が、そのシーンの元の視覚的外観とマッチしていなければならない(本物らしさ)ということと、である。 In contrast to conventional 2D television, autostereoscopic 3D television requires not only the visual appearance of a scene but also the dense map information of that scene. For this reason, there are two main scientific challenges. That is, obtaining the visual appearance and depth map of the scene in real time and the resulting 3D appearance on the 3D television must match the original visual appearance of the scene (genuineness) ).
これまで、3Dのシーンキャプチャに多くの技術が提案されてきた。極端なものの一つでは、従来の較正済立体視カメラを用いた画像ベースのアプローチによって、深度マップを推定している。別の極端な例では、赤外光の飛行時間(Time−of−flight:TOF)を用いた光学ベースのカメラを用いて深度を獲得している。 Until now, many techniques have been proposed for 3D scene capture. In one extreme, the depth map is estimated by an image-based approach using a conventional calibrated stereoscopic camera. In another extreme example, the depth is obtained using an optical-based camera using time-of-flight (TOF) of infrared light.
TOF3Dカメラは正弦波変調された赤外光信号を射出する(非特許文献4)。光が測定システムを出て対象物に至り、システムに戻るまでの移動に必要な時間が測定され、画像中の各画素の深度が計算される。達成可能な最良の距離精度は、深度距離によるが数センチメートルのオーダであって、動作範囲の制限があり、範囲外の測定値は信頼性が低い。このため、TDFカメラによる獲得アプローチは3Dテレビジョン放送には向いていない。 The TOF3D camera emits a sinusoidally modulated infrared light signal (Non-Patent Document 4). The time required for the movement of light until it exits the measurement system to the object and returns to the system is measured, and the depth of each pixel in the image is calculated. The best achievable distance accuracy is on the order of a few centimeters depending on the depth distance, with limited operating range, and measurements outside the range are unreliable. For this reason, the acquisition approach by the TDF camera is not suitable for 3D television broadcasting.
従来の、較正済立体視に基づくアプローチ(非特許文献5、6)は、画像処理アルゴリズム、すなわちテンプレートマッチングを用いて、左右のカメラ画像からのシーンの深度マップを計算する。これはカメラを較正して、内部及び外部のカメラパラメータを推定することを必要とする。深度マップ推定処理は、同期キャプチャ、較正パラメータを用いた補正、及び左右のカメラ画像の画素間のディスパリティ推定のためのテンプレートマッチングを含む。テンプレートマッチングアルゴリズムは通常、正規化相互相関ベースの類似尺度を用いる。
しかし、従来のステレオベースの3D再構築アプローチは、多くの場合正確に3D情報を計算することができない。なぜなら、ステレオ画像中の画素の場所によっては、特に、ステレオディスパリティ探索アルゴリズムのための探索範囲が未知である場合は、対応のマッチングのための独自の情報を提供しないことがあるからである。さらに、テンプレートマッチングアルゴリズムは画像にノイズがある場合、しばしば、正確にディスパリティを計算することができない。 However, traditional stereo-based 3D reconstruction approaches often cannot accurately calculate 3D information. This is because, depending on the location of the pixel in the stereo image, unique information for corresponding matching may not be provided, particularly when the search range for the stereo disparity search algorithm is unknown. Furthermore, template matching algorithms often cannot accurately calculate disparity when the image is noisy.
従って、この発明の目的の1つは、ステレオ画像対の対応の画素をリアルタイムで正確にマッチングする装置を提供することである。 Accordingly, one of the objects of the present invention is to provide an apparatus for accurately matching corresponding pixels of a stereo image pair in real time.
この発明の別の目的は、ステレオ画像対の対応の画素をリアルタイムで正確かつ頑健にマッチングする装置を提供することである。 Another object of the present invention is to provide an apparatus for accurately and robustly matching corresponding pixels of a stereo image pair in real time.
この発明のさらに別の目的は、左画像のテンプレートを右画像の対応するブロックと正確にマッチングしてステレオ画像対の画素マッチングを向上させる装置を提供することである。 Yet another object of the present invention is to provide an apparatus that improves the pixel matching of a stereo image pair by accurately matching the template of the left image with the corresponding block of the right image.
この発明の第1の局面は、補正したステレオ画像対において、対応する画素対をマッチングするための装置に関する。この装置は、ステレオカメラ及びレンジカメラに接続され、それぞれ補正されたステレオ画像対とレンジカメラ画像とを受けることができる。ステレオ画像対は第1の画像と第2の画像とを含む。この装置は、前記レンジカメラ画像中の画素を前記第1の画像中の画素と前記第2の画像中の画素とにマッピングするための第1のマッピング手段と、前記レンジカメラ画像中の前記画素の強度をしきい値と比較するための比較手段と、前記比較手段に応答して、前記比較手段による比較結果に依存して第1のディスパリティ探索と第2のディスパリティ探索とを選択的に行なって、前記第2の画像中の画素であって前記第1の画像中の前記画素にマッチするものを探索する手段と、を含む。 A first aspect of the present invention relates to an apparatus for matching corresponding pixel pairs in a corrected stereo image pair. This apparatus is connected to a stereo camera and a range camera, and can receive a corrected stereo image pair and a range camera image, respectively. The stereo image pair includes a first image and a second image. The apparatus comprises: a first mapping means for mapping a pixel in the range camera image to a pixel in the first image and a pixel in the second image; and the pixel in the range camera image A comparison means for comparing the intensity of the first and second disparity searches in response to the comparison result by the comparison means in response to the comparison means And searching for pixels in the second image that match the pixels in the first image.
好ましくは、探索手段は、前記比較手段が、前記画素の前記強度が前記しきい値より高いと判定したことに応答する第1の探索手段と、前記比較手段が、前記画素の前記強度が前記しきい値以下であると判定したことに応答する第2の探索手段と、を含む。第1の探索手段の探索範囲は前記第2の探索手段の探索範囲より短い。 Preferably, the search means is a first search means that responds when the comparison means determines that the intensity of the pixel is higher than the threshold value, and the comparison means determines that the intensity of the pixel is the value of the pixel. And a second search means for responding to the determination that it is equal to or less than the threshold value. The search range of the first search means is shorter than the search range of the second search means.
さらに好ましくは、前記第1の探索手段は、前記比較手段が、前記画素の前記強度が前記しきい値より高いと判定したことに応答して、前記レンジカメラ画像の前記画素を前記第2の画像にマッピングするための第2のマッピング手段と、前記第2のマッピング手段によってマッピングされた前記第2の画像のエピポーラ線上の前記画素の両側に延在する第1の探索範囲を規定する、第1の探索範囲規定手段と、前記第1の画像中の前記画素を包含する予め定められたサイズの予め規定されたブロックと、前記第1の探索範囲内のそれぞれの画素を包含する前記第2の画像中の予め定められたサイズのブロックとの、予め定められた類似尺度を計算するための第1の類似度計算手段と、前記第2の画像中の前記ブロックのうち、最も高い類似尺度を有するものを選択するための第1のブロック選択手段と、前記第1のブロック選択手段によって選択された前記ブロックの中心の画素を、前記第1の画像の前記画素にマッチするものとして選択するための、第1の画素選択手段と、を含む。ここで、「包含する」とは、このブロックが予め定められた位置の画素、例えば、ブロックが矩形であるとすればブロックの中心の画素、を含むことを意味する。 More preferably, in response to the comparison unit determining that the intensity of the pixel is higher than the threshold value, the first search unit determines the pixel of the range camera image to be the second A second mapping means for mapping to an image; and a first search range extending on both sides of the pixel on the epipolar line of the second image mapped by the second mapping means, One search range defining means; a predetermined block of a predetermined size including the pixels in the first image; and the second including each pixel in the first search range. A first similarity calculating means for calculating a predetermined similarity measure with a block of a predetermined size in the image of the image, and the highest similarity among the blocks in the second image A first block selecting means for selecting one having a degree, and a pixel at the center of the block selected by the first block selecting means is selected as one that matches the pixel of the first image First pixel selection means. Here, “include” means that the block includes a pixel at a predetermined position, for example, a pixel at the center of the block if the block is rectangular.
さらに好ましくは、前記第2の探索手段は、前記第1の探索範囲より長い第2の探索範囲を規定するための、第2の探索範囲規定手段を含み、前記第2の探索範囲は前記第2のマッピング手段によってマッピングされた前記第2の画像のエピポーラ線上の前記画素の一方側のみに延在し、前記第2の探索手段はさらに、前記第1の画像中の前記画素を包含する予め定められたサイズの予め規定されたブロックと、前記第2の探索範囲内のそれぞれの画素を包含する前記第2の画像中の予め定められたサイズのブロックとの、予め定められた類似尺度を計算するための第2の類似度計算手段と、前記第2の画像中の前記ブロックのうち、前記第2の類似手段によって計算された最も高い類似尺度を有するものを選択するための第2のブロック選択手段と、前記第2のブロック選択手段によって選択された前記ブロックの中心の画素を、前記第1の画像の前記画素にマッチするものとして選択するための、第2の画素選択手段と、を含む。 More preferably, the second search means includes second search range defining means for defining a second search range that is longer than the first search range, wherein the second search range is the first search range. Extending to only one side of the pixel on the epipolar line of the second image mapped by the second mapping means, the second search means further including the pixel in the first image in advance A predetermined similarity measure between a predetermined block of a predetermined size and a block of a predetermined size in the second image that includes each pixel in the second search range A second similarity calculating means for calculating, and a second for selecting the block in the second image having the highest similarity measure calculated by the second similar means. Block selection And a second pixel selection means for selecting a central pixel of the block selected by the second block selection means as a match with the pixel of the first image. .
前記第1の類似度計算手段は、前記第1の画像中の前記ブロックと前記第2の画像中の前記ブロックとの各々を、同じ形状の複数のサブブロックに分割するための手段と、前記第2の画像中の前記ブロックの各々と、前記第1の画像中の前記ブロックとの平均画素値を計算するための手段と、前記サブブロックの各々の画素の画素値から前記平均画素値を減算するための手段と、前記サブブロックの各々の画素の平均画素値を計算するための手段と、前記第1の画像のサブブロックの平均画素値と、前記第2の画像のブロックの各々のサブブロックのそれぞれの平均画素値との二乗誤差の合計を計算するための手段と、を含んでもよい。前記二乗誤差の合計が前記類似尺度である。 The first similarity calculation means includes means for dividing each of the block in the first image and the block in the second image into a plurality of sub-blocks having the same shape; Means for calculating an average pixel value of each of the blocks in the second image and the block of the first image; and calculating the average pixel value from the pixel values of each pixel of the sub-block. Means for subtracting, means for calculating an average pixel value of each pixel of the sub-block, an average pixel value of the sub-block of the first image, and each of the blocks of the second image Means for calculating a sum of squared errors with each of the average pixel values of the sub-blocks. The sum of the square errors is the similarity measure.
この発明の第2の局面は、ステレオカメラ及びレンジカメラに接続されてそれぞれ補正されたステレオ画像対とレンジカメラ像とを受けることができるコンピュータで実行可能なコンピュータプログラムに関する。ステレオ画像対は第1の画像と第2の画像とを含む。前記コンピュータプログラムは、前記コンピュータ上で実行されると、コンピュータを、前記レンジカメラ画像中の画素を前記第1の画像中の画素にマッピングするための第1のマッピング手段と、前記レンジカメラ画像中の前記画素の画素値をしきい値と比較するための比較手段と、前記比較手段に応答して、前記比較手段による比較結果に依存して第1のディスパリティ探索と第2のディスパリティ探索とを選択的に行なって、前記第2の画像中の画素であって前記第1の画像中の前記画素にマッチするものを探索する手段と、として動作させる。 A second aspect of the present invention relates to a computer-executable computer program that is connected to a stereo camera and a range camera and can receive a corrected stereo image pair and a range camera image. The stereo image pair includes a first image and a second image. The computer program, when executed on the computer, causes the computer to map a pixel in the range camera image to a pixel in the first image; A comparison means for comparing the pixel value of the pixel with a threshold value, and a first disparity search and a second disparity search in response to the comparison result by the comparison means in response to the comparison means Are selectively operated to search for pixels in the second image that match the pixels in the first image.
深度マップ推定アルゴリズム
ステレオカメラベースの深度マップ推定アルゴリズムはしばしば、補正及び探索メカニズムに依存する。図7はディスパリティ推定のための補正されたステレオ画像対テンプレート探索処理を表す。左カメラ画像240Lにおいて対象点250(x,y)を含む矩形のテンプレートウィンドウ252が、右カメラ画像240R内の、左カメラ画像240L中のエピポーラ線242Lと同じ高さにあるエピポーラ線242R上の同じサイズのブロック262と、二乗誤差又はゼロ平均正規化相関法等の様々な類似尺度を用いて比較される。類似尺度が最も高いブロックが、右カメラ画像240R中の画素260(x+u,y)を規定する。この画素260と左画像中の画素250とは、同じ対象点の画像であると考えられる。
Depth Map Estimation Algorithm Stereo camera-based depth map estimation algorithms often rely on correction and search mechanisms. FIG. 7 represents a corrected stereo image pair template search process for disparity estimation. The
マッチングアルゴリズムは、左カメラ画像240L内の2DテンプレートウィンドウA252の、右カメラ画像240R内のサイズw×hの2DブロックB262に対する類似尺度を計算する必要がある。一般に、補正誤差とガウスノイズの存在下で、A及びBを以下のように表すことができる。
The matching algorithm needs to calculate a similarity measure for the 2D block B262 of size w × h in the
TOFカメラ
この実施の形態では、失敗又はマッチングの間違いの数を減じるために、TOFカメラの3D測定値をオンザフライで左右のカメラ画像240L及び240Rの両方に逆投影することで、画像画素の3Dの場所を推定する。従って、ディスパリティアルゴリズムの探索範囲は各画素に制限される。制限アルゴリズムは後述する。
TOF Camera In this embodiment, in order to reduce the number of failures or matching errors, the 3D measurements of the TOF camera are backprojected on-the-fly to both the left and
TOFカメラは振幅変調された不可視赤外光を射出し、この光はシーンの対象物によって反射されてイメージセンサ上に後方散乱する。イメージセンサ上の各画素は入来する光信号を復調し、正弦波関数を回復して位相遅延を推定する。この場合、位相遅延は対象物のカメラへの距離に直接比例する(非特許文献7)。 The TOF camera emits amplitude-modulated invisible infrared light that is reflected by the scene object and backscattered onto the image sensor. Each pixel on the image sensor demodulates the incoming optical signal and recovers the sine wave function to estimate the phase delay. In this case, the phase delay is directly proportional to the distance of the object to the camera (Non-Patent Document 7).
実務的観点からは、TOFカメラには様々な課題と制限がある。例えば、距離測定の標準偏差は変調周波数と逆比例の挙動をする(非特許文献4)。このため、正確な距離測定を目標とする場合は、高い変調周波数が好ましい。一方、一義的な測定範囲は変調周波数と逆比例する。例えば、変調周波数が20MHzの場合、一義的な測定範囲は7.5メートルである。このため、多義的な範囲(7.5メートル超)に属する測定値は不正確に推定される。 From a practical point of view, TOF cameras have various problems and limitations. For example, the standard deviation of distance measurement behaves inversely proportional to the modulation frequency (Non-Patent Document 4). For this reason, a high modulation frequency is preferred when aiming at accurate distance measurement. On the other hand, the unique measurement range is inversely proportional to the modulation frequency. For example, when the modulation frequency is 20 MHz, the unique measurement range is 7.5 meters. For this reason, the measured values belonging to the ambiguous range (above 7.5 meters) are estimated inaccurately.
射出された赤外光は逆二乗の法則に従うため、入来する画素値の振幅しきい値を設定すればノイズのある画素をフィルタ除去することができる。基本的に、これは、前景の対象物の範囲測定値は入手できるが、背景の対象物については入手できないと考えることができる。従って、この実施の形態では、この情報を、従来のステレオ再構築処理において前景及び背景領域のマスキングに利用する。 Since the emitted infrared light follows the law of inverse square, the pixel with noise can be filtered out by setting the amplitude threshold value of the incoming pixel value. Basically, this can be thought of as having a range measurement for the foreground object but not for the background object. Therefore, in this embodiment, this information is used for masking the foreground and background areas in the conventional stereo reconstruction process.
レンジカメラからステレオカメラへのマッピング
TOFカメラからの一組の3D測定値とステレオ画像中のそれらに対応する画像点とが、レンジカメラからステレオカメラへのマッピングパラメータA=[aij]を与える。均質座標での各カメラに対する、レンジカメラからステレオカメラへのマッピング式は、以下の、周知のカメラ較正手順として書くことができる(非特許文献8)。
Range Camera to Stereo Camera Mapping A set of 3D measurements from the TOF camera and their corresponding image points in the stereo image give the range camera to stereo camera mapping parameter A = [a ij ]. The mapping equation from the range camera to the stereo camera for each camera in homogeneous coordinates can be written as the following well-known camera calibration procedure (Non-Patent Document 8).
a=[a11 a12 a13 a14 a21 a22 a23 a24 a31 a32 a33]T.
a34=1.0と設定することで、式3をスケーリングすることができ、いくつかの代数操作を行なうと、対応の3D−2D点の対の各々がaijパラメータにおいて線形である2つの式を与える。すなわち
a = [a 11 a 12 a 13 a 14 a 21 a 22 a 23 a 24 a 31 a 32 a 33] T.
By setting a 34 = 1.0, Equation 3 can be scaled, and with some algebraic operations, two corresponding 3D-2D point pairs are linear in the a ij parameter. Gives an expression. Ie
ディスパリティ探索範囲を各画素対に限定できるよう、TOFカメラでキャプチャされた3Dレンジデータをオンザフライで左右のステレオ画像にマッピングしたい。いずれの3D−2D対についてもwi≠0なので、式3は次の形に書換えることができる。 I want to map 3D range data captured by a TOF camera to left and right stereo images on the fly so that the disparity search range can be limited to each pixel pair. Since wi ≠ 0 for any 3D-2D pair, Equation 3 can be rewritten as:
立体視ディスパリティ探索アルゴリズム等の様々なパターンマッチングアルゴリズムにおいて、2個の画像ブロック間の類似度を測定するのに、相互相関値が利用される。これは、第2のカメラ画像内の一組のブロックを、一つづつ第1のカメラ画像からの既知のものと比較することによって、その一組のブロックのうちからマッチするものを見出すのに慣用される。ブロックのD.C.値は形状情報を担持していないので、式1及び式2から各ブロックの平均を除去する。これによって以下が得られる。
式10をよりよく分析するために、式6−7及び式8−9を式10に代入し、これを拡張すると、以下のようになる。 To better analyze Equation 10, substituting Equation 6-7 and Equation 8-9 into Equation 10 and expanding it yields:
明らかに、画像中にノイズがあるときには式11が与える類似尺度の信頼性は低くなる。従って、間違ったマッチングを減じるために、パターンマッチングの課題においては類似尺度からノイズ効果を除去しなければならない。 Obviously, the reliability of the similarity measure given by Equation 11 is low when there is noise in the image. Therefore, to reduce false matching, noise effects must be removed from the similarity measure in the pattern matching task.
テンプレートマッチングのためのmノイズに対し頑健な新規な類似尺度
以下では、テンプレートマッチング課題のための、新たな、ノイズに対し頑健な類似尺度(noise robust similarity measure:NRSM)アルゴリズムを説明する。式6及び式7のブロックデータA^及びB^(ここで^の符号は式中文字の上に付されるものである)をサブブロックに分割する。これは図13に示すとおりであり、以下で表される。
In the following, a new noise robustness measure (NRSM) algorithm for the template matching task will be described. The block data A ^ and B ^ (where the sign of ^ is attached to the letter in the formula) in Expression 6 and Expression 7 is divided into sub-blocks. This is as shown in FIG. 13 and is expressed below.
a=[a1,a2,...,aN],(15)
b=[b1,b2,...,bN],(16)
式6及び式7では、ノイズ項N(0,σ2)は独立かつ同一に配分された(independent and identically distributed:i.i.d)ランダム変数から来る。従って、大数の法則により、avg(A^k-noise)→0が成立つ。一方で、以下のシーン項avg(A^k-scene)はシーンパターンからくるもので、その形状特性により、必ずしもゼロに近似しなくてもよいが、テンプレートとの独自のマッチングのためには、少なくとも1個のサブブロックが非ゼロの平均値を生成する必要がある。そうでなければ、形状情報が入手できないと考えられる。
a = [a 1 , a 2 ,. . . , A N ], (15)
b = [b 1 , b 2 ,. . . , B N ], (16)
In Equations 6 and 7, the noise term N (0, σ 2 ) comes from independent and identically distributed (i.d.) random variables. Therefore, avg (A ^ k-noise ) → 0 is established according to the law of large numbers. On the other hand, the following scene term avg (A ^ k-scene ) comes from the scene pattern and does not necessarily approximate to zero due to its shape characteristics, but for unique matching with the template, At least one sub-block needs to produce a non-zero average value. Otherwise, it is considered that shape information is not available.
上述の処理のために、アルゴリズムは、ブロックサイズに依存せず非常に高速で輪を算出するための、「統合画像」(非特許文献9)と呼ばれる入力画像の中間表現を計算する。簡潔に言えば、統合画像は、画像の各画素について、その画素を包含する任意サイズの矩形内の画素値を合計し、その結果得られる和をその画素に割当てることによって得られる。 For the above-described processing, the algorithm calculates an intermediate representation of the input image called “integrated image” (Non-Patent Document 9) for calculating a circle at a very high speed without depending on the block size. Briefly, an integrated image is obtained by summing the pixel values in an arbitrarily sized rectangle that encompasses the pixel for each pixel of the image and assigning the resulting sum to that pixel.
さて、akとbkとはノイズの影響から解放されたが、左右のカメラスケールファクタ、それぞれγ及びΓからは解放されていない。スケールファクタを除去するために、新たな組の正規化記述子を以下のように規定することとする。 Now, a k and b k are released from the influence of noise, but are not released from the left and right camera scale factors, γ and Γ, respectively. To remove the scale factor, a new set of normalization descriptors will be defined as follows:
システム設定
[構造]
上述の通り、この実施の形態では、リアルタイムのディスパリティデータ獲得のために、TOFカメラによって性能を高めた立体視ベースのディスパリティ探索アルゴリズムを利用する。この実施の形態は、観察されるTOFカメラ画像内の各画素の3D場所情報を利用して、ディスパリティアルゴリズムの探索ドメインを制限し、ディスパリティ探索範囲を選択する。
System settings [Structure]
As described above, this embodiment uses a stereoscopic-based disparity search algorithm whose performance is improved by the TOF camera in order to acquire real-time disparity data. In this embodiment, the search domain of the disparity algorithm is limited and the disparity search range is selected using the 3D location information of each pixel in the observed TOF camera image.
図1はこの実施の形態のディスパリティ推定システム40の全体構造を示す図である。図1を参照して、ディスパリティ推定システム40は、ステレオカメラ60とTOFカメラ62とを含むカメラアセンブリ52と、3Dモニタ54と、通常のモニタ74と、ステレオカメラ60からのステレオ画像ストリームと、TOFカメラ62からのTOF画像ストリームとから、左右のカメラ画像の画素対の各々のディスパリティを計算するリアルタイムディスパリティ計算装置50と、を含む。3Dモニタ54は2Dから3Dへの変換が可能である。すなわち、2D画像のストリームと対応するディスパリティ画像のストリームとを与えられると、3Dモニタ54は与えられた画像に基づいて右画像を計算する。3Dモニタ54の表示スクリーン上には傾斜レンチキュラーレンズが配置され、3Dモニタ54は、レンチキュラーレンズが異なる画素からの光を予め規定された方向に焦点合わせして、見る人にある絵の異なる側を見せるように、左右の画像を交互に表示する。
FIG. 1 is a diagram showing the overall structure of the
図2は、コンピュータで実現されたこの実施の形態のリアルタイムディスパリティ計算装置50のハードウェアブロック図である。図2を参照して、ディスパリティ計算装置50は、3Dモニタ54及びモニタ74に加えて、コンピュータ70と、マウス82と、キーボード80と、を含む。マウス82と、キーボード80と、モニタ54及び74とは、全てコンピュータ70に接続される。
FIG. 2 is a hardware block diagram of the real-time
さらに図2を参照して、コンピュータ70は、中央処理装置(central processing unit:CPU)90と、CPU90に接続された双方向データ及びアドレスバス92と、バス92に接続された読出専用メモリ(Read Only Memory:ROM)94と、バス92に接続されたランダムアクセスメモリ(Random Access Memory:RAM)96と、バス92に接続されたハードディスクドライブ98と、バス92に接続されDVDメディア108を駆動するためのディジタル多用途ディスク(Digital Versatile Disk:DVD)ドライブ128と、バス92に接続され、ステレオカメラ60からのステレオ画像ストリームを受け、さらにTOFカメラ62からのTOF画像ストリームを受けるためのビデオキャプチャボード102と、バス92に接続され、半導体メモリ110を駆動するための半導体メモリドライブ106と、バス92、3Dモニタ54及びモニタ74に接続されたグラフィック処理ユニット(Graphic Processing Unit:GPU)104と、を含む。コンピュータ70のこれらの構成要素は全てバス92に接続され、相互にアクセス可能である。
Still referring to FIG. 2, the
別の局面では、リアルタイムディスパリティ計算装置50の機能はコンピュータ70上で実行されるソフトウェアで実現される。図3はリアルタイムディスパリティ計算装置50の機能ブロック図である。
In another aspect, the function of the real-time
図3を参照して、機能的には、リアルタイムディスパリティ計算装置50は、TOFカメラ62の予備較正の間にTOFカメラ62からの画像を記憶するための較正フレームメモリ138と、ステレオカメラ60を較正し、ステレオカメラ60の較正パラメータを出力するための較正ソフトウェア130と、較正ソフトウェア130によって出力された較正パラメータを記憶するための較正パラメータメモリ132と、較正パラメータメモリ132に記憶された較正パラメータを利用して、ステレオカメラ60からのステレオ画像対を補正するための補正ソフトウェア134と、補正ソフトウェア134によって出力される左右の画像を記憶するためのフレームメモリ136と、を含む。較正の間、較正ソフトウェア130はフレームメモリ136に記憶された、補正ソフトウェア134によって補正されていない画像を読出し、ステレオカメラ60の較正パラメータを計算する。
Referring to FIG. 3, functionally, the real-
リアルタイムディスパリティ計算装置50はさらに、前景対象物の、較正フレームメモリ138に記憶されたTOFカメラ測定値を、補正ソフトウェア134によって補正されフレームメモリ136に記憶された左右の画像にマッピングするためのマッピング行列を計算する予備較正ソフトウェア140と、予備較正ソフトウェア140によって計算されたマッピング行列のパラメータを記憶するTOFマッピングパラメータメモリ142と、較正フレームメモリ138内のTOF画像の各画素について、TOFマッピングパラメータメモリ142に記憶されたマッピング行列によって、左右の画像内の対応の2D画素の場所を計算し、選択されたTOF画素の画素値が予め定められた画素値のしきい値より高ければハイレベルとなりそうでなければローレベルとなる前景/背景(foreground/background:F/G)信号176を出力するための、前景/背景マッピングモジュール146と、前景/背景マッピングモジュール146で用いられる画素値のしきい値を記憶するためのしきい値記憶部144と、を含む。
The real-time
上述のとおり、TOFカメラ62から射出された赤外光は逆二乗の法則に従う。従って、入来するしきい値を設定することで、背景の(TOFカメラ62から遠い)ノイズを含んだ画素をフィルタ除去することができる。
As described above, the infrared light emitted from the
リアルタイムディスパリティ計算装置50はさらに、F/G信号176とフレームメモリ136に記憶された画像とを受けるように接続され、右カメラ画像中の画素で左カメラ画像の各画素に対応するものを探索し、左右の画素の画素間のディスパリティを計算するためのディスパリティ探索モジュール148と、ディスパリティ探索モジュール148によって計算されたディスパリティを、左カメラ画像の画素に対応するアドレスに記憶するためのディスパリティメモリ150と、較正フレームメモリ138、フレームメモリ136に記憶された画像、若しくはディスパリティメモリ150に記憶されたディスパリティ画像、又はこれら画像の任意の組合せを、3Dモニタ54及びモニタ74に選択的に出力するためのグラフィック出力ユニット152とを含む。左カメラの2D画像とその対応のディスパリティ画像とのストリームが与えられると、3Dモニタ54は2D画像とディスパリティ画像とを3D画像のストリームに変換し、これを表示する。
The real-time
リアルタイムディスパリティ計算装置50はさらに、リアルタイムディスパリティ計算装置50内のモジュールの動作全体を制御するコントローラ122を含む。予備較正ソフトウェア140、較正ソフトウェア130、補正ソフトウェア134、前景/背景マッピングモジュール146、ディスパリティ探索モジュール148及びコントローラ122の機能は全て、コンピュータ70上で実行されるソフトウェアで実現される。図3には示さないが、これら構成要素のソフトウェア及びモジュールはコントローラ122と通信し、動作においてモニタ74上の好適なGUIを利用する。グラフィック出力ユニット152の機能はCPU90及びCPU104で実行されるソフトウェアの組合せで実現される。
The real-time
この実施の形態では、較正ソフトウェア130はオフラインで用いられてステレオカメラ60の較正パラメータA1及びA2を計算する。較正は、半径方向の歪、レンズの偏心、焦点距離、画素のアスペクト比、ベースライン、並びにカメラ60L及びカメラ60Rの各々の配向を修正するために行なわれる。較正パラメータは較正パラメータメモリ132に記憶される。この実施の形態の較正処理では、ユーザは予め規定されたパターンをステレオカメラ60に提示する。較正ソフトウェア130はステレオカメラ60の出力を利用してパラメータを計算する。較正のためのソフトウェアは商業的に入手可能である。例えば、SRIインターナショナルが頒布するスモールビジョンシステム(Small Vision SystemTM:SVSTM)ソフトウェアを利用することができる。
In this embodiment, the
補正ソフトウェア134はステレオカメラ60の出力ステレオ画像を補正するのに用いられる。ここで補正とは、ステレオカメラ60からの左右の画像の対応するエピポーラ線をそろえることである。この処理を図6に示す。
The
図6を参照して、ステレオカメラ60の左右の画像230L及び230Rが線232Lと対応の線232Rとをそれぞれ含むと仮定する。レンズのディストーションとレンズ配向の差のために、左右の画像では、視差を別にしても、同じ線の画像が異なる位置で異なる形状となる。
Referring to FIG. 6, it is assumed that left and
画像を補正することにより、対応の線232Lと232Rとが画像の行と整列し、較正された左右のカメラ像240L及び240Rのエピポーラ線242L及び242Rとなる。補正なしでは、リアルタイムのディスパリティ探索はほとんど不可能である。補正は所定の計算によって実行される。この計算では、較正パラメータメモリ132に記憶された較正パラメータが用いられる。補正ソフトウェアも商業的に入手可能である。
By correcting the image, the corresponding
通常の動作では、ステレオカメラ60からの画像が補正ソフトウェア134で補正され、フレームメモリ136に記憶される。
In normal operation, the image from the
予備較正ソフトウェア140はTOFカメラ62からの画像とステレオカメラ60の補正された画像との予備較正のためにオフラインで用いられる。この処理は図11及び図12を参照して説明する。
TOFカメラ62からステレオ画像へのマッピング行列を推定するために、グラフィカルユーザインターフェイスが実現される。ユーザは図11に示す予め規定されたパターン340をTOFカメラ62及びステレオカメラ60に提示する。パターン340の面には複数個のマーカ344A、344B、344C、334D及び344Eがある。図12(A)を参照して、TOFカメラ62上のパターン340の画像360が最初にモニタ74に表示される。ユーザはポインタ370をマーカのうち一つにあて、マウスボタンをクリックする。クリックされた位置のx−y座標がメモリに記憶される。次に、左カメラ画像中のパターン340の画像362Lがモニタ74上に表示され、図12(B)に示すように、ユーザはポインタ370を同じマーカにあて、マウスボタンをクリックする。クリックされた位置のx−y座標がメモリに記憶される。同様に、図12(C)に示すように、右カメラ画像のパターン340の画像362Rについても同じポイント―クリック動作が行なわれ、x−y座標値がメモリに記憶される。
A graphical user interface is implemented to estimate the mapping matrix from the
こうして、グラフィカルユーザインタフェィスによってユーザはオフラインでn個(n>>6)の対象画像点の三つ組を選択することができ、Q−R分解により式4が解かれる。この結果、左右のステレオカメラについて2個のマッピング行列ALとARとがそれぞれ得られる。行列ALは、TOFカメラ画像中の画素を、左カメラ画像の対応の画素にマッピングするのに用いられる。行列ARは、画素を右カメラ画像の対応の画素にマッピングするのに用いられる。ALとARとを規定するパラメータはTOFマッピングパラメータメモリ142に記憶される。
Thus, the graphical user interface allows the user to select a triple of n (n >> 6) target image points off-line, and Equation 4 is solved by QR decomposition. As a result, two mapping matrices A L and A R are obtained for the left and right stereo cameras, respectively. Matrix A L is the pixel in the TOF camera image is used to map to the corresponding pixel of the left camera image. The matrix AR is used to map pixels to corresponding pixels in the right camera image. Parameters defining the A L and A R are stored in the TOF
ビデオキャプチャの間に、前景対象物のTOFカメラ測定値がステレオ画像にマッピングされ、ステレオディスパリティアルゴリズムの探索範囲をオンザフライで制限する。 During video capture, TOF camera measurements of foreground objects are mapped to stereo images, limiting the search range of the stereo disparity algorithm on the fly.
図4は前景/背景マッピングモジュール146の全体構造を示す。図4を参照して、前景/背景マッピングモジュール146は、TOFカメラ画像の左上から右下へ向かう順に画素を選択する画素選択部170と、画素選択部170の出力を受けるように接続され、画素選択部170によって選択され較正フレームメモリ138に記憶されたTOFカメラ62の画像中の画素からの画素値(強度)を読出すための画素読出部172と、TOFマッピングパラメータメモリ142に記憶されたパラメータを用いて、マッピング行列ALをx及びyにそれぞれ適用することによって、選択された画素のx−y座標値を左カメラ画像内の座標値xL及びyLにそれぞれマッピングするための左マッピング部174と、マッピング行列ARをx及びyにそれぞれ適用することによって、選択された画素のx−y座標値を右カメラ画像内の座標値xR及びyRにそれぞれマッピングするための右マッピング部178と、画素読出部172からの選択された画素の画素値としきい値記憶部144からのしきい値強度とを受けるように接続され、F/G信号176を出力するための、比較器180とを含む。上述の通り、F/G信号176は画素選択部170によって選択された画素の強度がしきい値より高ければハイレベルとなり、そうでなければローレベルとなる。
FIG. 4 shows the overall structure of the foreground /
図5は、図3に示したディスパリティ探索モジュール148の全体構造を示す。図5を参照して、ディスパリティ探索モジュール148は、前景/背景マッピングモジュール146からのxL及びyLを受けるように接続され、フレームメモリ136に記憶された左画像の(xL,yL)の画素を読出すための左ブロック読出モジュール200と、F/G信号176を受けるように接続され、左ブロック読出モジュール200の出力に接続された入力と、2つの出力202a及び202bとを有し、左ブロック読出モジュール200から受けた画素値をF/G信号176のレベルに依存して出力202a又は202bのいずれかに選択的に出力するための選択部202と、入力が選択部202の出力202aに接続され、右カメラ画像中の画素であって左ブロック読出モジュール200から読出された左画素に対応するものを、前景ディスパリティ探索アルゴリズムを利用して探索し、左右の画素間のディスパリティ値を出力するための前景ディスパリティ探索モジュール208と、右カメラ画像中の画素であって左ブロック読出モジュール200から読出された左画素に対応するものを、背景ディスパリティ探索アルゴリズムを利用して探索し、左右の画素間のディスパリティ値を出力するための背景ディスパリティ探索モジュール210と、F/G信号のレベルに依存して、前景ディスパリティ探索モジュール208及び背景ディスパリティ探索モジュール210の出力の一方を選択する選択部212と、を含む。選択部212の出力はディスパリティメモリ150のデータ入力ポートに接続される。
FIG. 5 shows the overall structure of the
ディスパリティ探索モジュールはさらに、前景ディスパリティ探索アルゴリズムにおいてディスパリティの探索に用いられる間隔の長さを記憶する前景間隔メモリ204と、背景ディスパリティ探索アルゴリズムにおいてディスパリティの探索に用いられる間隔の長さを記憶する背景間隔メモリ206と、選択部212によって選択されたディスパリティ値がディスパリティメモリ150のそれぞれの左画素アドレスに記憶されるように、図3に示すディスパリティメモリ150を制御するためのディスパリティメモリ制御部214と、を含む。ある画素のディスパリティの計算が完了すると、前景ディスパリティ探索モジュール208又は背景ディスパリティ探索モジュール210のいずれかが探索終了を示す信号を出力し、これは選択部212によって選択され、前景/背景マッピングモジュール146の画素選択部170に与えられ、こうして画素選択部170は次の画素を選択する。
The disparity search module further includes a
再び図7を参照して、ディスパリティ探索アルゴリズムは一般に、以下のステップを含む。すなわち、左カメラ画像240L内の画素250(x,y)を選択するステップと、左カメラ画像240L内で対象の画素250(x,y)を含む矩形テンプレートウィンドウ250を規定するステップと、右カメラ画像240R内で(x+u,y)の画素260を選択するステップと、上述の類似度尺度を用いて、右カメラ画像240R内のエピポーラ線242R上のその中心に画素260を含む、同じサイズのブロック262と矩形テンプレートウィンドウ252とを比較するステップと、予め定められた間隔内で値uを変化させて矩形テンプレートウィンドウ252と同じサイズのブロック262との類似尺度を計算するステップと、画素260が予め定められた間隔内で最も左の位置から最も右の位置まで移動するまで、変化させつつ計算するステップを繰返すステップと、右カメラ画像240R中で最も高い類似尺度を有するブロックを選択するステップと、選択されたブロック中の画素260を画素250に対応する画素として選択するステップと、を含む。
Referring again to FIG. 7, the disparity search algorithm generally includes the following steps. That is, selecting a pixel 250 (x, y) in the
図8を参照して、左カメラ画像240L内の画素250Lと、右カメラ画像240R内の対応の画素250Rとの距離が、ディスパリティDを規定する。
Referring to FIG. 8, the distance between the
対象物が前景にある場合、その左右カメラ画像間のディスパリティは背景にある対称物のそれよりも大きくなるはずである。従って、探索の間隔を長くしなければならない。探索間隔が長くなると、探索に必要な時間も長くなり、リアルタイムでのディスパリティ探索が困難になる。 If the object is in the foreground, the disparity between its left and right camera images should be greater than that of the symmetrical object in the background. Therefore, the search interval must be increased. If the search interval becomes longer, the time required for the search also becomes longer, and disparity search in real time becomes difficult.
しかし、この実施の形態のディスパリティ推定システム40でディスパリティの計算に必要とされる時間はかなり短い。これは、ディスパリティ推定システム40がTOFカメラ62を用いるからである。図9(A)及び図9(B)を参照して、TOFカメラ画像中の画素が、左マッピング行列ALによって選択され左カメラ画像240L内の画素250Lにマッピングされる。TOFカメラ画像中の選択された画素の画素値に基づいて、画素が前景の対象物に属するか否かが判定される。
However, the time required for calculating the disparity in the
画素が前景の対象物に属する場合、右カメラ画像240Rの対応の画素260Rの座標値がマッピング行列ARを用いて推定される。推定された画素260Rを包含するように、探索間隔270が規定される。一般に、画素250Lと260Rとのx座標値は互いに異なる。これらは図9(A)において距離DL及びDRとしてそれぞれ示される。この実施の形態では、探索間隔270は推定された画素260Rが探索間隔270の中央にくるように選択される。表現を変えれば、もし画素250Lのx軸座標がxLなら、右カメラ画像240R中の対応の画素は[xR−δ,xR+δ]の間隔内で探索され、ここでδは定数(この実現例では8)であり、xRは行列ARによってマッピングされた画素のx座標である。
If the pixel belongs to the foreground object, the coordinate value of the
画素が背景にある対象物に属する場合、右カメラ画像240R中で、対象の画素250Lと同じ位置にある画素260Rが選択される。この場合探索間隔272は、画素260Rの右側の間隔272として規定される。表現を変えれば、xLが左カメラ画像のx軸座標値であれば、右カメラの実際の対応の画素の場所が[xL,xL+L]の間隔で探索されればよく、ここでステレオカメラ画像は補正され、Lは背景対象物の探索範囲を表す定数(この実現例では40)である。
When the pixel belongs to the object in the background, the
TOFカメラ画像の画素をステレオ画像にマッピングするマッピング行列のために、左右の画像中の対応の画素がおおよそわかっているので、探索範囲は制限される。さらに、画素が前景の対象物に属するか否かがわかっているので、前景又は背景の対象物の画素に好適な探索アルゴリズムを選択することもできる。アルゴリズムの各々について、好ましい探索範囲が予め規定されている。特に、背景画素のための探索間隔は前景画素のものに比べてかなり制限されるので、計算コストは低く、間違ったマッチングが生じる可能性はかなり低い。従って、ディスパリティを計算するにあたって(もしあれば)誤差を訂正することができる。 Because of the mapping matrix that maps the pixels of the TOF camera image to the stereo image, the corresponding pixels in the left and right images are roughly known, so the search range is limited. Further, since it is known whether or not the pixel belongs to the foreground object, a search algorithm suitable for the foreground or background object pixel can be selected. A preferred search range is predefined for each of the algorithms. In particular, the search interval for the background pixels is considerably limited compared to that of the foreground pixels, so the calculation cost is low and the possibility of incorrect matching is very low. Therefore, errors (if any) can be corrected in calculating disparity.
3DでのX,Y座標値がディスパリティ探索範囲になんの影響も持たないことに注意されたい。影響があるのはZ座標のみである。Z座標値はTOFカメラ62によって大まかに測定され、探索範囲を規定するのに用いられる。
Note that the 3D X and Y coordinate values have no effect on the disparity search range. Only the Z coordinate is affected. The Z coordinate value is roughly measured by the
予備較正アルゴリズム
図10は図3に示した予備較正ソフトウェア140を実現するコンピュータプログラムのフロー図である。図10を参照して、プログラムはステップ300で開始し、ここで変数iがゼロに設定される。変数iはTOFカメラ62の予備較正のためにユーザによって選択された点の数を示す。
Precalibration Algorithm FIG. 10 is a flow diagram of a computer program that implements the
プログラムはステップ300に続いてステップ302を含む。ここで変数iが定数MAXより大きいか否かが判定され、その判定に応じて、制御フローが2つの方向に分岐する。定数MAXは予備較正に用いられる点(画素)の数であり、予め定められる。明細書の他の箇所で言及したように、MAXは>>6でなければならない。
The program includes
プログラムはさらに以下のステップを含む。ステップ302での判定がNOである場合に実行され、TOFカメラ画像内でユーザによって選択された画素の座標(xoi,yoi,zoi)を検出するステップ304と、RAM96内の記憶領域Range[i]に座標(xoi,yoi,zoi)を記憶するステップ306と、左カメラ画像中でユーザによって選択された画素の座標(xLi,yLi)を検出するステップ308と、RAM96内の記憶領域Left[i]に座標(xLi,yLi)を記憶するステップ310と、右カメラ画像内でユーザによって選択された画素の座標値(xRi,yRi)を検出するステップ312と、RAM96内の記憶領域Right[i]に座標(xRi,yRi)を記憶するステップ314と、変数iを1だけ増分するステップ316とを含む。ステップ316の後、制御フローはステップ302に戻る。
The program further includes the following steps. This is executed when the determination in
プログラムはさらに、ステップ302の判定がYESであるときに実行され、TOFカメラ画像の画素を左右のカメラ画像にそれぞれマッピングするマッピング行列AL及びARを計算するステップ318と、ステップ318に続いて、図2に示すRAM96内のTOFマッピングパラメータメモリ142内にマッピング行列AL及びARのパラメータを記憶するステップ320とを含む。ステップ318で、行列AL及びARが、式4をQ−R分解を利用して解くことによって計算される。
Program further, the determination of
ディスパリティ探索アルゴリズム
図14は図3に示すディスパリティ探索モジュール148を実現するソフトウェアのフロー図である。図14を参照して、プログラムは、全てのTOF画素について、TOF画素を左カメラ画像の画素にマッピングするステップ400と、TOF画素が前景にあるか否かを判定し、制御フローの2方向への分岐を引起すステップ401と、ステップ401での判定がNOの場合に実行され、通常の背景探索を行なうステップ402と、ステップ401での判定がYESの場合に実行されTOF画素に対応する右カメラ画像の場所を推定するステップ404と、ステップ404に続いて、左カメラ画像の画素に対応する画素を右カメラ画像中で探索する制限された前景探索を行なうステップ406と、を繰返し行なう。
Disparity Search Algorithm FIG. 14 is a software flowchart for realizing the
ステップ401は比較器180(図4を参照)のソフトウェア実現例であり、強度がしきい値より大きければ、画素は前景に属するものと判定され、そうでなければ、背景に属するものと判定される。 Step 401 is a software implementation of the comparator 180 (see FIG. 4). If the intensity is greater than the threshold, the pixel is determined to belong to the foreground, otherwise it is determined to belong to the background. The
通常の背景探索では、図9(B)を参照して説明した探索方法が行なわれる。制限された背景探索では、図9(A)を参照して説明した探索方法が行なわれる。制限された探索は計算コストを大幅に削減するので、アルゴリズムは左右のカメラ画像間のディスパリティをリアルタイムで見出すことができる。 In the normal background search, the search method described with reference to FIG. 9B is performed. In the limited background search, the search method described with reference to FIG. 9A is performed. The limited search greatly reduces the computational cost, so the algorithm can find the disparity between the left and right camera images in real time.
[動作]
図1から図14を参照して、上述のディスパリティ推定システム40は以下のように動作する。図1を参照して、ステレオカメラ60の較正が最初にオフラインで行なわれる。較正プロセスでは、予め定められたパターンプレートがステレオカメラ60に提示される。較正ソフトウェア130は較正パラメータを計算する。パラメータは較正パラメータメモリ132に記憶される。
[Operation]
1 to 14, the above-described
次に、TOFカメラ6が予備較正ソフトウェア140によってオフラインで較正される。予備較正プロセスでは、予め定められたパターン340がステレオカメラ60及びTOFカメラ62に提示される。予備較正プロセスでは、ステレオ画像は補正ソフトウェア134によって補正され、フレームメモリ136に記憶される。図10に示すように、予備較正ソフトウェア140はTOFカメラ画像と補正されたステレオ画像とを、較正フレームメモリ138とフレームメモリ136とから、それぞれ読出す。3つ組の画像(TOFカメラ画像と左右の画像)が3Dモニタ54に順に示され、ユーザはGUIによってこれら画像の対応の画素を繰返し選択する。パターン340を移動させ選択プロセスを繰返すことによって、式(4)を解くに足る充分な数の画素(>>6)が収集される。式4をQ−R分解を用いて解くことによってマッピング行列AL及びARが得られる。マッピング行列はTOFマッピングパラメータメモリ142に記憶される。
Next, the TOF camera 6 is calibrated offline by the
ステレオカメラ60の較正とTOFカメラ62の予備較正が完了すると、ディスパリティ推定システム40は3Dシーンをキャプチャしてディスパリティメモリ150にディスパリティ画像のストリームを生成する準備が整ったことになる。
When the calibration of the
動作において、ディスパリティ推定システム40はステレオカメラ60からのステレオ画像のストリームを獲得する。キャプチャされた画像は較正パラメータメモリ132に記憶された較正パラメータを用いて補正ソフトウェア134によって補正され、エピポーラ線が画像の行に対応するようになる。補正された画像はフレームメモリ136に記憶される。同時に、ディスパリティ推定システム40はTOFカメラ62からTOF画像のストリームを獲得する。
In operation, the
TOFカメラ画像の各フレームの各画素について、前景/背景マッピングモジュール146が画素を左カメラ画像にマッピングする。その後、モジュール146はTOFカメラ画像の画素の強度を調べ、画素が前景の対象物に属するか、背景に属するかを判定する。もし画素が前景にあれば、モジュール146はハイレベルのF/G信号176をディスパリティ探索モジュール148に送る。そうでなければ、モジュール146はローレベルのF/G信号176をディスパリティ探索モジュール148に送る。
For each pixel in each frame of the TOF camera image, the foreground /
ハイレベルのF/G信号176に応答して、ディスパリティ探索モジュール148はTOFカメラ画像内の興味ある画素を右カメラ画像にマッピングすることによって右カメラ画像の画素を推定する。その後、ディスパリティ探索モジュール148は、制限された探索範囲で前景探索アルゴリズムを利用して、左右のカメラ画像のディスパリティを判定する。
In response to the high level F / G signal 176, the
ローレベルのF/G信号176に応答して、ディスパリティ探索モジュール148は左画素と同じx−y座標値を有する右カメラ画像中の画素の場所とつきとめ、より長い探索範囲で背景ディスパリティ探索アルゴリズムを利用して、ディスパリティを判定する。対応の画素の探索が終了すると、ディスパリティが計算され、ディスパリティ探索モジュール148は、TOF画像の次の画素を選択するよう、前景/背景マッピングモジュール146に信号を送る。各画素について、ディスパリティ探索モジュール148はディスパリティを、ディスパリティメモリ150の左カメラ画像のその画素のアドレスに書込む。
In response to the low level F / G signal 176, the
ディスパリティ画像が完成すると、グラフィック出力ユニット152はフレームメモリ136に記憶された左カメラ画像とディスパリティメモリ150に記憶されたディスパリティ画像とを選択し、これらを3Dモニタ54に与える。同時に、グラフィック出力ユニット152はTOF画像、ステレオ画像及びディスパリティ画像のいずれかの組合せをコントローラ122の指示に従って選択し、これをモニタ74に与える。
When the disparity image is completed, the
3Dモニタ54は左カメラ画像と対応するディスパリティ画像とに基づいてステレオ表示を生成する能力を有するので、ユーザは3Dモニタ54上に3D画像を見ることができる。
Since the
[実験的セットアップ]
VidereTMステレオビジョンハードウェアとSVSソフトウェアがこの実現に利用される。カメラのキャリブレーション及び補正はSVSライブラリを用いて自動的に行なわれる。SVSソフトウェアはステレオビデオシーケンスをキャプチャすることができ、ステレオ対の3Dデータを320×240の全画像解像度で30Hzで再構築する。しかし、3Dの再構築にとって興味ある領域(region of interest:ROI)はこの実験においてユーザの顔区域であるので、ディスパリティ探索区域を、上述の説明の通り、顔のホロプタ周辺に限定した。したがって、顔の外側で深さの異なる再構築された3Dデータは、図23(C)に示すように3D推定が不正確である。
[Experimental setup]
Videre ™ stereo vision hardware and SVS software are utilized for this implementation. Camera calibration and correction is performed automatically using the SVS library. SVS software can capture stereo video sequences and reconstruct stereo pairs of 3D data at 30 Hz with a total image resolution of 320 × 240. However, since the region of interest (ROI) of interest for 3D reconstruction is the user's face area in this experiment, the disparity search area was limited to the area around the face horopter as described above. Therefore, the reconstructed 3D data having different depths outside the face has an inaccurate 3D estimation as shown in FIG.
図1に示すように、システムはSwissrangerTM製の飛行時間(time−of−flight:TOF)レンジカメラ(略してTOFカメラ)と、VidereTM製の従来のCCDステレオカメラから構成され、密なステレオ再構築アルゴリズムのディスパリティ計算を改良する、実質的に並列な画像チャネルを可能にする。SRIインターナショナル(SRI InternationalTM)のSVSTMソフトウェアを利用して、ステレオ画像のキャプチャ、カメラ較正及び補正を行なう。システムはステレオビデオシーケンスをキャプチャすることができ、ステレオ対の3Dデータを320×240の画像解像度で毎秒30フレームで再構築する。 As shown in FIG. 1, the system is composed of a Swissrange ™ time-of-flight (TOF) range camera (abbreviated as TOF camera) and a conventional CCD stereo camera made by Videre ™ , which is a dense stereo. It enables a substantially parallel image channel that improves the disparity computation of the reconstruction algorithm. Stereo image capture, camera calibration and correction is performed using SRI ™ software from SRI International ™ . The system can capture a stereo video sequence and reconstruct the stereo pair of 3D data at an image resolution of 320 × 240 at 30 frames per second.
再構築された3D座標値は、予め規定された世界座標系に対するものである。この実現例での世界座標系(原点)は左カメラの焦点となるように規定され、右手の座標系である。 The reconstructed 3D coordinate values are for a predefined world coordinate system. The world coordinate system (origin) in this implementation is defined to be the focal point of the left camera and is the right hand coordinate system.
図15はTOFレンジカメラからステレオ画像へのマッピングのためのスクリーンキャプチャであり、ここでTOFカメラ画像430からマッピングされた画素は左右のカメラ画像432及び434上に重ねられる。
FIG. 15 is a screen capture for mapping from a TOF range camera to a stereo image, where the pixels mapped from the
図16は左カメラ450の画像フレーム、ディスパリティ画像452、及び再構築された3DデータのオープンGL(Open GL)プロット454をそれぞれ示す。TOFカメラからの範囲情報で、背景の対象物に対する3D再構築が改良される。
FIG. 16 shows an image frame of the
今回開示された実施の形態は単に例示であって、本発明が上記した実施の形態のみに制限されるわけではない。本発明の範囲は、発明の詳細な説明の記載を参酌した上で、特許請求の範囲の各請求項によって示され、そこに記載された文言と均等の意味および範囲内でのすべての変更を含む。 The embodiment disclosed herein is merely an example, and the present invention is not limited to the above-described embodiment. The scope of the present invention is indicated by each claim in the claims after taking into account the description of the detailed description of the invention, and all modifications within the meaning and scope equivalent to the wording described therein are intended. Including.
40 ディスパリティ推定システム
50 ディスパリティ計算装置
54 3Dモニタ
60 ステレオカメラ
62 TOFカメラ
70 コンピュータ
74 モニタ
80 キーボード
82 マウス
90 CPU
94 ROM
96 RAM
98 ハードディスクドライブ
130 較正ソフトウェア
132 較正パラメータメモリ
134 補正ソフトウェア
136 フレームメモリ
138 較正フレームメモリ
140 予備較正ソフトウェア
40
94 ROM
96 RAM
98
Claims (6)
前記レンジカメラ画像中の画素を前記第1の画像中の画素と前記第2の画像中の画素とにマッピングするための第1のマッピング手段と、
前記レンジカメラ画像中の前記画素の画素値をしきい値と比較するための比較手段と、
前記比較手段に応答して、前記比較手段による比較結果に依存して第1のディスパリティ探索と第2のディスパリティ探索とを選択的に行なって、前記第2の画像中の画素であって前記第1の画像中の前記画素にマッチするものを探索するための手段とを含む、装置。 A device for matching corresponding pixel pairs in a corrected stereo image pair, wherein the device is connected to a stereo camera and a range camera to receive the corrected stereo image pair and the range camera image, respectively. The stereo image pair includes a first image and a second image, and the apparatus maps a pixel in the range camera image to a pixel in the first image and a pixel in the second image. First mapping means for:
Comparison means for comparing a pixel value of the pixel in the range camera image with a threshold value;
In response to the comparison means, a first disparity search and a second disparity search are selectively performed depending on a comparison result by the comparison means, and pixels in the second image are obtained. Means for searching for a match in the first image for the pixel.
前記比較手段が、前記画素の前記画素値が前記しきい値より高いと判定したことに応答する第1の探索手段と、
前記比較手段が、前記画素の前記画素値が前記しきい値以下であると判定したことに応答する第2の探索手段とを含み、
前記第1の探索手段の探索範囲は前記第2の探索手段の探索範囲より短い、請求項1に記載の装置。 The search means includes
First search means responsive to the comparison means determining that the pixel value of the pixel is higher than the threshold;
A second search means responsive to determining that the pixel value of the pixel is less than or equal to the threshold value;
The apparatus according to claim 1, wherein a search range of the first search means is shorter than a search range of the second search means.
前記比較手段が、前記画素の前記画素値が前記しきい値より高いと判定したことに応答して、前記レンジカメラ画像の前記画素を前記第2の画像にマッピングするための第2のマッピング手段と、
前記第2のマッピング手段によってマッピングされた前記第2の画像のエピポーラ線上の前記画素の両側に延在する第1の探索範囲を規定する、第1の探索範囲規定手段と、
前記第1の画像中の前記画素を包含する予め定められたサイズの予め規定されたブロックと、前記第1の探索範囲内のそれぞれの画素を包含する前記第2の画像中の予め定められたサイズのブロックとの、予め定められた類似尺度を計算するための第1の類似度計算手段と、
前記第2の画像中の前記ブロックのうち、最も高い類似尺度を有するものを選択するための第1のブロック選択手段と、
前記第1のブロック選択手段によって選択された前記ブロックの中心の画素を、前記第1の画像の前記画素にマッチするものとして選択するための第1の画素選択手段とを含む、請求項2に記載の装置。 The first search means includes
Second mapping means for mapping the pixels of the range camera image to the second image in response to the comparison means determining that the pixel value of the pixel is higher than the threshold value When,
First search range defining means for defining a first search range extending on both sides of the pixel on the epipolar line of the second image mapped by the second mapping means;
A predetermined block of a predetermined size that includes the pixels in the first image and a predetermined block in the second image that includes each pixel within the first search range. First similarity calculating means for calculating a predetermined similarity measure with the size block;
First block selecting means for selecting the block in the second image having the highest similarity measure;
The first pixel selection means for selecting the pixel at the center of the block selected by the first block selection means as a match with the pixel of the first image. The device described.
前記第1の探索範囲より長い第2の探索範囲を規定するための、第2の探索範囲規定手段を含み、前記第2の探索範囲は前記第2のマッピング手段によってマッピングされた前記第2の画像のエピポーラ線上の前記画素の一方側のみに延在し、
前記第2の探索手段はさらに
前記第1の画像中の前記画素を包含する予め定められたサイズの予め規定されたブロックと、前記第2の探索範囲内のそれぞれの画素を包含する前記第2の画像中の予め定められたサイズのブロックとの、予め定められた類似尺度を計算するための第2の類似度計算手段と、
前記第2の画像中の前記ブロックのうち、前記第2の類似手段によって計算された最も高い類似尺度を有するものを選択するための第2のブロック選択手段と、
前記第2のブロック選択手段によって選択された前記ブロックの中心の画素を、前記第1の画像の前記画素にマッチするものとして選択するための第2の画素選択手段とを含む、請求項3に記載の装置。 The second search means includes
Second search range defining means for defining a second search range that is longer than the first search range, wherein the second search range is mapped by the second mapping means. Extends only to one side of the pixel on the epipolar line of the image,
The second search means further includes a predetermined block of a predetermined size that includes the pixels in the first image, and a second block that includes each pixel in the second search range. Second similarity calculating means for calculating a predetermined similarity measure with a block of a predetermined size in the images of
Second block selection means for selecting the block in the second image having the highest similarity measure calculated by the second similarity means;
The second pixel selection means for selecting the pixel at the center of the block selected by the second block selection means as a match with the pixel of the first image. The device described.
前記第1の画像中の前記ブロックと前記第2の画像中の前記ブロックとの各々を、同じ形状の複数のサブブロックに分割するための手段と、
前記第2の画像中の前記ブロックの各々と、前記第1の画像中の前記ブロックとの平均の画素値を計算するための手段と、
前記サブブロックの各々の画素の画素値から前記平均画素値を減算するための手段と、
前記サブブロックの各々の画素の平均画素値を計算するための手段と、
前記第1の画像のサブブロックの平均画素値と、前記第2の画像のブロックの各々のサブブロックのそれぞれの平均画素値との二乗誤差の合計を計算するための手段とを含み、
前記二乗誤差の合計が前記類似尺度である、請求項3に記載の装置。 The first similarity calculation means includes:
Means for dividing each of the block in the first image and the block in the second image into a plurality of sub-blocks of the same shape;
Means for calculating an average pixel value of each of the blocks in the second image and the block in the first image;
Means for subtracting the average pixel value from the pixel value of each pixel of the sub-block;
Means for calculating an average pixel value of each pixel of the sub-block;
Means for calculating a sum of square errors between an average pixel value of the sub-blocks of the first image and an average pixel value of each of the sub-blocks of the second image block;
The apparatus of claim 3, wherein the sum of squared errors is the similarity measure.
前記レンジカメラ画像中の画素を前記第1の画像中の画素にマッピングするための第1のマッピング手段と、
前記レンジカメラ画像中の前記画素の画素値をしきい値と比較するための比較手段と、
前記比較手段に応答して、前記比較手段による比較結果に依存して第1のディスパリティ探索と第2のディスパリティ探索とを選択的に行なって、前記第2の画像中の画素であって前記第1の画像中の前記画素にマッチするものを探索する手段と、として動作させる、コンピュータプログラム。
A computer-executable computer program connected to a stereo camera and a range camera to receive a corrected stereo image pair and a range camera image, respectively, the stereo image pair comprising a first image and a second image First mapping means for mapping a computer in the range camera image to a pixel in the first image when the computer program is executed on the computer;
Comparison means for comparing a pixel value of the pixel in the range camera image with a threshold value;
In response to the comparison means, a first disparity search and a second disparity search are selectively performed depending on a comparison result by the comparison means, and pixels in the second image are obtained. A computer program that operates as means for searching for a match with the pixel in the first image.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007312428A JP2009139995A (en) | 2007-12-03 | 2007-12-03 | Unit and program for real time pixel matching in stereo image pair |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007312428A JP2009139995A (en) | 2007-12-03 | 2007-12-03 | Unit and program for real time pixel matching in stereo image pair |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2009139995A true JP2009139995A (en) | 2009-06-25 |
Family
ID=40870576
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2007312428A Pending JP2009139995A (en) | 2007-12-03 | 2007-12-03 | Unit and program for real time pixel matching in stereo image pair |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2009139995A (en) |
Cited By (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101088144B1 (en) | 2009-08-07 | 2011-12-02 | 한국외국어대학교 연구산학협력단 | Method for Measurement of Distance between Object and Camera using Stereo Camera |
WO2012176526A1 (en) * | 2011-06-21 | 2012-12-27 | シャープ株式会社 | Stereoscopic image processing device, stereoscopic image processing method, and program |
JP2013513095A (en) * | 2009-12-04 | 2013-04-18 | アルカテル−ルーセント | Method and system for obtaining an improved stereo image of an object |
JP2013210339A (en) * | 2012-03-30 | 2013-10-10 | Honda Motor Co Ltd | Contact state estimation device |
WO2014054753A1 (en) * | 2012-10-04 | 2014-04-10 | アルプス電気株式会社 | Image processing device and device for monitoring area in front of vehicle |
WO2014054752A1 (en) * | 2012-10-04 | 2014-04-10 | アルプス電気株式会社 | Image processing device and device for monitoring area in front of vehicle |
JP2015521419A (en) * | 2012-05-09 | 2015-07-27 | エヌカム テクノロジーズ リミテッドNcam Technologies Limited | A system for mixing or synthesizing computer generated 3D objects and video feeds from film cameras in real time |
CN104848917A (en) * | 2015-04-20 | 2015-08-19 | 大连理工大学 | Image measuring method for analyzing water level in glass water tank |
US9129378B2 (en) | 2011-09-07 | 2015-09-08 | Thomson Licensing | Method and apparatus for recovering a component of a distortion field and for determining a disparity field |
WO2015181811A1 (en) * | 2014-05-28 | 2015-12-03 | Inuitive Ltd. | A method for stereoscopic reconstruction of three dimensional images |
US9225959B2 (en) | 2012-01-10 | 2015-12-29 | Samsung Electronics Co., Ltd. | Method and apparatus for recovering depth value of depth image |
JP2016020891A (en) * | 2014-06-20 | 2016-02-04 | 株式会社リコー | Shape measurement system and imaging device |
US9538162B2 (en) | 2012-02-29 | 2017-01-03 | Samsung Electronics Co., Ltd. | Synthesis system of time-of-flight camera and stereo camera for reliable wide range depth acquisition and method therefor |
US10803609B2 (en) | 2016-09-01 | 2020-10-13 | The Public University Corporation, The University Aizu | Image distance calculator and computer-readable, non-transitory storage medium storing image distance calculation program |
CN111862511A (en) * | 2020-08-10 | 2020-10-30 | 湖南海森格诺信息技术有限公司 | Target intrusion detection device and method based on binocular stereo vision |
EP2890125B1 (en) * | 2013-12-24 | 2021-10-13 | Sony Depthsensing Solutions | A time-of-flight camera system |
-
2007
- 2007-12-03 JP JP2007312428A patent/JP2009139995A/en active Pending
Cited By (25)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101088144B1 (en) | 2009-08-07 | 2011-12-02 | 한국외국어대학교 연구산학협력단 | Method for Measurement of Distance between Object and Camera using Stereo Camera |
JP2013513095A (en) * | 2009-12-04 | 2013-04-18 | アルカテル−ルーセント | Method and system for obtaining an improved stereo image of an object |
WO2012176526A1 (en) * | 2011-06-21 | 2012-12-27 | シャープ株式会社 | Stereoscopic image processing device, stereoscopic image processing method, and program |
JPWO2012176526A1 (en) * | 2011-06-21 | 2015-02-23 | シャープ株式会社 | Stereoscopic image processing apparatus, stereoscopic image processing method, and program |
US9129378B2 (en) | 2011-09-07 | 2015-09-08 | Thomson Licensing | Method and apparatus for recovering a component of a distortion field and for determining a disparity field |
US9225959B2 (en) | 2012-01-10 | 2015-12-29 | Samsung Electronics Co., Ltd. | Method and apparatus for recovering depth value of depth image |
US9538162B2 (en) | 2012-02-29 | 2017-01-03 | Samsung Electronics Co., Ltd. | Synthesis system of time-of-flight camera and stereo camera for reliable wide range depth acquisition and method therefor |
JP2013210339A (en) * | 2012-03-30 | 2013-10-10 | Honda Motor Co Ltd | Contact state estimation device |
US11182960B2 (en) | 2012-05-09 | 2021-11-23 | Ncam Technologies Limited | System for mixing or compositing in real-time, computer generated 3D objects and a video feed from a film camera |
US11721076B2 (en) | 2012-05-09 | 2023-08-08 | Ncam Technologies Limited | System for mixing or compositing in real-time, computer generated 3D objects and a video feed from a film camera |
JP2015521419A (en) * | 2012-05-09 | 2015-07-27 | エヌカム テクノロジーズ リミテッドNcam Technologies Limited | A system for mixing or synthesizing computer generated 3D objects and video feeds from film cameras in real time |
US9600936B2 (en) | 2012-05-09 | 2017-03-21 | Ncam Technologies Limited | System for mixing or compositing in real-time, computer generated 3D objects and a video feed from a film camera |
WO2014054752A1 (en) * | 2012-10-04 | 2014-04-10 | アルプス電気株式会社 | Image processing device and device for monitoring area in front of vehicle |
JP5951785B2 (en) * | 2012-10-04 | 2016-07-13 | アルプス電気株式会社 | Image processing apparatus and vehicle forward monitoring apparatus |
JPWO2014054752A1 (en) * | 2012-10-04 | 2016-08-25 | アルプス電気株式会社 | Image processing apparatus and vehicle forward monitoring apparatus |
WO2014054753A1 (en) * | 2012-10-04 | 2014-04-10 | アルプス電気株式会社 | Image processing device and device for monitoring area in front of vehicle |
US11863734B2 (en) | 2013-12-24 | 2024-01-02 | Sony Depthsensing Solutions Sa/Nv | Time-of-flight camera system |
EP2890125B1 (en) * | 2013-12-24 | 2021-10-13 | Sony Depthsensing Solutions | A time-of-flight camera system |
US11172186B2 (en) | 2013-12-24 | 2021-11-09 | Sony Depthsensing Solutions Sa/Nv | Time-Of-Flight camera system |
WO2015181811A1 (en) * | 2014-05-28 | 2015-12-03 | Inuitive Ltd. | A method for stereoscopic reconstruction of three dimensional images |
JP2016020891A (en) * | 2014-06-20 | 2016-02-04 | 株式会社リコー | Shape measurement system and imaging device |
CN104848917B (en) * | 2015-04-20 | 2017-11-10 | 大连理工大学 | A kind of image measuring method for water level analysis in glass flume |
CN104848917A (en) * | 2015-04-20 | 2015-08-19 | 大连理工大学 | Image measuring method for analyzing water level in glass water tank |
US10803609B2 (en) | 2016-09-01 | 2020-10-13 | The Public University Corporation, The University Aizu | Image distance calculator and computer-readable, non-transitory storage medium storing image distance calculation program |
CN111862511A (en) * | 2020-08-10 | 2020-10-30 | 湖南海森格诺信息技术有限公司 | Target intrusion detection device and method based on binocular stereo vision |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2009139995A (en) | Unit and program for real time pixel matching in stereo image pair | |
US11983893B2 (en) | Systems and methods for hybrid depth regularization | |
EP2064675B1 (en) | Method for determining a depth map from images, device for determining a depth map | |
Kadambi et al. | 3d depth cameras in vision: Benefits and limitations of the hardware: With an emphasis on the first-and second-generation kinect models | |
US20130335535A1 (en) | Digital 3d camera using periodic illumination | |
Gedge et al. | Refractive epipolar geometry for underwater stereo matching | |
US20130095920A1 (en) | Generating free viewpoint video using stereo imaging | |
Wei | Converting 2d to 3d: A survey | |
KR100560464B1 (en) | Multi-view display system with viewpoint adaptation | |
US20160245641A1 (en) | Projection transformations for depth estimation | |
US20090080767A1 (en) | Method for determining a depth map from images, device for determining a depth map | |
Mulligan et al. | Stereo-based environment scanning for immersive telepresence | |
JP2001266128A (en) | Method and device for obtaining depth information and recording medium recording depth information obtaining program | |
Um et al. | Three-dimensional scene reconstruction using multiview images and depth camera | |
Abd Manap et al. | Novel view synthesis based on depth map layers representation | |
Jorissen et al. | Multi-camera epipolar plane image feature detection for robust view synthesis | |
US20230419524A1 (en) | Apparatus and method for processing a depth map | |
Islam et al. | Robust enhancement of depth images from depth sensors | |
CN107610170B (en) | Multi-view image refocusing depth acquisition method and system | |
KR101632069B1 (en) | Method and apparatus for generating depth map using refracitve medium on binocular base | |
Sharma et al. | Parameterized variety based view synthesis scheme for multi-view 3DTV | |
JP2009217496A (en) | Apparatus and program for calculating similarity index between pixels in real time | |
Tian et al. | Upsampling range camera depth maps using high-resolution vision camera and pixel-level confidence classification | |
Pelletier et al. | Real-time free viewpoint video from a range sensor and color cameras | |
Ho | Multiple Color and ToF Camera System for 3D Contents Generation |