JP2001238230A - Device for extracting three-dimensional structural information in multiple-lens stereoscopic television system - Google Patents

Device for extracting three-dimensional structural information in multiple-lens stereoscopic television system

Info

Publication number
JP2001238230A
JP2001238230A JP2000043830A JP2000043830A JP2001238230A JP 2001238230 A JP2001238230 A JP 2001238230A JP 2000043830 A JP2000043830 A JP 2000043830A JP 2000043830 A JP2000043830 A JP 2000043830A JP 2001238230 A JP2001238230 A JP 2001238230A
Authority
JP
Japan
Prior art keywords
reliability
camera
depth
depth amount
extracting
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2000043830A
Other languages
Japanese (ja)
Inventor
Ken Minoke
研 蓑毛
Yoshikazu Katayama
美和 片山
Yasuaki Kanetsugu
保明 金次
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Japan Broadcasting Corp
Original Assignee
Nippon Hoso Kyokai NHK
Japan Broadcasting Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Hoso Kyokai NHK, Japan Broadcasting Corp filed Critical Nippon Hoso Kyokai NHK
Priority to JP2000043830A priority Critical patent/JP2001238230A/en
Publication of JP2001238230A publication Critical patent/JP2001238230A/en
Pending legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To solve a problem of a conventional device for extracting three- dimensional structural information in a multi-lens stereoscopic television system that has had deteriorated estimation accuracy of a depth because of an occlusion area that is seen by one camera but not seen from other camera. SOLUTION: The device for extracting three-dimensional structural information is provided with a depth quantity calculation means 4 that calculates the depth quantity by using images photographed by any of comparison cameras and a reference camera, a depth quantity reliability calculation means 5 that sequentially calculates the reliability of the depth quantity calculated by the depth quantity calculation means and comparing the highest reliability precedingly calculated with the reliability newest calculated to provide an output of the depth quantity corresponding to the highest reliability among the calculated reliabilities, and a camera drive means 7 that moves a position of any camera among the comparison cameras every time the depth quantity reliability calculation means completes the reliability calculation.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、多眼式立体テレビ
システムにおける3次元構造情報を抽出する装置に関す
るものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an apparatus for extracting three-dimensional structure information in a multi-view stereoscopic television system.

【0002】[0002]

【従来の技術】近年、多眼式立体テレビシステムの検討
が盛んである。例えば、多眼式立体テレビ画像信号の符
号化において3次元構造情報を活用する手法(Belle L.
Tsenget al., “Multiviewpoint Video Coding with MP
EG-2 Compatibility",IEEE Trans.on CIRCUITS AND SYS
TEMS FOR VIDEO TECHNOLOGY,VOL.6,No.4,pp.414-419(19
96)) が提案されている。多眼式立体テレビ画像は高い
空間的冗長度を有するため、その圧縮符号化には3次元
構造情報を利用するのが有効である。特に、多眼式立体
テレビ信号を伝送する場合、少数の視点画像と3次元構
造情報とを伝送し、受信側で、その3次元構造情報を用
いて送られてこなかった視点間の画像を内挿するように
しているから、3次元構造情報の抽出には高い精度が要
求される。
2. Description of the Related Art In recent years, multi-view stereoscopic television systems have been actively studied. For example, a method utilizing three-dimensional structure information in encoding a multi-view stereoscopic television image signal (Belle L.
Tsenget al., “Multiviewpoint Video Coding with MP
EG-2 Compatibility ", IEEE Trans.on CIRCUITS AND SYS
TEMS FOR VIDEO TECHNOLOGY, VOL.6, No.4, pp.414-419 (19
96)) has been proposed. Since multi-view stereoscopic television images have a high degree of spatial redundancy, it is effective to use three-dimensional structure information for compression coding. In particular, when transmitting a multi-view stereoscopic television signal, a small number of viewpoint images and three-dimensional structure information are transmitted, and the image between the viewpoints that has not been transmitted using the three-dimensional structure information on the receiving side is internally stored. Since it is inserted, high accuracy is required for extracting the three-dimensional structure information.

【0003】これまで、多眼式立体テレビ画像信号から
3次元構造情報を抽出することに関しての実験結果は多
数報告されていて(例えば、Okutomi et al., “A Mult
ipleBaseline Stereo”, IEEE Trans on PATTERN ANALY
SIS AND MACHINE INTELLIGENCE,VOL.15,No.4,pp.353-36
3(1993)) 、その精度は、2眼式立体テレビ画像から抽
出する場合の抽出精度よりも良好である。多眼式立体テ
レビ画像から抽出する場合の抽出精度が良好となる理由
は、例えば、3眼式以上の場合は2眼式の場合に比べて
各カメラから見えない領域(オクルージョン領域)が減
少し、奥行き量の精度が高くなるからである。この性質
を利用して、多眼式立体テレビ画像信号から3次元構造
情報を抽出する抽出システム(距離計測システム)が複
数開発されている。
Hitherto, many experimental results have been reported on extracting three-dimensional structural information from a multi-view stereoscopic television image signal (for example, see Okutomi et al., “A Mult”).
ipleBaseline Stereo ”, IEEE Trans on PATTERN ANALY
SIS AND MACHINE INTELLIGENCE, VOL.15, No.4, pp.353-36
3 (1993)), the accuracy is better than the extraction accuracy when extracting from a two-lens stereoscopic TV image. The reason why the extraction accuracy in the case of extracting from a multi-view stereoscopic television image is good is that, for example, in the case of a three-view type or more, the area invisible from each camera (occlusion area) is reduced as compared with the case of a binocular type. This is because the accuracy of the depth amount increases. Using this property, a plurality of extraction systems (distance measurement systems) for extracting three-dimensional structure information from a multi-view stereoscopic television image signal have been developed.

【0004】[0004]

【発明が解決しようとする課題】3次元構造情報を精度
よく抽出するためには、カメラから見えない領域である
オクルージョン領域が少なくなるように多数台のカメラ
を配置し、被写体を撮影しなくてはならない。そこで、
Kiyohide Satoh et al.,“Passive Depth Acquisition
for 3D Image Displays",IEICE Trans.Inf.& Syst.,Vo
l.E77-D,No.9,pp.949-957(1994)) 、や Jong-Il Park e
t al., “Image-Based Rendering from Multi-View Ima
ges",映像情報メディア学会誌 Vol.52,No.3,pp.371-376
(1998))では、オクルージョン領域の問題を解決するた
めに、カメラの台数を増やし、オクルージョン領域が生
じないようにカメラを配置した。しかし、広範囲にわた
ってオクルージョン領域を生じないようにカメラを配置
するためには、数十台もしくはそれ以上の台数のカメラ
を配置する必要があり、そのため、装置が大型化するだ
けでなく、カメラの台数を増やしてもオクルージョン領
域を完全になくすことは難しいという解決すべき課題が
あった。
In order to accurately extract three-dimensional structure information, a large number of cameras are arranged so as to reduce the occlusion area, which is an area that cannot be seen by the camera, without photographing a subject. Not be. Therefore,
Kiyohide Satoh et al., “Passive Depth Acquisition
for 3D Image Displays ", IEICE Trans.Inf. & Syst., Vo
l.E77-D, No. 9, pp. 949-957 (1994)), and Jong-Il Park e
t al., “Image-Based Rendering from Multi-View Ima
ges ", Journal of the Institute of Image Information and Television Engineers Vol.52, No.3, pp.371-376
(1998)), in order to solve the problem of the occlusion area, the number of cameras was increased, and the cameras were arranged so that the occlusion area did not occur. However, in order to arrange cameras so as not to generate an occlusion area over a wide area, it is necessary to arrange dozens or more cameras, which not only increases the size of the apparatus but also the number of cameras There is a problem to be solved that it is difficult to completely eliminate the occlusion region even if the number of occlusions is increased.

【0005】また、上述した従来の多眼式立体テレビ画
像信号から3次元構造情報を抽出する3次元構造情報抽
出システム(距離計測システム)では、基準とするカメ
ラ(以下、基準カメラと言う)に複数のカメラ(以下、
参照カメラと言う)を接近させて配置し、これら基準カ
メラと参照カメラの両画像間の視差量を求め、その求め
た視差量を奥行き量に換算している。奥行き量の推定精
度に対する要求条件は用途によって異なるが、多眼式立
体テレビ画像信号の符号化を目的とした3次元構造情報
の抽出では非常に高い推定精度が要求されるのに対し、
この従来の装置による奥行き量の推定精度では未だ不十
分である。
In the above-described conventional three-dimensional structure information extraction system (distance measurement system) for extracting three-dimensional structure information from a multi-view stereoscopic television image signal, a reference camera (hereinafter referred to as a reference camera) is used. Multiple cameras (hereafter,
(Referred to as a reference camera) are arranged close to each other, the amount of parallax between the images of the reference camera and the reference camera is obtained, and the obtained amount of parallax is converted into the amount of depth. Although the requirements for the estimation accuracy of the depth amount differ depending on the application, the extraction of the three-dimensional structure information for the purpose of encoding the multi-view stereoscopic television image signal requires a very high estimation accuracy,
The accuracy of estimating the depth by the conventional device is still insufficient.

【0006】多眼式立体テレビ画像から上記距離計測シ
ステムによって得られる奥行き量の推定精度は、あるカ
メラからは見えても他のカメラからは見えない領域、い
わゆるオクルージョン領域により劣化する。オクルージ
ョン領域では奥行き量の推定が不可能であるため、撮影
条件に工夫が必要となる。また、撮影するカメラの台数
を増加して、オクルージョン領域を減らし、奥行き量の
推定精度を改善することはできる。しかし、これでは、
上述したように装置が大型化し、また、カメラの台数が
多くなる分だけカメラの校正作業も繁雑になる。従っ
て、使用するカメラの台数はできるだけ少ないことが望
ましい。
[0006] The accuracy of estimating the depth obtained from the multi-view stereoscopic television image by the distance measurement system is degraded by an area that is visible from a certain camera but is invisible from other cameras, a so-called occlusion area. Since it is impossible to estimate the depth in the occlusion area, it is necessary to devise shooting conditions. Further, it is possible to increase the number of cameras to be photographed, reduce the occlusion area, and improve the accuracy of estimating the depth amount. But in this,
As described above, the size of the apparatus is increased, and the camera calibration work becomes complicated as the number of cameras increases. Therefore, it is desirable to use as few cameras as possible.

【0007】そこで本発明の目的は、カメラの台数を増
やすことなくオクルージョン領域を減少させ、以て、奥
行き量の推定精度を高めた多眼式立体テレビシステムに
おける3次元構造情報を抽出する装置を提供することに
ある。
An object of the present invention is to provide an apparatus for extracting three-dimensional structure information in a multi-view stereoscopic television system in which the occlusion area is reduced without increasing the number of cameras, and thus the accuracy of depth estimation is improved. To provide.

【0008】[0008]

【課題を解決するための手段】上記目的を達成するため
に、本発明による多眼式立体テレビシステムにおける3
次元構造情報を抽出する装置は、従来の多眼式立体テレ
ビ画像信号から3次元構造情報を抽出する3次元構造情
報抽出システムにおいては、すべてのカメラの位置関係
が固定である(各カメラの位置が固定されている)ため
に、上述したオクルージョン領域に関する課題に対して
の対策は困難で、カメラの台数を増加させてオクルージ
ョン領域を減らしたり、オクルージョン領域の奥行き量
を推定して補間するなどしていたが、元来、オクルージ
ョン領域は、被写体の奥置きとカメラの位置との関係に
よって発生するものであるため、カメラの位置を移動さ
せることによりオクルージョン領域を減少させることが
できるという発想に基づいてなしたものである。
SUMMARY OF THE INVENTION In order to achieve the above object, a multi-view stereoscopic television system according to the present invention is provided.
In a conventional three-dimensional structure information extraction system that extracts three-dimensional structure information from a multi-view stereoscopic television image signal, a device that extracts three-dimensional structure information has a fixed positional relationship between all cameras (the position of each camera). Is fixed), it is difficult to take measures against the above-mentioned problems related to the occlusion area. However, originally, the occlusion area is generated by the relationship between the depth of the subject and the position of the camera, so based on the idea that the occlusion area can be reduced by moving the position of the camera. It's something I've done.

【0009】すなわち、本発明による多眼式立体テレビ
システムにおける3次元構造情報を抽出する装置は、複
数の参照カメラのうちのいずれかのカメラと基準カメラ
とのそれぞれによって撮影された各画像を用いて奥行き
量を算出する奥行き量算出手段、該奥行き量算出手段に
より算出した奥行き量の信頼性を順次算出し、従前に算
出した最大の信頼性と最新に算出した信頼性とを比較す
ることにより、算出した信頼性のなかで最大の信頼性に
対応する奥行き量を出力する奥行き量信頼性算出手段、
および該奥行き量信頼性算出手段において、信頼性の算
出が終了する毎に、前記複数の参照カメラのうちのいず
れかのカメラの位置を移動させるためのカメラ駆動手段
を具えてなることを特徴とするものである。
That is, an apparatus for extracting three-dimensional structure information in a multi-view stereoscopic television system according to the present invention uses each image taken by one of a plurality of reference cameras and a reference camera. Depth amount calculation means for calculating the depth amount by sequentially calculating the reliability of the depth amount calculated by the depth amount calculation means, by comparing the previously calculated maximum reliability with the latest calculated reliability A depth amount reliability calculating means for outputting a depth amount corresponding to the maximum reliability among the calculated reliability,
And the depth amount reliability calculating means includes a camera driving means for moving the position of any one of the plurality of reference cameras every time the calculation of the reliability is completed. Is what you do.

【0010】また、本発明による多眼式立体テレビシス
テムにおける3次元構造情報を抽出する装置は、前記奥
行き量信頼性算出手段が、前記複数の参照カメラのうち
のいずれかのカメラと基準カメラとのそれぞれによって
撮影された各画像を用いて推定される視差量の評価関数
値と、奥行き量の連続性との線形和を求めて該線形和を
前記奥行き量の信頼性を表す指標とすることを特徴とす
るものである。
Further, in the apparatus for extracting three-dimensional structure information in a multi-view stereoscopic television system according to the present invention, the depth amount reliability calculating means may include any one of the plurality of reference cameras and a reference camera. Calculating a linear sum of the evaluation function value of the parallax amount estimated using each image captured by each of the images and the continuity of the depth amount, and using the linear sum as an index representing the reliability of the depth amount. It is characterized by the following.

【0011】[0011]

【発明の実施の形態】以下に添付図面を参照し、発明の
実施の形態に基づいて本発明を詳細に説明する。図1
は、本発明による多眼式立体テレビシステムにおける3
次元構造情報を抽出する装置の一実施形態をブロック図
にて示している。なお、本実施形態では、使用するカメ
ラの台数を3台とした。図1において、1は基準カメ
ラ、2−1は参照カメラA、2−2は参照カメラB、3
は視差量推定部、4は奥行き量算出部、5は奥行き量信
頼性算出部、6は評価関数算出部、および7はカメラ駆
動部である。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS The present invention will be described in detail below based on embodiments of the present invention with reference to the accompanying drawings. FIG.
Represents 3 in the multi-view stereoscopic television system according to the present invention.
One embodiment of an apparatus for extracting dimensional structure information is shown in a block diagram. In the present embodiment, three cameras are used. In FIG. 1, 1 is a reference camera, 2-1 is a reference camera A, 2-2 is a reference camera B, 3
Is a parallax amount estimating unit, 4 is a depth amount calculating unit, 5 is a depth amount reliability calculating unit, 6 is an evaluation function calculating unit, and 7 is a camera driving unit.

【0012】また、図2は各カメラが配置される位置を
示し、図1中、符号2−1および2−2で示される参照
カメラAおよび参照カメラBは、図1中、符号1で示さ
れる基準カメラからそれぞれb1 およびb2 で示される
初期位置(すなわち、移動させる前の位置)にあること
を示している。なお、ここでは、視差量は整数画素精度
で推定し、水平方向の視差量のみを処理の対象とする。
また、3台のカメラ(基準カメラ、参照カメラAおよび
参照カメラB)の光軸はすべて平行で、かつ、すべての
カメラのレンズ中心を含む平面と光軸とは直交している
ものとする。
FIG. 2 shows a position where each camera is arranged. In FIG. 1, reference cameras A and B shown by reference numerals 2-1 and 2-2 are shown by reference numeral 1 in FIG. This indicates that the camera is at an initial position (that is, a position before moving) indicated by b 1 and b 2 from the reference camera. Here, the amount of parallax is estimated with integer pixel precision, and only the amount of parallax in the horizontal direction is to be processed.
The optical axes of the three cameras (reference camera, reference camera A and reference camera B) are all parallel, and the plane including the lens centers of all the cameras is orthogonal to the optical axis.

【0013】図1および図2を参照して動作について説
明する。まず、視差量推定部3(図1参照)において
は、基準カメラ(図1,2に符号1で示す)の画像の各
画素について、参照カメラA(図1,2に符号2−1で
示す)から基準カメラへの初期位置での視差量dを推定
する。視差量dの推定にはブロックマッチング法を用い
る。ブロックマッチング法は視差ベクトルや動きベクト
ルを求めるために広く使われている既知の方法で、ブロ
ック単位にベクトル量が検出される。
The operation will be described with reference to FIGS. First, in the parallax estimating unit 3 (see FIG. 1), each pixel of the image of the reference camera (indicated by reference numeral 1 in FIGS. 1 and 2) is referred to by the reference camera A (indicated by reference numeral 2-1 in FIGS. 1 and 2). ) Is estimated at the initial position from the reference camera to the reference camera. The block matching method is used to estimate the amount of parallax d. The block matching method is a known method that is widely used to obtain a disparity vector and a motion vector, and a vector amount is detected for each block.

【0014】図3は、ブロックマッチング法を説明して
いて、(a)は1フレーム前の、および(b)は現時点
の画像をそれぞれ示し、(a)に示す画像から(b)に
示す画像への方向を含めた移動量が動きベクトルであ
り、この場合の視差ベクトルに相当する。図3におい
て、いま、マッチングウィンドウとしての機能を有し、
図3(a)に示すテンプレートを、L画素を1ブロック
として分割されたテンプレートとし、このテンプレート
を適当な探索範囲(図3(a)参照)内で動かし、似た
ブロックが図3(b)に示す画像中にないかどうかを探
索する。その結果、両画像間において最も誤差が小さく
なったときのずれを(1)式により求め、その求めたず
れを参照カメラAから基準カメラへの視差量d(2つの
カメラ間の視差量)であると推定する。なお、上記適当
な探索範囲とは、参照カメラAと基準カメラの2つのカ
メラ画像の画素値を用いることのできる範囲であるとす
る。
FIGS. 3A and 3B illustrate the block matching method, in which FIG. 3A shows an image one frame before, and FIG. 3B shows an image at the present time, respectively, from the image shown in FIG. The movement amount including the direction to is the motion vector, and corresponds to the disparity vector in this case. In FIG. 3, it now has a function as a matching window,
The template shown in FIG. 3A is a template divided into L pixels as one block, and this template is moved within an appropriate search range (see FIG. 3A), and a similar block is obtained as shown in FIG. Is searched for in the image shown in. As a result, a shift when the error is minimized between the two images is obtained by Expression (1), and the obtained shift is calculated by a parallax d from the reference camera A to the reference camera (a parallax between the two cameras). It is estimated that there is. Note that the appropriate search range is a range in which pixel values of two camera images of the reference camera A and the reference camera can be used.

【数1】 ここに、 f(n):基準カメラ画像の画素値 g(n):参照カメラ画像の画素値 L:マッチングウィンドウ内の画素数(Equation 1) Where, f (n): pixel value of reference camera image g (n): pixel value of reference camera image L: number of pixels in matching window

【0015】全く同様に、ブロックマッチング法を用い
て図1,2に符号2−2で示される参照カメラBから図
1,2に符号1で示す基準カメラへの推定視差量を求め
る。以上により、参照カメラAから基準カメラへの、ま
た、参照カメラBから基準カメラへの視差量d(ここで
は、ともにdで表す)をそれぞれ推定したことになる。
これら推定視差量dは、図1,2にそれぞれ符号2−1
および2−2で示される参照カメラAおよび参照カメラ
Bがともに初期位置にあるときの値である。
In the same manner, an estimated amount of parallax from the reference camera B indicated by reference numeral 2-2 in FIGS. 1 and 2 to the reference camera indicated by reference numeral 1 in FIGS. As described above, the parallax amounts d (here, both represented by d) from the reference camera A to the reference camera and from the reference camera B to the reference camera are estimated.
These estimated parallax amounts d are shown in FIGS.
And 2-2 are the values when both reference camera A and reference camera B are at the initial position.

【0016】これら求められた推定視差量(上記初期位
置に対応して、初期推定視差量と言う)dを図1に示す
奥行き量算出部4に供給し、推定視差量を(2)式(こ
の(2)式は、参照カメラAに対する奥行き量の計算式
で、参照カメラBに対しては、b1 で示すカメラ位置
(図2参照)をカメラ位置b2 に置き替えたものにな
る。)により奥行き量Zに換算する。この換算された奥
行き量を初期奥行き量と言う。
The obtained estimated amount of parallax (referred to as the initial estimated amount of parallax corresponding to the initial position) d is supplied to the depth amount calculator 4 shown in FIG. 1, and the estimated amount of parallax is calculated by the following equation (2). the equation (2) is a formula for the depth amount with respect to the reference camera a, with respect to the reference camera B, comprising a camera position indicated by b 1 (see FIG. 2) to that replaced the camera position b 2. ) Is converted to the depth amount Z. This converted depth is referred to as an initial depth.

【数2】 ここに、 f:レンズの焦点距離(Equation 2) Where: f: focal length of the lens

【0017】図4は、本発明による多眼式立体テレビシ
ステムにおける3次元構造情報を抽出する装置による信
号処理の過程をフローチャートにて示している。図4に
おいて、ステップ1(S1)では、選択された1台の参
照カメラと基準カメラでそれぞれ撮像された画像が入力
され、ステップ2(S2)で視差量dを推定し、そして
ステップ3(S3)で視差量dを奥行き量Zに換算(算
出)する。ここまでが、上記において説明したところで
ある。また、ここまでは、参照カメラAと参照カメラB
は、いずれも初期位置にあり(移動していない)、従っ
て、初期視差量dおよび初期奥行き量Zが得られている
段階にある。
FIG. 4 is a flowchart showing a process of signal processing by a device for extracting three-dimensional structure information in a multiview stereoscopic television system according to the present invention. In FIG. 4, in step 1 (S1), images picked up by one selected reference camera and reference camera are input, and in step 2 (S2), the amount of parallax d is estimated, and then in step 3 (S3). ), The amount of parallax d is converted (calculated) into the amount of depth Z. This is what has been described above. Up to this point, reference camera A and reference camera B
Are in the initial position (not moving), and are in a stage where the initial parallax amount d and the initial depth amount Z are obtained.

【0018】次に、上記により算出した初期奥行き量Z
を、その初期奥行き量Zの信頼性を算出するために、図
1に示す奥行き量信頼性算出部5に供給する(図4中に
ステップ4(S4)で示される奥行き量信頼性を表す指
標R算出)。奥行き量信頼性算出部5では、奥行き量の
連続性が良好であれば奥行き量の信頼性が高いことが分
かっているから、まず、奥行き量Zの連続性を検証す
る。各画素の奥行き量Zについて、(3)式により周辺
8画素との差分の絶対値和を求め、これを奥行き量の連
続性を表す指標Dと定義する。この奥行き量の連続性を
表す指標Dの値が大きければ大きい程奥行き量の連続性
が良くないことを意味し、従って、奥行き量の信頼性は
低いことになる。このため、奥行き量の連続性を表す指
標Dが予め定めたしきい値εを満たさない画素を、視差
の再推定の対象とする。
Next, the initial depth Z calculated as described above
Is supplied to the depth amount reliability calculation unit 5 shown in FIG. 1 to calculate the reliability of the initial depth amount Z (an index indicating the depth amount reliability shown in step 4 (S4) in FIG. 4). R calculation). The depth amount reliability calculator 5 first verifies the continuity of the depth amount Z because it is known that the reliability of the depth amount is high if the continuity of the depth amount is good. With respect to the depth Z of each pixel, the sum of the absolute values of the differences from the eight peripheral pixels is calculated by equation (3), and this is defined as an index D representing the continuity of the depth. The greater the value of the index D representing the continuity of the depth amount, the lower the continuity of the depth amount, which means that the reliability of the depth amount is lower. For this reason, pixels for which the index D indicating the continuity of the depth amount does not satisfy the predetermined threshold ε are set as the targets of the re-estimation of the parallax.

【数3】 ここに、 Z(n):画素nにおける奥行き量 i:周辺画素数 W:連続性検証ウィンドウの大きさ(Equation 3) Here, Z (n): Depth amount at pixel n i: Number of peripheral pixels W: Size of continuity verification window

【0019】また、奥行き量信頼性算出部5は、この奥
行き量の連続性を表す指標Dを用いて奥行き量の信頼性
を表す指標Rを(4)式により算出する。 R=E+αD (4) ここに、 E:評価関数 α:定数
Further, the depth amount reliability calculating section 5 calculates an index R indicating the reliability of the depth amount by using the index D indicating the continuity of the depth amount according to equation (4). R = E + αD (4) where, E: evaluation function α: constant

【0020】上記(4)式において、評価関数Eは、参
照カメラAおよび参照カメラBごとに、それぞれのカメ
ラにより撮影した画像のマッチングウィンドウ(図3に
示すテンプレート)内の各画素における輝度値の二乗誤
差の和を加え合わせた値である評価関数Eを(5)式に
より算出したものである。図1に示す評価関数算出部6
はこの演算((5)式の演算)を行うためのものであ
る。
In the above equation (4), the evaluation function E is, for each of the reference camera A and the reference camera B, a luminance value of a pixel in a matching window (template shown in FIG. 3) of an image taken by each camera. The evaluation function E, which is a value obtained by adding the sum of the square errors, is calculated by the equation (5). Evaluation function calculator 6 shown in FIG.
Is for performing this operation (operation of the expression (5)).

【数4】 ここに、 k:参照カメラの台数(本実施形態では2台) d:参照カメラの位置b1 に相当する視差量(Equation 4) Here, k: number of the reference camera (two in this embodiment) d: amount of parallax corresponding to the position b 1 of the reference camera

【0021】なお、この評価関数Eの値が大きければ大
きい程、参照カメラAまたはBと基準カメラとの輝度値
の差が大きく、輝度から求められた対応点の相関は低
く、従って求められた画素値の信頼性は低い。以上、い
ずれにしても、奥行き量の信頼性を表す指標Rは、その
値が大きければ大きい程信頼性は低いことになる。
The larger the value of the evaluation function E, the larger the difference between the luminance values of the reference camera A or B and the reference camera, and the lower the correlation between the corresponding points obtained from the luminance, the lower the correlation. The reliability of the pixel value is low. In any case, the greater the value of the index R representing the reliability of the depth amount, the lower the reliability.

【0022】以上は、複数の参照カメラ(本実施形態で
は図1,2に符号2−1および2−2で示される参照カ
メラAおよび参照カメラB)がすべて初期位置、すなわ
ちb 1 およびb2 の位置(図2参照)にあるものとし
た。次に、複数の参照カメラの位置を移動(本実施形態
について言えば、図2に示すb1 およびb2 の長さを変
える)させ、再度撮影を行って得られる各カメラ出力画
像について、上述と同じことを行う。
The above is a description of a plurality of reference cameras (in this embodiment,
Are the reference cards indicated by reference numerals 2-1 and 2-2 in FIGS.
Camera A and reference camera B) are all in their initial positions,
Chib 1 And bTwo (See Figure 2)
Was. Next, the positions of a plurality of reference cameras are moved (this embodiment
As for b, shown in FIG.1 And bTwo Change the length of
Each camera output image
For images, do the same as above.

【0023】いま、参照カメラAがb1 、参照カメラB
がb2 (図2参照)である各カメラの初期位置に対す
る、初期奥行量が(2)式により算出され、また、奥行
き量の信頼性を表す指標Rが、奥行き量信頼性算出部5
(図1参照)において(4)式により算出されたとす
る。奥行き量信頼性算出部5は、算出した奥行き量信頼
性の値を内蔵するメモリに保持するとともに図1に示す
カメラ駆動部7に参照カメラAおよび参照カメラBのい
ずれか(奥行き量の算出に関係する参照カメラ)の位置
を、参照カメラが基準カメラの撮像領域と共通な撮像領
域をもつ3次元空間の範囲で小さくし、あるいは大きく
する等、カメラ位置の変更の指示を与える(図4のフロ
ーチャートのステップ7(S7))。
Now, the reference camera A is b 1 and the reference camera B is
For but b 2 (see FIG. 2) in which initial positions of the cameras is calculated by the initial depth amount (2), also, the index R which represents the depth of reliability, the depth amount reliability calculation unit 5
Suppose that it was calculated by the equation (4) in (see FIG. 1). The depth amount reliability calculation unit 5 stores the calculated value of the depth amount reliability in a built-in memory, and sends one of the reference camera A and the reference camera B (for calculating the depth amount) to the camera driving unit 7 shown in FIG. An instruction to change the camera position is given, such as making the position of the related reference camera smaller or larger in a three-dimensional space where the reference camera has an imaging area common to the imaging area of the reference camera (see FIG. 4). Step 7 (S7) of the flowchart.

【0024】この指示に基づいてカメラ駆動部7により
駆動され、得られたカメラの新しい位置について、何ら
かの奥行き量信頼性を表す指標Rの値が得られるが、こ
の値を、図4に示すフローチャートのステップ5(S
5)で、上記内蔵するメモリに保持している初期奥行き
量の奥行き量信頼性を表す指標Rの値と比較する。
The value of the index R, which is driven by the camera driving unit 7 based on the instruction and indicates the reliability of the depth of the obtained new position of the camera, is obtained. Step 5 (S
In 5), the initial depth amount is compared with the value of the index R representing the depth amount reliability held in the built-in memory.

【0025】このようにして、カメラの位置を順次変更
しては、変更前の最も高い奥行き量信頼性を表す指標R
の値と変更後の奥行き量信頼性を表す指標Rの値とを比
較し、最終的に奥行き量信頼性を表す指標Rの値が最も
低い値をとるとき(このときが、奥行き量信頼性が最も
高い)の奥行き量を本発明で抽出すべき高精度な奥行き
量、すなわち3次元構造情報であるとして、奥行き量の
更新を終了して図1に示す奥行き量信頼性算出部5から
出力させる(図4のフローチャートのステップ6(S
6))。
As described above, when the position of the camera is sequentially changed, the index R indicating the highest depth amount reliability before the change is obtained.
Is compared with the value of the index R representing the depth amount reliability after the change, and when the value of the index R representing the depth amount reliability finally takes the lowest value (at this time, the depth amount reliability Is determined to be a high-precision depth amount to be extracted by the present invention, that is, three-dimensional structure information, the depth amount update is completed, and the depth amount is output from the depth amount reliability calculation unit 5 shown in FIG. (Step 6 (S
6)).

【0026】[0026]

【発明の効果】本発明によれば、多眼式立体テレビシス
テムにおける参照カメラを可動とすることにより、参照
カメラを固定とした場合におけるオクルージョン領域に
起因する視差量推定の誤差をカメラの台数を増やすこと
なく低減させ、これにより、抽出された3次元構造情報
を高精度化することができる。
According to the present invention, by making the reference camera movable in the multi-view stereoscopic television system, the error of the parallax estimation caused by the occlusion area when the reference camera is fixed is reduced by the number of cameras. It is reduced without increasing, and thereby, the extracted three-dimensional structure information can be made more accurate.

【0027】また、本発明によれば、高精度な3次元構
造情報を抽出する装置を極めて少数のカメラにより実現
でき、装置の規模を縮小化することができる。
According to the present invention, a device for extracting high-precision three-dimensional structure information can be realized with an extremely small number of cameras, and the scale of the device can be reduced.

【図面の簡単な説明】[Brief description of the drawings]

【図1】 本発明による多眼式立体テレビシステムにお
ける3次元構造情報を抽出する装置の一実施形態をブロ
ック図にし示している。
FIG. 1 is a block diagram showing an embodiment of an apparatus for extracting three-dimensional structure information in a multi-view stereoscopic television system according to the present invention.

【図2】 各カメラ(基準カメラ、参照カメラAおよび
参照カメラB)が配置される位置を示している。
FIG. 2 shows a position where each camera (reference camera, reference camera A and reference camera B) is arranged.

【図3】 ブロックマッチング法を説明している。FIG. 3 illustrates a block matching method.

【図4】 本発明による多眼式立体テレビシステムにお
ける3次元構造情報を抽出する装置による信号処理の過
程をフローチャートにて示している。
FIG. 4 is a flowchart illustrating a signal processing process performed by a device for extracting three-dimensional structure information in a multiview stereoscopic television system according to the present invention.

【符号の説明】[Explanation of symbols]

1 基準カメラ 2−1 参照カメラA 2−2 参照カメラB 3 視差量推定部 4 奥行き量算出部 5 奥行き量信頼性算出部 6 評価関数値算出部 7 カメラ駆動部 REFERENCE SIGNS LIST 1 reference camera 2-1 reference camera A 2-2 reference camera B 3 parallax amount estimating unit 4 depth amount calculating unit 5 depth amount reliability calculating unit 6 evaluation function value calculating unit 7 camera driving unit

───────────────────────────────────────────────────── フロントページの続き (72)発明者 金次 保明 東京都世田谷区砧1丁目10番11号 日本放 送協会 放送技術研究所内 Fターム(参考) 2F065 AA04 AA53 DD02 FF05 JJ03 JJ05 JJ26 MM23 QQ13 QQ27 QQ29 QQ36 QQ38 QQ41 2H059 AA10 5B057 BA11 DA20 DB02 DC30 5C061 AB04 AB08  ──────────────────────────────────────────────────続 き Continuing from the front page (72) Inventor Yasuaki Kinji 1-10-11 Kinuta, Setagaya-ku, Tokyo Japan Broadcasting Corporation Broadcasting Research Institute F-term (reference) 2F065 AA04 AA53 DD02 FF05 JJ03 JJ05 JJ26 MM23 QQ13 QQ27 QQ29 QQ36 QQ38 QQ41 2H059 AA10 5B057 BA11 DA20 DB02 DC30 5C061 AB04 AB08

Claims (2)

【特許請求の範囲】[Claims] 【請求項1】 多眼式立体テレビシステムにおける3次
元構造情報を抽出する装置であって、 複数の参照カメラのうちのいずれかのカメラと基準カメ
ラとのそれぞれによって撮影された各画像を用いて奥行
き量を算出する奥行き量算出手段、 該奥行き量算出手段により算出した奥行き量の信頼性を
順次算出し、従前に算出した最大の信頼性と最新に算出
した信頼性とを比較することにより、算出した信頼性の
なかで最大の信頼性に対応する奥行き量を出力する奥行
き量信頼性算出手段、および該奥行き量信頼性算出手段
において、信頼性の算出が終了する毎に、前記複数の参
照カメラのうちのいずれかのカメラの位置を移動させる
ためのカメラ駆動手段を具えてなることを特徴とする多
眼式立体テレビシステムにおける3次元構造情報を抽出
する装置。
1. An apparatus for extracting three-dimensional structure information in a multi-view stereoscopic television system, wherein each of the three-dimensional structure information is extracted by using an image taken by one of a plurality of reference cameras and a reference camera. Depth amount calculation means for calculating the depth amount, by sequentially calculating the reliability of the depth amount calculated by the depth amount calculation means, by comparing the previously calculated maximum reliability with the latest calculated reliability, Depth amount reliability calculating means for outputting a depth amount corresponding to the maximum reliability among the calculated reliability, and in the depth amount reliability calculating means, each time the calculation of the reliability is completed, the plurality of references Extracting three-dimensional structure information in a multi-view stereoscopic television system, comprising camera driving means for moving the position of any one of the cameras That equipment.
【請求項2】 請求項1記載の抽出する装置において、
前記奥行き量信頼性算出手段は、前記複数の参照カメラ
のうちのいずれかのカメラと基準カメラとのそれぞれに
よって撮影された各画像を用いて推定される視差量の評
価関数値と、奥行き量の連続性との線形和を求めて該線
形和を前記奥行き量の信頼性を表す指標とすることを特
徴とする多眼式立体テレビシステムにおける3次元構造
情報を抽出する装置。
2. The extracting device according to claim 1, wherein
The depth amount reliability calculating means includes an evaluation function value of a parallax amount estimated using each image captured by each of the plurality of reference cameras and a reference camera, and a depth amount An apparatus for extracting three-dimensional structure information in a multi-view stereoscopic television system, wherein a linear sum with continuity is obtained and the linear sum is used as an index indicating the reliability of the depth amount.
JP2000043830A 2000-02-22 2000-02-22 Device for extracting three-dimensional structural information in multiple-lens stereoscopic television system Pending JP2001238230A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2000043830A JP2001238230A (en) 2000-02-22 2000-02-22 Device for extracting three-dimensional structural information in multiple-lens stereoscopic television system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2000043830A JP2001238230A (en) 2000-02-22 2000-02-22 Device for extracting three-dimensional structural information in multiple-lens stereoscopic television system

Publications (1)

Publication Number Publication Date
JP2001238230A true JP2001238230A (en) 2001-08-31

Family

ID=18566687

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000043830A Pending JP2001238230A (en) 2000-02-22 2000-02-22 Device for extracting three-dimensional structural information in multiple-lens stereoscopic television system

Country Status (1)

Country Link
JP (1) JP2001238230A (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008507682A (en) * 2004-07-23 2008-03-13 3シェイプ・アクティーゼルスカブ Adaptive 3D scanning
JP2010021843A (en) * 2008-07-11 2010-01-28 Nippon Telegr & Teleph Corp <Ntt> Multi-viewpoint distance information encoding method, decoding method, encoding device, decoding device, encoding program, decoding program and computer-readable recording medium
JP2010251878A (en) * 2009-04-13 2010-11-04 National Institute Of Information & Communication Technology Depth estimating device, depth estimating method, and depth estimate program
JP2013527646A (en) * 2010-06-08 2013-06-27 エスケー プラネット カンパニー、リミテッド 3D image error improving method and apparatus
KR101377325B1 (en) * 2009-12-21 2014-03-25 한국전자통신연구원 Stereoscopic image, multi-view image and depth image acquisition appratus and its control method
JP2018519697A (en) * 2015-04-23 2018-07-19 オステンド・テクノロジーズ・インコーポレーテッド A method for synthesizing a light field in which omnidirectional parallax is compressed using depth information

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008507682A (en) * 2004-07-23 2008-03-13 3シェイプ・アクティーゼルスカブ Adaptive 3D scanning
JP4892480B2 (en) * 2004-07-23 2012-03-07 3シェイプ・アクティーゼルスカブ Adaptive 3D scanning
JP2010021843A (en) * 2008-07-11 2010-01-28 Nippon Telegr & Teleph Corp <Ntt> Multi-viewpoint distance information encoding method, decoding method, encoding device, decoding device, encoding program, decoding program and computer-readable recording medium
JP2010251878A (en) * 2009-04-13 2010-11-04 National Institute Of Information & Communication Technology Depth estimating device, depth estimating method, and depth estimate program
KR101377325B1 (en) * 2009-12-21 2014-03-25 한국전자통신연구원 Stereoscopic image, multi-view image and depth image acquisition appratus and its control method
JP2013527646A (en) * 2010-06-08 2013-06-27 エスケー プラネット カンパニー、リミテッド 3D image error improving method and apparatus
US8503765B2 (en) 2010-06-08 2013-08-06 Sk Planet Co., Ltd. Method and apparatus for correcting errors in stereo images
JP2018519697A (en) * 2015-04-23 2018-07-19 オステンド・テクノロジーズ・インコーポレーテッド A method for synthesizing a light field in which omnidirectional parallax is compressed using depth information
JP7036599B2 (en) 2015-04-23 2022-03-15 オステンド・テクノロジーズ・インコーポレーテッド A method of synthesizing a light field with compressed omnidirectional parallax using depth information

Similar Documents

Publication Publication Date Title
JP5472328B2 (en) Stereo camera
EP2328125B1 (en) Image splicing method and device
CN109074624B (en) Three-dimensional reconstruction method
KR20170140187A (en) Method for fully parallax compression optical field synthesis using depth information
EP2132707A2 (en) Calibrating a camera system
CN107545586B (en) Depth obtaining method and system based on light field polar line plane image local part
CN113711276A (en) Scale-aware monocular positioning and mapping
JP2012079251A (en) Image processing apparatus and image processing system
CN115035235A (en) Three-dimensional reconstruction method and device
JP3008875B2 (en) Subject extraction device
TWI528783B (en) Methods and systems for generating depth images and related computer products
EP3832600A1 (en) Image processing device and three-dimensional measuring system
BR112021008558A2 (en) apparatus, disparity estimation method, and computer program product
JPH0814861A (en) Method of measuring three-dimensional shape and device therefor
JP2001238230A (en) Device for extracting three-dimensional structural information in multiple-lens stereoscopic television system
JP2001256482A (en) Device and method for generating parallax image
CN111292380B (en) Image processing method and device
CN111429571A (en) Rapid stereo matching method based on spatio-temporal image information joint correlation
CN104463958A (en) Three-dimensional super-resolution method based on disparity map fusing
Knorr et al. From 2D-to stereo-to multi-view video
JPH07234111A (en) Measuring method for three-dimensional object
KR20150119770A (en) Method for measuring 3-dimensional cordinates with a camera and apparatus thereof
Lim et al. An efficient multi-view generation method from a single-view video based on affine geometry information
Wang et al. An effective calibration procedure for correction of parallax unmatched image pairs
Pedersini et al. A multi-view trinocular system for automatic 3D object modeling and rendering