JPH03115916A - Distance image generation system - Google Patents

Distance image generation system

Info

Publication number
JPH03115916A
JPH03115916A JP1254364A JP25436489A JPH03115916A JP H03115916 A JPH03115916 A JP H03115916A JP 1254364 A JP1254364 A JP 1254364A JP 25436489 A JP25436489 A JP 25436489A JP H03115916 A JPH03115916 A JP H03115916A
Authority
JP
Japan
Prior art keywords
distance
parallax
image
calculates
point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP1254364A
Other languages
Japanese (ja)
Other versions
JP2813211B2 (en
Inventor
Yuji Nakagawa
祐治 中川
Tomoko Segawa
智子 瀬川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP1254364A priority Critical patent/JP2813211B2/en
Publication of JPH03115916A publication Critical patent/JPH03115916A/en
Application granted granted Critical
Publication of JP2813211B2 publication Critical patent/JP2813211B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Abstract

PURPOSE:To reduce errors included in distance information on a section connecting two points on an object by converting parallax to the same point on the object which is obtained from two pieces of image information, and then interpolating the distance information and calculating distance information on the surface of the object. CONSTITUTION:The object is observed in different directions to obtain two pieces of image information 111 and 113, to which two picture elements which are estimated to correspond to the same point on the object are made to correspond in order. A parallax calculating means 117 calculates the parallax from said two picture elements and a distance calculating means 119 calculates the distance to the point on the object corresponding to the picture elements by using the parallax. A distance interpolating means 121 calculates distance information on a noncorresponding picture element by interpolation according to the distance information on the corresponding point on the object. A three- dimensional coordinate calculating means 123 calculates the three-dimensional coordinate values of the corresponding point by using the positions and distances of the respective picture elements.

Description

【発明の詳細な説明】 〔概 要〕 対象物を両眼立体視して生成される三次元情報に基づい
て、対象物の立体認識を行なう距離画像生成方式に関し
、 対象物上の2つの点を結ぶ区間の距離情報に含まれる誤
差を低減できることを目的とし、対象物を異なる方向か
ら観測して得られた2つの画像情報から、前記対象物上
の同一点に対応すると推定される2画素を順次対応付け
る対応付は手段と、対応付けられた2画素からその視差
を算出する視差算出手段と、視差を用いて、各画素に対
応する対象物上の点に対する距離計算を行なう距離算出
手段と、各画素に対応する対象物上の点の距離情報をも
とに、各画像情報から対象物の表面を構成する未対応画
素の距離情報を内挿して算出する距離内挿手段と、各画
素の位置および距離を用いて、対応する点の三次元座標
値を算出する三次元座標算出手段とを備えて構成される
[Detailed Description of the Invention] [Summary] This invention relates to a distance image generation method that performs stereoscopic recognition of an object based on three-dimensional information generated by binocularly viewing the object. The purpose is to reduce the error included in the distance information of the section connecting the two pixels that are estimated to correspond to the same point on the object from two image information obtained by observing the object from different directions. a disparity calculation means that calculates the parallax from two associated pixels, and a distance calculation means that calculates the distance to a point on the object corresponding to each pixel using the parallax. , distance interpolation means for interpolating and calculating distance information of uncorresponding pixels forming the surface of the object from each image information based on distance information of a point on the object corresponding to each pixel; and three-dimensional coordinate calculation means for calculating the three-dimensional coordinate value of the corresponding point using the position and distance of the point.

〔産業上の利用分野〕[Industrial application field]

本発明は、対象物を両眼立体視して生成される三次元情
報に基づいて、対象物の立体認識を行なう距離画像生成
方式に関する。
The present invention relates to a distance image generation method that performs stereoscopic recognition of an object based on three-dimensional information generated by binocularly viewing the object.

特に、本発明は、対象物を2つのカメラで観測して得ら
れた両画像情報より、対象物上の同一点までの距離を三
角測量の原理により算出し、対象物の三次元座標を求め
る距離画像生成方式に関するものである。
In particular, the present invention calculates the distance to the same point on the object using the principle of triangulation from both image information obtained by observing the object with two cameras, and determines the three-dimensional coordinates of the object. This relates to a distance image generation method.

〔従来の技術〕[Conventional technology]

第7図は、従来の距離画像生成方式を説明するブロック
図である。
FIG. 7 is a block diagram illustrating a conventional distance image generation method.

図において、対象物は、2つのカメラで観測され、左画
像211、右画像213の2つの画像情報が取り出され
る。エツジ抽出部215は、左画像211、右画像21
3より対象物のエツジを抽出する。対応付は部217は
、左画像211、右画像213の対応すると推定される
エツジを順次対応付ける。視差算出部519は、対応付
けられたエツジから視差を求めるとともに、対象物表面
の距離をことごとく求めるためにエツジ間の視差を内挿
する。距離算出部521は、視差とカメラパラメータ(
観測に用いた2つのカメラ間の距離、焦点距離等)に基
づいて、対象物までの距離情報を三角測量の原理より計
算する。三次元座標算出部225は、距離情報に基づい
て対象物表面の三次元座標値を計算する。
In the figure, the object is observed by two cameras, and two image information, a left image 211 and a right image 213, are extracted. The edge extraction unit 215 extracts a left image 211, a right image 21,
Extract the edges of the object from 3. The mapping unit 217 sequentially correlates the edges of the left image 211 and the right image 213 that are estimated to correspond. The parallax calculation unit 519 calculates the parallax from the associated edges, and also interpolates the parallax between the edges in order to calculate all the distances to the object surface. The distance calculation unit 521 calculates parallax and camera parameters (
Based on the distance between the two cameras used for observation, focal length, etc.), distance information to the object is calculated using the principle of triangulation. The three-dimensional coordinate calculation unit 225 calculates three-dimensional coordinate values of the object surface based on the distance information.

以下、第8図を参照して、対応付は部217の動作を説
明する。
The operation of the association section 217 will be described below with reference to FIG.

図において、左画像は、走査線y0上に3つのエツジa
、b、cおよび画像の両端の合計5点のエツジを有して
いる。また、右画像は、走査線y。
In the figure, the left image has three edges a on the scan line y0.
, b, c and both ends of the image. Also, the right image is the scanning line y.

上に3つのエツジd、e、fおよび画像の両端の合計5
点のエツジを有している。なお、走査線y0は、各画像
の水平方向に行なわれる走査を示す。
3 edges d, e, f on top and a total of 5 on both sides of the image
It has dotted edges. Note that the scanning line y0 indicates scanning performed in the horizontal direction of each image.

対応付は部217は、各画像の走査線y0上のエツジを
動的計画法により対応付ける。
The mapping unit 217 correlates edges on the scanning line y0 of each image using dynamic programming.

動的計画法は、左画像、右画像のエツジの組み合わせで
探索平面(左画像エツジ点数n、X右画像エツジ点数n
R個のノードを持つ)を構成し、対象物の例えば両端に
対応するノードOからノードMまでに到る経路選択の最
適化問題として処理する方法である(参考文献、大田友
−1池田克夫著、t 子1ffl 信学会論文誌、’8
5/4 Vol、J−68D No4、「動的計画法に
よるステレオ画像の区間対応法」)。
Dynamic programming uses a combination of edges in the left and right images to create a search plane (left image edge points n, right image edge points n
This is a method of configuring a network (having R nodes) and processing it as an optimization problem of route selection from node O to node M corresponding to both ends of the object (References, Ota Tomo-1 Katsuo Ikeda Author, T. Iffl Transactions of the IEICE, '8
5/4 Vol. J-68D No. 4, "Segmental correspondence method for stereo images using dynamic programming").

以下、第9図を参照して、視差算出部219の動作につ
いて説明する。
The operation of the parallax calculation unit 219 will be described below with reference to FIG. 9.

対象物は、左画像では、走査線y0で座標aL、bLに
エツジが認識され(第9図(イ))、右画像では、走査
線y0で座標allsb11にエツジが認識される(第
9図(ロ))。
In the left image, an edge of the object is recognized at the coordinates aL and bL on the scanning line y0 (Fig. 9 (a)), and in the right image, an edge is recognized on the scanning line y0 at the coordinates allsb11 (Fig. 9). (B)).

視差は、左画像、右画像の対応するエツジがそれぞれ各
画像に表示されたときの座標の差であり、各画像で認識
される対象物の位置の横方向のずれに相当する量である
Parallax is the difference in the coordinates of corresponding edges in the left and right images when they are displayed in each image, and is an amount equivalent to the lateral shift in the position of the object recognized in each image.

視差算出部219は、左画像を基にして、座標aL、b
Lの各エツジに対応する視差(at−a、l)、(b+
、  bR)を求め(第9図(ハ)・)、点(at、、
at−aR)、(bt、 bt  bR)間の視差の内
挿を走査線単位で行なう(第9図(ハ)○)。
The parallax calculation unit 219 calculates coordinates aL, b based on the left image.
Parallax (at-a, l), (b+
, bR) (Fig. 9 (c)) and the point (at, ,
The interpolation of the parallax between at-aR) and (bt, bt bR) is performed for each scanning line (FIG. 9 (C) ◯).

以下、第1O図を参照して、距離算出部221の動作に
ついて説明する。
The operation of the distance calculation section 221 will be described below with reference to FIG. 1O.

視差(at  a*)より、カメラと対象物との距離R
1が算出され、視差(bL−bR)よりカメラと対象物
との距離R2が算出される(第10図・)。また、視差
算出手段219において視差(at   att)、(
bL  b++)間に内挿された視差より、それぞれ距
離が算出される(第10図0)。
From the parallax (at a*), the distance R between the camera and the object
1 is calculated, and the distance R2 between the camera and the object is calculated from the parallax (bL-bR) (FIG. 10). In addition, the parallax calculation means 219 calculates the parallax (at att), (
The respective distances are calculated from the parallaxes interpolated between bL b++) (FIG. 10, 0).

〔発明が解決しようとする課題〕 ところで、上述した従来の距離画像生成方式では、視差
を内挿し、これを距離に変換して対象物上の点(エツジ
)を結ぶ区間(対象物表面)の三次元情報を得ていた。
[Problems to be Solved by the Invention] By the way, in the conventional distance image generation method described above, the parallax is interpolated, and this is converted into a distance to calculate the section (object surface) connecting points (edges) on the object. I was getting 3D information.

しかし、視差算出部で行なわれる内挿は、すでに量子化
された画像単位に行なわれるために量子化レベルの誤差
を含み、この誤差を含む視差から算出される距離情報は
、視差から距離情報への変換過程でさらに大きな誤差を
含むことになる。すなわち、例えば本来滑らかに変化す
るべき面の距離が、視差の量子化レベルの制約に応した
段階的な変化となり、不自然な三次元情報が生成されて
いた(第10図○)。
However, since the interpolation performed by the parallax calculation unit is performed for each image that has already been quantized, it contains an error in the quantization level, and the distance information calculated from the parallax that includes this error is changed from the parallax to the distance information. An even larger error will be included in the conversion process. That is, for example, the distance of a surface, which should originally change smoothly, changes stepwise in accordance with the constraint of the parallax quantization level, and unnatural three-dimensional information is generated (○ in FIG. 10).

本発明は、このような点を解決するためのものであり、
対象物上の2つの点を結ぶ区間の距離情報に含まれる誤
差を低減できる距離画像生成方式を提供することを目的
としている。
The present invention is intended to solve these problems,
It is an object of the present invention to provide a distance image generation method that can reduce errors included in distance information of a section connecting two points on a target object.

〔課題を解決するための手段〕[Means to solve the problem]

第1図は、本発明の原理ブロンク図である。 FIG. 1 is a bronc diagram of the principle of the present invention.

図において、対応付は手段115は、対象物を異なる方
向から観測して得られた2つの画像情報11L1]、3
から、対象物上の同一点に対応すると推定される2画素
を順次対応付ける。
In the figure, the means 115 for associating two image information 11L1], 3 obtained by observing the object from different directions.
Then, two pixels estimated to correspond to the same point on the object are sequentially associated.

視差算出手段117は、対応付けられた2画素からその
視差を算出する。
The parallax calculation means 117 calculates the parallax from two correlated pixels.

距離算出手段119は、視差を用いて、各画素に対応す
る対象物上の点に対する距離計算を行なう。
The distance calculation means 119 uses parallax to calculate the distance to a point on the object corresponding to each pixel.

距離内挿手段121は、各画素に対応する対象物上の点
の距離情報をもとに、各画像情報から対象物の表面を構
成する未対応画素の距離情報を内挿して算出する。
The distance interpolation means 121 interpolates and calculates the distance information of uncorresponding pixels forming the surface of the object from each image information based on the distance information of the point on the object corresponding to each pixel.

三次元座標算出手段123は、各画素の位置および距離
を用いて、対応する点の三次元座標値を算出する。
The three-dimensional coordinate calculation means 123 uses the position and distance of each pixel to calculate the three-dimensional coordinate value of the corresponding point.

〔作 用〕[For production]

対象物は、異なる方向から観測されて2つの画像情報1
11.113として取り出される。2つの画像情報11
1.113は、対象物上の同一点に対応すると推定され
る2画素が順次対応付けられる。対応付けられた各画素
からその視差が取り出され、対象物上の点に対する距離
計算が行なわれる。
The object is observed from different directions and has two image information 1
11.113. Two image information 11
1.113, two pixels estimated to correspond to the same point on the object are sequentially associated. The parallax is extracted from each associated pixel, and the distance to the point on the object is calculated.

未対応画素の距離情報は、対応付けられた画素から得ら
れた距離情報を内挿して算出される。この距離から三次
元座標値が算出されて対象物の立体認識に用いられる。
Distance information of uncorresponding pixels is calculated by interpolating distance information obtained from matched pixels. Three-dimensional coordinate values are calculated from this distance and used for three-dimensional recognition of the object.

すなわち、対象物表面を構成する画素の距離情報を対象
物上の点から得られた距離情報を内挿して算出するので
、2点を結ぶ区間の距離情報に含まれる誤差を低減する
ことができる。
In other words, since the distance information of the pixels that make up the object surface is calculated by interpolating the distance information obtained from the points on the object, it is possible to reduce errors included in the distance information of the section connecting two points. .

〔実施例〕〔Example〕

以下、図面に基づいて本発明の実施例について詳細に説
明する。
Hereinafter, embodiments of the present invention will be described in detail based on the drawings.

第2図は、本発明の実施例構成を示すブロック図である
FIG. 2 is a block diagram showing the configuration of an embodiment of the present invention.

図において、2つのカメラで観測された対象物は、左画
像211、右画像213としてエツジ抽出部215に出
力される。エツジ抽出部215の出力は、対応付は部2
17に出力される。対応付は部217の出力は、視差算
出部219に出力される。視差算出部219の出力は、
距離算出部221に出力される。距離算出部221の出
力は、距離内挿部223および三次元座標算出部225
に出力される。
In the figure, the object observed by two cameras is output to the edge extraction unit 215 as a left image 211 and a right image 213. The output of the edge extraction section 215 is mapped to section 2.
17. The output of the association section 217 is output to the parallax calculation section 219. The output of the parallax calculation unit 219 is
It is output to the distance calculation section 221. The output of the distance calculation unit 221 is sent to the distance interpolation unit 223 and the three-dimensional coordinate calculation unit 225.
is output to.

ここで、第1図および第2図の対応関係を説明する。Here, the correspondence between FIG. 1 and FIG. 2 will be explained.

画像情報111.113は、左画像211、右画像21
3に相当する。
Image information 111.113 includes left image 211 and right image 21.
Corresponds to 3.

対応付は手段115は、対応付は部217に相当する。The mapping means 115 corresponds to the mapping section 217.

視差算出手段117は、視差算出部219に相当する。The parallax calculation means 117 corresponds to the parallax calculation section 219.

距離算出手段119は、距離算出半部221に相当する
The distance calculation means 119 corresponds to the distance calculation half section 221.

距離内挿手段121は、距離内挿部223に相当する。The distance interpolation means 121 corresponds to the distance interpolation section 223.

三次元座標算出手段123は、三次元座標算出部225
に相当する。
The three-dimensional coordinate calculation unit 123 includes a three-dimensional coordinate calculation unit 225
corresponds to

左画像211、右画像213は、エツジ抽出部215に
おいてエツジが抽出された後に、対応付は部217にお
いて対象物上の同一点に対応すると推定されるエツジが
対応付けられて視差算出部0 219に出力される。視差算出部219は、エンジの視
差を求めて距離算出部221に出力する。
In the left image 211 and the right image 213, after edges are extracted in the edge extraction unit 215, edges that are estimated to correspond to the same point on the object are associated in the association unit 217, and then the edges are associated with the disparity calculation unit 0 219. is output to. The parallax calculation unit 219 calculates the parallax of the edge and outputs it to the distance calculation unit 221.

距離算出部221は、この視差より距離を算出する。The distance calculation unit 221 calculates the distance from this parallax.

以下、第3図および第4図を参照して、距離算出の原理
を説明する。
The principle of distance calculation will be explained below with reference to FIGS. 3 and 4.

第3図は、観測系を説明する図である。FIG. 3 is a diagram explaining the observation system.

図において、左画像211は、観測した対象物を座標系
XL )’tで表示し、右画像213は、観測した対象
物を座標系XR3’Rで表示する。
In the figure, the left image 211 displays the observed object in the coordinate system XL't, and the right image 213 displays the observed object in the coordinate system XR3'R.

また、観測系全体では、左画像211、右画像213の
各座標系の原点を結ぶ直線をZ軸とし、左画像211、
右画像213の各座標系の原点を結ぶ直線の中点を原点
Oとし、原点Oと対象物を結ぶ直線をY軸とし、Z軸、
Y軸に垂直方向をZ軸とする三次元座標系を構成する。
In addition, in the entire observation system, the straight line connecting the origin of each coordinate system of the left image 211 and the right image 213 is the Z axis, and the left image 211,
The midpoint of the straight line connecting the origins of each coordinate system of the right image 213 is the origin O, the straight line connecting the origin O and the object is the Y axis, the Z axis,
A three-dimensional coordinate system is constructed in which the Z-axis is perpendicular to the Y-axis.

なお、左画像211、右画像213の三次元空間におけ
る位置は、両画像を撮影する2つのカメラが設置される
位置である。
Note that the positions of the left image 211 and the right image 213 in the three-dimensional space are the positions where two cameras that capture both images are installed.

第4図は、距離算出の原理を説明する図である。FIG. 4 is a diagram explaining the principle of distance calculation.

■ ■ 図は、上述した三次元座標系をZ軸方向から眺める図で
ある。
■■ The figure is a diagram of the above-mentioned three-dimensional coordinate system viewed from the Z-axis direction.

図において、左画像211の座標系の原点A、右画像2
13の座標系の原点Bは、三次元座標系でそれぞれ(−
a、0.0)、(a、0.0)であり、2つのカメラ間
の距離(基線長)は2a、両光軸のなず角度(輻較角)
は2α(0≦α〈π/2)の関係にある。
In the figure, the origin A of the coordinate system of the left image 211, the right image 2
The origin B of the 13 coordinate systems is (-
a, 0.0), (a, 0.0), the distance between the two cameras (baseline length) is 2a, and the convergence angle of both optical axes (convergence angle)
is in the relationship 2α (0≦α<π/2).

以下、対象物上の点りを観測する場合について説明する
。なお、対象物上の点りは、左画像211では座標(η
1.ηy)の点Eとなり、右画像213では座標(ξつ
、ξy)の点Fとなるものとする。また、線分DEの距
離をR14、線分DFの距離をRRとし、線分DBを延
長した直線とZ軸の交点を点G、線分D FとZ軸の交
点を点I]とする。
The case of observing a dot on an object will be described below. Note that the dot on the object has coordinates (η
1. ηy), and in the right image 213, the point F has coordinates (ξ, ξy). Also, let the distance of line segment DE be R14, the distance of line segment DF be RR, the intersection of the straight line obtained by extending line segment DB and the Z axis be point G, and the intersection of line segment DF and the Z axis be point I]. .

ΔABCとΔGHDは、相似形であるので、の関係が成
り立ち、線分DGの長さは、となる。
Since ΔABC and ΔGHD are similar, the following relationship holds true, and the length of the line segment DG is as follows.

ここで、点E(ηつ、ηy)、点F (ξ8.ξy)を
光軸に平行に三次元座標系のZ軸へ投影する関係は、 (η、ηy)→(−a −t−7/x /cosα+ 
O+ 77y)(3) (ξ8.ξy)悼(a十ξx /cosα、 Q、ξy
)(4) となる。
Here, the relationship in which point E (η, ηy) and point F (ξ8.ξy) are projected onto the Z axis of the three-dimensional coordinate system parallel to the optical axis is (η, ηy) → (-a −t− 7/x/cosα+
O+ 77y) (3) (ξ8.ξy) Mourning (a0ξx /cosα, Q, ξy
)(4) becomes.

したがって、三次元座標系における線分GHの長さは、 となる。Therefore, the length of the line segment GH in the three-dimensional coordinate system is becomes.

(5)式に示すように、線分GHは、(η9−ξ、)の
項を持ち、左画像211、右画像213で観測される対
象物の座標値の差、すなわち、視差の関数であることが
判る。
As shown in equation (5), the line segment GH has the term (η9-ξ,) and is a function of the difference in coordinate values of the object observed in the left image 211 and the right image 213, that is, the parallax. It turns out that there is something.

3 (5)式を用いて、(2)式に示した線分DCは、(6
) に変形される。
3 Using equation (5), the line segment DC shown in equation (2) can be calculated as (6
) is transformed into.

一方、点Gと左画像211のχ、y1.平面との距離を
Loとし、点Hと右画像213のXRy*平面との距離
をRoととれば、距離り。、Roと対象物の左右画像に
おける座標値η8、ξ8との関係は、 1− o = + 77 X l tan rx   
  −−−、−、、、−(7)Ro=lξ、 l ta
n α−−−−−−(8)となる。
On the other hand, point G and χ, y1. of the left image 211. If the distance to the plane is Lo, and the distance between point H and the XRy* plane of the right image 213 is Ro, then the distance is. , Ro and the coordinate values η8 and ξ8 in the left and right images of the object are as follows: 1- o = + 77 X l tan rx
−−−, −, , −(7) Ro=lξ, l ta
n α---(8).

(7)式を用いて、左画像211と点りとの距離R3゜
は、 η8く0 のとき、RL−DG−1、。−−−(9)η
8≧0 のとき、R,−DG+L。−θ■となる。
Using equation (7), the distance R3° between the left image 211 and the dot is RL-DG-1 when η8×0. ---(9)η
When 8≧0, R, -DG+L. −θ■.

また、(8)式を用いて、右画像213と点りまでの距
MR,lは、 4 ξ8〈0 のとき、RR−D C,十RO−−−CII
)ξ8≧0 のとき、RR=DG−R,−−021とな
る。
Also, using equation (8), the distance MR,l from the right image 213 to the point is RR-D C, 1RO--CII when 4 ξ8<0
) When ξ8≧0, RR=DG−R,−021.

このようにして、左画像211、右画像213が観測し
た対象物上の点(エツジ)の座標と、視差と、各画像(
カメラ)間の距離と、光軸とY軸の為す角度により、左
画像、右画像(カメラ)と対象物との距離を計算するこ
とができる。
In this way, the coordinates of the points (edges) on the object observed by the left image 211 and the right image 213, the parallax, and each image (
The distance between the left image, right image (camera) and the object can be calculated from the distance between the left and right images (camera) and the angle between the optical axis and the Y axis.

距離算出部221は、視差算出部219から出力される
対象物上の2つのエツジに対応する視差より左画像21
1と対象物との距離RLに対応する距離R1、R2を求
め、距離内挿部223に距離R,、R,とエツジの座標
値を出力する。距離内挿部223は、D D A (d
igital differentialanalyz
er)回路によってエツジ間の距離情報を内挿する。
The distance calculation unit 221 calculates an image 21 to the left of the parallax corresponding to the two edges on the object output from the parallax calculation unit 219.
The distances R1 and R2 corresponding to the distance RL between No. 1 and the object are determined, and the distances R, , R, and the coordinate values of the edges are output to the distance interpolation unit 223. The distance interpolation unit 223 calculates D D A (d
digital differential analysis
er) Interpolate distance information between edges by a circuit.

以下、第5図および第6図を参照して、距離内挿部22
3のDDA回路の動作について説明する。
Hereinafter, with reference to FIGS. 5 and 6, the distance interpolation unit 22
The operation of the DDA circuit No. 3 will be explained.

距離内挿部223は、距離算出部221から出力される
2つのエツジの左画像211における座■ 標値aL、bc(ここでは、aL<bLと仮定する。)
および左画像211と2つのエツジに対応する対象物上
の点までの距離R,、R2(ここでは、R,>R2と仮
定する。)が入力され、点P(al、、R1)と点Q(
bL、R2)間(第5図・間)の距離の内挿を行なう。
The distance interpolation unit 223 calculates the coordinate values aL, bc of the two edges in the left image 211 output from the distance calculation unit 221 (here, it is assumed that aL<bL).
Then, the distances R,,R2 (here, R,>R2) to the points on the object corresponding to the left image 211 and the two edges are input, and the point P(al,,R1) and the point P(al,,R1) are input. Q(
bL, R2) (Fig. 5, between) is interpolated.

■ 変数LENGTHにfat −bLtが代入される
■ fat -bLt is assigned to the variable LENGTH.

■ 次に、L E N G T IIとlR+ ’ R
z lの大小が比較される。LENGTIIがIR,−
R21より小さい場合には、LHIIGT)lにIJ?
I −RZ Iが代入される。
■ Next, L E N G T II and lR + ' R
The magnitude of zl is compared. LENGTII is IR, -
If it is smaller than R21, IJ?
I-RZ I is assigned.

すなわち、χ軸、Y軸方向の画素数の多い方が内挿処理
の反復回数として設定される。
That is, the number of pixels in the χ-axis direction or the Y-axis direction is set as the number of repetitions of the interpolation process.

■ 内挿に使用するX、Y軸方向の増分値X4、Y i
 n cが、 X、、lc= (a、、 −す、、 ) /  LEN
GTI(−03)Y+、1c−(R+ −R2) / 
 LENGTH−−−−04)に設定される。
■ Incremental values X4, Y i in the X and Y axis directions used for interpolation
n c is X,, lc= (a,, -su,, ) / LEN
GTI(-03)Y+, 1c-(R+ -R2)/
LENGTH---04).

■ 内挿の開始点(χ、Y)はそれぞれ、X = a 
L + 0.5      −−一−−−−−−−−−
05)y = R、+0.5       −−−’−
・−00に設定され、内挿処理の反復回数パラメータI
が「1」に設定される。
■ The starting points of interpolation (χ, Y) are respectively X = a
L + 0.5 −−1−−−−−−−
05) y = R, +0.5 ---'-
- Set to -00, the interpolation process iteration number parameter I
is set to "1".

ここで、0.5は、X、Yを整数化する処理に用いる値
である。
Here, 0.5 is a value used in the process of converting X and Y into integers.

■ 反復回数パラメータIがL E N G T II
を越えたか否かが判定される。
■ The number of iterations parameter I is L E N G T II
It is determined whether or not it has exceeded.

反復回数パラメータIがLENGTHを越えていない場
合には、次の内挿点が、 X = X + X 、 nc−−−−−−−−−θη
Y = Y 十Y i 、1cm−−一・−一−−08
)で求められ、反復回数パラメータIに「1」が加算さ
れる。
If the number of iterations parameter I does not exceed LENGTH, the next interpolation point is X = X + X, nc−−−−−−−−θη
Y = Y 10 Y i , 1cm--1・-1--08
), and "1" is added to the repetition number parameter I.

反復回数パラメータ■がLENGTI−1を越えた場合
に、内挿処理は終了する。
If the number of iterations parameter (2) exceeds LENGTI-1, the interpolation process ends.

このようにして、点(at 、R+ )、点(at 。In this way, point (at, R+), point (at).

R2)、点(bL、Rz)、点(bt 、 R,)間に
張られる整数値をとる格子上で線分PQに最も近い点列
を発生させて(第5図○)、内挿が行なわれる。
R2), points (bL, Rz), and points (bt, R,), on a grid that takes integer values, generate the sequence of points closest to the line segment PQ (○ in Figure 5), and interpolate. It is done.

この内挿結果は、距離算出部221がら三次元7 座標算出部225に出力される。This interpolation result is calculated by the distance calculation unit 221 from the three-dimensional It is output to the coordinate calculation section 225.

2つのエツジを結ぶ区間が内挿され、カメラと対象物と
の距離情報(対象物表面の距離情報)が生成されると、
左画像21i、右画像213の座標系から三次元座標系
への座標変換により、対象物表面の三次元座標値を算出
することができる。
When the interval connecting the two edges is interpolated and distance information between the camera and the object (distance information on the object surface) is generated,
By converting the coordinate systems of the left image 21i and the right image 213 into a three-dimensional coordinate system, the three-dimensional coordinate values of the object surface can be calculated.

左画像211の座標系の三次元座標系への座標変換は、 で行なわれ、右画像213の座標系の三次元座標系への
座標変換は、 で行なわれる。
Coordinate transformation of the coordinate system of the left image 211 to the three-dimensional coordinate system is performed by the following, and coordinate transformation of the coordinate system of the right image 213 to the three-dimensional coordinate system is performed by the following.

三次元座標算出部225は、09)式、C!e式の何れ
か一方を用いることにより、三次元情報を得ることがで
きる。
The three-dimensional coordinate calculation unit 225 calculates the formula 09), C! Three-dimensional information can be obtained by using either one of the e-formulas.

〔発明の効果〕〔Effect of the invention〕

本発明によれば、2つの画像情報から得られた対象物上
の同一点に対する視差を距離情報に変換した後に、この
距離情報を内挿して対象物表面に対する距離情報を算出
するので、対象物上の2つの点を結ぶ区間の距離情報に
含まれる誤差を低減することができ、三次元の対象物で
あっても自然な画像情報を再現することが可能となる。
According to the present invention, after converting the parallax with respect to the same point on the object obtained from two image information into distance information, this distance information is interpolated to calculate the distance information with respect to the object surface. It is possible to reduce the error included in the distance information of the section connecting the above two points, and it is possible to reproduce natural image information even for a three-dimensional object.

【図面の簡単な説明】[Brief explanation of drawings]

第1図は本発明の原理ブロック図、 第2図は本発明の実施例の構成を示すブロック図、 第3図は観測系を説明する図、 第4図は距離算出を説明する原理図、 9 第5図は内挿処理を説明する図、 第6図はDDA回路の動作を説明する図、第7図は従来
例の構成を示すブロック図、第8図は動的計画法を説明
する図、 第9図は視差算出部の動作を説明する図、第10図は距
離算出部の動作を説明する図である。 図において、 111.113は画像情報、 115は対応付は手段、 117は視差算出手段、 119は距離算出手段、 121は距離内挿手段、 123は三次元座標算出手段、 211は左画像、 213は右画像、 215はエツジ抽出部、 2】7は対応付は部、 219.519は視差算出部、 0 221.521は距離算出部、 223は距離内挿部、 225は三次元座標算出部である。 1 本発明の原理ブロック図 第 図 実施例の構成を示すブロック図 観測系を説明する図 第 図 距離算出を説明する原理図 第 図 特開平 3 115916(8) 従来例の構成を示すブロック図 第 図
Fig. 1 is a block diagram of the principle of the present invention; Fig. 2 is a block diagram showing the configuration of an embodiment of the invention; Fig. 3 is a diagram illustrating the observation system; Fig. 4 is a principle diagram illustrating distance calculation; 9 Figure 5 is a diagram explaining interpolation processing, Figure 6 is a diagram explaining the operation of the DDA circuit, Figure 7 is a block diagram showing the configuration of a conventional example, and Figure 8 is a diagram explaining dynamic programming. FIG. 9 is a diagram for explaining the operation of the parallax calculation section, and FIG. 10 is a diagram for explaining the operation of the distance calculation section. In the figure, 111 and 113 are image information, 115 is a correspondence means, 117 is a parallax calculation means, 119 is a distance calculation means, 121 is a distance interpolation means, 123 is a three-dimensional coordinate calculation means, 211 is a left image, 213 is the right image, 215 is the edge extraction section, 2]7 is the correspondence section, 219.519 is the disparity calculation section, 0 221.521 is the distance calculation section, 223 is the distance interpolation section, 225 is the three-dimensional coordinate calculation section It is. 1 Principle block diagram of the present invention Fig. 1 Block diagram showing the configuration of an embodiment Fig. 2 Fig. illustrating the observation system Fig. Principle diagram explaining distance calculation Fig. 1 Block diagram showing the configuration of the conventional example figure

Claims (1)

【特許請求の範囲】[Claims] (1)対象物を異なる方向から観測して得られた2つの
画像情報(111、113)から、前記対象物上の同一
点に対応すると推定される2画素を順次対応付ける対応
付け手段(115)と、 対応付けられた前記2画素からその視差を算出する視差
算出手段(117)と、 前記視差を用いて、前記各画素に対応する対象物上の点
に対する距離計算を行なう距離算出手段(119)と、 前記各画素に対応する対象物上の点の距離情報をもとに
、前記各画像情報から前記対象物の表面を構成する未対
応画素の距離情報を内挿して算出する距離内挿手段(1
21)と、前記各画素の位置および距離を用いて、対応
する点の三次元座標値を算出する三次元座標算出手段(
123)と を備えたことを特徴とする距離画像生成方式。
(1) An association means (115) that sequentially associates two pixels estimated to correspond to the same point on the object from two image information (111, 113) obtained by observing the object from different directions. a parallax calculation means (117) that calculates the parallax from the two correlated pixels; and a distance calculation means (119) that calculates the distance to a point on the object corresponding to each pixel using the parallax. ), and distance interpolation that calculates by interpolating distance information of uncorresponding pixels forming the surface of the object from each image information based on distance information of a point on the object corresponding to each pixel. Means (1
21) and three-dimensional coordinate calculation means (
123).
JP1254364A 1989-09-29 1989-09-29 Range image generation method Expired - Fee Related JP2813211B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP1254364A JP2813211B2 (en) 1989-09-29 1989-09-29 Range image generation method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP1254364A JP2813211B2 (en) 1989-09-29 1989-09-29 Range image generation method

Publications (2)

Publication Number Publication Date
JPH03115916A true JPH03115916A (en) 1991-05-16
JP2813211B2 JP2813211B2 (en) 1998-10-22

Family

ID=17263963

Family Applications (1)

Application Number Title Priority Date Filing Date
JP1254364A Expired - Fee Related JP2813211B2 (en) 1989-09-29 1989-09-29 Range image generation method

Country Status (1)

Country Link
JP (1) JP2813211B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6111979A (en) * 1996-04-23 2000-08-29 Nec Corporation System for encoding/decoding three-dimensional images with efficient compression of image data
JP2006507764A (en) * 2002-11-21 2006-03-02 ビジョン サード イメージング,インコーポレイテッド Critical alignment of parallax images for autostereoscopic display
JP2008307119A (en) * 2007-06-12 2008-12-25 Hivix Co Ltd Washing tub

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4998956B2 (en) * 2007-12-10 2012-08-15 富士フイルム株式会社 Distance image processing apparatus and method, distance image reproduction apparatus and method, and program

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6111979A (en) * 1996-04-23 2000-08-29 Nec Corporation System for encoding/decoding three-dimensional images with efficient compression of image data
JP2006507764A (en) * 2002-11-21 2006-03-02 ビジョン サード イメージング,インコーポレイテッド Critical alignment of parallax images for autostereoscopic display
JP2008307119A (en) * 2007-06-12 2008-12-25 Hivix Co Ltd Washing tub

Also Published As

Publication number Publication date
JP2813211B2 (en) 1998-10-22

Similar Documents

Publication Publication Date Title
JP3593466B2 (en) Method and apparatus for generating virtual viewpoint image
KR100433625B1 (en) Apparatus for reconstructing multiview image using stereo image and depth map
CN102789058B (en) Stereoscopic image generation device, stereoscopic image generation method
TW408554B (en) Method for smooth field passing among vistas
US7321374B2 (en) Method and device for the generation of 3-D images
Zhu et al. Generalized parallel-perspective stereo mosaics from airborne video
US6847392B1 (en) Three-dimensional structure estimation apparatus
KR100897542B1 (en) Method and Device for Rectifying Image in Synthesizing Arbitary View Image
CN107358633A (en) Join scaling method inside and outside a kind of polyphaser based on 3 points of demarcation things
JPH07294215A (en) Method and apparatus for processing image
Mahdy et al. Projector calibration using passive stereo and triangulation
JP3561446B2 (en) Image generation method and apparatus
TWI820246B (en) Apparatus with disparity estimation, method and computer program product of estimating disparity from a wide angle image
Geyer et al. Conformal rectification of omnidirectional stereo pairs
EP1997072B1 (en) Method for determining a depth map from images, device for determining a depth map
Navab et al. Monocular pose determination from lines: Critical sets and maximum number of solutions
Knorr et al. An image-based rendering (ibr) approach for realistic stereo view synthesis of tv broadcast based on structure from motion
JPH03115916A (en) Distance image generation system
KR20030054360A (en) Apparatus and Method for Converting 2D Images to 3D Object
JP3054312B2 (en) Image processing apparatus and method
Knorr et al. From 2D-to stereo-to multi-view video
CN113409442A (en) Method for fusing multi-panorama and reconstructing three-dimensional image
KR100234196B1 (en) Method for generating height map using 2-dimensional video image
Gurrieri et al. Depth consistency and vertical disparities in stereoscopic panoramas
JP4270695B2 (en) 2D-3D image conversion method and apparatus for stereoscopic image display device

Legal Events

Date Code Title Description
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080807

Year of fee payment: 10

LAPS Cancellation because of no payment of annual fees