JP2813211B2 - Range image generation method - Google Patents

Range image generation method

Info

Publication number
JP2813211B2
JP2813211B2 JP1254364A JP25436489A JP2813211B2 JP 2813211 B2 JP2813211 B2 JP 2813211B2 JP 1254364 A JP1254364 A JP 1254364A JP 25436489 A JP25436489 A JP 25436489A JP 2813211 B2 JP2813211 B2 JP 2813211B2
Authority
JP
Japan
Prior art keywords
distance
image
point
parallax
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP1254364A
Other languages
Japanese (ja)
Other versions
JPH03115916A (en
Inventor
祐治 中川
智子 瀬川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP1254364A priority Critical patent/JP2813211B2/en
Publication of JPH03115916A publication Critical patent/JPH03115916A/en
Application granted granted Critical
Publication of JP2813211B2 publication Critical patent/JP2813211B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Description

【発明の詳細な説明】 〔概 要〕 対象物を両眼立体視して生成される三次元情報に基づ
いて、対象物の立体認識を行なう距離画像生成方式に関
し、 対象物上の2つの点を結ぶ区間の距離情報に含まれる
誤差を低減できることを目的とし、 対象物を異なる方向から観測して得られた2つの画像
情報から、前記対象物上の同一点に対応すると推定され
る2画素を順次対応付ける対応付け手段と、対応付けら
れた2画素からその視差を算出する視差算出手段と、視
差を用いて、各画素に対応する対象物上の点に対する距
離計算を行なう距離算出手段と、各画素に対応する対象
物上の点の距離情報をもとに、各画像情報から対象物の
表面を構成する未対応画素の距離情報を内挿して算出す
る距離内挿手段と、各画素の位置および距離を用いて、
対応する点の三次元座標値を算出する三次元座標算出手
段とを備えて構成される。
DETAILED DESCRIPTION OF THE INVENTION [Summary] The present invention relates to a range image generation method for performing stereoscopic recognition of an object based on three-dimensional information generated by stereoscopically viewing the object. It is an object to reduce an error included in distance information of a section connecting two pixels, and two pixels estimated to correspond to the same point on the object from two pieces of image information obtained by observing the object from different directions. An associating means for sequentially associating, a disparity calculating means for calculating the disparity from the associated two pixels, a distance calculating means for calculating a distance to a point on an object corresponding to each pixel using the disparity, Based on distance information of a point on the object corresponding to each pixel, distance interpolation means for calculating by interpolating distance information of uncorresponding pixels constituting the surface of the object from each image information, Using position and distance,
Three-dimensional coordinate calculation means for calculating three-dimensional coordinate values of corresponding points.

〔産業上の利用分野〕[Industrial applications]

本発明は、対象物を両眼立体視して生成される三次元
情報に基づいて、対象物の立体認識を行なう距離画像生
成方式に関する。
The present invention relates to a range image generation method for performing stereoscopic recognition of an object based on three-dimensional information generated by stereoscopically viewing the object.

特に、本発明は、対象物を2つのカメラで観測して得
られた両画像情報より、対象物上の同一点までの距離を
三角測量の原理により算出し、対象物の三次元座標を求
める距離画像生成方式に関するものである。
In particular, the present invention calculates the distance to the same point on the object based on the principle of triangulation from both image information obtained by observing the object with two cameras, and obtains three-dimensional coordinates of the object. The present invention relates to a range image generation method.

〔従来の技術〕[Conventional technology]

第7図は、従来の距離画像生成方式を説明するブロッ
ク図である。
FIG. 7 is a block diagram illustrating a conventional range image generation method.

図において、対象物は、2つのカメラで観測され、左
画像211、右画像213の2つの画像情報が取り出される。
エッジ抽出部215は、左画像211、右画像213より対象物
のエッジを抽出する。対応付け部217は、左画像211、右
画像213の対応すると推定されるエッジを順次対応付け
る。視差算出部519は、対応付けられたエッジから視差
を求めるとともに、対象物表面の距離をことごとく求め
るためにエッジ間の視差を内挿する。距離算出部521
は、視差とカメラパラメータ(観測に用いた2つのカメ
ラ間の距離、焦点距離等)に基づいて、対象物までの距
離情報を三角測量の原理より計算する。三次元座標算出
部225は、距離情報に基づいて対象物表面の三次元座標
値を計算する。
In the figure, an object is observed by two cameras, and two pieces of image information of a left image 211 and a right image 213 are extracted.
The edge extracting unit 215 extracts an edge of the object from the left image 211 and the right image 213. The associating unit 217 sequentially associates edges of the left image 211 and the right image 213 that are estimated to correspond. The parallax calculation unit 519 calculates the parallax from the associated edges and interpolates the parallax between the edges in order to obtain all the distances to the object surface. Distance calculator 521
Calculates distance information to an object based on parallax and camera parameters (distance between two cameras used for observation, focal length, etc.) based on the principle of triangulation. The three-dimensional coordinate calculation unit 225 calculates three-dimensional coordinate values of the object surface based on the distance information.

以下、第8図を参照して、対応付け部217の動作を説
明する。
Hereinafter, the operation of the association unit 217 will be described with reference to FIG.

図において、左画像は、走査線y0上に3つのエッジ
a、b、cおよび画像の両端の合計5点のエッジを有し
ている。また、右画像は、走査線y0上に3つのエッジ
d、e、fおよび画像の両端の合計5点のエッジを有し
ている、なお、走査線y0は、各画像の水平方向に行なわ
れる走査を示す。
In the figure, the left image, the scanning lines y 0 on the three edges a, b, and has both ends total 5 points edge of c and image. The right image, the scanning lines y 0 on the three edges d, e, and has both ends total 5 points edge of f and image, is to be noted that the scan line y 0 is the horizontal direction of the image 2 shows the scanning performed.

対応付け部217は、各画像の走査線y0上のエッジを動
的計画法により対応付ける。
Association unit 217 associates the dynamic programming an edge on the scan line y 0 for each image.

動的計画法は、左画像、右画像のエッジの組み合わせ
で探索平面(左画像エッジ点数nL×右画像エッジ点数nR
個のノードを持つ)を構成し、対象物の例えば両端に対
応するノードOからノードMまでに到る経路選択の最適
化問題として処理する方法である(参考文献、大田友
一、池田克夫著、電子通信学会論文誌、'85/4 Vol.J68D
No4、「動的計画法によるステレオ画像の区間対応
法」)。
In the dynamic programming, a search plane (left image edge points n L × right image edge points n R) is obtained by combining the edges of the left image and the right image.
This is a method of processing a route as an optimization problem from a node O to a node M corresponding to, for example, both ends of an object (reference literature, Yuichi Ota, Katsuo Ikeda) , IEICE Transactions, '85 / 4 Vol.J68D
No4, "Segment correspondence method for stereo images by dynamic programming").

以下、第9図を参照して、視差算出部219の動作につ
いて説明する。
Hereinafter, the operation of the parallax calculation unit 219 will be described with reference to FIG.

対象物は、左画像では、走査線y0で座標aL、bLにエッ
ジが認識され(第9図(イ))、右画像では、走査線y0
で座標aR、bRにエッジが認識される(第9図(ロ))。
In the left image, the edges are recognized at the coordinates a L and b L at the scanning line y 0 in the left image (FIG. 9 (A)), and in the right image, the scanning line y 0
Then, an edge is recognized at the coordinates a R and b R (FIG. 9 (b)).

視差は、左画像、右画像の対応するエッジがそれぞれ
各画像に表示されたときの座標の差であり、各画像で認
識される対象物の位置の横方向のずれに相当する量であ
る。
The parallax is a difference in coordinates when corresponding edges of the left image and the right image are displayed in each image, and is an amount corresponding to a lateral displacement of a position of an object recognized in each image.

視差算出部219は、左画像を基にして、座標aL、bL
各エッジに対応する視差(aL−aR)、(bL−bR)を求め
(第9図(ハ)●)、点(aL、aL−aR)、(bL、bL
bR)間の視差の内挿を走査線単位で行なう(第9図
(ハ)○)。
Parallax calculating unit 219, based on the left image, coordinates a L, a parallax corresponding to each edge of the b L (a L -a R) , determine the (b L -b R) (FIG. 9 (c) ●), points (a L , a L −a R ), (b L , b L
Interpolation of parallax between b R ) is performed for each scanning line (Fig. 9 (c)-).

以下、第10図を参照して、距離算出部221の動作につ
いて説明する。
Hereinafter, the operation of the distance calculation unit 221 will be described with reference to FIG.

視差(aL−aR)より、カメラと対象物との距離R1が算
出され、視差(bL−bR)よりカメラと対象物との距離R2
が算出される(第10図●)。また、視差算出部219にお
いて視差(aL−aR)、(bL−bR)間に内挿された視差よ
り、それぞれ距離が算出される(第10図○)。
Parallax than (a L -a R), the calculated distance R 1 between the camera and the object, the parallax distance between the camera and the object from (b L -b R) R 2
Is calculated (Fig. 10 ●). Further, the parallax calculating unit 219 calculates distances from the parallaxes interpolated between the parallaxes (a L −a R ) and (b L −b R ) (FIG. 10A).

〔発明が解決しようとする課題〕[Problems to be solved by the invention]

ところで、上述した従来の距離画像生成方式では、視
差を内挿し、これを距離に変換して対象物上の点(エッ
ジ)を結ぶ区間(対象物表面)の三次元情報を得てい
た。しかし、視差算出部で行なわれる内挿は、すでに量
子化された画像単位に行なわれるために量子化レベルの
誤差を含み、この誤差を含む視差から算出される距離情
報は、視差から距離情報への変換過程でさらに大きな誤
差を含むことになる。すなわち、例えば本来滑らかに変
化するべき面の距離が、視差の量子化レベルの制約に応
じた段階的な変化となり、不自然な三次元情報が生成さ
れていた(第10図○)。
By the way, in the above-described conventional range image generation method, the parallax is interpolated and converted into a distance to obtain three-dimensional information of a section (object surface) connecting points (edges) on the object. However, the interpolation performed by the disparity calculation unit includes a quantization level error because the interpolation is performed in units of images that have already been quantized, and distance information calculated from disparity including this error is converted from disparity to distance information. In the conversion process, a larger error is included. That is, for example, the distance of the surface that should originally change smoothly changes stepwise according to the restriction on the quantization level of parallax, and unnatural three-dimensional information is generated (○ in FIG. 10).

本発明は、このような点を解決するためのものであ
り、対象物上の2つの点を結ぶ区間の距離情報に含まれ
る誤差を低減できる距離画像生成方式を提供することを
目的としている。
An object of the present invention is to solve such a point, and it is an object of the present invention to provide a distance image generation method capable of reducing an error included in distance information of a section connecting two points on an object.

〔課題を解決するための手段〕[Means for solving the problem]

第1図は、本発明の原理ブロック図である。 FIG. 1 is a block diagram showing the principle of the present invention.

図において、対応付け手段115は、対象物を異なる方
向から観測して得られた2つの画像情報111、113から、
対象物上の同一点に対応すると推定される2画素を順次
対応付ける。
In the figure, the associating means 115 obtains two pieces of image information 111 and 113 obtained by observing an object from different directions.
Two pixels estimated to correspond to the same point on the object are sequentially associated.

視差算出手段117は、対応付けられた2画素からその
視差を算出する。
The parallax calculating means 117 calculates the parallax from the two associated pixels.

距離算出手段119は、視差を用いて、各画素に対応す
る対象物上の点に対する距離計算を行なう。
The distance calculation unit 119 calculates a distance to a point on the object corresponding to each pixel using the parallax.

距離内挿手段121は、各画素に対応する対象物上の点
の距離情報をもとに、各画像情報から対象物の表面を構
成する未対応画素の距離情報を内挿して算出する。
The distance interpolation means 121 calculates the distance information of the non-corresponding pixels constituting the surface of the object from each image information based on the distance information of the point on the object corresponding to each pixel.

三次元座標算出手段123は、各画素の位置および距離
を用いて、対応する点の三次元座標値を算出する。
The three-dimensional coordinate calculation unit 123 calculates the three-dimensional coordinate value of the corresponding point using the position and distance of each pixel.

〔作 用〕(Operation)

対象物は、異なる方向から観測されて2つの画像情報
111、113として取り出される。2つの画像情報111、113
は、対象物上の同一点に対応すると推定される2画素が
順次対応付けられる。対応付けられた各画素からその視
差が取り出され、対象物上の点に対する距離計算が行な
われる。
The object is observed from different directions and the two image information
Extracted as 111 and 113. Two pieces of image information 111 and 113
Is sequentially associated with two pixels that are estimated to correspond to the same point on the object. The parallax is extracted from each associated pixel, and a distance calculation for a point on the object is performed.

未対応画素の距離情報は、対応付けられた画素から得
られた距離情報を内挿して算出される。この距離から三
次元座標値が算出されて対象物の立体認識に用いられ
る。
The distance information of the uncorresponding pixel is calculated by interpolating the distance information obtained from the associated pixel. A three-dimensional coordinate value is calculated from this distance and used for three-dimensional recognition of the object.

すなわち、対象物表面を構成する画素の距離情報を対
象物上の点から得られた距離情報を内挿して算出するの
で、2点を結ぶ区間の距離情報に含まれる誤差を低減す
ることができる。
That is, since the distance information of the pixels constituting the object surface is calculated by interpolating the distance information obtained from the points on the object, errors included in the distance information of the section connecting the two points can be reduced. .

〔実施例〕〔Example〕

以下、図面に基づいて本発明の実施例について詳細に
説明する。
Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.

第2図は、本発明の実施例構成を示すブロック図であ
る。
FIG. 2 is a block diagram showing the configuration of the embodiment of the present invention.

図において、2つのカメラで観測された対象物は、左
画像211、右画像213としてエッジ抽出部215に出力され
る、エッジ抽出部215の出力は、対応付け部217に出力さ
れる。対応付け部217の出力は、視差算出部219に出力さ
れる。視差算出部219の出力は、距離算出部221に出力さ
れる、距離算出部221の出力は、距離内挿部223および三
次元座標算出部225に出力される。
In the figure, the objects observed by the two cameras are output to the edge extraction unit 215 as a left image 211 and a right image 213. The output of the edge extraction unit 215 is output to the association unit 217. The output of the associating unit 217 is output to the parallax calculating unit 219. The output of the parallax calculation unit 219 is output to the distance calculation unit 221. The output of the distance calculation unit 221 is output to the distance interpolation unit 223 and the three-dimensional coordinate calculation unit 225.

ここで、第1図および第2図の対応関係を説明する。 Here, the correspondence between FIG. 1 and FIG. 2 will be described.

画像情報111、113は、左画像211、右画像213に相当す
る。
The image information 111 and 113 correspond to the left image 211 and the right image 213.

対応付け手段115は、対応付け部217に相当する。 The associating unit 115 corresponds to the associating unit 217.

視差算出手段117は、視差算出部219に相当する。 The parallax calculating unit 117 corresponds to the parallax calculating unit 219.

距離算出手段119は、距離算出手部221に相当する。 The distance calculating means 119 corresponds to the distance calculating unit 221.

距離内挿手段121は、距離内挿部223に相当する。 Distance interpolation means 121 corresponds to distance interpolation section 223.

三次元座標算出手段123は、三次元座標算出部225に相
当する。
The three-dimensional coordinate calculation unit 123 corresponds to the three-dimensional coordinate calculation unit 225.

左画像211、右画像213は、エッジ抽出部215において
エッジが抽出された後に、対応付け部217において対象
物上の同一点に対応すると推定されるエッジが対応付け
られて視差算出部219に出力される。視差算出部219は、
エッジの視差を求めて距離算出部221に出力する。
After the edges are extracted by the edge extraction unit 215, the left image 211 and the right image 213 are output to the disparity calculation unit 219 in association with the edges presumed to correspond to the same point on the object in the association unit 217. Is done. The parallax calculation unit 219
Edge parallax is obtained and output to distance calculation section 221.

距離算出部221は、この視差より距離を算出する。 The distance calculation unit 221 calculates a distance from the parallax.

以下、第3図および第4図を参照して、距離算出の原
理を説明する。
Hereinafter, the principle of the distance calculation will be described with reference to FIGS. 3 and 4.

第3図は、観測系を説明する図である。 FIG. 3 is a diagram illustrating an observation system.

図において、左画像211は、観測した対象物を座標系x
L−yLで表示し、右画像213は、観測した対象物を座標系
xR−yRで表示する。
In the figure, the left image 211 represents the observed object in the coordinate system x
Displayed in L− y L , the right image 213 shows the observed object in the coordinate system.
Expressed as x R −y R.

また、観測系全体では、左画像211、右画像213の各座
標系の原点を結ぶ直線をX軸とし、左画像211、右画像2
13の各座標系の原点を結ぶ直線の中点を原点Oとし、原
点Oと対象物を結ぶ直線をY軸とし、X軸、Y軸に垂直
方向をZ軸とする三次元座標系を構成する。
In the observation system as a whole, a straight line connecting the origins of the respective coordinate systems of the left image 211 and the right image 213 is defined as the X axis, and the left image 211 and the right image 2
A three-dimensional coordinate system is constructed in which the middle point of the straight line connecting the origins of the 13 coordinate systems is defined as the origin O, the straight line connecting the origin O and the object is defined as the Y axis, and the X axis and the Y axis are perpendicular to the Z axis. I do.

なお、左画像211、右画像213の三次元空間における位
置は、両画像を撮影する2つのカメラが設置される位置
である。
Note that the positions of the left image 211 and the right image 213 in the three-dimensional space are positions where two cameras for capturing both images are installed.

第4図は、距離算出の原理を説明する図である。図
は、上述した三次元座標系をZ軸方向から眺める図であ
る。
FIG. 4 is a diagram for explaining the principle of distance calculation. The figure is a diagram in which the above-described three-dimensional coordinate system is viewed from the Z-axis direction.

図において、左画像211の座標系の原点A、右画像213
の座標系の原点Bは、三次元座標系でそれぞれ(−a,0,
0)、(a,0,0)であり、2つのカメラ間の距離(基線
長)は2a、両光軸のなす角度(輻輳角)は2α(0≦α
<π/2)の関係にある。
In the figure, the origin A of the coordinate system of the left image 211, the right image 213
The origin B of the coordinate system is (−a, 0,
0), (a, 0,0), the distance (base line length) between the two cameras is 2a, and the angle (convergence angle) between both optical axes is 2α (0 ≦ α).
<Π / 2).

以下、対象物上の点Dを観測する場合について説明す
る。なお、対象物上の点Dは、左画像211では座標
(ηx)の点Eとなり、右画像213では座標(ξx,
ξ)の点Fとなるものとする。また、線分DEの距離を
RL、線分DFの距離をRRとし、線分DEを延長した直線とX
軸の交点を点G、線分DFとX軸の交点を点Hとする。
Hereinafter, a case where the point D on the target object is observed will be described. Note that a point D on the object is a point E at the coordinates (η x , η y ) in the left image 211 and a coordinate (ξ x ,
y ). Also, the distance of the line segment DE
Let R L be the distance between line segment DF and R R, and extend straight line DE and X
The intersection of the axes is point G, and the intersection of the line segment DF and the X axis is point H.

ΔABCとΔGHDは、相似形であるので、 の関係が成り立ち、線分DGの長さは、 となる。ΔABC and ΔGHD are similar, so Holds, the length of the line segment DG is Becomes

ここで、点E(ηx)、点F(ξx)を光軸
に平行に三次元座標系のX軸へ投影する関係は、 (ηx)(−a−ηx/cosα,0,η) ……(3) (ξx)(a−ξx/cosα,0,,ξ) ……(4) となる。
Here, the relationship of projecting the point E (η x , η y ) and the point F (ξ x , ξ y ) onto the X-axis of the three-dimensional coordinate system in parallel with the optical axis is (η x , η y ) (− a−η x / cos α, 0, η y ) (3) (ξ x , ξ y ) (a−ξ x / cos α, 0,, ξ y ) (4)

したがって、三次元座標系における線分GHの長さは、 となる。Therefore, the length of the line segment GH in the three-dimensional coordinate system is Becomes

(5)式に示すように、線分GHは、(ηx)の項
を持ち、左画像211、右画像213で観測される対象物の座
標値の差、すなわち、視差の関数であることが判る。
As shown in the equation (5), the line segment GH has a term of (η x , x x ), and a difference between coordinate values of an object observed in the left image 211 and the right image 213, that is, a function of disparity. It turns out that it is.

(5)式を用いて、(2)式に示した線分DGは、 に変形される。Using equation (5), the line segment DG shown in equation (2) is Is transformed into

一方、点Gと左画像211のxLyL平面との距離をL0
し、点Hと右画像213のxRyR平面との距離をR0ととれ
ば、距離L0、R0と対象物の左右画像における座標値
η、ξとの関係は、 L0=|ηx|tanα ……(7) R0=|ξx|tanα ……(8) となる。
On the other hand, the distance between x L y L plane of the point G and the left image 211 and L 0, Taking the distance between the x R y R plane of the point H and the right image 213 R 0, the distance L 0, R 0 and the relationship between the coordinate values η x, ξ x of the left and right images of the object, L 0 = | η x | tanα ...... (7) R 0 = | a tanα ...... (8) | ξ x .

(7)式を用いて、左画像211と点Dとの距離RLは、 η<0のとき、RL=DG−L0 ……(9) η≧0のとき、RL=DG+L0 ……(10) となる。(7) using equation, the distance R L of the left image 211 and the point D, eta x <0, when R L = DG-L 0 ...... (9) η x ≧ 0, R L = DG + L 0 (10)

また、(8)式を用いて、右画像213と点Dまでの距
離RRは、 ξ<0のとき、RR=DG+R0 ……(11) ξ≧0のとき、RR=DG−R0 ……(12) となる。
Further, (8) using the formula, the distance R R to the right image 213 and the point D, when xi] x <0, when R R = DG + R 0 ...... (11) ξ x ≧ 0, R R = DG−R 0 (12)

このようにして、左画像211、右画像213が観測した対
象物上の点(エッジ)の座標と、視差と、各画像(カメ
ラ)間の距離と、光軸とY軸の為す角度により、左画
像、右画像(カメラ)と対象物との距離を計算すること
ができる。
In this way, the coordinates of the point (edge) on the object observed by the left image 211 and the right image 213, the parallax, the distance between the images (cameras), and the angle between the optical axis and the Y axis, The distance between the left image and the right image (camera) and the object can be calculated.

距離算出部221は、視差算出部219から出力される対象
物上の2つのエッジに対応する視差より左画像211と対
象物との距離RLに対応する距離R1、R2を求め、距離内挿
部223に距離R1、R2とエッジの座標値を出力する。距離
内挿部223は、DDA(digital differential analyzer)
回路によってエッジ間の距離情報を内挿する。
The distance calculation unit 221 obtains distances R 1 and R 2 corresponding to the distance RL between the left image 211 and the object from the parallax corresponding to the two edges on the object output from the parallax calculation unit 219, The distances R 1 and R 2 and the coordinate values of the edge are output to the interpolation unit 223. The distance interpolation unit 223 is a digital differential analyzer (DDA)
A circuit interpolates distance information between edges.

以下、第5図および第6図を参照して、距離内挿部22
3のDDA回路の動作について説明する。
Hereinafter, with reference to FIG. 5 and FIG.
The operation of the DDA circuit 3 will be described.

距離内挿部223は、距離算出部221から出力される2つ
のエッジの左画像211における座標値aL、bL(ここで
は、aL<bLと仮定する。)および左画像211と2つのエ
ッジに対応する対象物上の点までの距離R1、R2(ここで
は、R1>R2と仮定する。)が入力され、点P(aL、R1
と点Q(bL、R2)間(第5図●間)の距離の内挿を行な
う。
Distance interpolation section 223 outputs coordinate values a L and b L of the two edges output from distance calculation section 221 in left image 211 (here, a L <b L is assumed) and left images 211 and 2. Distances R 1 and R 2 (here, it is assumed that R 1 > R 2 ) to points on the object corresponding to the two edges are input, and a point P (a L , R 1 ) is input.
And the distance between the points Q (b L , R 2 ) (FIG. 5, ●) is interpolated.

変数LENGTHに|aL−bL|が代入される。| A L −b L | is assigned to the variable LENGTH.

次に、LENGTHと|R1−R2|の大小が比較される。LENG
THが|R1−R2|より小さい場合には、LENGTHに|R1−R2|が
代入される。
Next, the magnitudes of LENGTH and | R 1 −R 2 | are compared. LENG
When TH is smaller than | R 1 −R 2 |, | R 1 −R 2 | is substituted for LENGTH.

すなわち、X軸、Y軸方向の画素数の多い方が内挿処
理の反復回数として設定される。
That is, the larger number of pixels in the X-axis and Y-axis directions is set as the number of repetitions of the interpolation process.

内挿に使用するX、Y軸方向の増分値Xinc、Y
incが、 Xinc=(aL−bL)/LENGTH ……(13) Yinc=(R1−R2)/LENGTH ……(14) に設定される。
X and Y axis increments X inc and Y used for interpolation
inc is set to X inc = (a L −b L ) / LENGTH (13) Y inc = (R 1 −R 2 ) / LENGTH (14)

内挿の開始点(X、Y)はそれぞれ、 X=aL+0.5 ……(15) Y=R1+0.5 ……(16) に設定され、内挿処理の反復回数パラメータIが「1」
に設定される。
The starting point (X, Y) of the interpolation is set as follows: X = a L +0.5 (15) Y = R 1 +0.5 (16) "1"
Is set to

ここで、0.5は、X、Yを整数化する処理に用いる値
である。
Here, 0.5 is a value used in the process of converting X and Y into integers.

反復回数パラメータIがLENGTHを越えたか否かが判
定される。
It is determined whether or not the repetition number parameter I has exceeded LENGTH.

反復回数パラメータIがLENGTHを越えていない場合に
は、次の内挿点が、 X=X+Xinc ……(17) Y=Y+Yinc ……(18) で求められ、反復回数パラメータIに「1」が加算され
る。
If the repetition number parameter I does not exceed LENGTH, the next interpolation point is obtained by X = X + X inc (17) Y = Y + Y inc (18) Is added.

反復回数パラメータIがLENGTHを越えた場合に、内挿
処理は終了する。
When the iteration number parameter I exceeds LENGTH, the interpolation processing ends.

このようにして、点(aL、R1)、点(aL、R2)、点
(bL、R2)、点(bL、R1)間に張られる整数値をとる格
子上で線分PQに最も近い点列を発生させて(第5図
○)、内挿が行なわれる。
In this way, on a grid that takes an integer value between points (a L , R 1 ), points (a L , R 2 ), points (b L , R 2 ), and points (b L , R 1 ) Generates a point sequence closest to the line segment PQ (FIG. 5A), and performs interpolation.

この内挿結果は、距離算出部221から三次元座標算出
部225に出力される。
This interpolation result is output from the distance calculation unit 221 to the three-dimensional coordinate calculation unit 225.

2つのエッジを結ぶ区間が内挿され、カメラと対象物
との距離情報(対象物表面の距離情報)が生成される
と、左画像211、右画像213の座標系から三次元座標系へ
の座標変換により、対象物表面の三次元座標値を算出す
ることができる。
When the section connecting the two edges is interpolated and the distance information between the camera and the object (distance information on the surface of the object) is generated, the distance from the coordinate system of the left image 211 and the right image 213 to the three-dimensional coordinate system is calculated. By the coordinate conversion, a three-dimensional coordinate value of the object surface can be calculated.

左画像211の座標系の三次元座標系への座標変換は、 で行なわれ、右画像213の座標系の三次元座標系への座
標変換は、 で行なわれる。
The coordinate transformation of the coordinate system of the left image 211 into a three-dimensional coordinate system is as follows: The coordinate transformation of the coordinate system of the right image 213 into a three-dimensional coordinate system is performed as follows. It is done in.

三次元座標算出部225は、(19)式、(20)式の何れ
か一方を用いることにより、三次元情報を得ることがで
きる。
The three-dimensional coordinate calculation unit 225 can obtain three-dimensional information by using one of the equations (19) and (20).

〔発明の効果〕〔The invention's effect〕

本発明によれば、2つの画像情報から得られた対象物
上の同一点に対する視差を距離情報に変換した後に、こ
の距離情報を内挿して対象物表面に対する距離情報を算
出するので、対象物上の2つの点を結ぶ区間の距離情報
に含まれる誤差を低減することができ、三次元の対象物
であっても自然な画像情報を再現することが可能とな
る。
According to the present invention, after converting the parallax for the same point on the object obtained from the two pieces of image information into distance information, the distance information is calculated by interpolating the distance information. The error included in the distance information of the section connecting the above two points can be reduced, and natural image information can be reproduced even for a three-dimensional object.

【図面の簡単な説明】[Brief description of the drawings]

第1図は本発明の原理ブロック図、 第2図は本発明の実施例の構成を示すブロック図、 第3図は観測系を説明する図、 第4図は距離算出を説明する原理図、 第5図は内挿処理を説明する図、 第6図はDDA回路の動作を説明する図、 第7図は従来例の構成を示すブロック図、 第8図は動的計画法を説明する図、 第9図は視差算出部の動作を説明する図、 第10図は距離算出部の動作を説明する図である。 図において、 111、113は画像情報、 115は対応付け手段、 117は視差算出手段、 119は距離算出手段、 121は処理内挿手段、 123は三次元座標算出手段、 211は左画像、 213は右画像、 215はエッジ抽出部、 217は対応付け部、 219、519は視差算出部、 221、521は距離算出部、 223は距離内挿部、 225は三次元座標算出部である。 FIG. 1 is a block diagram showing the principle of the present invention, FIG. 2 is a block diagram showing the configuration of an embodiment of the present invention, FIG. 3 is a diagram illustrating an observation system, FIG. FIG. 5 is a diagram illustrating an interpolation process, FIG. 6 is a diagram illustrating the operation of a DDA circuit, FIG. 7 is a block diagram illustrating a configuration of a conventional example, and FIG. 8 is a diagram illustrating a dynamic programming method. FIG. 9 is a diagram for explaining the operation of the parallax calculating unit, and FIG. 10 is a diagram for explaining the operation of the distance calculating unit. In the figure, 111 and 113 are image information, 115 is associating means, 117 is disparity calculating means, 119 is distance calculating means, 121 is processing interpolation means, 123 is three-dimensional coordinate calculating means, 211 is a left image, and 213 is The right image, 215 is an edge extraction unit, 217 is an association unit, 219 and 519 are disparity calculation units, 221 and 521 are distance calculation units, 223 is a distance interpolation unit, and 225 is a three-dimensional coordinate calculation unit.

フロントページの続き (58)調査した分野(Int.Cl.6,DB名) G01B 11/00 - 11/30 G01C 11/00 - 11/34 H04N 13/00 - 13/04Continuation of front page (58) Fields investigated (Int.Cl. 6 , DB name) G01B 11/00-11/30 G01C 11/00-11/34 H04N 13/00-13/04

Claims (1)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】対象物を異なる方向から観測して得られた
2つの画像情報(111、113)から、前記対象物上の同一
点に対応すると推定される2画素を順次対応付ける対応
付け手段(115)と、 対応付けられた前記2画素からその視差を算出する視差
算出手段(117)と、 前記視差を用いて、前記各画素に対応する対象物上の点
に対する距離計算を行なう距離算出手段(119)と、 前記各画素に対応する対象物上の点の距離情報をもと
に、前記各画像情報から前記対象物の表面を構成する未
対応画素の距離情報を内挿して算出する距離内挿手段
(121)と、 前記各画素の位置および距離を用いて、対応する点の三
次元座標値を算出する三次元座標算出手段(123)と を備えたことを特徴とする距離画像生成方式。
An associating means for sequentially associating two pixels estimated to correspond to the same point on the object from two pieces of image information (111, 113) obtained by observing the object from different directions. 115); disparity calculating means (117) for calculating the disparity from the two pixels associated with each other; and distance calculating means for calculating a distance to a point on an object corresponding to each pixel using the disparity. (119) and a distance calculated by interpolating distance information of an uncorresponding pixel constituting the surface of the object from each of the image information based on distance information of a point on the object corresponding to each of the pixels. A distance image generation unit comprising: an interpolation unit (121); and a three-dimensional coordinate calculation unit (123) that calculates a three-dimensional coordinate value of a corresponding point using the position and distance of each pixel. method.
JP1254364A 1989-09-29 1989-09-29 Range image generation method Expired - Fee Related JP2813211B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP1254364A JP2813211B2 (en) 1989-09-29 1989-09-29 Range image generation method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP1254364A JP2813211B2 (en) 1989-09-29 1989-09-29 Range image generation method

Publications (2)

Publication Number Publication Date
JPH03115916A JPH03115916A (en) 1991-05-16
JP2813211B2 true JP2813211B2 (en) 1998-10-22

Family

ID=17263963

Family Applications (1)

Application Number Title Priority Date Filing Date
JP1254364A Expired - Fee Related JP2813211B2 (en) 1989-09-29 1989-09-29 Range image generation method

Country Status (1)

Country Link
JP (1) JP2813211B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009162747A (en) * 2007-12-10 2009-07-23 Fujifilm Corp Distance image processing device and method, distance image regenerating device and method, and program

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3231618B2 (en) * 1996-04-23 2001-11-26 日本電気株式会社 3D image encoding / decoding system
CA2506608C (en) * 2002-11-21 2013-01-22 Vision Iii Imaging, Inc. Critical alignment of parallax images for autostereoscopic display
JP2008307119A (en) * 2007-06-12 2008-12-25 Hivix Co Ltd Washing tub

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009162747A (en) * 2007-12-10 2009-07-23 Fujifilm Corp Distance image processing device and method, distance image regenerating device and method, and program

Also Published As

Publication number Publication date
JPH03115916A (en) 1991-05-16

Similar Documents

Publication Publication Date Title
CN114004941B (en) Indoor scene three-dimensional reconstruction system and method based on nerve radiation field
JP3593466B2 (en) Method and apparatus for generating virtual viewpoint image
Zhu et al. Generalized parallel-perspective stereo mosaics from airborne video
US10462447B1 (en) Electronic system including image processing unit for reconstructing 3D surfaces and iterative triangulation method
Shashua et al. Relative affine structure: Canonical model for 3D from 2D geometry and applications
CN1117481C (en) Computationally-efficient method for estimating image motion
KR100897542B1 (en) Method and Device for Rectifying Image in Synthesizing Arbitary View Image
Şanlıoğlua et al. PHOTOGRAMMETRIC SURVEY AND 3D MODELING OF IVRIZ ROCK RELIEF IN LATE HITTITE ERA.
US6175648B1 (en) Process for producing cartographic data by stereo vision
JP3561446B2 (en) Image generation method and apparatus
JPH05303629A (en) Method for synthesizing shape
EP1997072B1 (en) Method for determining a depth map from images, device for determining a depth map
Geyer et al. Conformal rectification of omnidirectional stereo pairs
Gadasin et al. A Model for Representing the Color and Depth Metric Characteristics of Objects in an Image
Shashua et al. On the structure and properties of the quadrifocal tensor
Zhu et al. Stereo mosaics from a moving video camera for environmental monitoring
JP2813211B2 (en) Range image generation method
EP3651119A1 (en) Disparity estimation from a wide angle image
KR100837776B1 (en) Apparatus and Method for Converting 2D Images to 3D Object
CN113793420A (en) Depth information processing method and device, electronic equipment and storage medium
CN114998532A (en) Three-dimensional image visual transmission optimization method based on digital image reconstruction
CN109379577B (en) Video generation method, device and equipment of virtual viewpoint
CN114119891A (en) Three-dimensional reconstruction method and reconstruction system for robot monocular semi-dense map
KR100234196B1 (en) Method for generating height map using 2-dimensional video image
Remondino 3D reconstruction of articulated objects from uncalibrated images

Legal Events

Date Code Title Description
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080807

Year of fee payment: 10

LAPS Cancellation because of no payment of annual fees