JPH0534117A - Image processing method - Google Patents

Image processing method

Info

Publication number
JPH0534117A
JPH0534117A JP3191478A JP19147891A JPH0534117A JP H0534117 A JPH0534117 A JP H0534117A JP 3191478 A JP3191478 A JP 3191478A JP 19147891 A JP19147891 A JP 19147891A JP H0534117 A JPH0534117 A JP H0534117A
Authority
JP
Japan
Prior art keywords
image
point
parallax
processing
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP3191478A
Other languages
Japanese (ja)
Other versions
JP3047017B2 (en
Inventor
Fumiaki Tomita
文明 富田
Takashi Yoshimi
隆 吉見
Yutaka Ishiyama
豊 石山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
National Institute of Advanced Industrial Science and Technology AIST
Stanley Electric Co Ltd
Original Assignee
Agency of Industrial Science and Technology
Stanley Electric Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Agency of Industrial Science and Technology, Stanley Electric Co Ltd filed Critical Agency of Industrial Science and Technology
Priority to JP3191478A priority Critical patent/JP3047017B2/en
Publication of JPH0534117A publication Critical patent/JPH0534117A/en
Application granted granted Critical
Publication of JP3047017B2 publication Critical patent/JP3047017B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Measurement Of Optical Distance (AREA)
  • Image Processing (AREA)
  • Image Generation (AREA)
  • Image Analysis (AREA)

Abstract

PURPOSE:To make it possible to perform simple and highly accurate image processing without limiting a light source in the image processing, wherein the three-dimensional shape of an object is detected based on the equal luminance line with shading and stereographic display is performed. CONSTITUTION:The right and left stereographic images of an object are inputted (step S3). The luminance value at each point is adjusted (step S4). The luminance threshold value is changed at every constant interval (step S5), and the value is binary-coded (step 6), Smoothing (step S7) is performed, and an equal luminance line is extracted (step S8). Then, the corresponding of the equal luminance line is performed (step S9). The parallax of each point for which the corresponding point is obtained is extracted (step S10). The part between the lines is interpolated based on the parallax (step S12). The distance of each picture element is operated (step S13) based on the parallax data. The stereographic display of the object is performed (step S14) by using the distance data.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、対象物の3次元形状情
報を演算して立体表示を行う画像処理方法に関するもの
である。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image processing method for performing three-dimensional display by calculating three-dimensional shape information of an object.

【0002】[0002]

【従来の技術】3次元立体の対象物に対してより現実に
近い質感を与えるような画像表示を行う場合、例えば特
開平2−29878号公報に示されているような画像処
理が行われる。これは、例えば撮像面が実質的に同一面
で光軸が互いに平行な2台のカメラにより同一の対象物
を撮像し、各テクスチャ領域を構成する画素についてそ
れぞれ対応付けを行い、その結果から視差を求めること
により対象物までの距離を求め、これを立体的な画像に
再現するようにしたものである。
2. Description of the Related Art In the case of displaying an image that gives a three-dimensional three-dimensional object a more realistic texture, image processing such as that disclosed in Japanese Laid-Open Patent Publication No. 2-29878 is performed. This is because, for example, the same object is imaged by two cameras whose image pickup surfaces are substantially the same plane and whose optical axes are parallel to each other, and pixels corresponding to each texture region are associated with each other, and the parallax is obtained from the result. Is obtained to obtain the distance to the object, and this is reproduced as a three-dimensional image.

【0003】また、従来では光源を利用して対象物の形
状を決定する際、対象となる面の反射率の性質と光源の
特性とから面の法線方向を求めている。これは、結果と
して面の法線方向のデータしか求まらないので、あらか
じめ面の凹凸などの情報を与えておく必要がある。この
方法は、陰影からの形状決定(shape from shading)と呼
ばれている。
Further, conventionally, when the shape of an object is determined using a light source, the normal direction of the surface is obtained from the characteristics of the reflectance of the surface of interest and the characteristics of the light source. As a result, since only the data in the normal direction of the surface can be obtained, it is necessary to give information such as surface irregularities in advance. This method is called shape from shading.

【0004】[0004]

【発明が解決しようとする課題】ところで、上記のよう
な従来の画像処理方法にあっては、形状決定に利用する
光源を限定する必要があり、また対象となる面の反射率
を求めなければならず、処理が複雑になると共に、結果
として面の法線方向のデータしか求まらないので実距離
を計測することができないという問題点があった。
In the conventional image processing method as described above, it is necessary to limit the light source used for shape determination, and the reflectance of the target surface must be obtained. However, the processing becomes complicated, and as a result, only the data in the normal direction of the surface can be obtained, so that the actual distance cannot be measured.

【0005】本発明は、上記のような問題点に着目して
なされたもので、光源が限定されることなく、簡単な処
理でハードウエア化にも適し、また精度の高い処理が可
能な画像処理方法を提供することを目的としている。
The present invention has been made by paying attention to the above problems, and is not limited to a light source. It is suitable for hardware implementation with simple processing, and an image capable of highly accurate processing. The purpose is to provide a processing method.

【0006】[0006]

【課題を解決するための手段】本発明の画像処理方法
は、シェーディングにより対象物の左右のステレオ画像
から等輝度線を抽出し、その等輝度線のステレオ対応デ
ータを求めて対象物の各点の視差を抽出し、それらの視
差データから対象物の各点の距離を計測して該対象部の
3次元形状情報を演算するようにしたものである。
According to an image processing method of the present invention, isoluminance lines are extracted from left and right stereo images of an object by shading, and stereo correspondence data of the isoluminance lines are obtained to obtain each point of the object. The parallax is extracted, the distances of the respective points of the object are measured from the parallax data, and the three-dimensional shape information of the object is calculated.

【0007】また、前記対象物の距離の計測を複数方向
からの光源を利用して行うようにし、さらに前記対象物
の3次元形状情報を演算する際に遮蔽輪郭、遮蔽領域の
検出を行うようにしたものである。
Further, the distance of the object is measured by using light sources from a plurality of directions, and the shielding contour and the shielding area are detected when the three-dimensional shape information of the object is calculated. It is the one.

【0008】[0008]

【作用】本発明の画像処理方法においては、対象物の左
右のステレオ画像からシェーディングによる等輝度線が
抽出され、その等輝度線のステレオ対応データが求めら
れる。そして、その対応データから対象物の各点の視差
が抽出され、それらの視差データから対象物の各点の距
離が計測される。これにより、対象物の3次元形状情報
が求められる。
In the image processing method of the present invention, isoluminance lines due to shading are extracted from the left and right stereo images of the object, and stereo correspondence data of the isoluminance lines are obtained. Then, the parallax of each point of the object is extracted from the corresponding data, and the distance of each point of the object is measured from the parallax data. Thereby, the three-dimensional shape information of the target object is obtained.

【0009】その際、上記対象物の距離の計測は、例え
ば、複数方向からの光源を利用して行われる。また、対
象物の3次元形状情報の演算の際に遮蔽輪郭、遮蔽領域
が検出され、偽の面が生成されるのが防止される。
At this time, the distance to the object is measured by using light sources from a plurality of directions, for example. Further, it is possible to prevent a false contour from being generated by detecting the occluding contour and the occluding area when the three-dimensional shape information of the object is calculated.

【0010】[0010]

【実施例】図1は本発明に係る画像処理を実施するため
の装置構成を示すブロック図であり、また図2はそのカ
メラ構成を模式的に示したものである。この装置は、マ
イクロコンピュータ1により制御される二つのITVカ
メラユニット2,3を有しており、さらにに画像データ
を記憶する画像メモリ4、ディスプレイユニット5、プ
リンタ6、フロッピーディスク7及びキーボードターミ
ナル8が備えられている。また、データバス9を介して
ホストコンピュータも接続されており、ここから与えら
れた指示あるいはキーボードターミナル8から与えられ
た支持により上述の各部が制御され、対応する処理が行
われるようになっている。
DESCRIPTION OF THE PREFERRED EMBODIMENTS FIG. 1 is a block diagram showing the structure of an apparatus for carrying out image processing according to the present invention, and FIG. 2 is a schematic view of the structure of the camera. This apparatus has two ITV camera units 2 and 3 controlled by a microcomputer 1, and further includes an image memory 4 for storing image data, a display unit 5, a printer 6, a floppy disk 7 and a keyboard terminal 8. Is provided. Further, a host computer is also connected via the data bus 9, and the above-mentioned respective parts are controlled by the instruction given from here or the support given from the keyboard terminal 8 and the corresponding processing is performed. .

【0011】上記二つのITVカメラユニット2,3
は、それぞれアナログ撮像データを出力するITVカメ
ラ21,31と、そのアナログデータをデジタルデータ
に変換するA/Dコンバータ22,32とから構成され
ている。また2台のITVカメラ21と31は、図2に
示すように左右に水平に配置され、各々の光軸21aと
31aは平行であり、かつ座標系も平行である。そし
て、各ITVカメラ21,31の投影中心点OL ,OR
に対して3次元上の点Pの投影像の点PL ,PR の各々
のX座標地とY座標には次式の関係がある。
The above two ITV camera units 2 and 3
Is composed of ITV cameras 21 and 31 for outputting analog image pickup data, and A / D converters 22 and 32 for converting the analog data into digital data. The two ITV cameras 21 and 31 are horizontally arranged as shown in FIG. 2, and their optical axes 21a and 31a are parallel to each other and their coordinate systems are also parallel to each other. The projection center points O L and O R of the ITV cameras 21 and 31 are
On the other hand, the X-coordinate ground and the Y-coordinate of each of the points P L and P R of the projected image of the three-dimensional point P have the following relationship.

【0012】XL >XRL =YR すなわち、一方の画像上のある点に対するもう一方の画
像上の対応点は、同じ走査(ラスタスキャン)線の半直
線上に存在することになり、いわゆるエピポーラ条件が
成立している。
X L > X R Y L = Y R That is, a corresponding point on one image on one image lies on the half line of the same scan (raster scan) line. , The so-called epipolar condition is satisfied.

【0013】また、画像メモリ4は読み書き自在であ
り、左(L)側のITVカメラ21で撮像した左画像お
よび右(R)側のITVカメラ31で撮像した右画像の
原画像データや、種々の処理データを記憶するようにな
っている。ディスプレイユニット5及びプリンタ6は、
コンピュータ1の処理結果等を出力し、その処理結果等
をフロッピーディスク7に登録するように構成されてい
る。
The image memory 4 is readable and writable, and has original image data of a left image taken by the left (L) side ITV camera 21 and a right image taken by the right (R) side ITV camera 31, and various data. The processing data of is stored. The display unit 5 and the printer 6 are
The processing result and the like of the computer 1 are output and the processing result and the like are registered in the floppy disk 7.

【0014】次に上記構成の装置による本発明の画像処
理、すなわち距離計測による立体処理の動作について説
明する。この立体処理は、コンピュータ1により行われ
るものであり、先ずシェーディングにより対象物の左右
のステレオ画像から等輝度線を抽出し、次にその等輝度
線のステレオ対応データを求めて対象物の各点の視差を
抽出し、それらの視差データから対象物の各点の距離を
計測して該対象物の3次元形状情報を演算するようにし
たものである。以下、図3のフローチャートを参照しな
がら上記処理の詳細を手順を追って説明する。
Next, the operation of the image processing of the present invention, that is, the stereoscopic processing by the distance measurement, by the apparatus having the above-mentioned configuration will be described. This stereoscopic processing is performed by the computer 1. First, isoluminance lines are extracted from the left and right stereo images of the object by shading, and then stereo correspondence data of the isoluminance lines are obtained to obtain each point of the object. The parallax is extracted, the distances of the respective points of the object are measured from the parallax data, and the three-dimensional shape information of the object is calculated. Hereinafter, the details of the above process will be described step by step with reference to the flowchart of FIG.

【0015】(1)ステップS1で立体処理が開始され
ると、コンピュータ1は先ず画像メモリ4及びこの処理
で用いるレジスタ(図示せず)をステップS2にて初期
化する。そして、ステップS3でITVカメラユニット
2,3により量子化された左右の原画像データを画像メ
モリ4に書き込み、左右の画像入力を行う。
(1) When the stereoscopic processing is started in step S1, the computer 1 first initializes the image memory 4 and a register (not shown) used in this processing in step S2. Then, in step S3, the left and right original image data quantized by the ITV camera units 2 and 3 are written in the image memory 4, and the left and right images are input.

【0016】(2)上記2台のITVカメラ21,31
(2台のカメラの光学的特性が若干異なる)により左右
それぞれ入力された画像に対し、ステップS4でグレー
スケールのテストパターンを用いて同じ明るさに対して
等しい輝度値となるように画像の各点の輝度値を調整
し、入力画像の調整を行う。これにより、図4に示すよ
うなシェーディングによる対象物の左右のステレオ画像
が得られる。
(2) The above two ITV cameras 21, 31
In step S4, the grayscale test pattern is used to obtain the same brightness value for each image so that the same brightness value is obtained for each of the left and right input images (the optical characteristics of the two cameras are slightly different). Adjust the brightness value of the point and adjust the input image. As a result, left and right stereo images of the object by shading as shown in FIG. 4 are obtained.

【0017】(3)次に、ステップS5で輝度しきい値
を一定間隔毎に変化させながら設定し、ステップS6で
2値化する。これにより得られる画像は、図5に示すよ
うな輝度切断面を表す画像となる。
(3) Next, in step S5, the brightness threshold value is set while changing it at regular intervals, and in step S6, it is binarized. The image obtained by this is an image showing the luminance cut plane as shown in FIG.

【0018】(4)上記輝度切断面の各領域は、境界線
付近にノイズを含んでいるため、ステップS7で平滑化
処理を行い、ノイズを除去する。この平滑化処理では、
収縮膨張処理が複数回行われ、結果として図6に示すよ
うな画像が得られる。
(4) Since each area of the luminance cut surface contains noise near the boundary, smoothing processing is performed in step S7 to remove noise. In this smoothing process,
The contraction / expansion process is performed plural times, and as a result, an image as shown in FIG. 6 is obtained.

【0019】(5)各領域の境界を追跡しながら、該領
域のラベル付けを行う。その際、注目画素の近傍画素を
探索し、それらの画素データから境界線の傾きと座標を
調べる。このようにして、ステップS8で等輝度線(領
域の境界線)を抽出し、図7に示すような等輝度線の画
像を得る。ここで、他の輝度しきい値による切断面との
間には、図8に示すような包含関係がある。図8は輝度
値t1,t2,t3のしきい値による包含関係を領域の
ラベル番号を用いた木構造のリストで示したものであ
る。
(5) The area is labeled while tracking the boundary of each area. At that time, a pixel in the vicinity of the pixel of interest is searched for, and the inclination and coordinates of the boundary line are checked from those pixel data. In this way, isoluminance lines (region boundary lines) are extracted in step S8, and an image of isoluminance lines as shown in FIG. 7 is obtained. Here, there is an inclusion relationship as shown in FIG. 8 with the cut surface with another brightness threshold value. FIG. 8 shows the inclusion relation of the brightness values t1, t2, t3 by the threshold value in the form of a tree structure using the label numbers of the areas.

【0020】(6)次に、ステップS9で等輝度線の対
応付けを行う。これは、等輝度線のステレオ対応データ
を求めるもので、ここでは先ず、領域間でその領域内に
上述のエピポーラ条件を満足する点が存在するか否かを
判定する。この判定には、簡略化のために領域の外接長
方形の頂点座標が使用される。またこの対応は、上記
(5)の処理で得られた包含関係の情報からも取ること
ができる。そして、このようにして、領域間の対応を取
ると、次にその境界線(等輝度線)の対応点を図9に示
すようにエピポーラ条件や(5)の処理で得られた等輝
度線の傾きから求める。
(6) Next, equiluminance lines are associated in step S9. This is to obtain stereo correspondence data of equiluminance lines. Here, first, it is determined whether or not there is a point satisfying the above-mentioned epipolar condition between the areas. For this determination, the vertex coordinates of the circumscribed rectangle of the area are used for simplification. This correspondence can also be obtained from the inclusive relation information obtained in the process (5). Then, when the correspondence between the regions is obtained in this manner, the corresponding points of the boundary line (isoluminance line) are then determined as shown in FIG. 9 using the epipolar condition or the isoluminance line obtained by the process of (5). Calculated from the slope of.

【0021】(7)ステップS10にて、上記の対応の
取れた各点の視差(主走査方向のずれ)をそれぞれの座
標値から演算し、視差の抽出を行う。これは、等輝度線
のステレオ対応データから対象物の各点の視差を抽出す
るものである。
(7) In step S10, the parallax (deviation in the main scanning direction) of each of the above-mentioned corresponding points is calculated from each coordinate value, and the parallax is extracted. This is to extract the parallax of each point of the object from the stereo correspondence data of the isoluminance lines.

【0022】(8)輝度しきい値を変化させながら全濃
度範囲にわたって上記(3)〜(7)の処理を繰り返
す。すなわち、ステップS11で全ての視差の抽出が完
了するまでステップS5〜ステップS10の動作を繰り
返す。 (9)そしてステップS12で、上記等輝度線上に求ま
った視差から線の間の部分を補間する。
(8) The above processes (3) to (7) are repeated over the entire density range while changing the brightness threshold value. That is, the operations of steps S5 to S10 are repeated until the extraction of all parallaxes is completed in step S11. (9) Then, in step S12, the portion between the lines is interpolated from the parallax obtained on the isoluminance line.

【0023】(10)次にステップS13で、上述の抽
出された視差データから対象物の各点の距離の計測、つ
まり各画素の距離の演算を行う。その際、図2に示すよ
うに同一の対象物上の点Pを左右のITVカメラ21,
31で撮像し、その画像について上述の処理を行った結
果、左画像の画素PL と右画像の画素PR とが対応して
いるとすると、点Pは、左側のITVカメラ21の焦点
L とその投影面の画素の点PL とを結ぶ直線と、右側
のITVカメラ31の焦点OR とその投影面の画素の点
R とを結ぶ直線との交点に存在することになる。した
がって、ITVカメラ21と31の光軸間距離を2a、
各ITVカメラ21,31の焦点距離をf,また点PL
とPR の視差をDとすると、対象物上の点Pまでの距離
Zは次式より求まる。 Z=2af/D (11)上記の距離データから対象物の3次元形状情報
が演算されると、ステップS14にてその対象物の立体
表示を行う。この時、図10に示すような表示画像が得
られる。
(10) Next, in step S13, the distance of each point of the object is measured from the extracted parallax data, that is, the distance of each pixel is calculated. At that time, as shown in FIG. 2, the point P on the same object is moved to the left and right ITV cameras 21,
As a result of performing the above-described processing on the image captured by the image sensor 31 and the pixel P L of the left image and the pixel P R of the right image, the point P is the focus O of the ITV camera 21 on the left side. L and the line connecting the points P L of pixels in the projection surface, will be present at the intersection of the straight line connecting the focal point O R and the point P R of the pixel of the projection surface of the right side of ITV camera 31. Therefore, the distance between the optical axes of the ITV cameras 21 and 31 is 2a,
The focal length of each ITV camera 21, 31 is f, and the point P L
If the parallax between P R and P R is D, the distance Z to the point P on the object can be obtained from the following equation. Z = 2af / D (11) When the three-dimensional shape information of the target object is calculated from the distance data, the target object is stereoscopically displayed in step S14. At this time, a display image as shown in FIG. 10 is obtained.

【0024】以上、対象物の撮像から立体表示までの処
理について説明したが、ここで実際の対象物には多少の
正反対成分が含まれていると考えられる。そこで、この
点を改善するために、図11に示すように対象物の距離
の計測を複数方向からの光源を利用して行うことが有効
となる。以下、図12のフローチャートによりその処理
動作を手順を追って説明する。
The processing from the imaging of the object to the stereoscopic display has been described above, but it is considered that the actual object contains some diametrically opposite components. Therefore, in order to improve this point, it is effective to measure the distance to the object using light sources from a plurality of directions as shown in FIG. The processing operation will be described below step by step with reference to the flowchart of FIG.

【0025】(12)先ず、ステップS15aで図11
の(a)に示すように左側の第1光源11から対象物を
照明し、図13に示すような第1方向のステレオ画像を
得る。そして、ステップS16aで前述と同様の処理を
行い、対象物までの距離データを演算する。
(12) First, in step S15a, as shown in FIG.
As shown in (a) of FIG. 13, the object is illuminated from the first light source 11 on the left side, and a stereo image in the first direction as shown in FIG. 13 is obtained. Then, in step S16a, the same processing as described above is performed to calculate the distance data to the object.

【0026】(13)次に、ステップS15bで図11
の(b)に示すように右側の第2光源12から対象物を
照明し、図14に示すような第2方向のステレオ画像を
得る。そして、ステップS16bで同様に対象物までの
距離データを演算する。
(13) Next, in step S15b, as shown in FIG.
As shown in (b), the object is illuminated from the second light source 12 on the right side, and a stereo image in the second direction as shown in FIG. 14 is obtained. Then, in step S16b, the distance data to the object is similarly calculated.

【0027】(14)上記のようにして得られた各点P
(ij)の距離データをステップS17で次式の条件に
より統合する。即ち、もし|I1(i,j)−Tmax/2
|<|I2(i,j)−Tmax/2|であれば、D(i,
j)=D1(i,j) あるいは、D(i,j)=D2(i,j) とする。ここで、 D1:対応点の距離(第1光源) I1:対応点の輝度値(第1光源) D2:対応点の距離(第2光源) I2:対応点の輝度値(第2光源) Tmax:最大輝度値 である。
(14) Each point P obtained as described above
The distance data of (ij) are integrated in step S17 according to the condition of the following equation. That is, if | I1 (i, j) -T max / 2
If | <| I2 (i, j) -T max / 2 |, then D (i,
j) = D1 (i, j) or D (i, j) = D2 (i, j). Here, D1: distance of corresponding points (first light source) I1: luminance value of corresponding points (first light source) D2: distance of corresponding points (second light source) I2: luminance value of corresponding points (second light source) T max : Maximum brightness value.

【0028】これは、画像の非常に明るい部分は正反射
成分の影響が多くあると考えられ、また画像の非常に暗
い部分は等輝度線が得られないことを考慮したものであ
り、距離データの統合は画像の各点の明るさを比較し
て、輝度のダイナミックレンジの中間値に近い方から得
られた距離を最終値としている。そして、ステップS1
8でその距離データに基づいて対象物の立体表示を行
う。この時、図15に示すような表示画像が得られる。
This is because it is considered that the very bright part of the image is largely influenced by the specular reflection component, and the very dark part of the image cannot obtain isoluminance lines. In the integration of, the final value is the distance obtained from the one closer to the intermediate value of the dynamic range of luminance by comparing the brightness of each point of the image. And step S1
At 8, the stereoscopic display of the object is performed based on the distance data. At this time, a display image as shown in FIG. 15 is obtained.

【0029】このように、シェーディングから得られる
等輝度線のステレオ対応を求め、その結果から視差を抽
出して対象物の3次元形状情報を非接触により演算する
ようにしている。そして、複数方向からの光源を利用す
ることにより、さらに高精度となり、実距離も容易に計
測することができる。また、各切断面毎に処理を独立に
行うこともでき、並列処理にも適し、個々の処理は簡単
でハードウエア化にも適している。
In this way, the stereo correspondence of the isoluminance lines obtained from the shading is obtained, the parallax is extracted from the result, and the three-dimensional shape information of the object is calculated without contact. Further, by using the light sources from a plurality of directions, the accuracy becomes higher and the actual distance can be easily measured. Further, the processing can be performed independently for each cut surface, which is suitable for parallel processing, and individual processing is simple and suitable for hardware implementation.

【0030】ここで、上述の3次元形状情報を演算する
際、遮蔽輪郭あるいは遮蔽領域を検出するようにしても
良い。すなわち、ステレオ画像ではオクルージョン(遮
蔽)のために一方のカメラでは見えても他方のカメラで
は見えない部分で出てくる。そして、このような部分を
オクルージョンとして検出できないと、為の面を生成す
る原因となってしまう。そこで、上述の等輝度線を利用
してオクルージョンを検出する。
Here, when calculating the above-mentioned three-dimensional shape information, the shielding contour or the shielding region may be detected. That is, in a stereo image, occlusion (occlusion) occurs in a portion that can be seen by one camera but cannot be seen by the other camera. And if such a part cannot be detected as occlusion, it will cause the generation of a plane. Therefore, the occlusion is detected by using the above isoluminance line.

【0031】図16はオクルージョンの発生例を示すも
ので、図16の(a)のように一方の画像の同一エピポ
ーラ線上で等輝度線の部分は2点になるが、他方の画像
では1点になる。すなわち、A点における視差がD点に
おける視差より小さい時、図16の(b)のように左画
像の少なくともAL ,BL ,CL ,DL の点で囲まれた
領域は右画像では見えないオクルージョン領域となる。
FIG. 16 shows an example of occurrence of occlusion. As shown in FIG. 16A, there are two isoluminance lines on the same epipolar line in one image, but one point in the other image. become. That is, when the parallax at the point A is smaller than the parallax at the point D, the region surrounded by at least the points A L , B L , C L , and D L of the left image in the right image as shown in FIG. It becomes an invisible occlusion area.

【0032】また、円柱などで生じる遮蔽輪郭部による
オクルージョンの検出は、図17に示すように対応する
部分が存在しない部分を検出すればよい。図17では、
Aが対応している部分、Bの領域がオクルージョン部分
を示している。
Further, the occlusion detected by the shielding contour portion formed by a cylinder or the like may be detected by detecting a portion where there is no corresponding portion as shown in FIG. In FIG. 17,
The area corresponding to A and the area B indicate occlusion.

【0033】図18はこのようなオクルージョンのある
対象物のステレオ画像の一例を示し、図19はその等輝
度線の画像を示している。また、この対象物に対し、左
画像についてオクルージョンの検出を行った結果得られ
る表示画像を図20に示す。
FIG. 18 shows an example of a stereo image of an object having such occlusion, and FIG. 19 shows an image of its isoluminance lines. Further, FIG. 20 shows a display image obtained as a result of performing occlusion detection on the left image of this object.

【0034】このように、輝度情報や等輝度線の傾きな
どの情報により、左右の対応付けによる距離計測と同時
にオクルージョンの検出もでき、偽の面を生成するのを
防止することができる。
As described above, the occlusion can be detected at the same time as the distance measurement by the left and right correspondence can be performed by the information on the luminance information and the inclination of the isoluminance line, and the generation of the false surface can be prevented.

【0035】[0035]

【発明の効果】以上のように、本発明によれば、対象物
の左右のステレオ画像からシェーディングによる等輝度
線を抽出し、その等輝度線のステレオ対応データを求め
て対象物の各点の視差を抽出し、それらの視差データか
ら距離計測を行って対象物の3次元形状情報を演算する
ようにしたため、光源が限定されることなく、また実距
離を容易に計測することができ、しかも簡単な処理でハ
ードウエア化にも適し、精度の高い処理ができるという
効果がある。
As described above, according to the present invention, the isoluminance lines by shading are extracted from the left and right stereo images of the object, and the stereo correspondence data of the isoluminance lines are obtained to determine each point of the object. Since the parallax is extracted and the distance is measured from the parallax data to calculate the three-dimensional shape information of the object, the light source is not limited and the actual distance can be easily measured. The simple processing is suitable for hardware implementation, and has the effect of enabling highly accurate processing.

【0036】また、複数方向からの光源を利用すること
で正反射成分の影響を防ぐことができ、さらに遮蔽輪
部、遮蔽領域を検出することで偽の面を生成するのを防
止することができる。
Further, it is possible to prevent the influence of the specular reflection component by using the light sources from a plurality of directions, and it is possible to prevent the generation of a false surface by detecting the shield ring portion and the shield region. it can.

【図面の簡単な説明】[Brief description of drawings]

【図1】 本発明に係る画像処理を実施するための装置
構成を示すブロック図
FIG. 1 is a block diagram showing a device configuration for performing image processing according to the present invention.

【図2】 図1のITVカメラの構成を示す模式図2 is a schematic diagram showing the configuration of the ITV camera of FIG.

【図3】 図1のコンピュータによる処理動作を示すフ
ローチャート
FIG. 3 is a flowchart showing a processing operation by the computer of FIG.

【図4】 図3の処理で得られるステレオ画像の表示例
を示す説明図
FIG. 4 is an explanatory diagram showing a display example of a stereo image obtained by the processing of FIG.

【図5】 図3の処理で得られる輝度切断面の表示例を
示す説明図
FIG. 5 is an explanatory diagram showing a display example of a luminance cut surface obtained by the processing of FIG.

【図6】 図5の画像を平滑化した例を示す説明図FIG. 6 is an explanatory diagram showing an example in which the image of FIG. 5 is smoothed.

【図7】 図3の処理で等輝度線を抽出した画像例を示
す説明図
FIG. 7 is an explanatory diagram showing an example of an image in which isoluminance lines are extracted by the processing of FIG.

【図8】 図7のラベル画像でしきい値による切断面の
包含関係を示す説明図
FIG. 8 is an explanatory view showing the inclusion relationship of cut surfaces by a threshold value in the label image of FIG.

【図9】 図3の処理で等輝度線の対応点を求める様子
を示す説明図
FIG. 9 is an explanatory diagram showing how corresponding points of isoluminance lines are obtained by the processing of FIG.

【図10】 図3の処理による立体表示画像の一例を示
す説明図
FIG. 10 is an explanatory diagram showing an example of a stereoscopic display image by the processing of FIG.

【図11】 図1の装置で複数方向からの光源を利用す
る例を示す構成図
11 is a block diagram showing an example of using light sources from a plurality of directions in the device of FIG.

【図12】 図11の構成の装置の処理動作を示すフロ
ーチャート
FIG. 12 is a flowchart showing the processing operation of the apparatus having the configuration of FIG.

【図13】 図12の処理で得られるステレオ画像の表
示例を示す説明図
13 is an explanatory diagram showing a display example of a stereo image obtained by the processing of FIG.

【図14】 図12の処理で得られるステレオ画像の表
示例を示す説明図
14 is an explanatory diagram showing a display example of a stereo image obtained by the processing of FIG.

【図15】 図12の処理による立体表示画像の一例を
示す説明図
FIG. 15 is an explanatory diagram showing an example of a stereoscopic display image by the processing of FIG.

【図16】 遮蔽領域の検出の様子を示す説明図FIG. 16 is an explanatory diagram showing how to detect a shielding area.

【図17】 遮蔽輪郭の検出の様子を示す説明図FIG. 17 is an explanatory diagram showing how to detect a shielding contour.

【図18】 オクルージョンのあるステレオ画像例を示
す説明図
FIG. 18 is an explanatory diagram showing an example of a stereo image with occlusion.

【図19】 図18の画像に対して等輝度線を抽出した
画像例を示す説明図
FIG. 19 is an explanatory diagram showing an image example in which isoluminance lines are extracted from the image of FIG.

【図20】 図18の画像に対してオクルージョンの検
出を行った結果を示す説明図
20 is an explanatory diagram showing a result of performing occlusion detection on the image of FIG.

【符号の説明】[Explanation of symbols]

1 コンピュータ 2 ITVカメラユニット 3 ITVカメラユニット 4 画像メモリ 5 ディスプレイユニット 6 プリンタ 7 プロッピーディスク 8 キーボードターミナル 21,31 ITVカメラ 22,32 A/Dコンバータ 1 computer 2 ITV camera unit 3 ITV camera unit 4 image memory 5 display unit 6 printer 7 Proppy disk 8 keyboard terminals 21,31 ITV camera 22,32 A / D converter

───────────────────────────────────────────────────── フロントページの続き (72)発明者 吉見 隆 茨城県つくば市梅園1丁目1番4 工業技 術院電子技術総合研究所内 (72)発明者 石山 豊 東京都港区高輪3−2−1   ─────────────────────────────────────────────────── ─── Continued front page    (72) Inventor Takashi Yoshimi             1-4, Umezono, Tsukuba-shi, Ibaraki Industrial Technology             Inside the Institute for Electronic Technology Research (72) Inventor Yutaka Ishiyama             3-2-1 Takanawa, Minato-ku, Tokyo

Claims (4)

【特許請求の範囲】[Claims] 【請求項1】 シェーディングにより対象物の左右のス
テレオ画像から等輝度線を抽出し、その等輝度線のステ
レオ対応データを求めて対象物の各点の視差を抽出し、
それらの視差データから対象物の各点の距離を計測して
該対象部の3次元形状情報を演算することを特徴とする
画像処理方法。
1. An isoluminance line is extracted from left and right stereo images of an object by shading, stereo correspondence data of the isoluminance line is obtained, and parallax of each point of the object is extracted.
An image processing method, characterized in that the three-dimensional shape information of the target portion is calculated by measuring the distance of each point of the target from the parallax data.
【請求項2】 前記対象物の距離の計測を複数方向から
の光源を利用して行うことを特徴とする請求項1記載の
画像処理方法。
2. The image processing method according to claim 1, wherein the distance to the object is measured using light sources from a plurality of directions.
【請求項3】 前記対象物の3次元形状情報を演算する
際に遮蔽輪郭の検出を行うことを特徴とする請求項1ま
たは2記載の画像処理方法。
3. The image processing method according to claim 1, wherein a shielding contour is detected when the three-dimensional shape information of the object is calculated.
【請求項4】 前記対象物の3次元形状情報を演算する
際に遮蔽領域の検出を行うことを特徴とする請求項1な
いし3いずれか記載の画像処理方法。
4. The image processing method according to claim 1, wherein the shielded area is detected when the three-dimensional shape information of the object is calculated.
JP3191478A 1991-07-31 1991-07-31 Image processing method Expired - Lifetime JP3047017B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP3191478A JP3047017B2 (en) 1991-07-31 1991-07-31 Image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP3191478A JP3047017B2 (en) 1991-07-31 1991-07-31 Image processing method

Publications (2)

Publication Number Publication Date
JPH0534117A true JPH0534117A (en) 1993-02-09
JP3047017B2 JP3047017B2 (en) 2000-05-29

Family

ID=16275319

Family Applications (1)

Application Number Title Priority Date Filing Date
JP3191478A Expired - Lifetime JP3047017B2 (en) 1991-07-31 1991-07-31 Image processing method

Country Status (1)

Country Link
JP (1) JP3047017B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001208522A (en) * 2000-01-24 2001-08-03 Sony Corp Distance image generator, distance image generation method and program supply medium
JP2006127336A (en) * 2004-11-01 2006-05-18 National Institute Of Advanced Industrial & Technology Image processing method, device, and program
JP2011516849A (en) * 2008-04-02 2011-05-26 エイコナ・テクノロジーズ・リミテッド 3D imaging system
JP2013108948A (en) * 2011-11-24 2013-06-06 Ricoh Co Ltd Image analyzer and object detection device using the same

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001208522A (en) * 2000-01-24 2001-08-03 Sony Corp Distance image generator, distance image generation method and program supply medium
JP2006127336A (en) * 2004-11-01 2006-05-18 National Institute Of Advanced Industrial & Technology Image processing method, device, and program
JP2011516849A (en) * 2008-04-02 2011-05-26 エイコナ・テクノロジーズ・リミテッド 3D imaging system
JP2013108948A (en) * 2011-11-24 2013-06-06 Ricoh Co Ltd Image analyzer and object detection device using the same

Also Published As

Publication number Publication date
JP3047017B2 (en) 2000-05-29

Similar Documents

Publication Publication Date Title
US6768509B1 (en) Method and apparatus for determining points of interest on an image of a camera calibration object
US7711182B2 (en) Method and system for sensing 3D shapes of objects with specular and hybrid specular-diffuse surfaces
US7280685B2 (en) Object segmentation from images acquired by handheld cameras
JPH0658716A (en) Detecting method of edge on image
JPH1144533A (en) Preceding vehicle detector
JPH1079029A (en) Stereoscopic information detecting method and device therefor
JP2961140B2 (en) Image processing method
JP2001338280A (en) Three-dimensional space information input device
JP3047017B2 (en) Image processing method
JPH071164B2 (en) 3D shape recognition device
JPH0875454A (en) Range finding device
JP2000146546A (en) Method and apparatus for forming three-dimensional model
JPH1038542A (en) Method and device for object recognition and recording medium
JP3253328B2 (en) Distance video input processing method
JP3912638B2 (en) 3D image processing device
JPH08136222A (en) Method and device for three-dimensional measurement
JPH07220113A (en) Image recording/reproducing device
JP2775924B2 (en) Image data creation device
JPH10283478A (en) Method for extracting feature and and device for recognizing object using the same method
JPS61241612A (en) Three-dimensional form measuring system
JPH09229648A (en) Input/output method and device for image information
JP3055721B2 (en) Method for searching corresponding points of images captured by left and right cameras
JPH06243258A (en) Depth detector
JP2966711B2 (en) Image contour extraction method and apparatus
JPH0783614A (en) Distance image processing method

Legal Events

Date Code Title Description
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20000118

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313117

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees
S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313114

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080324

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100324

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120324

Year of fee payment: 12

EXPY Cancellation because of completion of term
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120324

Year of fee payment: 12