JP2961140B2 - Image processing method - Google Patents

Image processing method

Info

Publication number
JP2961140B2
JP2961140B2 JP3270918A JP27091891A JP2961140B2 JP 2961140 B2 JP2961140 B2 JP 2961140B2 JP 3270918 A JP3270918 A JP 3270918A JP 27091891 A JP27091891 A JP 27091891A JP 2961140 B2 JP2961140 B2 JP 2961140B2
Authority
JP
Japan
Prior art keywords
data
cameras
dimensional distance
point
parallax
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP3270918A
Other languages
Japanese (ja)
Other versions
JPH06281421A (en
Inventor
文明 富田
豊 石山
Original Assignee
工業技術院長
スタンレー電気株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 工業技術院長, スタンレー電気株式会社 filed Critical 工業技術院長
Priority to JP3270918A priority Critical patent/JP2961140B2/en
Publication of JPH06281421A publication Critical patent/JPH06281421A/en
Application granted granted Critical
Publication of JP2961140B2 publication Critical patent/JP2961140B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION
【0001】[0001]
【産業上の利用分野】本発明は、対象物の表面のシェー
ディングから等輝度線を検出し、その等輝度線をステレ
オ画像の対応単位として視差を抽出することにより、対
象物の3次元距離データを非接触で計測する画像処理方
法に関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to three-dimensional distance data of an object by detecting isoluminance lines from the shading of the surface of the object and extracting parallax using the isoluminance lines as corresponding units of a stereo image. And a non-contact image processing method.
【0002】[0002]
【従来の技術】3次元物体の対象物に対して、非接触で
その3次元距離データを計測する場合、例えば特開平2
−29878号公報に示されているように、光軸及び座
標系(撮像面)が平行な2台のカメラを使用することが
提案されている。これは、その2台のカメラで同一の対
象物を撮像し、各テクスチャ領域を構成する画素につい
てそれぞれ対応付けを行い、その結果から視差を抽出す
ることにより対象物までの距離を演算するようにしたも
のである。
2. Description of the Related Art When measuring three-dimensional distance data of a three-dimensional object in a non-contact manner, for example, Japanese Unexamined Patent Publication No.
As shown in Japanese Patent Application No. -29878, it has been proposed to use two cameras whose optical axis and coordinate system (imaging plane) are parallel. This is so that the two cameras capture the same object, associate the pixels constituting each texture area with each other, and extract the parallax from the result to calculate the distance to the object. It was done.
【0003】ここで、上記対象物までの距離を求める際
に光源を利用して対象物の形状を決定しているが、この
時、対象となる面の反射率の性質と光源の特性とから面
の法線方向を求めている。これは、結果として面の法線
方向のデータしか求まらないので、あらかじめ面の凹凸
などの情報を与えておく必要がある。この方法は、陰影
からの形状決定(shape from shading)と呼ばれてい
る。
Here, when determining the distance to the object, the shape of the object is determined by using a light source. At this time, the shape of the object is determined based on the characteristics of the reflectance of the target surface and the characteristics of the light source. Find the normal direction of the surface. As a result, since only data in the normal direction of the surface is obtained, it is necessary to provide information such as unevenness of the surface in advance. This method is called shape from shading.
【0004】[0004]
【発明が解決しようとする課題】しかしながら、上記の
ような3次元距離データを計測する従来の画像処理方法
にあっては、対象物の形状決定をするために対象面の反
射率を求めなければならないので、処理が複雑になると
共に、結果として面の法線方向のデータしか求まらず、
実距離を計測することができないという問題点があっ
た。
However, in the conventional image processing method for measuring three-dimensional distance data as described above, the reflectance of the target surface must be obtained in order to determine the shape of the target object. The processing becomes complicated, and as a result, only the data in the normal direction of the surface is obtained.
There was a problem that the actual distance could not be measured.
【0005】本発明は、上記のような問題点に着目して
なされたもので、簡単な処理で、非接触にて対象物の3
次元距離データを正確に計測することが可能な画像処理
方法を提供することを目的としている。
The present invention has been made in view of the above-mentioned problems, and is a simple process that allows non-contact processing of an object.
It is an object of the present invention to provide an image processing method capable of accurately measuring dimensional distance data.
【0006】[0006]
【課題を解決するための手段】本発明の画像処理方法
は、光軸及び座標系が平行な3台のカメラのうち一側の
2台のカメラを用いて、シェーディングにより対象物の
左右のステレオ画像から等輝度線を抽出し、その等輝度
線のステレオ対応データを求めて対象物の各点の視差を
抽出し、それらの視差データから対象物の各点の距離を
計測して該対象物の3次元距離データを演算するととも
に、他側の2台のカメラを用いて、同手順で前記対象物
の3次元距離データを演算し、これらの各3次元距離デ
ータの差から対象物の正反射部分を検出して前記対象物
の3次元距離データを補正するようにしたものである。
An image processing method according to the present invention uses left and right stereos of an object by shading using two cameras on one side of three cameras having a parallel optical axis and a coordinate system. An isoluminance line is extracted from the image, the stereo correspondence data of the isoluminance line is obtained, the parallax of each point of the object is extracted, and the distance of each point of the object is measured from the parallax data. Is calculated using the two cameras on the other side, and the three-dimensional distance data of the object is calculated in the same procedure, and the correctness of the object is calculated from the difference between these three-dimensional distance data. The three-dimensional distance data of the object is corrected by detecting a reflection part.
【0007】[0007]
【作用】本発明の画像処理方法においては、光軸及び座
標系が平行な3台のカメラが使用され、そのうち一側の
2台のカメラにより、対象物の左右のステレオ画像から
シェーディングによる等輝度線が抽出され、その等輝度
線のステレオ対応データが求められる。そして、その対
応データから対象物の各点の視差が抽出され、それらの
視差データから対象物の各点の距離が計測され、対象物
の3次元距離データが演算される。同時に、他側の2台
のカメラにより、同手順で対象物の3次元距離データが
演算され、これらの3次元距離データの差から対象物の
正反射部分が検出され、上記3次元距離データの補正が
行われる。
In the image processing method of the present invention, three cameras whose optical axis and coordinate system are parallel are used, and two cameras on one side use the left and right stereo images of the object to obtain uniform brightness by shading. The line is extracted, and stereo-corresponding data of the isoluminance line is obtained. Then, parallax of each point of the object is extracted from the corresponding data, a distance of each point of the object is measured from the parallax data, and three-dimensional distance data of the object is calculated. At the same time, the two cameras on the other side calculate the three-dimensional distance data of the object in the same procedure, and detect the regular reflection portion of the object from the difference between the three-dimensional distance data. Correction is performed.
【0008】[0008]
【実施例】図1は本発明に係る画像処理を実施するため
の装置構成を示すブロック図であり、また図2はそのカ
メラ構成を模式的に示したものである。この装置は、マ
イクロコンピュータ1により制御される三つのITVカ
メラユニット2,3,4を有しており、さらに画像デー
タを記憶する画像メモリ5,ディスプレイユニット6,
プリンタ7,フロッピーディスク8及びキーボードター
ミナル9が備えられている。また、データバス10を介
してホストコンピュータ11にも接続されており、ここ
から与えられた指示あるいはキーボードターミナル9か
ら与えられた支持により上述の各部が制御され、対応す
る処理が行われるようになっている。
FIG. 1 is a block diagram showing the structure of an apparatus for performing image processing according to the present invention, and FIG. 2 schematically shows the structure of a camera. This apparatus has three ITV camera units 2, 3, and 4 controlled by a microcomputer 1, and further has an image memory 5, a display unit 6, and an image memory 5 for storing image data.
A printer 7, a floppy disk 8 and a keyboard terminal 9 are provided. Further, it is also connected to a host computer 11 via a data bus 10, and the above-mentioned units are controlled by instructions given from the host computer 11 or supported by a keyboard terminal 9, and corresponding processes are performed. ing.
【0009】上記三つのITVカメラユニット2,3,
4は、それぞれアナログ撮像データを出力するITVカ
メラ21,31,41と、そのアナログデータをデジタ
ルデータに変換するA/Dコンバータ22,32,42
とから構成されている。また3台のITVカメラ21と
31と41は、図2に示すように左右方向に水平に配置
され、各々の光軸ZL ,ZC ,ZR は平行であり、かつ
座標系(撮像面)も平行である。そして、各ITVカメ
ラ21,31,41の投影中心点OL ,OC ,OR に対
して3次元上の点Pの投影像の点PL ,PC ,PR の各
々のX座標とY座標には次式の関係がある。
The three ITV camera units 2, 3,
Reference numeral 4 denotes an ITV camera 21, 31, 41 for outputting analog image data, and A / D converters 22, 32, 42 for converting the analog data into digital data.
It is composed of The three ITV cameras 21, 31 and 41 are horizontally arranged in the left-right direction as shown in FIG. 2, and their optical axes Z L , Z C , Z R are parallel and coordinate system (imaging plane) ) Are also parallel. The projection center point O L of the ITV cameras 21, 31, 41, O C, O points of a point projected image of P in the three-dimensional relative R P L, P C, and the X coordinate of each of P R The Y coordinate has the following relationship.
【0010】 XL >XC >XRL =YC =YR すなわち、各ITVカメラ21,31,41の走査線方
向成分は一致しており、一方の画像上のある点に対する
もう一方の画像上の対応点は同じ走査(ラスタスキャ
ン)線の半直線上に存在することになり、いわゆるエピ
ポーラ条件が成立している。
X L > X C > X R Y L = Y C = Y R That is, the components of the ITV cameras 21, 31, 41 in the scanning line direction are the same, and the other for a certain point on one image is the other. Correspond to the same scanning (raster scan) line, and the so-called epipolar condition is satisfied.
【0011】また、画像メモリ5は読み書き自在であ
り、各ITVカメラ21,31,41で撮像した画像の
原画像データや、種々の処理データを記憶するようにな
っている。ディスプレイユニット6及びプリンタ7は、
コンピュータ1の処理結果等を出力し、その処理結果等
をフロッピーディスク8に登録するように構成されてい
る。
The image memory 5 is readable and writable, and stores original image data of images picked up by the ITV cameras 21, 31, 41 and various processing data. The display unit 6 and the printer 7
The processing result of the computer 1 is output, and the processing result and the like are registered in the floppy disk 8.
【0012】次に、上記構成の装置による本発明の画像
処理動作、すなわち対象物の3次元距離データの計測動
作について説明する。
Next, an image processing operation of the present invention, that is, an operation of measuring three-dimensional distance data of an object by the apparatus having the above-described configuration will be described.
【0013】この動作はコンピュータ1により制御され
るものであり、先ず図3に示すように、3台のITVカ
メラ21,31,41のうち一側(中央部と左側)の2
台のITVカメラ21,31を用いて、シェーディング
により対象物の左右のステレオ画像から等輝度線を抽出
し、その等輝度線のステレオ対応データを求めて対象物
の各点の視差を抽出し、それらの視差データから対象物
の各点の距離を計測して該対象物の3次元距離データを
演算する。次に他側(中央部と右側)の2台のITVカ
メラ31,41を用いて、同手順で前記対象物の3次元
距離データを演算し、これらの各3次元距離データの差
から対象物の正反射部分を検出して前記対象物の3次元
距離データを補正する。
This operation is controlled by the computer 1. First, as shown in FIG. 3, one of the three ITV cameras 21, 31, 41 (the center and the left) is used.
Using the two ITV cameras 21 and 31, isoluminance lines are extracted from left and right stereo images of the object by shading, and stereo correspondence data of the equiluminance lines is obtained to extract parallax of each point of the object. The distance of each point of the object is measured from the parallax data to calculate three-dimensional distance data of the object. Next, using the two ITV cameras 31 and 41 on the other side (center and right), three-dimensional distance data of the object is calculated in the same procedure, and the object is calculated from the difference between these three-dimensional distance data. And corrects the three-dimensional distance data of the object.
【0014】すなわち、2台ずつのITVカメラでそれ
ぞれ対象物の視差分布を検出し、その視差を比較するこ
とにより対象物の正反射部分の検出を行っている。これ
は、左右のステレオ画像から得られる等輝度線によりス
テレオ対応を求め、その結果から視差を抽出して3次元
距離を得る方法は乱反射面を対象としており、対象面に
正反射部分が含まれていると計測結果が不正確になって
しまうからであり、そのため正反射部分を検出して3次
元距離データを補正している。
That is, the parallax distribution of the object is detected by each of two ITV cameras, and the parallax is compared to detect the regular reflection portion of the object. In this method, a stereo correspondence is obtained by using equiluminance lines obtained from left and right stereo images, and parallax is extracted from the result to obtain a three-dimensional distance, which targets a diffuse reflection surface, and includes a regular reflection portion in the target surface. This causes the measurement result to be inaccurate, so that the specular reflection portion is detected and the three-dimensional distance data is corrected.
【0015】具体的には、2台ずつのITVカメラでそ
れぞれ計測した3次元距離データを比較して差の大きい
部分を抽出しており、正反射の影響のある部分はその差
が大きくなることを利用している。例えば、図4に示す
ような対象物に対して正反射部分を検出した結果は図5
に示すようになる。以下、図6のフローチャートを参照
しながら上記処理の詳細を手順を追って説明する。
More specifically, three-dimensional distance data measured by two ITV cameras are compared to extract a part having a large difference, and a part affected by specular reflection has a large difference. I use. For example, the result of detecting a specular reflection portion for an object as shown in FIG.
It becomes as shown in. Hereinafter, the details of the above processing will be described step by step with reference to the flowchart of FIG.
【0016】(1)この処理が開始されると、コンピュ
ータ1は先ず画像メモリ5及びこの処理で用いるレジス
タ(図示せず)をステップS1にて初期化する。そし
て、ステップS2でITVカメラユニット2,3により
量子化された左右の原画像データを画像メモリ5に書き
込む。
(1) When this process is started, the computer 1 first initializes the image memory 5 and a register (not shown) used in this process in step S1. Then, in step S2, the left and right original image data quantized by the ITV camera units 2 and 3 are written into the image memory 5.
【0017】(2)2台のITVカメラ21,31(2
台のカメラの光学的特性が若干異なる)により左右それ
ぞれ入力された画像に対し、ステップS3でグレースケ
ールのテストパターンを用いて同じ明るさに対して等し
い輝度値となるように画像の各点の輝度値を調整する。
これにより、シェーディングによる対象物の左右のステ
レオ画像が得られる。
(2) Two ITV cameras 21, 31 (2
The optical characteristics of the two cameras are slightly different from each other), and in step S3, using a gray scale test pattern, each point of the image is set to have the same brightness value for the same brightness. Adjust the brightness value.
Thereby, left and right stereo images of the object by shading are obtained.
【0018】(3)次に、ステップS4で輝度しきい値
を一定間隔毎に変化させながら、ステップS5で2値化
する。これにより得られる画像は、輝度切断面を表す画
像となる。
(3) Next, while changing the luminance threshold at regular intervals in step S4, binarization is performed in step S5. The image obtained in this way is an image representing the luminance cut plane.
【0019】(4)上記輝度切断面の各領域は、境界線
付近にノイズを含んでいるため、ステップS6で平滑化
処理を行い、ノイズを除去する。この平滑化処理では、
収縮膨張処理が複数回行われる。
(4) Since each area of the luminance cut plane contains noise near the boundary line, a smoothing process is performed in step S6 to remove the noise. In this smoothing process,
The contraction / expansion processing is performed a plurality of times.
【0020】(5)各領域の境界を追跡しながら、該領
域のラベル付けを行う。その際、注目画素の近傍画素を
探索し、それらの画素データから境界線の傾きと座標を
調べる。このようにして、ステップS7で等輝度線(領
域の境界線)を抽出し、等輝度線の画像を得る。
(5) Label the areas while tracking the boundaries of the areas. At this time, a search is made for a pixel in the vicinity of the pixel of interest, and the inclination and coordinates of the boundary line are checked from the pixel data. In this way, in step S7, the equal luminance line (the boundary line of the region) is extracted, and an image of the equal luminance line is obtained.
【0021】また、他の輝度しきい値による切断面との
間には包含関係があり、その様子を領域のラベル番号を
用いた木構造のリストで表わす。
Further, there is an inclusive relation with a cut plane based on another luminance threshold, and this is represented by a tree structure list using the label numbers of the areas.
【0022】(6)次に、ステップS8で等輝度線の対
応付けを行う。これは、等輝度線のステレオ対応データ
を求めるもので、ここでは先ず、領域間でその領域内に
上述のエピポーラ条件を満足する点が存在するか否かを
判定する。この判定には、簡略化のために領域の外接長
方形の頂点座標が使用される。またこの対応は、上記
(5)の処理で得られた包含関係の情報からも取ること
ができる。そして、このようにして、領域間の対応を取
ると、次にその境界線(等輝度線)の対応点をエピポー
ラ条件や(5)の処理で得られた等輝度線の傾きから求
める。
(6) Next, in step S8, correspondence between equal luminance lines is performed. This is for obtaining stereo correspondence data of an isoluminance line. Here, first, it is determined whether or not there is a point satisfying the above-described epipolar condition between the regions. For this determination, the vertex coordinates of the circumscribed rectangle of the area are used for simplification. This correspondence can also be taken from the information on the inclusion relation obtained in the process (5). Then, when the correspondence between the regions is obtained in this way, the corresponding point of the boundary line (isoluminance line) is obtained from the epipolar condition or the gradient of the isoluminance line obtained by the process (5).
【0023】(7)ステップS9にて、上記の対応の取
れた各点の視差(主走査方向のずれ)をそれぞれの座標
値から演算し、視差の抽出を行う。これは、等輝度線の
ステレオ対応データから対象物の各点の視差を抽出する
ものである。
(7) In step S9, the parallax (shift in the main scanning direction) of each of the above-corresponding points is calculated from the respective coordinate values, and the parallax is extracted. This is to extract the parallax of each point of the object from the stereo correspondence data of the equal luminance line.
【0024】(8)輝度しきい値を変化させながら全濃
度範囲にわたって上記(3)〜(7)の処理を繰り返
す。すなわち、ステップS10で全ての視差の抽出が完
了するまでステップS4〜ステップS9の動作を繰り返
す。
(8) The above processes (3) to (7) are repeated over the entire density range while changing the luminance threshold. That is, the operations of steps S4 to S9 are repeated until all the parallaxes are extracted in step S10.
【0025】(9)そしてステップS11で、上記等輝
度線上に求まった視差から線の間の部分を補間する。
(9) Then, in step S11, a portion between the lines is interpolated from the parallax obtained on the equiluminance line.
【0026】(10)次にステップS12で、上述の抽
出された視差データから対象物の各点の距離の計測、つ
まり3次元距離データの演算を行う。その際、図2に示
すように同一の対象物上の点Pを左右のITVカメラ2
1,31で撮像し、その画像について上述の処理を行っ
た結果、左画像の画素PL と右画像の画素PC とが対応
しているとすると、点Pは、左側のITVカメラ21の
焦点OL とその投影面の画素の点PL とを結ぶ直線と、
右側のITVカメラ31の焦点OC とその投影面の画素
の点PC とを結ぶ直線との交点に存在することになる。
(10) Next, in step S12, the distance of each point of the target object is measured from the extracted parallax data, that is, three-dimensional distance data is calculated. At this time, as shown in FIG.
Assuming that the pixels P L of the left image and the pixels P C of the right image correspond to each other as a result of performing the above-described processing on the images taken at points 1 and 31, the point P focus O L and the line connecting the points P L of the pixels of the projection surface,
It will be present at the intersection of the straight line connecting the focal point O C of the right ITV camera 31 and the point P C of the pixels of the projection surface.
【0027】したがって、ITVカメラ21と31の光
軸間距離を2a、各ITVカメラ21,31の焦点距離
をf、また点PL とPC の視差をDとすると、対象物上
の点Pまでの距離Zは次式より求まる。 Z=2af/D (11)次に、ステップS13で、ITVカメラユニッ
ト3,4を使用し、上記(1)〜(10)と同手順で対
象物の3次元距離データを演算し、対象物上の点Pまで
の距離を求める。そして、(10)で求めた距離と比較
することにより、前述の正反射部分の検出を行う。
[0027] Thus, 2a the distance between the optical axes of the ITV camera 21 and 31, and the focal length of each ITV cameras 21 and 31 f, also the disparity of the point P L and P C is D, a point on the object P The distance Z to is obtained by the following equation. Z = 2af / D (11) Next, in step S13, the ITV camera units 3 and 4 are used to calculate the three-dimensional distance data of the target object in the same procedure as in the above (1) to (10). Find the distance to the upper point P. Then, by comparing with the distance obtained in (10), the above-mentioned regular reflection portion is detected.
【0028】(12)そして、ステップS14で、上記
検出した正反射部分を考慮して(10)で求めた3次元
距離データの補正を行う。
(12) Then, in step S14, the three-dimensional distance data obtained in (10) is corrected in consideration of the detected regular reflection portion.
【0029】以上、本発明の一実施例による対象物の3
次元距離データの計測手順について説明したが、本実施
例では上記のように対象物の正反射部分を検出して3次
元距離データの補正を行っているので、対象物の3次元
距離データを非接触にて正確に計測することができる。
また、正反射部分の検出は距離計測と同時に行うことが
でき、簡単な処理にて可能である。
As described above, the object 3 according to one embodiment of the present invention
Although the measurement procedure of the three-dimensional distance data has been described, in the present embodiment, the three-dimensional distance data of the target is corrected by detecting the specular reflection portion of the target as described above. It can be measured accurately by contact.
Further, the detection of the regular reflection portion can be performed simultaneously with the distance measurement, and can be performed by a simple process.
【0030】[0030]
【発明の効果】以上のように、本発明によれば、光軸及
び座標系が平行な3台のカメラを使用し、2台ずつのカ
メラでそれぞれシェーディングから対象物の等輝度線を
検出し、そのデータから視差を抽出して3次元距離デー
タを演算し、これらのデータの差から対象物の正反射部
分を検出して3次元距離データの補正を行うようにした
ため、簡単な処理で、非接触にて対象物の3次元距離デ
ータを正確に計測することができるという効果が得られ
る。
As described above, according to the present invention, three cameras having a parallel optical axis and a coordinate system are used, and two cameras each detect an equal luminance line of an object from shading. Since the parallax is extracted from the data to calculate the three-dimensional distance data, the regular reflection part of the object is detected from the difference between these data, and the three-dimensional distance data is corrected. The effect is obtained that the three-dimensional distance data of the object can be accurately measured without contact.
【図面の簡単な説明】[Brief description of the drawings]
【図1】 本発明に係る画像処理を実施するための装置
構成を示すブロック図
FIG. 1 is a block diagram showing a device configuration for performing image processing according to the present invention.
【図2】 図1のITVカメラの構成を示す模式図FIG. 2 is a schematic diagram showing a configuration of the ITV camera of FIG. 1;
【図3】 本発明による正反射部分の検出の流れを示す
説明図
FIG. 3 is an explanatory diagram showing a flow of detecting a regular reflection portion according to the present invention.
【図4】 対象物の一例を示す説明図FIG. 4 is an explanatory view showing an example of an object.
【図5】 図4の対象物の正反射部分を検出した様子を
示す説明図
FIG. 5 is an explanatory diagram showing a state where a regular reflection portion of the object in FIG. 4 is detected.
【図6】 図1のコンピュータによる処理動作を示すフ
ローチャート
FIG. 6 is a flowchart showing a processing operation by the computer of FIG. 1;
【符号の説明】[Explanation of symbols]
1 コンピュータ 2,3,4 ITVカメラユニット 5 画像メモリ 21,31,41 ITVカメラ DESCRIPTION OF SYMBOLS 1 Computer 2,3,4 ITV camera unit 5 Image memory 21,31,41 ITV camera
フロントページの続き (56)参考文献 特開 平5−34117(JP,A) 特開 平2−236407(JP,A) 特開 平2−29878(JP,A) 特開 昭61−66107(JP,A) 特開 昭60−199292(JP,A) (58)調査した分野(Int.Cl.6,DB名) G01B 11/00 - 11/30 102 G01C 3/00 - 3/32 G06T 1/00 G06T 7/60 Continuation of the front page (56) References JP-A-5-34117 (JP, A) JP-A-2-236407 (JP, A) JP-A-2-29878 (JP, A) JP-A-61-66107 (JP) , A) JP-A-60-199292 (JP, A) (58) Fields investigated (Int. Cl. 6 , DB name) G01B 11/00-11/30 102 G01C 3/00-3/32 G06T 1 / 00 G06T 7/60

Claims (1)

    (57)【特許請求の範囲】(57) [Claims]
  1. 【請求項1】 光軸及び座標系が平行な3台のカメラの
    うち一側の2台のカメラを用いて、シェーディングによ
    り対象物の左右のステレオ画像から等輝度線を抽出し、
    その等輝度線のステレオ対応データを求めて対象物の各
    点の視差を抽出し、それらの視差データから対象物の各
    点の距離を計測して該対象物の3次元距離データを演算
    するとともに、他側の2台のカメラを用いて、同手順で
    前記対象物の3次元距離データを演算し、これらの各3
    次元距離データの差から対象物の正反射部分を検出して
    前記対象物の3次元距離データを補正することを特徴と
    する画像処理方法。
    1. An equal luminance line is extracted from left and right stereo images of an object by shading using two cameras on one side among three cameras having a parallel optical axis and a coordinate system,
    The stereo correspondence data of the isoluminance line is obtained, the parallax of each point of the object is extracted, the distance of each point of the object is measured from the parallax data, and the three-dimensional distance data of the object is calculated. Using the two cameras on the other side, the three-dimensional distance data of the object is calculated by the same procedure,
    An image processing method, comprising: detecting a specular reflection portion of an object from a difference between the three-dimensional distance data and correcting the three-dimensional distance data of the object.
JP3270918A 1991-10-18 1991-10-18 Image processing method Expired - Lifetime JP2961140B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP3270918A JP2961140B2 (en) 1991-10-18 1991-10-18 Image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP3270918A JP2961140B2 (en) 1991-10-18 1991-10-18 Image processing method

Publications (2)

Publication Number Publication Date
JPH06281421A JPH06281421A (en) 1994-10-07
JP2961140B2 true JP2961140B2 (en) 1999-10-12

Family

ID=17492807

Family Applications (1)

Application Number Title Priority Date Filing Date
JP3270918A Expired - Lifetime JP2961140B2 (en) 1991-10-18 1991-10-18 Image processing method

Country Status (1)

Country Link
JP (1) JP2961140B2 (en)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20020050867A (en) * 2000-12-22 2002-06-28 신현준 Motion stereo system using 3 CCDcamera
KR100424287B1 (en) * 2001-09-10 2004-03-24 주식회사 제이앤에이치테크놀러지 Non-parallel optical axis real-time three-demensional image processing system and method
WO2009008864A1 (en) * 2007-07-12 2009-01-15 Thomson Licensing System and method for three-dimensional object reconstruction from two-dimensional images
JP4840822B2 (en) * 2007-08-29 2011-12-21 独立行政法人産業技術総合研究所 Image processing method, apparatus and program
KR100934904B1 (en) * 2007-12-28 2010-01-06 재단법인대구경북과학기술원 Method for distance estimation and apparatus for the same

Also Published As

Publication number Publication date
JPH06281421A (en) 1994-10-07

Similar Documents

Publication Publication Date Title
US7711182B2 (en) Method and system for sensing 3D shapes of objects with specular and hybrid specular-diffuse surfaces
US7313289B2 (en) Image processing method and apparatus and computer-readable storage medium using improved distortion correction
EP3033875B1 (en) Image processing apparatus, image processing system, image processing method, and computer program
US6768509B1 (en) Method and apparatus for determining points of interest on an image of a camera calibration object
US6438507B1 (en) Data processing method and processing device
KR20140027468A (en) Depth measurement quality enhancement
US4776692A (en) Testing light transmitting articles
JPH1038533A (en) Instrument and method for measuring shape of tire
JPH0658716A (en) Detecting method of edge on image
JP3924796B2 (en) Pattern position measuring method and measuring apparatus
JP2565885B2 (en) Spatial pattern coding method
JP2961140B2 (en) Image processing method
JPH1144533A (en) Preceding vehicle detector
JP2000121319A (en) Image processor, image processing method and supply medium
JPH1079029A (en) Stereoscopic information detecting method and device therefor
JP4351090B2 (en) Image processing apparatus and image processing method
JP3047017B2 (en) Image processing method
JP2981382B2 (en) Pattern matching method
JPH0875454A (en) Range finding device
JP3228436B2 (en) How to increase the number of interference fringes
JP4468019B2 (en) Image processing device
JPH10320560A (en) Image measuring instrument
CA2230197C (en) Strand orientation sensing
JP2775924B2 (en) Image data creation device
JP2001258054A (en) Image quality inspection device and detector for center of gravity of luminance used therefor

Legal Events

Date Code Title Description
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 19990406

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090806

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100806

Year of fee payment: 11

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110806

Year of fee payment: 12

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120806

Year of fee payment: 13

EXPY Cancellation because of completion of term
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120806

Year of fee payment: 13