JPH0850018A - Apparatus and method for measuring distance - Google Patents
Apparatus and method for measuring distanceInfo
- Publication number
- JPH0850018A JPH0850018A JP18487794A JP18487794A JPH0850018A JP H0850018 A JPH0850018 A JP H0850018A JP 18487794 A JP18487794 A JP 18487794A JP 18487794 A JP18487794 A JP 18487794A JP H0850018 A JPH0850018 A JP H0850018A
- Authority
- JP
- Japan
- Prior art keywords
- image
- image signal
- parallel light
- pickup means
- distance
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Measurement Of Optical Distance (AREA)
- Length Measuring Devices By Optical Means (AREA)
Abstract
Description
【0001】[0001]
【産業上の利用分野】この発明は、例えば、産業用ロボ
ットの視覚センサに適用して好適な距離測定装置および
方法に関する。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a distance measuring device and method suitable for application to, for example, a visual sensor of an industrial robot.
【0002】[0002]
【従来の技術】従来から、産業用ロボットには、その視
覚センサとして2台のビデオカメラが取り付けられ、こ
の2台のビデオカメラにより対象物を撮像し、その対象
物に係る2つの画像信号に基づいて、いわゆる両眼立体
視法により、ビデオカメラ位置(視覚センサ位置)から
対象物までの距離を非接触で測定することが行われてい
る。2. Description of the Related Art Conventionally, an industrial robot is equipped with two video cameras as its visual sensor, and an image of an object is picked up by these two video cameras, and two image signals relating to the object are obtained. Based on the so-called binocular stereoscopic method, the distance from the position of the video camera (visual sensor position) to the object is measured in a non-contact manner.
【0003】図4は、この両眼立体視法の説明に供され
る線図である。FIG. 4 is a diagram used to explain this binocular stereoscopic vision.
【0004】図4において、2台のビデオカメラ1、2
(便宜上、ドットで表している。)が、それぞれ、X軸
上の原点Oおよび点X1に配されている。ここでは、こ
れらの原点Oおよび原点X1が投影中心であるものとす
る。ビデオカメラ1、2の光軸4、5はY軸と平行にさ
れている。In FIG. 4, two video cameras 1, 2 are provided.
(For convenience, they are represented by dots.) Are arranged at the origin O and the point X1 on the X axis, respectively. Here, it is assumed that the origin O and the origin X1 are projection centers. The optical axes 4 and 5 of the video cameras 1 and 2 are parallel to the Y axis.
【0005】この2台のビデオカメラ1、2により対象
物Pを撮像したときの画面6、7上の対象物Pに対応す
る画像PR、PLのxy座標(画面6、7上の座標)上
の点を、それぞれ、点PR=(xr,yr)、点PL=
(xl,yl)とする。また、画面6、7上のそれぞれ
のxy座標上の原点とビデオカメラ1、2の位置(投影
中心)とを結ぶ直線の長さをCL 、CR とする。On the xy coordinates (coordinates on the screens 6 and 7) of the images PR and PL corresponding to the objects P on the screens 6 and 7 when the object P is imaged by the two video cameras 1 and 2. , Respectively, point PR = (xr, yr), point PL =
(Xl, yl). Also, the position length of a straight line connecting (projection center) and the origin and the video camera 1 on each xy coordinate on screen 6, 7 C L, and C R.
【0006】この場合、対象物PのY座標、すなわち、
ビデオカメラ1、2の位置からの距離dは、周知のよう
に、(1)式で示される関数Fで与えられる。In this case, the Y coordinate of the object P, that is,
As is well known, the distance d from the positions of the video cameras 1 and 2 is given by the function F shown by the equation (1).
【0007】 d=F(X1,CL ,CR 、xl,xr) …(1) 測定誤差を少なくするためには、ビデオカメラを3台以
上にして距離dを測定すること、いわゆる多眼視による
ことが好ましいとされている。なお、関数Fの詳細は、
文献「画像解析ハンドブック」(東京大学出版会、高木
幹雄・下田陽久監修、1992年1月15日第3刷、
2.3.3 3次元計測 594頁〜605頁)に記載
されている。D = F (X1, C L , C R , xl, xr) (1) In order to reduce the measurement error, three or more video cameras are used to measure the distance d, so-called multi-view. It is said that visual inspection is preferable. The details of the function F are as follows.
Reference "Image Analysis Handbook" (The University of Tokyo Press, edited by Mikio Takagi and Yohisa Shimoda, 3rd edition, January 15, 1992,
2.3.3 Three-dimensional measurement, pages 594 to 605).
【0008】[0008]
【発明が解決しようとする課題】ところで、実際上、画
面6、7上で対象物Pの画像PR、PLを特定するため
には、画像PR、PLとその背景との間に明暗(明度
差)があることが必須である。By the way, in practice, in order to specify the images PR and PL of the object P on the screens 6 and 7, in order to identify the images PR and PL and the background thereof, there is a difference in brightness (brightness difference). ) Is required.
【0009】従来、この明暗を得るために、対象物Pに
スポット光をあてる、またはスリット光をあてる技術が
知られている(スリット光をあてる技術としては、例え
ば、特開平3−131706号公報参照)。Conventionally, there is known a technique for shining spot light or slit light on the object P in order to obtain this light and shade (for example, Japanese Patent Laid-Open No. 3-131706 discloses a technique for shining slit light). reference).
【0010】しかしながら、スポット光またはスリット
光は、画面6、7上では、点または線分としてしか表示
されず、対象物P上の傷やエッジと誤認する可能性が高
く、実用上、明暗を分離しにくいという問題があった。
その上、それらスポット光およびスリット光は、室内照
明光や屋外光の影響を受け易く、実際には、それら外乱
光を分離するための電気的なフィルタ処理に相当の時間
がかかるという問題があり、また、そのフィルタ処理に
よっても外乱光を確実に分離することができない場合が
あるという問題もあった。However, the spot light or slit light is displayed only as points or line segments on the screens 6 and 7, and is highly likely to be mistaken as a scratch or an edge on the object P. There was a problem that it was difficult to separate.
In addition, the spot light and the slit light are easily affected by the indoor illumination light and the outdoor light, and in fact, there is a problem that it takes a considerable time to perform an electrical filtering process for separating the ambient light. There is also a problem that the ambient light may not be reliably separated even by the filtering process.
【0011】この発明はこのような課題を考慮してなさ
れたものであり、撮像対象物の対応点の明度差、言い換
えれば、画像上の明暗境界線を確実に得ることを可能と
する距離測定装置および方法を提供することを目的とす
る。The present invention has been made in consideration of such a problem, and a distance measurement which can surely obtain a difference in brightness between corresponding points of an object to be imaged, in other words, a bright / dark boundary line on an image. It is an object to provide an apparatus and method.
【0012】[0012]
【課題を解決するための手段】この装置発明は、例え
ば、図1に示すように、少なくとも2つの撮像手段1
1、12により対象物10を撮像して画像を得、得られ
た画像に基づいて撮像手段11、12から対象物10ま
での距離dを測定する距離測定装置において、平行光照
射手段13を有し、この平行光照射手段13からの平行
光L0を対象物10に照射し、この平行光L0が照射さ
れた部分23と照射されない部分とを含んで対象物10
を少なくとも2つの撮像手段11、12により撮像した
後、得られた画像信号S11、S21に基づく画像上の
明暗境界線の座標ずれに基づいて対象物10までの距離
dを算出することを特徴とする。According to the present invention, for example, as shown in FIG. 1, at least two image pickup means 1 are provided.
In the distance measuring device for measuring the distance d from the image pickup means 11 and 12 to the object 10 based on the obtained images, the parallel light irradiation means 13 is provided. Then, the parallel light L0 from the parallel light irradiating means 13 is irradiated onto the object 10, and the object 10 including the part 23 irradiated with the parallel light L0 and the part not irradiated with the parallel light L0.
Is imaged by at least two image pickup means 11 and 12, and then the distance d to the object 10 is calculated based on the coordinate shift of the light-dark boundary line on the image based on the obtained image signals S11 and S21. To do.
【0013】この場合、画像信号S11、S21に基づ
く画像上の明暗境界線の座標ずれに基づいて対象物10
までの距離dを算出する際、画像信号S11、S21に
輪郭強調処理32、42を施した輪郭強調後の画像信号
S13、S23を得、この輪郭強調後の画像信号S1
3、S23に基づく少なくとも2つの撮像手段11、1
2により得られた画像上の明暗境界線の座標ずれに基づ
いて対象物10までの距離dを算出することを特徴とす
る。In this case, the object 10 is detected based on the coordinate shift of the light-dark boundary line on the image based on the image signals S11 and S21.
When calculating the distance d up to, edge-enhanced image signals S13 and S23 obtained by subjecting the image signals S11 and S21 to edge-enhancement processing 32 and 42 are obtained, and the edge-enhanced image signal S1 is obtained.
3, at least two imaging means 11, 1 based on S23
The distance d to the object 10 is calculated based on the coordinate shift of the light-dark boundary line on the image obtained in 2.
【0014】また、この方法発明は、少なくとも2つの
撮像手段11、12により対象物10を撮像して画像を
得、得られた画像に基づいて撮像手段11、12から対
象物10までの距離dを測定する距離測定方法におい
て、少なくとも2つの撮像手段11、12のうちの1つ
の撮像手段11で得られる画像信号S11のレベルの平
均値を求める過程と、平行光照射手段13からの平行光
L0を対象物10の一部に照射して対象物10上に明部
23を形成する過程と、少なくとも2つの撮像手段1
1、12により明部23が形成された対象物10を撮像
し、各撮像手段11、12で得られた各画像信号S1
1、S21の明部のレベルの平均値およびそれ以外の部
分の暗部のレベルの平均値を求める過程と、前記明部と
暗部のレベルの平均値の中央値を各撮像手段11、12
に対応する閾値T1、T2とする過程と、得られた各閾
値T1、T2とこれに対応する各撮像手段11、12で
得られた画像信号S13、S23とを比較して画像信号
S13、S23を明部と暗部に対応する2値画像信号S
14、S24に変換する比較過程と、各撮像手段11、
12に係る2値画像信号S14、S24による画像か
ら、各撮像手段11、12相互の明暗境界線の座標ずれ
に基づいて対象物10までの距離dを算出する過程とを
有することを特徴とする。Further, according to the method invention, the object 10 is imaged by at least two imaging means 11 and 12, and an image is obtained, and the distance d from the imaging means 11 and 12 to the object 10 is based on the obtained images. In the distance measuring method for measuring the, the process of obtaining the average value of the level of the image signal S11 obtained by one of the at least two image pickup means 11 and 12, and the parallel light L0 from the parallel light irradiation means 13. Irradiating a part of the object 10 with the light to form the bright portion 23 on the object 10, and at least two imaging means 1
The image signal S1 obtained by the image pickup means 11 and 12 by picking up an image of the object 10 on which the bright portion 23 is formed by 1 and 12
1. A process of obtaining the average value of the level of the bright part and the average value of the dark part of the other part in S21, and the median value of the average value of the levels of the bright part and the dark part are taken as the image pickup means 11 and 12, respectively.
And the image signals S13 and S23 obtained by the image pickup means 11 and 12 corresponding to the obtained threshold values T1 and T2, respectively, are compared to obtain the image signals S13 and S23. Is a binary image signal S corresponding to the bright and dark areas.
14, the comparison process of converting to S24, and the image pickup means 11,
And a step of calculating a distance d to the object 10 based on the coordinate shift of the bright and dark boundary lines between the image pickup means 11 and 12 from the images based on the binary image signals S14 and S24. .
【0015】この場合において、画像信号S13、S2
3を明部と暗部に対応する2値画像信号S14、S24
に変換する比較過程における画像信号は、輪郭強調処理
後の画像信号S13、S23であることを特徴とする。In this case, the image signals S13 and S2
3 is a binary image signal S14, S24 corresponding to a bright part and a dark part.
The image signals in the comparison process of converting to are the image signals S13 and S23 after the edge enhancement processing.
【0016】[0016]
【作用】この発明によれば、平行光照射手段からの平行
光が照射された部分と照射されない部分とを含んで対象
物を少なくとも2つの撮像手段により撮像した後、得ら
れた画像信号に基づく画像上の明暗境界線の座標ずれに
基づいて対象物までの距離を算出するようにしている。
このため、外乱光があっても、撮像対象物上の明度差を
大きくでき、画像信号に基づく画像上の明暗境界線を確
実に得ることができる。According to the present invention, the object is imaged by at least two image pickup means including the portion irradiated with the parallel light from the parallel light irradiation means and the portion not irradiated with the parallel light, and based on the image signal obtained. The distance to the object is calculated based on the coordinate shift of the light-dark boundary line on the image.
For this reason, even if there is ambient light, the difference in brightness on the object to be imaged can be increased, and the bright / dark boundary line on the image based on the image signal can be reliably obtained.
【0017】この場合、輪郭強調後の画像信号を利用す
るようにすれば、一層確実に、画像信号に基づく画像上
の明暗境界線を得ることができる。In this case, if the image signal after the edge enhancement is used, the bright-dark boundary line on the image based on the image signal can be obtained more reliably.
【0018】[0018]
【実施例】以下、この発明の一実施例について図面を参
照して説明する。なお、以下に参照する図面において、
上述の図4に示したものと対応するものには同一の符号
を付けてその詳細な説明は省略する。DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS An embodiment of the present invention will be described below with reference to the drawings. In the drawings referred to below,
The parts corresponding to those shown in FIG. 4 described above are designated by the same reference numerals, and detailed description thereof will be omitted.
【0019】図1は、この一実施例の構成を示してい
る。FIG. 1 shows the configuration of this embodiment.
【0020】参照符号10は撮像対象物であり、この撮
像対象物10に対面して、相対位置関係が固定されたビ
デオカメラ(撮像手段)11、12と平行光光源(平行
光照射手段)13とが配されている。ビデオカメラは3
台以上でもよい。Reference numeral 10 is an image pickup object, and facing the image pickup object 10, video cameras (image pickup means) 11 and 12 and a parallel light source (parallel light irradiation means) 13 having a fixed relative positional relationship. And are arranged. 3 video cameras
It may be more than a stand.
【0021】ビデオカメラ11、12と平行光光源13
とは、撮像対象物10が形成する面と平行に配されたレ
ール15上を矢印X方向(X軸方向)に一体的に移動可
能に構成されている。The video cameras 11 and 12 and the parallel light source 13
Is configured so as to be integrally movable in the arrow X direction (X-axis direction) on the rail 15 arranged in parallel with the surface formed by the imaging object 10.
【0022】ビデオカメラ11、12は、基本的には、
結像レンズとCCDエリアセンサ等とエンコーダとを有
し、アナログ信号であるビデオ信号(画像信号)S1
1、S21を出力するように構成されている。The video cameras 11 and 12 are basically
A video signal (image signal) S1 that is an analog signal and has an imaging lens, a CCD area sensor, and an encoder.
1 and S21 are output.
【0023】平行光光源13は、光源としてのランプと
放物面鏡、フレネルレンズまたはコリメータレンズを組
み合わせた周知の光源を用いることができる。As the collimated light source 13, a known light source in which a lamp as a light source is combined with a parabolic mirror, a Fresnel lens or a collimator lens can be used.
【0024】平行光光源13から出射された平行光L0
が、撮像対象物10上の一定領域(一定面積であり、平
行光照射領域ともいう。)23を照射するようにされて
いる。なお、平行光照射領域23は、円形、長方形等任
意の形状で良い。The parallel light L0 emitted from the parallel light source 13
However, a fixed area (a fixed area and also referred to as a parallel light irradiation area) 23 on the imaging object 10 is irradiated. The parallel light irradiation area 23 may have any shape such as a circle or a rectangle.
【0025】前記CCDエリアセンサ上の画像形成可能
領域に対応する撮像対象物10上の領域、すなわち、撮
像領域21、22の画像情報を有する光L1、L2がビ
デオカメラ11、12に取り込まれ、その撮像領域2
1、22の画像情報を有するビデオ信号S11、S21
として出力される。Lights L1 and L2 having the image information of the image pickup areas 21 and 22 corresponding to the image formable area on the CCD area sensor are taken into the video cameras 11 and 12, Its imaging area 2
Video signals S11 and S21 having image information of 1 and 22
Is output as
【0026】なお、撮像領域21、22には、平行光照
射領域23の全部または一部と平行光照射領域23以外
の部分が含まれるように、ビデオカメラ11、12、平
行光光源13および撮像対象物10の位置を予め設定し
ておく。The image pickup areas 21 and 22 include the video cameras 11 and 12, the parallel light source 13, and the image pickup so that the whole or part of the parallel light irradiation area 23 and the portion other than the parallel light irradiation area 23 are included. The position of the object 10 is set in advance.
【0027】ビデオカメラ11、12から出力されたビ
デオ信号S11、S21は、A/D変換器31、41に
よりデジタル信号のビデオ信号S12、S22に変換さ
れた後、輪郭強調回路32、42で水平方向および垂直
方向の輪郭強調処理が施された後、輪郭強調後のビデオ
信号S13、S23が2値化回路(比較手段)33、4
3の比較入力端子に供給されるとともに、マルチプレク
サ34、44のそれぞれ一方の固定接点34b、44b
に供給される。The video signals S11 and S21 output from the video cameras 11 and 12 are converted into digital video signals S12 and S22 by the A / D converters 31 and 41, and then horizontal by the contour emphasis circuits 32 and 42. After the edge and vertical edge enhancement processing is performed, the edge-enhanced video signals S13 and S23 are binarized circuits (comparison means) 33 and 4, respectively.
3 is supplied to the comparison input terminal and one fixed contact 34b, 44b of each of the multiplexers 34, 44 is provided.
Is supplied to.
【0028】2値化回路33、43の基準入力端子に
は、パーソナルコンピュータ(制御手段、以下、必要に
応じてパソコンという。)51から、それぞれ、閾値T
1、T2が供給されている。2値化回路33、43の出
力信号である2値ビデオ信号S14、S24は、マルチ
プレクサ34、44のそれぞれ他方の固定接点34c、
44cに供給される。The reference input terminals of the binarization circuits 33 and 43 are provided with a threshold value T from a personal computer (control means, hereinafter referred to as a personal computer, if necessary) 51.
1, T2 are supplied. Binary video signals S14 and S24, which are output signals of the binarization circuits 33 and 43, receive fixed contacts 34c on the other side of the multiplexers 34 and 44, respectively.
44c.
【0029】マルチプレクサ34、44の共通接点34
a、44aを通じて、画像メモリ35、45にそれぞれ
ビデオ信号S15、S25が記憶される。ビデオ信号S
15、S25の内容は、(連続)ビデオ信号S13、S
23または2値ビデオ信号S14、S24である。Common contact 34 of multiplexers 34 and 44
Video signals S15 and S25 are stored in the image memories 35 and 45 through a and 44a, respectively. Video signal S
The contents of 15, S25 are (continuous) video signals S13, S
23 or binary video signals S14 and S24.
【0030】画像メモリ35、45に記憶されているビ
デオ信号S15、S25に対してパソコン51により後
述する所定の処理が行われる。パソコン51は、CP
U、システムプログラムが記憶されるROM(読み出し
専用メモリ)、ワーク用のRAM(ランダムアクセスメ
モリ)52、外部CRT55等を有し、上記所定の処理
結果のデータがRAM52に記憶されるようになってい
る。The personal computer 51 performs predetermined processing described later on the video signals S15 and S25 stored in the image memories 35 and 45. PC 51 is CP
U, a ROM (read-only memory) in which a system program is stored, a work RAM (random access memory) 52, an external CRT 55, and the like are provided, and the data of the predetermined processing result is stored in the RAM 52. There is.
【0031】パソコン51は、基本的には、上記所定の
処理結果に基づいて2値化回路33、43の基準入力端
子に閾値T1、T2を設定するとともに、システムプロ
グラムに記載されている処理シーケンスに基づいてマル
チプレクサ34、44の可動接点を切り替える。さら
に、パソコン51は、上記システムプログラムおよび上
記処理結果等に基づいて光源ドライバ53を制御する。
光源ドライバ53の出力信号により平行光光源13が駆
動され、これを構成するランプ等の発光強度が変えられ
ることで、撮像対象物10上の平行光照射領域23の照
度が変更される。なお、繁雑さを避けるために図示はし
ていないが、ビデオカメラ11、12、A/D変換器3
1、41、輪郭強調回路32、42は、パソコン51に
よって制御できるようになっている。Basically, the personal computer 51 sets thresholds T1 and T2 to the reference input terminals of the binarization circuits 33 and 43 based on the above-mentioned predetermined processing result, and at the same time, the processing sequence described in the system program. The movable contacts of the multiplexers 34 and 44 are switched based on Further, the personal computer 51 controls the light source driver 53 based on the system program, the processing result, and the like.
The collimated light source 13 is driven by the output signal of the light source driver 53, and the emission intensity of the lamp or the like that constitutes the collimated light source 13 is changed, so that the illuminance of the collimated light irradiation region 23 on the imaging target 10 is changed. Although not shown in order to avoid complexity, the video cameras 11, 12 and the A / D converter 3 are not shown.
The personal computers 51 and 41 and the contour emphasis circuits 32 and 42 can be controlled.
【0032】次に、上記実施例の動作について説明す
る。Next, the operation of the above embodiment will be described.
【0033】図2は、その動作説明に供されるフローチ
ャートである。FIG. 2 is a flow chart for explaining the operation.
【0034】まず、平行光光源13から平行光L0を撮
像対象物10に照射しない状態、すなわち、平行光光源
13のオフ状態で任意のビデオカメラ、例えば、ビデオ
カメラ11で撮像対象物10を撮像し、この撮像結果の
ビデオ信号S15(S11)を画像メモリ35に取り込
む(ステップS1)。この場合、マルチプレクサ34の
共通接点34aと固定接点34bとを接続し、輪郭強調
回路32の出力ビデオ信号S13がビデオ信号S15と
して画像メモリ35に供給されるようにしておく。First, the image pickup object 10 is picked up by an arbitrary video camera, for example, the video camera 11 in a state in which the parallel light source 13 does not irradiate the image pickup object 10 with the parallel light L0. Then, the video signal S15 (S11) of this imaging result is taken into the image memory 35 (step S1). In this case, the common contact 34a of the multiplexer 34 and the fixed contact 34b are connected so that the output video signal S13 of the contour emphasis circuit 32 is supplied to the image memory 35 as the video signal S15.
【0035】次に、画像メモリ35に記憶されているビ
デオ信号S15に係る画面を構成する全画素の信号レベ
ルの平均をとることで、撮像対象物10のビデオカメラ
11に係る全画面の平均照度I1(この場合、暗部の平
均照度)を算出してRAM52に記憶する(ステップS
2)。Next, the average illuminance of the entire screen of the video camera 11 of the object to be imaged 10 is obtained by averaging the signal levels of all the pixels constituting the screen of the video signal S15 stored in the image memory 35. I1 (in this case, the average illuminance of the dark part) is calculated and stored in the RAM 52 (step S
2).
【0036】次いで、平行光光源13をオン状態にし、
撮像対象物10に対して平行光L0を照射し、その場合
のビデオ信号S15を再び画像メモリ35に取り込む
(ステップS3)。Then, the parallel light source 13 is turned on,
The parallel light L0 is applied to the image pickup object 10, and the video signal S15 in that case is taken into the image memory 35 again (step S3).
【0037】このとき、画像メモリ35に記憶されてい
るビデオ信号S15に係る画面を構成する画素のうち、
ハイレベルの信号の信号レベルの平均をとることで、平
行光照射領域23の明部に対応する部分の平均照度I0
を算出する(ステップS4)。なお、ビデオ信号S15
の信号レベル等、ビデオ信号の信号レベルは、撮像領域
21、22、平行光照射領域23の照度と一定な比例関
係にあるので、以下、信号レベルを照度ともいう。同様
に、外部CRT55上に表示される画面61(62)上
の明るさも照度ともいう。At this time, among the pixels forming the screen relating to the video signal S15 stored in the image memory 35,
By averaging the signal levels of the high level signals, the average illuminance I0 of the portion corresponding to the bright portion of the parallel light irradiation area 23 is calculated.
Is calculated (step S4). The video signal S15
Since the signal level of the video signal, such as the signal level of 1, is proportional to the illuminance of the imaging regions 21 and 22 and the parallel light irradiation region 23, the signal level is hereinafter also referred to as illuminance. Similarly, the brightness on the screen 61 (62) displayed on the external CRT 55 is also called illuminance.
【0038】図3Aは、画像メモリ35に記憶されてい
るビデオ信号S15に係る画面61上の1つの走査線に
係るX軸方向の照度分布を表している。照度I1は、ス
テップS2で算出した暗部の平均照度であり、照度I0
は、ステップS4で算出した明部の平均照度を示してい
る。FIG. 3A shows the illuminance distribution in the X-axis direction for one scanning line on the screen 61 according to the video signal S15 stored in the image memory 35. The illuminance I1 is the average illuminance of the dark part calculated in step S2, and the illuminance I0
Indicates the average illuminance of the bright portion calculated in step S4.
【0039】そこで、この場合、明部と暗部の平均照度
差ΔI(ΔI=I0−I1)が一定レベル差以上になる
ように平行光光源13から照射される平行光L0の光量
を光源ドライバ53を通じて調整する(ステップS
5)。これは、以下に説明するように、2値化する際の
レベル差を確保するためである。Therefore, in this case, the light source driver 53 sets the light amount of the parallel light L0 emitted from the parallel light source 13 so that the average illuminance difference ΔI (ΔI = I0-I1) between the bright portion and the dark portion becomes a certain level difference or more. Adjust through (Step S
5). This is to ensure a level difference when binarizing, as described below.
【0040】平行光光源13の光量の調整終了後に、ビ
デオカメラ11、12でそれぞれ撮像領域21、22を
撮像し、ビデオ信号S15、S25を画像メモリ35、
45に取り込み、各ビデオ信号S15、S25について
それぞれ明部と暗部にかかる平均照度を算出する(ステ
ップS6)。After the adjustment of the light amount of the collimated light source 13 is completed, the video cameras 11 and 12 respectively capture the imaging regions 21 and 22, and the video signals S15 and S25 are stored in the image memory 35.
Then, the average illuminance applied to the bright portion and the dark portion of each of the video signals S15 and S25 is calculated (step S6).
【0041】図3Bに示すように、ビデオ信号S15か
ら算出した明部の平均照度がI0、暗部の平均照度がI
1であり、ビデオ信号S25から算出した明部の平均照
度がI02、暗部の平均照度がI2であるものとする。
明部の平均照度I0と平均照度I02の値(暗部の平均
照度I1と平均照度I2の値)が異なるのは、ビデオカ
メラ11、12の間でオフセットの差およびゲインの差
が存在するからである。As shown in FIG. 3B, the average illuminance of the bright portion calculated from the video signal S15 is I0, and the average illuminance of the dark portion is I.
1 and the average illuminance of the bright portion calculated from the video signal S25 is I02, and the average illuminance of the dark portion is I2.
The values of the average illuminance I0 and the average illuminance I02 of the bright part (the values of the average illuminance I1 and the average illuminance I2 of the dark part) are different because there is a difference in offset and a difference in gain between the video cameras 11 and 12. is there.
【0042】そこで、各ビデオ信号S13、S23を2
値化する際の2値化回路33、43に設定するための閾
値T1、T2としては、それぞれ、それらの中央値をと
る。Therefore, each of the video signals S13 and S23 is set to 2
The threshold values T1 and T2 to be set in the binarization circuits 33 and 43 at the time of binarization take their median values, respectively.
【0043】すなわち、2値化回路33に設定する閾値
T1はT1=(I0−I1)/2とし、2値化回路43
に設定する閾値T2は、T2=(I02−I2)/2と
する(ステップS7)。That is, the threshold T1 set in the binarization circuit 33 is T1 = (I0-I1) / 2, and the binarization circuit 43 is set.
The threshold value T2 to be set to is T2 = (I02-I2) / 2 (step S7).
【0044】次に、マルチプレクサ34、44を切り替
えて、共通接点34aと固定接点34c、共通接点44
aと固定接点44cとを接続する。Next, the multiplexers 34 and 44 are switched to switch the common contact 34a, the fixed contact 34c, and the common contact 44.
a is connected to the fixed contact 44c.
【0045】この状態において、輪郭強調後のビデオ信
号S13、S23をそれぞれ2値化回路33、43で
「1」または「0」の値に2値化し、2値ビデオ信号S
14(S15)、S24(S25)を画像メモリ35、
45に記憶する(ステップS8)。In this state, the video signals S13 and S23 after the edge enhancement are binarized into "1" or "0" values by the binarization circuits 33 and 43, respectively.
14 (S15) and S24 (S25) to the image memory 35,
It is stored in 45 (step S8).
【0046】この場合、画像メモリ35、45はビット
マップメモリの機能を有することになる。In this case, the image memories 35 and 45 have a bit map memory function.
【0047】図3Cは、その記憶内容に対応する外部C
RT55の画面61、62上の画像63、64を表して
いる。画面61上の画像63は、平行光照射領域23に
対応する明部63aと、撮像領域21から平行光照射領
域23を除いたハッチングを施した暗部63bとからな
る2値画像(白色領域と黒色領域とからなるモノクロ明
暗画像)になる。また、画面62上の画像64は、平行
光照射領域23に対応する明部64aと撮像領域22か
ら平行光照射領域23を除いたハッチングを施した暗部
64bとからなる2値画像になる。これらの画像63、
64は、2値画像であるので、明暗境界線66、67が
確実に得られる。FIG. 3C shows an external C corresponding to the stored contents.
Images 63 and 64 on the screens 61 and 62 of the RT 55 are shown. The image 63 on the screen 61 is a binary image (white area and black area) including a bright portion 63a corresponding to the parallel light irradiation area 23 and a hatched dark portion 63b excluding the parallel light irradiation area 23 from the imaging area 21. A monochrome light and dark image consisting of areas). Further, the image 64 on the screen 62 is a binary image including a bright portion 64a corresponding to the parallel light irradiation area 23 and a hatched dark portion 64b excluding the parallel light irradiation area 23 from the imaging area 22. These images 63,
Since 64 is a binary image, the bright and dark boundary lines 66 and 67 are surely obtained.
【0048】図3Dは、画像63と画像64を同一画面
65上に描いた合成的画面を示してている。この画面6
5上の対応する位置の画像PR、PLのxy座標(これ
は、ビットマップメモリとしての画像メモリ35、45
のアドレス位置として換算することができる。)に基づ
いて、上述の両眼立体視法による(1)式に示した関数
Fを用いて、ビデオカメラ11、12の位置から撮像対
象物10までの距離dを求める(ステップS9)。FIG. 3D shows a synthetic screen in which the image 63 and the image 64 are drawn on the same screen 65. This screen 6
5, the xy coordinates of the images PR and PL at the corresponding positions (this is the image memories 35 and 45 as bitmap memories).
Can be converted as the address position of. ), The distance d from the positions of the video cameras 11 and 12 to the image-capturing target 10 is obtained by using the function F shown in the equation (1) by the above-mentioned binocular stereoscopic method (step S9).
【0049】なお、上述の実施例においては、ビデオカ
メラを2台用いて距離dを求める技術を説明している
が、3台以上の場合には、ステップS6以降において、
例えば、ビデオカメラ11以外の残りのビデオカメラ全
てについての処理を行えば良い。In the above embodiment, the technique for obtaining the distance d by using two video cameras has been described. However, in the case of three or more video cameras, in step S6 and subsequent steps,
For example, the processing may be performed for all the remaining video cameras other than the video camera 11.
【0050】このように上述の実施例によれば、平行光
光源13からの平行光L0が照射された平行光照射領域
23と照射されない部分とを含んで撮像対象物10を少
なくとも2つのビデオカメラ11、12により撮像した
後、得られたビデオ信号S15、S25に基づく画像6
3、64上の明暗境界線66、67の座標ずれX1に基
づいてビデオカメラ11、12から撮像対象物10まで
の距離dを、両眼立体視法を用いて算出するようにして
いる。この場合、平行光L0の明るさを調整して明部
(平行光照射領域23)と暗部(撮像領域21、22か
らそれぞれ平行光照射領域23を除いた領域)との明る
さの差が一定以上の差になるようにしてから閾値T1、
T2を決め、その後に2値化しているので、外乱光があ
っても、撮像対象物10上の明度差を大きくでき、2値
ビデオ信号S14、S24に基づく画像63、64上の
明暗境界線66、67を確実に得ることができる。As described above, according to the above-described embodiment, at least two video cameras including the object 10 to be imaged including the parallel light irradiation area 23 to which the parallel light L0 from the parallel light source 13 is irradiated and the non-irradiated portion. An image 6 based on the obtained video signals S15 and S25 after imaging by 11 and 12
The distance d from the video cameras 11 and 12 to the imaging object 10 is calculated using the binocular stereoscopic method based on the coordinate shift X1 of the bright and dark boundary lines 66 and 67 on the lines 3 and 64. In this case, the brightness of the parallel light L0 is adjusted so that the difference in brightness between the bright portion (parallel light irradiation area 23) and the dark portion (areas obtained by removing the parallel light irradiation area 23 from the imaging areas 21 and 22) is constant. After setting the difference above, the threshold value T1,
Since T2 is determined and binarized after that, even if there is ambient light, the brightness difference on the imaging object 10 can be made large, and the light-dark boundary lines on the images 63 and 64 based on the binary video signals S14 and S24. It is possible to reliably obtain 66 and 67.
【0051】また、輪郭強調後のビデオ信号S13、S
23を利用しているので、一層確実に、ビデオ信号S1
3、S23に基づく画像63、64上の明暗境界線6
6、67を得ることができる。Further, the video signals S13 and S after the edge enhancement are performed.
23, the video signal S1
3, the light-dark boundary line 6 on the images 63 and 64 based on S23
6, 67 can be obtained.
【0052】さらに、閾値T1、T2を決める際に、そ
れぞれのビデオカメラ11、12で相互に独立に閾値T
1、T2を中央値に決定しているので、ビデオカメラ1
1、12間のオフセット、感度等の校正は、それほど正
確に行う必要がない。すなわち、ビデオカメラ11、1
2の感度、オフセット等の精度はラフでもよい。Further, when the thresholds T1 and T2 are determined, the thresholds T are independently set in the respective video cameras 11 and 12.
Since 1 and T2 are set to the median, the video camera 1
It is not necessary to calibrate the offset between 1 and 12 and the sensitivity so accurately. That is, the video cameras 11, 1
The accuracy of sensitivity and offset of 2 may be rough.
【0053】なお、この発明は上述の実施例に限らず、
この発明の要旨を逸脱することなく種々の構成を採り得
ることはもちろんである。The present invention is not limited to the above embodiment,
It goes without saying that various configurations can be adopted without departing from the gist of the present invention.
【0054】[0054]
【発明の効果】以上説明したように、この発明によれ
ば、平行光照射手段からの平行光が照射された部分と照
射されない部分とを含んで対象物を少なくとも2つの撮
像手段により撮像した後、得られた画像信号に基づく画
像上の明暗境界線の座標ずれに基づいて対象物までの距
離を多眼立体視法に基づいて算出するようにしている。
このため、外乱光があっても、撮像対象物上の明度差を
大きくでき、画像信号に基づく画像上の明暗境界線を確
実に得ることができる。As described above, according to the present invention, after the object is imaged by at least two imaging means including the part irradiated with the parallel light from the parallel light irradiation means and the part not irradiated with the parallel light. The distance to the object is calculated based on the coordinate shift of the bright-dark boundary line on the image based on the obtained image signal based on the multi-view stereoscopic method.
For this reason, even if there is ambient light, the difference in brightness on the object to be imaged can be increased, and the bright / dark boundary line on the image based on the image signal can be reliably obtained.
【0055】画像信号として、輪郭強調後の画像信号を
利用するようにすれば、一層確実に、画像信号に基づく
画像上の明暗境界線を得ることができる。If the image signal after contour enhancement is used as the image signal, the bright-dark boundary line on the image based on the image signal can be obtained more reliably.
【0056】さらに、従来の技術の項で示したような電
気的なフィルタ処理を必要としないので、対象物までの
距離を得るまでの処理時間が短くなるという効果も達成
される。Furthermore, since the electric filter processing as described in the section of the prior art is not required, the effect of shortening the processing time until the distance to the object is obtained is also achieved.
【図1】この発明の一実施例の構成を示すブロック図で
ある。FIG. 1 is a block diagram showing the configuration of an embodiment of the present invention.
【図2】図1例の動作説明に供されるフローチャートで
ある。FIG. 2 is a flowchart provided for explaining the operation of the example of FIG.
【図3】図1例の動作説明に供される線図であって、A
は、ビデオカメラの移動方向と平行する方向の撮像対象
物上での照度分布の例を示す線図、Bは、異なるビデオ
カメラに係る照度分布の例を示す線図、Cは、異なるビ
デオカメラそれぞれのビデオ信号に係る画像を示す線
図、Dは、それら異なるビデオカメラそれぞれのビデオ
信号に係る画像を合成的に表した線図である。FIG. 3 is a diagram for explaining the operation of the example in FIG.
Is a diagram showing an example of an illuminance distribution on an imaging object in a direction parallel to the moving direction of the video camera, B is a diagram showing an example of an illuminance distribution relating to different video cameras, and C is a different video camera. Diagrams showing images relating to the respective video signals, D is a diagram synthetically representing the images relating to the video signals of the different video cameras.
【図4】両眼立体視法の説明に供される線図である。FIG. 4 is a diagram provided for explaining a binocular stereoscopic method.
10…撮像対象物 11、12…ビデオ
カメラ 13…平行光光源 15…レール 21、22…撮像領域 23…平行光照射領
域 33、43…2値化回路 d…距離 L0…平行光 L1、L2…画像情
報を有する光10 ... Imaging target object 11, 12 ... Video camera 13 ... Parallel light source 15 ... Rail 21, 22 ... Imaging area 23 ... Parallel light irradiation area 33, 43 ... Binarization circuit d ... Distance L0 ... Parallel light L1, L2 ... Light with image information
Claims (4)
撮像して画像を得、得られた画像に基づいて前記撮像手
段から前記対象物までの距離を測定する距離測定装置に
おいて、 平行光照射手段を有し、 この平行光照射手段からの平行光を前記対象物に照射
し、 この平行光が照射された部分と照射されない部分とを含
んで前記対象物を前記少なくとも2つの撮像手段により
撮像した後、得られた画像信号に基づく画像上の明暗境
界線の座標ずれに基づいて前記対象物までの距離を算出
することを特徴とする距離測定装置。1. A distance measuring device for picking up an image of an object by at least two image pickup means, and measuring the distance from the image pickup means to the object based on the obtained images. And irradiating the object with parallel light from the parallel light irradiating means, and capturing the object with the at least two imaging means including the part irradiated with the parallel light and the part not irradiated with the parallel light. After that, the distance measuring device is characterized in that the distance to the object is calculated based on the coordinate shift of the light-dark boundary line on the image based on the obtained image signal.
暗境界線の座標ずれに基づいて前記対象物までの距離を
算出する際、得られた画像信号に輪郭強調処理を施した
輪郭強調後の画像信号を得、この輪郭強調後の画像信号
に基づく前記少なくとも2つの撮像手段により得られた
画像上の明暗境界線の座標ずれに基づいて前記対象物ま
での距離を算出することを特徴とする請求項1記載の距
離測定装置。2. When the distance to the object is calculated based on the coordinate shift of the bright / dark boundary line on the image based on the obtained image signal, the obtained image signal is subjected to contour enhancement processing. A subsequent image signal is obtained, and the distance to the object is calculated based on the coordinate shift of the light-dark boundary line on the image obtained by the at least two image pickup means based on the image signal after the edge enhancement. The distance measuring device according to claim 1.
撮像して画像を得、得られた画像に基づいて前記撮像手
段から前記対象物までの距離を測定する距離測定方法に
おいて、 前記少なくとも2つの撮像手段のうちの1つの撮像手段
で得られる画像信号のレベルの平均値を求める過程と、 平行光照射手段からの平行光を前記対象物の一部に照射
して対象物上に明部を形成する過程と、 前記少なくとも2つの撮像手段により前記明部が形成さ
れた対象物を撮像し、各撮像手段で得られた各画像信号
の前記明部のレベルの平均値およびそれ以外の部分の暗
部のレベルの平均値を求める過程と、 前記明部と暗部のレベルの平均値の中央値を各撮像手段
に対応する閾値とする過程と、 得られた各閾値とこれに対応する各撮像手段で得られた
画像信号とを比較して画像信号を明部と暗部に対応する
2値画像信号に変換する比較過程と、 各撮像手段に係る前記2値画像信号による画像から、各
撮像手段相互の明暗境界線の座標ずれに基づいて前記対
象物までの距離を算出する過程とを有することを特徴と
する距離測定方法。3. A distance measuring method, wherein an image of an object is picked up by at least two image pickup means, and a distance from the image pickup means to the object is measured based on the obtained images. A process of obtaining the average value of the levels of the image signals obtained by one of the image pickup means, and irradiating a part of the object with parallel light from the parallel light irradiating means to form a bright portion on the object. The process of forming, the image of the object on which the bright portion is formed by the at least two image pickup means, and the average value of the level of the bright portion of each image signal obtained by each image pickup means and other portions A step of obtaining an average value of the dark level, a step of setting a median value of the average values of the bright and dark levels as a threshold value corresponding to each image pickup means, each obtained threshold value and each image pickup means corresponding thereto Image signal obtained in And a comparison process of converting the image signal into a binary image signal corresponding to a bright portion and a dark portion, and the image of the binary image signal of each image pickup means, and the coordinates of the bright and dark boundary lines between the image pickup means. And a step of calculating a distance to the object based on the deviation.
画像信号に変換する比較過程における前記画像信号は、
輪郭強調処理後の画像信号であることを特徴とする請求
項3記載の距離測定方法。4. The image signal in a comparison process for converting the image signal into a binary image signal corresponding to a bright portion and a dark portion,
The distance measuring method according to claim 3, wherein the image signal is the image signal after the edge enhancement processing.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP18487794A JPH0850018A (en) | 1994-08-05 | 1994-08-05 | Apparatus and method for measuring distance |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP18487794A JPH0850018A (en) | 1994-08-05 | 1994-08-05 | Apparatus and method for measuring distance |
Publications (1)
Publication Number | Publication Date |
---|---|
JPH0850018A true JPH0850018A (en) | 1996-02-20 |
Family
ID=16160882
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP18487794A Pending JPH0850018A (en) | 1994-08-05 | 1994-08-05 | Apparatus and method for measuring distance |
Country Status (1)
Country | Link |
---|---|
JP (1) | JPH0850018A (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002502048A (en) * | 1998-01-30 | 2002-01-22 | レオポルト・コスタール・ゲゼルシヤフト・ミト・ベシユレンクテル・ハフツング・ウント・コンパニー・コマンデイトゲゼルシヤフト | Method and apparatus for detecting objects above a light-transmitting window glass |
US6996339B2 (en) | 2002-10-10 | 2006-02-07 | Olympus Corporation | Three-dimensional photographing apparatus and three-dimensional photographing method, and stereo adapter |
WO2024167196A1 (en) * | 2023-02-09 | 2024-08-15 | 삼성전자 주식회사 | Electronic device for controlling brightness of infrared lighting in vehicle, and operation method thereof |
-
1994
- 1994-08-05 JP JP18487794A patent/JPH0850018A/en active Pending
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002502048A (en) * | 1998-01-30 | 2002-01-22 | レオポルト・コスタール・ゲゼルシヤフト・ミト・ベシユレンクテル・ハフツング・ウント・コンパニー・コマンデイトゲゼルシヤフト | Method and apparatus for detecting objects above a light-transmitting window glass |
US6996339B2 (en) | 2002-10-10 | 2006-02-07 | Olympus Corporation | Three-dimensional photographing apparatus and three-dimensional photographing method, and stereo adapter |
WO2024167196A1 (en) * | 2023-02-09 | 2024-08-15 | 삼성전자 주식회사 | Electronic device for controlling brightness of infrared lighting in vehicle, and operation method thereof |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US5379104A (en) | Method of, and apparatus for, detecting optical axis of headlamp | |
US7139424B2 (en) | Stereoscopic image characteristics examination system | |
JP2001116526A (en) | Three-dimensional shape measuring instrument | |
JP7151873B2 (en) | inspection equipment | |
JP2005121546A (en) | Defect inspection method | |
JP2996067B2 (en) | 3D measuring device | |
JPH0850018A (en) | Apparatus and method for measuring distance | |
US20070065042A1 (en) | Method for measuring dimensions by means of a digital camera | |
JPS6048683B2 (en) | Object surface condition inspection method and inspection device | |
JPH1163954A (en) | Measuring device of three-dimensional shape | |
JP2005189167A (en) | Bridge inspection device of cap | |
JP2818347B2 (en) | Appearance inspection device | |
JPH06105212B2 (en) | Headlight main optical axis inspection method | |
KR900004371B1 (en) | Method of coordination of optical axis | |
JPS5924232A (en) | Method and apparatus for optical axis inspection of head lamp | |
JP3357739B2 (en) | Shape detection method | |
JPH0534117A (en) | Image processing method | |
JPS61196110A (en) | Shape inspection device | |
JPH0399211A (en) | Recognition of body | |
JPH07301609A (en) | Defect inspection method | |
JP2020091182A (en) | Color image processing type headlight tester | |
JPH0926313A (en) | Object recognition method in visual inspection apparatus for electronic-component mounting board | |
JPH0518909A (en) | Apparatus for inspecting inner surface of circular container | |
JPH0739940B2 (en) | Digital lighting equipment | |
JPH08294113A (en) | Image processor |