JPH09264742A - Distance-measuring apparatus and safe running system - Google Patents

Distance-measuring apparatus and safe running system

Info

Publication number
JPH09264742A
JPH09264742A JP8099049A JP9904996A JPH09264742A JP H09264742 A JPH09264742 A JP H09264742A JP 8099049 A JP8099049 A JP 8099049A JP 9904996 A JP9904996 A JP 9904996A JP H09264742 A JPH09264742 A JP H09264742A
Authority
JP
Japan
Prior art keywords
distance
measuring device
image
distance measuring
vehicle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP8099049A
Other languages
Japanese (ja)
Inventor
Hideki Touei
英樹 東影
Yuichi Niimoto
祐一 新本
Takeshi Ishida
毅 石田
Junichi Takagi
潤一 高木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Omron Corp
Original Assignee
Omron Corp
Omron Tateisi Electronics Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Omron Corp, Omron Tateisi Electronics Co filed Critical Omron Corp
Priority to JP8099049A priority Critical patent/JPH09264742A/en
Publication of JPH09264742A publication Critical patent/JPH09264742A/en
Pending legal-status Critical Current

Links

Landscapes

  • Auxiliary Drives, Propulsion Controls, And Safety Devices (AREA)
  • Traffic Control Systems (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Measurement Of Optical Distance (AREA)
  • Navigation (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a distance-measuring apparatus which does not measure a distance erroneously even when a plurality of objects to be detected exist in a visual field range and to detect respective distances of the plurality of objects to be detected. SOLUTION: A right image which is outputted from a photodetector 23a on one side is shifted one pixel by one pixel by an image shift processing part 24. An agreement judgment part 25 compares the shifted right image with a left image which is outputted from a photodetector 23b on the other side, and it cuts out a region in which an agreement degree is high. A correlation computing part 26 finds the deviation amount between regions in which the agreement degree of the right and left images is found out to be high, and it finds the distance of an object to be detected on the basis of the deviation amount.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明は距離測定装置及び安
全走行システムに関する。特に、本発明は、位相差相関
法を用いて被検知物体までの距離を計測するための距離
測定装置と、当該距離測定装置を用いた安全走行システ
ムに関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a distance measuring device and a safe traveling system. In particular, the present invention relates to a distance measuring device for measuring a distance to a detected object using a phase difference correlation method, and a safe traveling system using the distance measuring device.

【0002】[0002]

【従来の技術】位相差相関法を用いて視野内にある被検
知物体までの距離を計測する従来の距離測定装置1の概
略構成を図1に示し、その光学的な構成を図2に示す。
この距離測定装置1はフォトダイオート(PD)等の低
解像度の光検出器4a,4bを用いたものであって、図
2に示すように、等しい焦点距離fを有する第1の受光
レンズ2aと第2の受光レンズ2bとが一定の基線長Q
(第1及び第2の受光レンズ2a,2bの光軸3a,3
b間の間隔)だけ隔てて配置されており、第1及び第2
の受光レンズ2a,2bから焦点距離fだけ離れた位置
にはそれぞれ第1及び第2の光検出器4a,4bが配置
されている。
2. Description of the Related Art FIG. 1 shows a schematic configuration of a conventional distance measuring device 1 for measuring a distance to a detected object in a visual field by using a phase difference correlation method, and FIG. 2 shows an optical configuration thereof. .
This distance measuring device 1 uses low-resolution photodetectors 4a and 4b such as a photodiode (PD), and as shown in FIG. 2, a first light receiving lens 2a having an equal focal length f. And the second light receiving lens 2b have a constant baseline length Q
(Optical axes 3a, 3 of the first and second light receiving lenses 2a, 2b
b) and the first and second
First and second photodetectors 4a and 4b are disposed at positions separated from the light receiving lenses 2a and 2b by the focal length f.

【0003】しかして、この位相差相関法による距離測
定装置1にあっては、自然光あるいは投光素子(図示せ
ず)から出射された光が、被検知物体OBJの表面で反
射拡散されると、その反射光rは、第1の受光レンズ2
aを通過する第1の光路を通って第1の光検出器4aに
入射し、同時に第2の受光レンズ2bを通過する第2の
光路を通って第2の光検出器4bに入射する。第1及び
第2の光検出器4a,4bからマイクロプロセッサ(C
PU)6へは、受光した光の光強度分布が画像情報とし
て出力される。そして、マイクロプロセッサ6において
は、第1の光検出器4aから供給される画像5aと第2
の光検出器4bから供給される画像5bの重心位置のず
れ量Dが計算される。このずれ量Dは図2のX1+X2
相当する。そして、被検知物体OBJまでの距離Lは、
画像5a,5bどうしの重心位置のずれ量の値D=X1
+X2を用い、三角法に基づいて次の式のように求め
られる。 L=Q・f/D … これらの演算がマイクロプロセッサ6によって実行され
ると、図1に示すように、その結果は出力回路7を介し
て距離データとして出力される。
However, in the distance measuring device 1 based on the phase difference correlation method, natural light or light emitted from a light projecting element (not shown) is reflected and diffused on the surface of the object to be detected OBJ. , The reflected light r is reflected by the first light receiving lens 2
The light enters the first photodetector 4a through the first optical path passing through a, and simultaneously enters the second photodetector 4b through the second optical path passing through the second light receiving lens 2b. From the first and second photodetectors 4a and 4b to the microprocessor (C
The light intensity distribution of the received light is output to the PU) 6 as image information. Then, in the microprocessor 6, the image 5a supplied from the first photodetector 4a and the second image 5a
The shift amount D of the barycentric position of the image 5b supplied from the photodetector 4b is calculated. This shift amount D corresponds to X 1 + X 2 in FIG. The distance L to the detected object OBJ is
Value of shift amount of center of gravity between images 5a and 5b D = X 1
By using + X 2 , it is obtained by the following formula based on trigonometry. L = Q · f / D ... When these operations are executed by the microprocessor 6, the result is output as distance data via the output circuit 7, as shown in FIG.

【0004】上記式すなわち画像のずれ量Dに基づい
て被検知物体OBJまでの距離Lを求める原理を図3に
より説明する。いま、被検知物体OBJが、第1及び第
2の受光レンズ2a,2bの中心面Hから距離L、第2
の受光レンズ2bの光軸3bからqの点に位置している
とき、第1の光検出器4aでは第1の受光レンズ2aの
光軸3aに対応する位置を基準とする横座標X1に被検
知物体OBJの画像5a(重心位置)が生じ、第2の光
検出器4bでは第2の受光レンズ2bの光軸3bに対応
する位置を基準とする横座標X2に被検知物体OBJの
画像5b(重心位置)が生じているとすると、図3から
分かるように、これらの間には、次式のような関係があ
る。 Qーq=(L/f)X1 q=(L/f)X2 この2式からqを消去し、X1+X2=Dとすると、上記
式が得られる。よって、このように2つの光検出器4
a,4bを用いれば、被検知物体OBJが視野内の任意
の位置にあっても、式により被検知物体OBJまでの
距離Lを正確に求めることができることが分かる。
The principle of obtaining the distance L to the detected object OBJ based on the above equation, that is, the image shift amount D will be described with reference to FIG. Now, the detected object OBJ is located at a distance L from the center plane H of the first and second light receiving lenses 2a and 2b,
When it is located at a point q from the optical axis 3b of the light receiving lens 2b of the first photodetector 4a, the first photodetector 4a has the abscissa X 1 based on the position corresponding to the optical axis 3a of the first light receiving lens 2a. image 5a of the detected object OBJ (gravity center position) occurs, the horizontal coordinates X 2 of the detection object OBJ from its position at that corresponds to the optical axis 3b of the second photodetector 4b second light receiving lens 2b Assuming that the image 5b (the position of the center of gravity) is generated, as shown in FIG. 3, there is a relation as shown below. Q−q = (L / f) X 1 q = (L / f) X 2 If q is eliminated from these two equations and X 1 + X 2 = D, the above equation is obtained. Therefore, in this way, the two photodetectors 4 are
By using a and 4b, it can be seen that the distance L to the detected object OBJ can be accurately obtained from the formula even if the detected object OBJ is located at an arbitrary position within the visual field.

【0005】しかしながら、被検知物体OBJに大きさ
があるため、実際には、第1及び第2の光検出器4a,
4bにおける受光パターンは点ではなく、光強度の分布
パターン(画像)となる。従って、上記ずれ量Dの定義
をそのまま用いることができず、ずれ量Dの定義もしく
はずれ量Dの求め方を拡張する必要がある。位相差相関
法を用いた距離測定装置1では、以下のようにして画像
5a,5bのずれ量Dを求めている。まず、基準線P
A,PBを定義する。図4(a)は第1及び第2の受光
レンズ2a,2bと第1及び第2の光検出器4a,4b
を示し、図4(b)は第1及び第2の光検出器4a,4
bから供給される画像5a,5bであって、横軸は光検
出器4a,4b上での横座標XA,XB、縦軸は光強度
である。図4(b)に示されている基準線PAは画像5
aの画面内における位置を示す縦線であって、第1の光
検出器4a上の光軸3aとの交点Aに対応している。同
様に、基準線PBは画像5bの画面内における位置を示
す縦線であって、第2の光検出器4b上の光軸3bとの
交点Bに対応している。第1の光検出器4aにより供給
された画像5aと第2の光検出器4bにより供給された
画像5bのずれ量Dを求めるには、まず両画像5a,5
bを比較して図4(c)に示すように基準線PAと基準
線PBを画面上で一致させ、ついで、一方の光検出器4
bの画像5bを基準線PBごと他方の光検出器4aの画
像5bと最も一致するように移動させる。こうして2つ
の画像5a,5bを最も一致させたときの基準線PA,
基準線PB間の距離を、この時のずれ量Dと定義し、
式を用いて被検知物体OBJまでの距離Lを求める。な
お、2つの画像5a,5bが最も一致した時とは、図4
(d)に示す斜線領域のように両画像5a,5bの重な
らない領域の面積が最小となった状態であると定義す
る。
However, since the object to be detected OBJ has a size, the first and second photodetectors 4a, 4a,
The light receiving pattern in 4b is not a point but a light intensity distribution pattern (image). Therefore, the definition of the deviation amount D cannot be used as it is, and it is necessary to expand the definition of the deviation amount D or the method of obtaining the deviation amount D. In the distance measuring device 1 using the phase difference correlation method, the shift amount D between the images 5a and 5b is obtained as follows. First, the reference line P
Define A and PB. FIG. 4A shows the first and second light receiving lenses 2a and 2b and the first and second photodetectors 4a and 4b.
FIG. 4B shows the first and second photodetectors 4a, 4
In the images 5a and 5b supplied from b, the horizontal axis represents the abscissas XA and XB on the photodetectors 4a and 4b, and the vertical axis represents the light intensity. The reference line PA shown in FIG.
It is a vertical line indicating the position of a in the screen and corresponds to the intersection A with the optical axis 3a on the first photodetector 4a. Similarly, the reference line PB is a vertical line indicating the position of the image 5b in the screen, and corresponds to the intersection B with the optical axis 3b on the second photodetector 4b. In order to obtain the shift amount D between the image 5a supplied by the first photodetector 4a and the image 5b supplied by the second photodetector 4b, first, both images 5a, 5
b is compared and the reference line PA and the reference line PB are aligned on the screen as shown in FIG.
The image 5b of b is moved together with the reference line PB so as to best match the image 5b of the other photodetector 4a. In this way, the reference line PA when the two images 5a and 5b are best matched,
The distance between the reference lines PB is defined as the deviation amount D at this time,
The distance L to the object to be detected OBJ is calculated using the formula. Note that the time when the two images 5a and 5b best match each other is as shown in FIG.
It is defined that the area of the non-overlapping area of both images 5a and 5b is the minimum area, such as the shaded area shown in (d).

【0006】このような位相差相関法を用いた距離測定
装置1では、被検知物体OBJの表面に模様などの色柄
があっても、2つの画像5a,5bが同じ方向にシフト
するので、ずれ量Dに影響がなく、このような場合にも
被検知物体OBJまでの距離Lを正確に計測できる。さ
らに、相関演算によりずれ量Dを高精度に求めることが
できるため、被検知物体OBJが遠距離にある場合で
も、その距離Lを高精度に計測できるという特徴があ
る。
In the distance measuring device 1 using such a phase difference correlation method, the two images 5a and 5b shift in the same direction even if there is a color pattern such as a pattern on the surface of the detected object OBJ. The displacement amount D is not affected, and the distance L to the detected object OBJ can be accurately measured even in such a case. Further, since the deviation amount D can be obtained with high accuracy by the correlation calculation, the distance L can be measured with high accuracy even when the detected object OBJ is at a long distance.

【0007】[0007]

【発明が解決しようとする課題】しかしながら、上記の
ように低解像度の光検出器を用いて位相差相関法により
距離を算出する方法においては、視野内に2つ以上の被
検知物体が存在し、光検出器上に2つ以上の被検知物体
の像が結像される場合には、上記のように左右の画像の
重ならない領域の面積が最小となるときのずれ量から被
検知物体までの距離を求めても、いずれの被検知物体ま
での距離にも一致しないという問題があった。
However, in the method of calculating the distance by the phase difference correlation method using the low-resolution photodetector as described above, there are two or more detected objects in the visual field. , When two or more images of the object to be detected are formed on the photodetector, from the deviation amount when the area of the non-overlapping regions of the left and right images is minimum as described above, There is a problem that even if the distance is calculated, it does not match the distance to any detected object.

【0008】いま、2つの被検知物体OBJ1,OBJ
2が異なる距離にあるとする。例えば、図5(a)では
被検知物体OBJ1が距離L1にあり、被検知物体OB
J2が距離L2(<L1)に存在しており、光検出器4
a上には図5(b)に示すように被検知物体OBJ1の
画像8aと被検知物体OBJ2の画像9aが生じてお
り、光検出器4b上には図5(c)に示すように被検知
物体OBJ1の画像8bと被検知物体OBJ2の画像9
bが生じている。
Now, two detected objects OBJ1 and OBJ
Suppose two are at different distances. For example, in FIG. 5A, the detected object OBJ1 is located at the distance L1 and the detected object OBJ1
J2 is present at a distance L2 (<L1), and the photodetector 4
As shown in FIG. 5B, an image 8a of the detected object OBJ1 and an image 9a of the detected object OBJ2 are generated on a, and the image is detected on the photodetector 4b as shown in FIG. 5C. Image 8b of detected object OBJ1 and image 9 of detected object OBJ2
b has occurred.

【0009】このとき図6(a)に示すように画像8a
と画像8bをもっとも一致させるように各画像8a,8
b,9a,9bと基準線PA,PBを移動させ、そのと
きのずれ量D1から求めた距離は被検知物体OBJ1ま
での距離L1と一致する。また、図6(b)に示すよう
に画像9aと画像9bをもっとも一致させるように各画
像8a,8b,9a,9bと基準線PA,PBを移動さ
せ、そのときのずれ量D2から求めた距離は被検知物体
OBJ2までの距離L2と一致する。
At this time, the image 8a is displayed as shown in FIG.
And images 8a and 8b so as to best match
b, 9a, 9b and the reference lines PA, PB are moved, and the distance obtained from the deviation amount D1 at that time matches the distance L1 to the detected object OBJ1. Further, as shown in FIG. 6B, the respective images 8a, 8b, 9a, 9b and the reference lines PA, PB are moved so that the images 9a and 9b are most matched, and the deviation amount D2 at that time is obtained. The distance matches the distance L2 to the detected object OBJ2.

【0010】しかしながら、実際には、図6(c)に示
すように、光検出器4a上の画像8a,9a全体と光検
出器4b上の画像8b,9b全体の一致度が最も高いと
きのずれ量Dを求めており、そのときのずれ量DはD1
ともD2とも一致せず、2つの被検知物体OBJ1,O
BJ2の画像8a,8b,9a,9bが光検出器4a,
4b上のどの位置に結像されるかによってずれ量DはD
1からD2までの任意の値をとる。
However, in reality, as shown in FIG. 6 (c), when the degree of coincidence between the entire images 8a and 9a on the photodetector 4a and the entire images 8b and 9b on the photodetector 4b is the highest. The deviation amount D is calculated, and the deviation amount D at that time is D1.
Neither D2 nor two detected objects OBJ1, O
The images 8a, 8b, 9a, 9b of the BJ2 are the photodetectors 4a,
The amount of deviation D is D depending on the position on the image 4b.
Takes any value from 1 to D2.

【0011】従って、フォトダイオードのような低解像
度の光検出器4a,4bを用いた位相差相関法による距
離測定装置1においては、視野内に2つ以上の被検知物
体が存在している場合には、距離測定装置1から出力さ
れる距離データはいずれの被検知物体の距離も示さない
ことになり、距離測定が不安定となって誤測距するとい
う問題があった。ましてや、視野内に2つ以上の被検知
物体が存在している場合には、各被検知物体までの距離
を個々に検出することは到底不可能であった。
Therefore, in the distance measuring device 1 by the phase difference correlation method using the low-resolution photodetectors 4a and 4b such as photodiodes, when there are two or more detected objects in the visual field. However, the distance data output from the distance measuring device 1 does not indicate the distance of any of the detected objects, which causes a problem that the distance measurement becomes unstable and the distance is erroneously measured. Moreover, when there are two or more detected objects in the field of view, it is extremely impossible to individually detect the distance to each detected object.

【0012】また、図7及び図8は、CCDのような高
解像度の光検出器を用いた従来の距離測定装置10を示
す概略図及びその光学系の構成を示す図である。この距
離測定装置10にあっては、CCDカメラ11a,11
bのレンズ12a,12bを通して2次元CCD13
a,13b(例えば、512×480個の画素からなる
もの)に被検知物体OBJの画像5a,5bを結像さ
せ、マイクロプロセッサ14においては、CCDカメラ
11a,11bからの2次元画像をマッチングさせてそ
の時のずれ量から被検知物体OBJまでの距離を求め、
出力回路15から距離データを出力している。
7 and 8 are a schematic diagram showing a conventional distance measuring device 10 using a high-resolution photodetector such as a CCD and a diagram showing the configuration of its optical system. In this distance measuring device 10, the CCD cameras 11a, 11
2D CCD 13 through lenses 12a and 12b
The images 5a and 5b of the object OBJ to be detected are formed on a and 13b (for example, consisting of 512 × 480 pixels), and in the microprocessor 14, the two-dimensional images from the CCD cameras 11a and 11b are matched. The distance to the detected object OBJ is calculated from the deviation amount at that time,
Distance data is output from the output circuit 15.

【0013】しかしながら、このような高解像度の光検
出器を用いた距離測定装置10においては、測距精度は
良好であるが、高解像度の光検出器を用いるためコスト
が高くなる。また、光検出器からの出力データを記憶す
るためのメモリも大容量になってしまう。さらには、大
量の出力データを処理しなければならないので、処理時
間も掛かってしまうといった問題があった。
However, in the distance measuring device 10 using such a high-resolution photodetector, the distance measurement accuracy is good, but the cost is high because the high-resolution photodetector is used. Moreover, the memory for storing the output data from the photodetector also becomes large in capacity. Further, since a large amount of output data has to be processed, there is a problem that it takes a long processing time.

【0014】本発明は叙上の従来例の欠点に鑑みてなさ
れたものであり、その目的とするところは、低解像度の
光検出器でも、視野内に存在する複数の被検知物体まで
の距離を精度良く測定可能にすることで、低コスト高精
度の距離測定装置を提供することにある。
The present invention has been made in view of the above-mentioned drawbacks of the conventional examples, and an object of the present invention is to provide a low-resolution photodetector with a distance to a plurality of detected objects existing in the visual field. The object of the present invention is to provide a low-cost and high-accuracy distance measuring device by making it possible to measure with high accuracy.

【0015】[0015]

【課題を解決するための手段】請求項1に記載の距離測
定装置は、所定の視野から放たれる光を受け、空間的に
隔てられた第1及び第2の光路に沿って光を伝達する受
光光学系と、複数個の光応答素子を備え、前記受光光学
系の第1光路に沿って伝達される光を受光して、光の強
度分布を表わす電気信号を出力する第1光検出手段と、
複数個の光応答素子を備え、前記受光光学系の第2光路
に沿って伝達される光を受光して、光の強度分布を表わ
す電気信号を出力する第2光検出手段と、前記第1及び
第2光検出手段の出力する光強度分布の、前記光応答素
子上のずれ量に基づいて行なった所定の演算結果を、被
検知物体までの距離として出力する演算手段と、を備え
た距離測定装置において、前記第1及び第2光検出手段
の出力する光強度分布を表わす信号の中から、一致度の
高い領域を判定する判定手段を備え、前記演算手段は、
前記判定手段により一致度が高いと判定された領域につ
いての光応答素子上のずれ量に基づいて前記所定の演算
を行なうことを特徴としている。
A distance measuring apparatus according to claim 1 receives light emitted from a predetermined visual field and transmits the light along first and second optical paths spatially separated from each other. And a plurality of light-responsive elements for receiving the light transmitted along the first optical path of the light-receiving optical system and outputting an electric signal representing the intensity distribution of the light. Means and
A second photo-detecting means having a plurality of photo-responsive elements for receiving the light transmitted along the second optical path of the light-receiving optical system and outputting an electric signal representing the intensity distribution of the light; And a calculating means for outputting a predetermined calculation result of the light intensity distribution output from the second light detecting means based on the amount of deviation on the photoresponsive element, as a distance to the detected object. The measuring device further comprises a judging means for judging a region having a high degree of coincidence from the signals representing the light intensity distributions output from the first and second light detecting means, and the calculating means comprises:
It is characterized in that the predetermined calculation is performed on the basis of the amount of shift on the photoresponsive element with respect to the region determined to have a high degree of coincidence by the determination means.

【0016】ここで、画像の一致度が高いことを判定す
るには、画像そのままで判定する場合に限らず、画像デ
ータを微分した後に判定したり、極値点を取り出して判
定したり、両画像のコントラストを等しくした後に判定
したり、画像に任意の処理を施した後に判定してもよ
い。
Here, the determination that the degree of coincidence of images is high is not limited to the determination of the images as they are, but the determination may be made after differentiating the image data or by extracting the extreme points. The determination may be performed after the contrasts of the images are equalized, or after the image is subjected to an arbitrary process.

【0017】しかして、本発明によれば両画像の一致度
の高い部分どうしを判定手段で判定し、一致度が高いと
判定された部分画像どうしのずれ量から被検知物体まで
の距離を求めている。従って、各一致度の高い部分に対
応して被検知物体までの距離を複数求めることができ、
視野内に複数の被検知物体が存在している場合でも測距
精度が低下することがない。また、複数の被検知物体の
距離を個々に検出することができる。
According to the present invention, therefore, the determining means determines the portions having a high degree of coincidence between the two images, and obtains the distance to the detected object from the amount of deviation between the partial images determined to have a high degree of coincidence. ing. Therefore, it is possible to obtain a plurality of distances to the detected object corresponding to the parts with high coincidence,
Even if there are a plurality of detected objects in the field of view, the accuracy of distance measurement does not deteriorate. Further, it is possible to individually detect the distances of a plurality of detected objects.

【0018】請求項2に記載の実施態様は、請求項1に
記載の距離測定装置において、前記判定手段が一致度の
高い領域を複数判定した場合には、前記演算手段は、前
記それぞれの領域についての光強度分布のずれ量を求
め、それらのずれ量のうち最も大きいずれ量に基づいて
行なった前記所定の演算結果を被検知物体までの距離と
して出力することを特徴としている。
According to a second aspect of the present invention, in the distance measuring device according to the first aspect, when the determination means determines a plurality of areas having a high degree of coincidence, the calculation means causes the respective areas to be determined. Is calculated, and a result of the predetermined calculation performed based on which of the deviation amounts is the largest is output as the distance to the detected object.

【0019】一致度の高い領域を複数判定した場合デ
モ、最も大きいずれ量に基づいて被検知物体までの距離
を演算することにより、複数の被検知物体のうち最も近
くに位置している被検知物体の距離だけを出力すること
ができる。
Demonstration when a plurality of areas having a high degree of coincidence are determined. By calculating the distance to the detected object based on the largest amount, the detected object located closest to the plurality of detected objects is detected. Only the distance of the object can be output.

【0020】請求項3に記載の実施態様は、請求項1に
記載の距離測定装置において、前記判定手段が一致度の
高い領域を複数判定した場合には、前記演算手段は、前
記それぞれの領域についての光強度分布のずれ量を求
め、それらのずれ量に基づいて行なった前記所定の演算
結果をすべて、被検知物体までの距離として出力するこ
とを特徴としている。
According to a third aspect of the present invention, in the distance measuring device according to the first aspect, when the determination unit determines a plurality of regions having a high degree of coincidence, the calculation unit causes the respective regions to be determined. Is calculated, and all of the predetermined calculation results performed based on the deviations are output as the distance to the detected object.

【0021】一致度の高い領域を複数判定した場合に、
各領域について光強度分布のずれ量を求め、そこから被
検知物体までの距離を演算することにより、視野内にあ
る複数の被検知物体までの距離を、他の被検知物体に影
響されることなく、個々に分離して正確に求めることが
できる。
When a plurality of areas having a high degree of coincidence are determined,
By calculating the deviation amount of the light intensity distribution for each area and calculating the distance from it to the detected object, the distance to multiple detected objects in the field of view can be affected by other detected objects. Instead, they can be individually separated and accurately determined.

【0022】請求項4に記載の実施態様は、請求項1〜
3に記載の距離測定装置において、前記判定手段が一致
度が高いと判定した領域から所定の条件を満足する部分
を抽出する抽出手段を備え、前記演算手段は、前記抽出
された部分の光強度分布の光応答素子上のずれ量に基づ
いて前記所定の演算を行なうことを特徴としている。
The embodiment described in claim 4 is the embodiment described in claim 1
3. The distance measuring device according to 3, further comprising: an extraction unit that extracts a portion satisfying a predetermined condition from the region determined by the determination unit to have a high degree of coincidence, and the calculation unit includes the light intensity of the extracted portion. It is characterized in that the predetermined calculation is performed based on the deviation amount of the distribution on the photo-responsive element.

【0023】この実施態様においては、判定手段により
一致度が高いと判定された領域を、所定の条件に従って
抽出手段によりさらに分割し、抽出された各部分領域毎
にずれ量を求めて距離を演算することができる。
In this embodiment, the area determined to have a high degree of coincidence by the determining means is further divided by the extracting means according to a predetermined condition, and the deviation amount is calculated for each extracted partial area to calculate the distance. can do.

【0024】従って、判定手段により一致度が高いと判
定された領域に対応する被検知物体の各部の距離をさら
に細かく測距することができ、被検知物体の表面の凹凸
までも検出することができる。
Therefore, it is possible to further finely measure the distance between the respective parts of the detected object corresponding to the area judged to have a high degree of coincidence by the judgment means, and it is possible to detect even the unevenness of the surface of the detected object. it can.

【0025】請求項5に記載の実施態様は、請求項4に
記載の距離測定装置において、前記抽出手段が所定の条
件を満足する部分を複数抽出する場合には、前記演算手
段は、前記それぞれの部分についての光強度分布のずれ
量を求め、それらのずれ量のうち複数のずれ量の平均値
を用いて演算した被検知物体までの距離を出力すること
を特徴としている。
According to a fifth aspect of the present invention, in the distance measuring device according to the fourth aspect, when the extracting means extracts a plurality of portions satisfying a predetermined condition, the calculating means is configured to respectively It is characterized in that the shift amount of the light intensity distribution is obtained for the portion of (1) and the distance to the detected object calculated using the average value of the plurality of shift amounts is output.

【0026】同一の被検知物体に対するずれ量であるこ
とが分かっているような場合には、そのずれ量の平均値
を用いることにより、誤測距を防止し、測距信頼性を向
上させることができる。
When it is known that the deviation amounts are for the same detected object, erroneous distance measurement is prevented and the distance measurement reliability is improved by using the average value of the deviation amounts. You can

【0027】請求項6に記載の実施態様は、請求項1〜
5記載の距離測定装置において、さらに、被検知物体の
存在する方向を出力することを特徴としている。
The embodiment described in claim 6 is defined in any one of claims 1 to
The distance measuring device described in No. 5 is further characterized by outputting the direction in which the detected object exists.

【0028】被検知物体の距離だけでなく、その方向も
検知することで、被検知物体の状態をより正確に判断で
きるようになる。
By detecting not only the distance of the detected object but also its direction, the state of the detected object can be determined more accurately.

【0029】請求項7に記載の実施態様は、請求項1〜
5記載の距離測定装置において、さらに、被検知物体の
大きさを出力することを特徴としている。
[0029] The embodiment described in claim 7 is based on claim 1
The distance measuring device according to the fifth aspect is further characterized in that the size of the detected object is output.

【0030】被検知物体の距離だけでなく、その大きさ
も検知することで、被検知物体の状態をより正確に判断
できるようになる。
By detecting not only the distance of the detected object but also its size, the state of the detected object can be determined more accurately.

【0031】請求項8に記載の安全走行システムは、請
求項1〜7距離測定装置を備え、周囲に存在する物体ま
での距離を測定すべく車室内もしくは車室外に前記距離
測定装置が取り付けられたことを特徴としている。
The safe traveling system according to claim 8 is provided with the distance measuring device according to any one of claims 1 to 7, and the distance measuring device is mounted inside or outside the vehicle compartment to measure the distance to an object existing in the surroundings. It is characterized by that.

【0032】この安全走行システムは前記距離測定装置
を備えているので、背景や他の被検知物体に妨げられる
ことなく、目的とする被検知物体(特に、最も近くの前
方車両や後方車両)までの距離を高い確度で検出するこ
とができる。
Since this safe traveling system is equipped with the distance measuring device, it is possible to reach a desired object to be detected (especially, the nearest front vehicle or rear vehicle) without being disturbed by the background or other objects to be detected. The distance can be detected with high accuracy.

【0033】請求項9に記載の実施態様は、請求項8記
載の安全走行システムにおいて、車速表示メータの付近
に前記距離測定装置の出力に基づいた前記物体までの距
離に関する表示を行なう表示部が取り付けられたことを
特徴としている。
According to a ninth aspect of the present invention, in the safe traveling system according to the eighth aspect, a display unit for displaying a distance to the object based on an output of the distance measuring device is provided near the vehicle speed display meter. It is characterized by being attached.

【0034】車速表示メーターの付近に前記距離測定装
置の出力に基づいた前記物体までの距離に関する表示を
行なう表示部を設ければ、前方車両との車間距離等を表
示部に表示することができる。
If a display unit for displaying the distance to the object based on the output of the distance measuring device is provided near the vehicle speed display meter, the inter-vehicle distance to the preceding vehicle can be displayed on the display unit. .

【0035】請求項10に記載の実施態様は、請求項8
記載の安全走行システムにおいて、少なくとも前記距離
測定装置の出力に基づいて、自車両が周囲に存在する物
体に衝突する可能性のある危険な状態であるか否かを判
断する判断装置を備えたことを特徴としている。
The embodiment described in claim 10 is the embodiment described in claim 8.
The safe traveling system according to claim 1, further comprising a determination device that determines, based on at least the output of the distance measuring device, whether or not the host vehicle is in a dangerous state in which it may collide with an object existing in the vicinity. Is characterized by.

【0036】距離測定装置の出力に基づいて、周囲に存
在する物体に衝突する可能性のある危険な状態であるか
否かを判断する判断装置を備えていれば、未然に例えば
警報を発したり、衝突の危険があることを表示したり、
ブレーキを作動させたりすることにより、衝突事故を防
止することができる。
If a judging device for judging whether or not there is a dangerous state in which there is a possibility of colliding with an object existing around based on the output of the distance measuring device, for example, an alarm is issued in advance. To indicate that there is a risk of collision,
A collision accident can be prevented by operating the brake.

【0037】請求項11に記載の実施態様は、請求項8
記載の安全走行システムにおいて、少なくとも前記距離
測定装置の出力に基づいて、アクセル開度もしくはブレ
ーキを制御する制御手段を備えたことを特徴としてい
る。
The embodiment described in claim 11 is the same as claim 8.
The safe traveling system described above is characterized by including control means for controlling an accelerator opening degree or a brake based on at least the output of the distance measuring device.

【0038】距離測定装置の出力に基づいて、アクセル
開度もしくはブレーキを制御する制御手段を備えていれ
ば、車両の状態に応じて車両の速度を安全な範囲にコン
トロールすることができる。
If the control means for controlling the accelerator opening or the brake is provided based on the output of the distance measuring device, the speed of the vehicle can be controlled within a safe range according to the state of the vehicle.

【0039】請求項12に記載の実施態様は、請求項8
記載の安全走行システムにおいて、少なくとも前記距離
測定装置の出力に基づいて、前方の車両が発進したこと
を運転者に報知する報知手段を備えたことを特徴として
いる。
The embodiment described in claim 12 is the embodiment described in claim 8.
The described safe traveling system is characterized in that it is provided with an informing means for informing the driver that the vehicle ahead has started based on at least the output of the distance measuring device.

【0040】距離測定装置の出力に基づいて、前方の車
両が発進したことを運転者に告知する手段を備えていれ
ば、例えば交通渋滞の場合などに前方車両の発進を知ら
せることができ、交通渋滞での運転を楽にすることがで
きる。
If means is provided for notifying the driver that the vehicle ahead has started based on the output of the distance measuring device, the start of the vehicle ahead can be notified, for example, in the case of traffic congestion. You can make driving easier in a traffic jam.

【0041】[0041]

【発明の実施の形態】BEST MODE FOR CARRYING OUT THE INVENTION

(第1の実施形態)図9は本発明の一実施形態による距
離測定装置21の構成を示すブロック図である。22
a,22bは被検知物体で反射散乱された光を光検出器
23a,23bの受光面に結像させるためのレンズであ
る。23a,23bはフォトダイオード等の低解像度の
光検出器であって、多数の画素を有しており、各画素毎
に光強度を示す信号(画像信号)を出力している。24
は一方の光検出器、例えば右側の光検出器23bに生成
した画像を画素配列方向で1画素分ずづ順次ずらせて出
力する画像シフト処理部であって、画素配列方向にシフ
ト処理した画像を一致判定部25へ出力し、そのときの
画像のずらし数Nを相関演算部26へ出力する。25は
光検出器23bから出力され画像シフト処理部24で順
次ずらされた画像と光検出器23aから出力された画像
とを比較し、両画像の一致度の高い領域(画素領域)を
判定する一致度判定部である。よって、画像シフト処理
部24及び一致度判定部25は、一方の画像を他方の画
像に対して1画素ずつシフトさせ、一致度の高い領域を
判別する。26は一致度判定部25からの判定情報と画
像シフト処理部24から送信される画像ずらし数Nとか
ら被検知物体までの距離を求める相関演算部である。2
7は相関演算部で求められた被検知物体までの距離を距
離データとして出力する出力回路である。
(First Embodiment) FIG. 9 is a block diagram showing a configuration of a distance measuring device 21 according to an embodiment of the present invention. 22
Reference numerals a and 22b are lenses for focusing the light reflected and scattered by the detected object on the light receiving surfaces of the photodetectors 23a and 23b. Reference numerals 23a and 23b are low-resolution photodetectors such as photodiodes, which have a large number of pixels and output a signal (image signal) indicating the light intensity for each pixel. 24
Is an image shift processing unit that sequentially shifts an image generated by one photodetector, for example, the photodetector 23b on the right side by one pixel in the pixel array direction, and outputs the image. It is output to the coincidence determination unit 25, and the image shift number N at that time is output to the correlation calculation unit 26. Reference numeral 25 compares the images output from the photodetector 23b and sequentially shifted by the image shift processing unit 24 with the images output from the photodetector 23a, and determines a region (pixel region) having a high degree of coincidence between the two images. It is a matching degree determination unit. Therefore, the image shift processing unit 24 and the coincidence degree determination unit 25 shift one image by one pixel with respect to the other image, and discriminate a region having a high degree of coincidence. Reference numeral 26 is a correlation calculation unit that obtains the distance to the detected object from the determination information from the coincidence determination unit 25 and the image shift number N transmitted from the image shift processing unit 24. Two
An output circuit 7 outputs the distance to the detected object obtained by the correlation calculation unit as distance data.

【0042】上記距離測定装置21によれば、図10
(a)に示すように、視野内に複数の被検知物体が存在
している場合にも各被検知物体までの距離を計測するこ
とができる。図10(a)は視野内の距離L1に2つの
被検知物体OBJ1,OBJ4が存在し、距離L2に被
検知物体OBJ3が存在し、距離L3に被検知物体OB
J2が存在している場合を示している。図10(b)は
左の光検出器23aに生じている画像(以下、左画像と
いう)GLを示しており、GL1は被検知物体OBJ1
による部分画像を示し、GL2は被検知物体OBJ2に
よる部分画像を示し、GL3は被検知物体OBJ3によ
る部分画像を示し、GL4は被検知物体OBJ4による
部分画像を示している。また、図10(c)は右の光検
出器23bに生じている画像(以下、右画像という)G
Rを示しており、GR1は被検知物体OBJ1による部
分画像を示し、GR2は被検知物体OBJ2による部分
画像を示し、GR3は被検知物体OBJ3による部分画
像を示し、GR4は被検知物体OBJ4による部分画像
を示している。
According to the distance measuring device 21 shown in FIG.
As shown in (a), the distance to each of the detected objects can be measured even when there are a plurality of detected objects in the visual field. In FIG. 10A, two detected objects OBJ1 and OBJ4 are present at a distance L1 in the field of view, a detected object OBJ3 is present at a distance L2, and a detected object OB is present at a distance L3.
The case where J2 exists is shown. FIG. 10B shows an image (hereinafter, referred to as a left image) GL generated on the left photodetector 23a, and GL1 is a detected object OBJ1.
GL2 shows a partial image by the detected object OBJ2, GL3 shows a partial image by the detected object OBJ3, and GL4 shows a partial image by the detected object OBJ4. Further, FIG. 10C shows an image (hereinafter referred to as a right image) G generated on the right photodetector 23b.
R indicates GR, GR1 indicates a partial image by the detected object OBJ1, GR2 indicates a partial image by the detected object OBJ2, GR3 indicates a partial image by the detected object OBJ3, and GR4 indicates a part by the detected object OBJ4. The image is shown.

【0043】従来例で説明したとおり、各被検知物体の
距離が異なる場合には、各被検知物体毎に左右の部分画
像のずれ量も異なっている。そこで、例えば左画像に対
して、右画像を1画素分ずつずらしていき、各ずれ量に
おいて、左右画像の一致度の高い領域を切り出すことに
より、各被検知物体毎の画像領域を分離でき、その領域
内で位相差相関するウインドウを設定することにより各
被検知物体毎の距離を正確に計測することができる。以
下、この方法を具体的に説明する。
As described in the conventional example, when the distances between the detected objects are different, the deviation amounts of the left and right partial images are also different for each detected object. Therefore, for example, by shifting the right image by one pixel with respect to the left image and cutting out a region where the left and right images have a high degree of coincidence at each shift amount, the image region of each detected object can be separated, By setting a window having a phase difference correlation in that region, the distance for each detected object can be accurately measured. Hereinafter, this method will be specifically described.

【0044】図10(b)(c)に示すような左画像G
L及び右画像GRが得られると、まず、画像シフト処理
部24は光検出器23bから受け取った右画像GRを移
動させ、図11(a)に示すように、左画像GLの基準
線PAと右画像GRの基準線PBを一致させ、この状態
を右画像GRのずらし数の基準(原点)とする。つい
で、画像シフト処理部24は右画像GRを1画素ずらし
て(画像ずらし数N=1)一致度判定部25へ送信す
る。一致度判定部25は、光検出器23aから左画像G
Lを直接に受信すると共に、画像シフト処理部24から
1画素分ずらせた右画像GRを受信する。このときの左
右画像GL,GRを図11(b)に示す。一致度判定部
25は左右画像GL,GRを比較し、一致度の高い領域
を検索する。図11(b)の場合には、部分画像GL
1,GR1及びGL4,GR4の一致度が高くなってい
る。従って、一致度判定部25は、部分画像GL1,G
R1及びGL4,GR4が一致度の高い領域であると判
断し、相関演算部26へ当該情報を出力する。相関演算
部26は一致度判定部25から当該情報を受け取ると、
画像シフト処理部24から出力されている画像ずらし数
Nを読み取る。部分画像GL1,GR1及びGL4,G
R4が一致したときの画像ずらし数N=1が分かると、
画素ピッチをΔとして、ずれ量DはD=NΔ=Δとなる
ので、式により左右の部分画像GL1,GR1及びG
L4,GR4に対応する被検知物体OBJ1,OBJ4
までの距離L1が求められる。
Left image G as shown in FIGS. 10 (b) and 10 (c).
When the L and right images GR are obtained, first, the image shift processing unit 24 moves the right image GR received from the photodetector 23b, and the reference line PA of the left image GL is set as shown in FIG. The reference line PB of the right image GR is matched, and this state is used as the reference (origin) of the shift number of the right image GR. Next, the image shift processing unit 24 shifts the right image GR by one pixel (the number of image shifts N = 1) and transmits it to the matching degree determination unit 25. The coincidence determination unit 25 detects the left image G from the photodetector 23a.
In addition to directly receiving L, the right image GR shifted by one pixel from the image shift processing unit 24 is received. The left and right images GL and GR at this time are shown in FIG. The degree-of-coincidence determination unit 25 compares the left and right images GL and GR and searches for an area with a high degree of coincidence. In the case of FIG. 11B, the partial image GL
The degree of coincidence of 1, GR1 and GL4, GR4 is high. Therefore, the coincidence determination unit 25 determines that the partial images GL1 and G
It is determined that R1 and GL4, GR4 are regions with a high degree of coincidence, and the relevant information is output to the correlation calculation unit 26. When the correlation calculation unit 26 receives the information from the coincidence determination unit 25,
The image shift number N output from the image shift processing unit 24 is read. Partial images GL1, GR1 and GL4, G
If the image shift number N = 1 when R4 matches,
Since the pixel pitch is Δ and the shift amount D is D = NΔ = Δ, the left and right partial images GL1, GR1 and G are calculated by the equation.
Detected objects OBJ1 and OBJ4 corresponding to L4 and GR4
To the distance L1.

【0045】次に、画像シフト処理部24は右画像GR
をさらに1画素ずらして(画像ずらし数N=2)一致度
判定部25へ送信する。このとき一致度判定部25が受
信する左右画像GL,GRを図11(c)に示す。この
場合には、一致度の高い領域が存在していないので、一
致度判定部25は相関演算部26へ当該情報を送信す
る。
Next, the image shift processing section 24 determines the right image GR.
Is further shifted by one pixel (image shift number N = 2) and transmitted to the coincidence determination unit 25. The left and right images GL and GR received by the coincidence determination unit 25 at this time are shown in FIG. In this case, since there is no region with a high degree of coincidence, the degree-of-coincidence determination unit 25 transmits the information to the correlation calculation unit 26.

【0046】次に、画像シフト処理部24は右画像GR
をさらに1画素ずらして(画像ずらし数N=3)一致度
判定部25へ送信する。このとき一致度判定部25は図
12(d)に示すような左右画像GL,GRを受信して
比較するので、部分画像GL3及びGR3を一致度の高
い領域と判定し、相関演算部26へ当該情報を出力す
る。このとき相関演算部26は、画像シフト処理部24
から送信されている画像ずらし数N=3から、ずれ量D
=NΔ=3Δを求め、さらに部分画像GL3,GR3に
対応する被検知物体OBJ3までの距離L2を求める。
Next, the image shift processing section 24 determines the right image GR.
Is further shifted by 1 pixel (image shift number N = 3) and transmitted to the coincidence determination unit 25. At this time, the coincidence determination unit 25 receives and compares the left and right images GL and GR as shown in FIG. 12D, so that the partial images GL3 and GR3 are determined to be regions with high coincidence, and the correlation calculation unit 26 is instructed. Output the information. At this time, the correlation calculation unit 26 causes the image shift processing unit 24 to
From the image shift number N = 3 transmitted from
= NΔ = 3Δ is obtained, and further the distance L2 to the detected object OBJ3 corresponding to the partial images GL3 and GR3 is obtained.

【0047】次に、画像シフト処理部24は右画像GR
をさらに1画素ずらして(画像ずらし数N=4)一致度
判定部25へ送信する。このとき一致度判定部25が受
信する左右画像GL,GRを図12(e)に示す。この
場合には、一致度の高い領域が存在しないので、一致度
判定部25は相関演算部26へ当該情報を送信する。
Next, the image shift processing section 24 determines the right image GR.
Is further shifted by 1 pixel (image shift number N = 4) and transmitted to the coincidence determination unit 25. The left and right images GL and GR received by the coincidence determination unit 25 at this time are shown in FIG. In this case, since there is no region with a high degree of coincidence, the degree-of-coincidence determination unit 25 transmits the information to the correlation calculation unit 26.

【0048】次に、画像シフト処理部24は右画像GR
をさらに1画素ずらして(画像ずらし数N=5)一致度
判定部25へ送信する。このとき一致度判定部25は図
12(f)に示すような左右画像GL,GRを受信して
比較するので、部分画像GL2及びGR2を一致度の高
い領域と判定し、相関演算部26へ当該情報を出力す
る。相関演算部26は、画像シフト処理部24から送信
されている画像ずらし数N=5から、ずれ量D=NΔ=
5Δを求め、さらに部分画像GL2,GR2に対応する
被検知物体OBJ2までの距離L3を求める。
Next, the image shift processing section 24 determines the right image GR.
Is further shifted by one pixel (image shift number N = 5) and transmitted to the coincidence determination unit 25. At this time, the coincidence determination unit 25 receives and compares the left and right images GL and GR as shown in FIG. 12 (f), so it is determined that the partial images GL2 and GR2 are regions with high coincidence, and the correlation calculation unit 26 Output the information. The correlation calculation unit 26 calculates the shift amount D = NΔ = from the image shift number N = 5 transmitted from the image shift processing unit 24.
5Δ is obtained, and further the distance L3 to the detected object OBJ2 corresponding to the partial images GL2 and GR2 is obtained.

【0049】距離測定装置21は、上記のように右画像
GRを順次1画素ずつずらし、一致度の高い領域を判定
する処理を繰り返し、一致度の高い領域が存在する場合
には、該当する画像ずらし数Nから被検知物体までの距
離を求める。図13は図11(a)〜図12(f)の処
理の結果得られた画像ずらし数N(被検知物体の距離
L)と一致度の高い領域(画素ナンバー)との関係を示
す図であって、ハッチングを施した領域が一致度の高い
領域を示している。この図にも示されているように、被
検知物体までの距離として求められたL1,L2,L3
は出力回路27から距離データとして出力される。
The distance measuring device 21 sequentially shifts the right image GR one pixel at a time as described above, and repeats the process of determining the region with a high degree of coincidence. If there is a region with a high degree of coincidence, the corresponding image is detected. The distance from the shift number N to the detected object is calculated. FIG. 13 is a diagram showing a relationship between the image shift number N (distance L of the detected object) obtained as a result of the processing of FIGS. 11A to 12F and a region (pixel number) having a high degree of coincidence. Therefore, the hatched region indicates a region with a high degree of coincidence. As shown in this figure, L1, L2, L3 obtained as the distance to the detected object
Is output as distance data from the output circuit 27.

【0050】従来の位相差相関法では、左右画像全体を
最も一致させるように重ね合せ、そのときのずれ量から
被検知物体の距離を演算していたので、1つの距離デー
タしか出力することができず、視野内に複数の被検知物
体が存在する場合には距離測定装置からはいずれの被検
知物体の距離でもない距離データが出力され、測定誤差
が悪かった。これに対し、本発明の距離測定装置は、一
方の画像に対して他方の画像を順次ずらせていき、一方
の画像の一部でも他方の画像の一部とほぼ一致する領域
があれば、そのときのずれ量から被検知物体までの距離
を出力している。従って、複数の距離データを出力する
ことができ、しかも、複数の被検知物体に対応する各距
離データを正確に出力することが可能になる。
In the conventional phase-difference correlation method, the left and right images are superposed so as to best match each other, and the distance of the object to be detected is calculated from the deviation amount at that time. Therefore, only one distance data can be output. When there are a plurality of detected objects in the visual field, the distance measuring device outputs distance data which is not the distance of any detected object, and the measurement error is bad. On the other hand, the distance measuring device of the present invention sequentially shifts the other image with respect to one image, and if there is a region in which a part of one image substantially matches a part of the other image, The distance to the detected object is output from the time shift amount. Therefore, it is possible to output a plurality of distance data, and it is possible to accurately output each distance data corresponding to a plurality of detected objects.

【0051】(第2の実施形態)第1の実施形態では、
求めた被検知物体までの距離データ、例えばL1,L
2,L3を全て出力回路から出力するようにしたが、最
も近距離のデータ(つまり、もっともずれ量Dの大きな
距離データ)、例えばL3(<L2,L1)だけを出力
回路27から出力させるようにしてもよい。後に説明す
る車両用の距離測定装置のように、最も接近している被
検知物体(直前の前方車両や障害物等)のみを検出すれ
ばよい場合も多いからである。
(Second Embodiment) In the first embodiment,
Distance data to the detected object obtained, for example, L1, L
Although 2 and L3 are all output from the output circuit, only the shortest distance data (that is, the distance data having the largest displacement amount D), for example, L3 (<L2, L1) is output from the output circuit 27. You may This is because it is often the case that only the object to be detected (the preceding vehicle, the obstacle, etc. immediately before) needs to be detected, as in the case of a distance measuring device for a vehicle described later.

【0052】このためには、相関演算部26で全ての距
離データL1〜L3を求めた後、相関演算部26又は出
力回路27で最も近距離のデータL3を判別して出力さ
せるようにすればよい。
For this purpose, the correlation calculation unit 26 determines all distance data L1 to L3, and then the correlation calculation unit 26 or the output circuit 27 determines and outputs the shortest distance data L3. Good.

【0053】あるいは、被検知物体の距離が最も近い画
素領域についてのみ、演算するようにしてもよい。例え
ば、図11(a)に示すように左右画像GL,GRの基
準線PA,PBを一致させた後、右画像GRを大きくず
らせて十分に大きな画像ずらし数Nとし、そこから右画
像GRの画像ずらし数Nを1画素分ずつ減少させていっ
てもよい。すなわち、左右画像の一致度の高い領域を画
像ずらし数Nの大きな側から求めていき、画像ずらし数
Nが最も大きくて一致度の高い領域が見つかれば、その
ときの画像ずらし数Nから被検知物体までの距離を求め
て出力し、そこで処理を終了するようにしてもよい。こ
の方法によれば、最も近距離のデータを求めた後は、距
離測定装置の動作を終了するので、他の距離データを求
めることがなく、余分な演算処理を省き処理時間の高速
化につながる。
Alternatively, the calculation may be performed only for the pixel area where the distance to the detected object is the shortest. For example, as shown in FIG. 11A, after the reference lines PA and PB of the left and right images GL and GR are made to coincide with each other, the right image GR is largely shifted to a sufficiently large image shift number N from which the right image GR The image shift number N may be decreased by one pixel. That is, a region with a high degree of coincidence between the left and right images is obtained from the side with the largest number N of image shifts, and if a region with the largest number N of image shifts and a high degree of coincidence is found, the number N of image shifts at that time is detected. The distance to the object may be obtained and output, and the process may be ended there. According to this method, the operation of the distance measuring device is terminated after the data of the shortest distance is obtained, so that no other distance data is obtained, an extra calculation process is omitted, and the processing time is shortened. .

【0054】(第3の実施形態)図14は本発明のさら
に別な実施形態による距離測定装置の構成を示す図であ
る。この距離測定装置28にあっては、左右の光検出器
23a,23bから出力された画像信号GL,GRを微
分回路29a,29bにより微分した後、その微分画像
信号に基づいて第1の実施形態と同様にして距離データ
を求める。すなわち、左右の光検出器23a,23bで
図15(a)(b)に示すような画像GL,GRが得ら
れたとすると、各微分回路29a,29bは、左画像G
L及び右画像GRを微分して図15(c)(d)のよう
な微分画像DGL,DGRを出力する。画像シフト処理
部24は、微分回路29bから受信した右画像GRの微
分画像DGRを1画素分ずつずらし、一致度判定部25
は、画像シフト処理部24から受信した微分画像DGR
と微分回路29aから受信した左画像GLの微分画像D
GLとの一致度の高い領域を求める。そして、一致度の
高い領域が存在していると判定すると、相関演算部26
はそのときの画像ずらし数Nからずれ量Dを求め、被検
知物体の距離Lを演算して出力する。なお、この微分画
像は被検知物体のエッジ部分(両端の部分)を示すもの
である。
(Third Embodiment) FIG. 14 is a view showing the arrangement of a distance measuring apparatus according to another embodiment of the present invention. In the distance measuring device 28, the image signals GL and GR output from the left and right photodetectors 23a and 23b are differentiated by differentiating circuits 29a and 29b, and then the first embodiment is performed based on the differentiated image signals. Distance data is obtained in the same manner as. That is, assuming that the images GL and GR as shown in FIGS. 15A and 15B are obtained by the left and right photodetectors 23a and 23b, the differentiating circuits 29a and 29b generate the left image G.
The L and right images GR are differentiated and differential images DGL and DGR as shown in FIGS. 15C and 15D are output. The image shift processing unit 24 shifts the differential image DGR of the right image GR received from the differentiating circuit 29b by one pixel, and the coincidence determination unit 25.
Is the differential image DGR received from the image shift processing unit 24.
And the differential image D of the left image GL received from the differentiating circuit 29a.
A region having a high degree of agreement with GL is obtained. When it is determined that there is a region with a high degree of coincidence, the correlation calculation unit 26
Calculates the shift amount D from the image shift number N at that time, calculates the distance L of the detected object, and outputs it. It should be noted that this differential image shows the edge portions (both ends) of the detected object.

【0055】この実施形態にあっては、一致度判定部2
5では、左右画像GL,GRを微分した微分画像DG
L,DGR(光強度の微分値)の差分の絶対値が所定値
以下であるか否かを判定するので、左右の受光光学系の
ずれ等の影響により、左右の光検出器23a,23bに
おける光強度分布が違う場合でも、画像の変化特性だけ
を比較して一致度を検定することができ、一致度の判定
精度を高めることができる。
In this embodiment, the degree-of-coincidence determination unit 2
5, the differential image DG obtained by differentiating the left and right images GL and GR
Since it is determined whether or not the absolute value of the difference between L and DGR (differential value of light intensity) is less than or equal to a predetermined value, the left and right photodetectors 23a and 23b are affected by the shift of the left and right light receiving optical systems. Even if the light intensity distributions are different, it is possible to test the degree of coincidence by comparing only the change characteristics of the images, and it is possible to improve the accuracy of determination of the degree of coincidence.

【0056】(一致度の高い領域)第1の実施形態や第
3の実施形態においては、一致度の高い画像領域につい
て述べたが、左右画像(左右微分画像)の「一致度が高
い」とは、左右画像(を微分した左右微分画像)の差分
の絶対値が所定値以下であることをいう。第1の実施形
態の場合について具体的にいうと、図16(a)(b)
に示すように、一致度の高い領域Kとは、対応する画素
において左画像GLの示す光強度の値と右画像GRの示
す光強度の値との差分の絶対値が所定値ΔP以下である
領域を意味する。
(Highly Consistency Area) In the first and third embodiments, the image area having a high degree of coincidence has been described, but it is said that the left and right images (left and right differential images) have a “high degree of coincidence”. Means that the absolute value of the difference between the left and right images (the left and right differential images obtained by differentiating) is less than or equal to a predetermined value. To be more specific about the case of the first embodiment, FIGS.
As shown in FIG. 5, the area K having a high degree of coincidence has an absolute value of a difference between the light intensity value indicated by the left image GL and the light intensity value indicated by the right image GR in the corresponding pixel that is equal to or less than a predetermined value ΔP. Means an area.

【0057】同一の被検知物体に対する左右画像の高さ
(光強度)がほぼ等しい場合には、上記所定値ΔPを小
さな値に設定することにより、図11及び図12で説明
したように部分画像同士が一致した場合にだけ一致度の
高い領域Kが出力される。
When the heights (light intensities) of the left and right images with respect to the same object to be detected are substantially equal to each other, by setting the predetermined value ΔP to a small value, the partial images as described with reference to FIGS. 11 and 12 are obtained. The area K having a high degree of coincidence is output only when the areas coincide with each other.

【0058】しかし、一般的には、同一の被検知物体に
より生成された画像であっても、光学系の影響により、
左右画像GL,GRの高さ等は同じにならない。従っ
て、所定値ΔPの値はある程度の大きさを持たせる必要
がある。その場合には、図16(a)に示すように、部
分画像GL,GRどうしが一致しない場合にも一致度の
高い領域Kが出力される。
However, in general, even if the images are generated by the same object to be detected, due to the influence of the optical system,
The heights of the left and right images GL and GR are not the same. Therefore, the value of the predetermined value ΔP needs to have a certain size. In that case, as shown in FIG. 16A, even when the partial images GL and GR do not match, the region K having a high degree of matching is output.

【0059】さらには、所定値ΔPの値を非常に大きく
した場合として、図17(a)(b)に示すように、左
右画像GL,GRの重複した部分を一致度の高い領域K
として出力させることができる。この場合には、各画素
が(一定のしきい値以上の光強度の光を)受光している
か否かによって判定できる。この場合にも、図17
(a)に示すように部分画像GL,GRどうしが一致し
ない場合にも一致度の高い領域Kが出力される。
Further, when the value of the predetermined value ΔP is made extremely large, as shown in FIGS. 17A and 17B, the overlapping portion of the left and right images GL and GR is a region K having a high degree of coincidence.
Can be output as In this case, it can be determined by whether or not each pixel is receiving (light having a light intensity equal to or higher than a certain threshold value). Also in this case, FIG.
As shown in (a), even when the partial images GL and GR do not match, the region K having a high degree of matching is output.

【0060】このように部分画像同士が一致しない場合
にも一致度の高い領域Kが出力される場合には、以下の
ような処理を行なって部分画像が一致しているときの画
素ずらし数Nを確定する必要がある。例えば、部分画像
GL,GRどうしを順次画素ずらし数N1〜N5だけず
らしたとき、図18(a)〜(e)にハッチングを施し
た領域が一致度の高い領域Kとして出力されたとする。
これを画素ずらし数を縦軸にとって示したものが図19
である。ここで、図16(a)(b)または図17
(a)(b)から分かるように、部分画像GL,GRど
うしが一致しているときに出力される一致度の高い領域
Kの幅は、一致していないときに出力される一致度の高
い領域Kの幅よりも大きく、一致度の高い領域Kの幅は
部分画像GL,GRが一致しているときに最大となる。
従って、図19に示されている一致度の高い領域Kのう
ち縦軸方向に見て最も幅の大きなものに対応する画素ず
らし数N3およびN1を選択し、その距離を演算するこ
とにより被検知物体の距離を求めることができる。
As described above, when the area K having a high degree of coincidence is output even when the partial images do not coincide with each other, the number of pixel shifts N when the partial images coincide with each other is performed by performing the following processing. Need to be confirmed. For example, it is assumed that when the partial images GL and GR are sequentially shifted by the pixel shift numbers N1 to N5, the hatched regions in FIGS. 18A to 18E are output as the region K having a high degree of coincidence.
This is shown in FIG. 19 with the vertical axis representing the number of pixel shifts.
It is. Here, FIG. 16 (a) (b) or FIG.
As can be seen from (a) and (b), the width of the region K having a high degree of coincidence output when the partial images GL and GR coincide with each other has a high degree of coincidence outputted when they do not coincide. The width of the area K, which is larger than the width of the area K and has a high degree of coincidence, becomes maximum when the partial images GL and GR coincide with each other.
Therefore, the pixel shift numbers N3 and N1 corresponding to the largest width in the vertical axis direction among the regions K having a high degree of coincidence shown in FIG. 19 are selected and the distance is calculated to detect the detected object. The distance of an object can be calculated.

【0061】同様に、微分画像を扱う場合には、図20
(a)(b)に示すように、一致度の高い領域Kとは、
対応する画素において左微分画像DGLの示す光強度の
微分値と右微分画像DGRの示す光強度の微分値との差
分の絶対値が所定値ΔP以下である領域を意味する。
Similarly, when a differential image is to be handled, FIG.
As shown in (a) and (b), the region K having a high degree of coincidence is
In the corresponding pixel, it means a region in which the absolute value of the difference between the differential value of the light intensity indicated by the left differential image DGL and the differential value of the light intensity indicated by the right differential image DGR is equal to or smaller than a predetermined value ΔP.

【0062】このときにも、ΔPの値には、ある程度の
大きさを持たせる必要のあることがある。また、図21
(a)(b)に示すように、左右微分画像DGL,DG
Rの重複した部分を一致度の高い領域Kとして出力させ
ることができる。これらの場合にも、図20(a)及び
図21(a)に示すように微分部分画像DGL,DGR
どうしが一致しない場合にも一致度の高い領域Kが出力
される。
Also at this time, the value of ΔP may need to have a certain magnitude. FIG.
As shown in (a) and (b), the left and right differential images DGL, DG
The overlapping portion of R can be output as the area K having a high degree of coincidence. Also in these cases, the differential partial images DGL and DGR as shown in FIGS.
Even if they do not match, the area K with a high degree of matching is output.

【0063】従って、これらの場合にも、通常の部分画
像の場合と同様に処理すればよい。すなわち、微分部分
画像DGL,DGRどうしを順次画素ずらし数N1〜N
5だけずらしたとき、図22(a)〜(e)にハッチン
グを施した領域が一致度の高い領域Kとして出力され、
画素ずらし数を縦軸にとって示すと図23に示すように
なったとすると、一致度の高い領域Kのうち最も幅の大
きなものに対応する画素ずらし数N3およびN1を選択
し、その距離を演算することにより被検知物体の距離を
求めることができる。
Therefore, in these cases, the same processing as in the case of the normal partial image may be performed. That is, the differential partial images DGL and DGR are sequentially pixel-shifted from N1 to N.
When shifted by 5, the hatched area in FIGS. 22A to 22E is output as the area K having a high degree of coincidence,
If the pixel shift number is plotted on the vertical axis as shown in FIG. 23, the pixel shift numbers N3 and N1 corresponding to the widest one of the regions K having a high degree of coincidence are selected, and the distance is calculated. Thus, the distance of the detected object can be obtained.

【0064】(第4の実施形態)図24は本発明のさら
に別な実施形態による距離測定装置30の構成を示す図
である。この距離測定装置30にあっては、左右の光検
出器23a,23bから出力された画像GL,GRの極
値(極大値、極小値及び停留値)を検出するための極値
検出部31a,31bを備えている。しかして、図25
に示すように、各極値検出部31a,31bによって各
光検出器23a,23b上の画像GL,GRの極値点
(図25に白点と黒点で示す)を求めた後、画像シフト
処理部24によって右画像GRを1画素ずつずらし、一
致判定部25で左右画像GL,GRの極値点が一致する
領域を求め、相関演算部26において極値点が一致する
ときの画像ずらし数Nから被検知物体の距離を求める。
この実施形態によれば、光学系のずれ等の影響による光
量分布の違いにも対応できる。
(Fourth Embodiment) FIG. 24 is a diagram showing the structure of a distance measuring device 30 according to still another embodiment of the present invention. In this distance measuring device 30, the extreme value detection unit 31a for detecting the extreme values (maximum value, minimum value and stationary value) of the images GL and GR output from the left and right photodetectors 23a and 23b, 31b is provided. Then, as shown in FIG.
As shown in FIG. 25, after the extreme value detectors 31a and 31b find the extreme points (indicated by white and black dots in FIG. 25) of the images GL and GR on the photodetectors 23a and 23b, the image shift processing is performed. The right image GR is shifted pixel by pixel by the unit 24, the matching determination unit 25 obtains an area where the extreme points of the left and right images GL and GR match, and the correlation calculation unit 26 shifts the number N of image shifts when the extreme points match. The distance of the detected object is calculated from
According to this embodiment, it is possible to deal with the difference in the light amount distribution due to the influence of the deviation of the optical system.

【0065】この実施形態は、図26に示すように、画
像領域のずれ量と極値点とのずれ量Mとが一致するとい
うことに基づいているが、極値点が一致するとは厳密に
一致する場合に限らず、図27に破線で囲んだ部分のよ
うに一定の距離以内にある場合も含む。
This embodiment is based on the fact that the shift amount of the image area and the shift amount M of the extreme point coincide with each other, as shown in FIG. Not only the case where they match, but also the case where they are within a certain distance like the part surrounded by the broken line in FIG.

【0066】図28(a)〜(e)は左右画像GL,G
RどうしをN1〜N5ずらして極値点の一致する領域K
を検索する様子を説明する図であって、図29はこの検
索結果を示す図である。この場合にも、図27から分か
るように、左右画像GL,GRが一致している時に極値
点の一致する領域Kの幅が最大となるから、図29から
分かるように画素ずらし数N1及びN3が選択され、こ
れから被検知物体までの距離が求められる。
28A to 28E show left and right images GL, G.
Area K in which extreme points coincide with each other by shifting R from N1 to N5
FIG. 29 is a diagram for explaining how to search for, and FIG. 29 is a diagram showing the search result. Also in this case, as can be seen from FIG. 27, when the left and right images GL and GR are coincident with each other, the width of the region K in which the extreme points are coincident with each other becomes maximum, so that the pixel shift number N1 and N3 is selected, and the distance to the detected object is obtained from this.

【0067】(第5の実施形態)図30は本発明のさら
に別な実施形態による距離測定装置を説明する図であ
る。上記各実施形態では、いずれも被検知物体の距離だ
けを検出しているが、この実施形態においては、被検知
物体の距離と共に被検知物体の方向も検出している。す
なわち、図30に示すように、被検知物体OBJは光検
出器23a,23b上の画像GL,GRの重心とレンズ
22a,22bの中心を結んだ方向において距離Lの位
置に存在するから、光検出器23a,23b上の画像G
L,GRの重心位置の座標がそれぞれX1,X2であると
すると、レンズ22a,22bの中心から被検知物体O
BJに向けて引いた被検知物体OBJの方向θは、 tanθ=(2LX1−fQ)/2fL =−(2LX2−fQ)/2fL より求められる。この式に従って、相関演算部26等で
被検知物体OBJの方向θを演算し、出力回路27から
距離Lと方向θを出力する。
(Fifth Embodiment) FIG. 30 is a view for explaining a distance measuring device according to still another embodiment of the present invention. In each of the above embodiments, only the distance of the detected object is detected, but in this embodiment, the direction of the detected object is detected together with the distance of the detected object. That is, as shown in FIG. 30, the detected object OBJ exists at the position of the distance L in the direction connecting the center of gravity of the images GL and GR on the photodetectors 23a and 23b and the centers of the lenses 22a and 22b. Image G on the detectors 23a and 23b
Assuming that the coordinates of the center of gravity positions of L and GR are X 1 and X 2 , respectively, the detected object O from the centers of the lenses 22a and 22b.
The direction θ of the detected object OBJ drawn toward BJ is obtained from tan θ = (2LX 1 −fQ) / 2fL = − (2LX 2 −fQ) / 2fL. According to this equation, the correlation calculator 26 or the like calculates the direction θ of the detected object OBJ, and the output circuit 27 outputs the distance L and the direction θ.

【0068】(第6の実施形態)また、距離測定装置に
より、被検知物体OBJの距離L(及び方向θ)と共に
被検知物体の寸法(大きさ)も検出できる。被検知物体
OBJの距離Lが求まれば、被検知物体OBJの大きさ
Eは、図31に示す相似の関係より、 E=(L/f)e より求めることができる。ここで、eはいずれかの光検
出器23a又は23b上に生じている被検知物体OBJ
の画像GL又はGRの幅(あるいは、両光検出器23
a,23b上の画像GL,GRの幅の平均値)である。
(Sixth Embodiment) In addition, the distance measuring device can detect the distance L (and direction θ) of the object OBJ to be detected as well as the size (size) of the object to be detected. If the distance L of the detected object OBJ is obtained, the size E of the detected object OBJ can be obtained from E = (L / f) e from the similarity relationship shown in FIG. Here, e is a detected object OBJ generated on either photodetector 23a or 23b.
Width of the image GL or GR (or both photodetectors 23
a, the average value of the widths of the images GL and GR on 23b).

【0069】(第7の実施形態)図32は本発明のさら
に別な実施形態による距離測定装置32の構成を示すブ
ロック図である。33a,33bは一致度判定部25に
よって一致度が高いと判定された左部分画像と右部分画
像を取り出す切り出し部である。すなわち、画像シフト
処理部24によって1画素ずつずらし、一致度判定部2
5により左右画像のある部分画像が一致度が高いと判定
されると、左画像のうちから当該左部分画像が切り出し
部33aへ切り出され、同時に右画像のうちから当該右
部分画像が切り出し部33bへ切り出される。34は一
方の切り出し部33aへ切り出された左部分画像のうち
から、所定の条件(抽出条件)を満足する特徴部分(以
下、抽出部分画像という)を抽出する抽出部である。3
5は他方の切り出し部33bへ切り出された右部分画像
のうちから、抽出部34により抽出された抽出部分と相
関の強い部分(以下、選択部分画像という)を選択する
選択部である。ここでいう、抽出部分画像と選択部分画
像の相関が強いという意味については、後述の各実施形
態によって明らかにする。しかして、相関演算部26
は、抽出部分画像と選択部分画像のずれ量Dを求め、該
ずれ量Dに基づいて被検知物体までの距離を演算し、出
力回路27から求めた距離データを出力する。
(Seventh Embodiment) FIG. 32 is a block diagram showing the configuration of a distance measuring device 32 according to still another embodiment of the present invention. Reference numerals 33a and 33b are cutout units that extract the left partial image and the right partial image that are determined to have a high degree of coincidence by the degree of coincidence determination unit 25. That is, the image shift processing unit 24 shifts the pixel by one pixel, and the matching degree determination unit 2
When it is determined by 5 that the partial images having the left and right images have a high degree of coincidence, the left partial image is cut out from the left image to the cutout unit 33a, and at the same time, the right partial image is cutout from the right image 33b. Is cut out to. An extraction unit 34 extracts a characteristic portion (hereinafter, referred to as an extracted partial image) that satisfies a predetermined condition (extraction condition) from the left partial image cut out to one cutout unit 33a. 3
A selection unit 5 selects a portion (hereinafter, referred to as a selected partial image) having a strong correlation with the extracted portion extracted by the extracting unit 34 from the right partial image cut out to the other cutout unit 33b. The meaning of the strong correlation between the extracted partial image and the selected partial image here will be clarified by each embodiment described later. Then, the correlation calculator 26
Calculates the distance D between the extracted partial image and the selected partial image, calculates the distance to the detected object based on the deviation D, and outputs the calculated distance data from the output circuit 27.

【0070】上記距離測定装置32によれば、視野内に
複数の被検知物体が存在している場合にも各被検知物体
の距離を分離して検出し、さらに各検知物体の表面の凹
凸までも検出することができる。いま、視野内に複数の
被検知物体が存在し、光検出器23a,23b上に左画
像と右画像が生じているとする。画像シフト処理部24
により右画像を順次ずらせていって、ある画素ずらし数
となったとき、図33(a)に示すように左部分画像G
L1,GL2と右部分画像GR1,GR2がそれぞれ一
致度が高いと判定されたとする(この段階で、画素ずら
し数から当該被検知物体までの距離を求めてもよい)。
従って、この左部分画像GL1,GL2と右部分画像G
R1,GR2は同一の被検知物体による画像であると判
断され、左部分画像GL3と右部分画像GR3は別な部
分画像であると判断される。しかして、ある画素ずらし
数で一致度が高いと判定された左部分画像GL1,GL
2は切り出し部33aへ切り出され(図33(b))、
右部分画像GR1,GR2は切り出し部33bへ切り出
される(図33(c))。抽出部34は、切り出し部3
3aに生成している左部分画像GL1,GL2のうちか
ら抽出条件を満足する部分、例えば図34(a)に示す
ように左部分画像GL1を抽出し、選択部35に該情報
を送信する。選択部35は、切り出し部33bに生成し
ている右部分画像GR1,GR2を検索し、図34
(b)に示すように、抽出部分画像GL1と相関の強い
部分画像GR1を選択する。ついで、相関演算部26は
抽出部分画像GL1と選択部分画像GR1のずれ量を求
める。例えば、図34(c)に示すように、抽出部分画
像GL1と選択部分画像GR1を最も一致させたときの
基準線PA及びPBの距離からずれ量D1を求める。つ
いで、相関演算部26は式に基づいて、求めたずれ量
D1から被検知物体の該当箇所までの距離L1を算出す
る。
According to the distance measuring device 32, even when a plurality of objects to be detected exist in the field of view, the distances of the respective objects to be detected are detected separately, and even the unevenness of the surface of each object is detected. Can also be detected. Now, it is assumed that there are a plurality of detected objects in the field of view and a left image and a right image are generated on the photodetectors 23a and 23b. Image shift processing unit 24
When the right image is sequentially shifted by, and a certain pixel shift number is reached, the left partial image G is displayed as shown in FIG.
It is assumed that L1 and GL2 and the right partial images GR1 and GR2 are determined to have a high degree of coincidence (at this stage, the distance to the detected object may be obtained from the pixel shift number).
Therefore, the left partial images GL1 and GL2 and the right partial image G
It is determined that R1 and GR2 are images of the same detected object, and the left partial image GL3 and the right partial image GR3 are different partial images. Then, the left partial images GL1 and GL determined to have a high degree of coincidence with a certain pixel shift number.
2 is cut out to the cutout portion 33a (FIG. 33 (b)),
The right partial images GR1 and GR2 are cut out to the cutout portion 33b (FIG. 33 (c)). The extraction unit 34 includes the cutout unit 3
A part satisfying the extraction condition, for example, the left partial image GL1 as shown in FIG. 34A is extracted from the left partial images GL1 and GL2 generated in 3a, and the information is transmitted to the selection unit 35. The selection unit 35 searches the right partial images GR1 and GR2 generated in the cutout unit 33b, and
As shown in (b), the partial image GR1 having a strong correlation with the extracted partial image GL1 is selected. Then, the correlation calculation unit 26 obtains the shift amount between the extracted partial image GL1 and the selected partial image GR1. For example, as shown in FIG. 34C, the shift amount D1 is obtained from the distance between the reference lines PA and PB when the extracted partial image GL1 and the selected partial image GR1 are best matched. Then, the correlation calculation unit 26 calculates the distance L1 from the calculated displacement amount D1 to the corresponding position of the detected object based on the equation.

【0071】同様に、図35(a)に示すように、切り
出し部33aに生成している左部分画像GL1,GL2
のうちから左部分画像GL2を抽出し、図35(b)に
示すように選択部15により抽出部分画像GL2と相関
の強い右部分画像GR2を選択し、ついで、相関演算部
26において、図35(c)に示すように、抽出部分画
像GL2と選択部分画像GR2を最も一致させたときの
基準線PA及びPBの距離からずれ量D2を求めれば、
被検知物体の該当箇所までの距離L2を算出することが
できる。
Similarly, as shown in FIG. 35 (a), left partial images GL1 and GL2 generated in the cutout portion 33a.
35, the left partial image GL2 is extracted, and the selecting unit 15 selects the right partial image GR2 having a strong correlation with the extracted partial image GL2, as shown in FIG. As shown in (c), if the deviation amount D2 is obtained from the distance between the reference lines PA and PB when the extracted partial image GL2 and the selected partial image GR2 are best matched,
It is possible to calculate the distance L2 to the relevant location of the detected object.

【0072】この距離測定装置32では、被検知物体の
左画像のうち一定の抽出条件を満足する抽出部分画像を
抽出し、右画像のうち抽出部分画像と相関の強い部分画
像を選択し、抽出部分画像と選択部分画像だけを考慮し
て相関演算しているので、上記抽出条件で特徴づけられ
る被検知物体の一部分のみを分離してその距離を求める
ことができる。従って、被検知物体の凹凸1つ1つの距
離を精度よく計測できる。あるいは、接近した複数の被
検知物体を高分解能で検知することができる。
In this distance measuring device 32, an extracted partial image satisfying a certain extraction condition is extracted from the left image of the detected object, and a partial image having a strong correlation with the extracted partial image is selected from the right image and extracted. Since the correlation calculation is performed considering only the partial image and the selected partial image, it is possible to separate only a part of the detected object characterized by the above extraction condition and obtain the distance. Therefore, it is possible to accurately measure the distance of each unevenness of the detected object. Alternatively, it is possible to detect a plurality of approaching detected objects with high resolution.

【0073】より具体的にいうと、抽出部34により用
いられる抽出条件としては、画像の極値(極大値、極小
値あるいは停留値)から隣接する極値(極小値、極大値
あるいは停留値)までの区間の部分画像という条件を用
いることができる。例えば、図36(a)(b)に示す
ような左部分画像GL1と右部分画像GR1が切り出し
部33a,33bに切り出されたとすると、抽出部34
は左部分画像GL1から極大値から極小値までの部分画
像、例えば36a(太線で示す部分)を抽出し、他の部
分画像や背景ノイズをカットして図36(c)のように
部分画像36a以外の部分を補間した抽出部分画像37
aを生成する。一方、選択部35は右部分画像GR1か
ら対応する部分画像36b(太線で示す部分)を選択
し、他の部分画像や背景ノイズをカットして図36
(d)のように部分画像36b以外の部分を補間した選
択部分画像37bを生成する。そして、相関演算部26
は図36(c)(d)の抽出部分画像37a及び選択部
分画像37bに基づいて当該部分の距離を求める。この
ような抽出及び選択操作を繰り返して距離を演算するこ
とにより、図36(a)(b)に示す部分画像GL1,
GR1で特徴づけられる被検知物体の各部分の凹凸が検
出される。
More specifically, the extraction conditions used by the extraction unit 34 are as follows: from the extreme value (maximum value, minimum value or stationary value) of the image to the adjacent extreme value (local minimum value, maximum value or stationary value). It is possible to use the condition of a partial image in the section up to. For example, if the left partial image GL1 and the right partial image GR1 as shown in FIGS. 36A and 36B are cut out by the cutout units 33a and 33b, the extraction unit 34 will be described.
Is a partial image from the left partial image GL1 from the maximum value to the minimum value, for example, 36a (the portion indicated by the thick line), and the other partial images and background noise are cut to remove the partial image 36a as shown in FIG. Extracted partial image 37 in which other parts are interpolated
Generate a. On the other hand, the selection unit 35 selects the corresponding partial image 36b (the portion indicated by the thick line) from the right partial image GR1 and cuts the other partial images and background noise, as shown in FIG.
As in (d), a selected partial image 37b is generated by interpolating a portion other than the partial image 36b. Then, the correlation calculation unit 26
Calculates the distance of the part based on the extracted partial image 37a and the selected partial image 37b of FIGS. By calculating the distance by repeating such an extraction and selection operation, the partial images GL1 and GL1 shown in FIGS.
The unevenness of each part of the detected object characterized by GR1 is detected.

【0074】特に、被検知物体の凹凸は、画像において
光強度分布波形が極値点から極値点までの区間で表わさ
れるので、所定の条件を満足する部分画像として、極値
点から次の極値点までの区間の部分画像とすることで、
被検知物体の凹凸1つ1つの距離を精度よく計測でき
る。
Particularly, since the unevenness of the detected object is represented by the section of the light intensity distribution waveform from the extreme point to the extreme point in the image, a partial image satisfying a predetermined condition is defined as follows from the extreme point. By making it a partial image of the section up to the extreme point,
It is possible to accurately measure the distance of each unevenness of the detected object.

【0075】また、例えば、車両のテールランプ等の輝
度の高い被検知物体の距離を算出する場合には、光の指
向性などの影響により、2つの切り出し部33a,33
bからの出力(左部分画像GL1,右部分画像GR1)
に光量差が生じる場合がある。このとき2つの切り出し
部33a,33bより供給される左右部分画像GL1,
GR1から抽出/選択されたある1組の抽出/選択部分
画像から求めた被検知物体の距離と、異なる1組の抽出
/選択部分画像から求めた被検知物体の距離とが等しく
ならず、光量差による影響で違った距離を算出してしま
う恐れがある。
Further, for example, when calculating the distance of a high-brightness detected object such as a tail lamp of a vehicle, the two cutout portions 33a, 33 are affected by the directivity of light.
Output from b (left partial image GL1, right partial image GR1)
There may be a difference in the amount of light. At this time, the left and right partial images GL1, supplied from the two cutout portions 33a, 33b
The distance of the detected object obtained from one set of extracted / selected partial images extracted / selected from GR1 and the distance of the detected object obtained from a different set of extracted / selected partial images are not equal, There is a risk that different distances will be calculated due to the influence of the difference.

【0076】このように被検知物体の輝度が高く、かつ
各抽出/選択部分画像による距離が等しいことが分かっ
ている場合には、各抽出/選択部分画像から求めたずれ
量を平均し、平均したずれ量を用いて距離を求めるとよ
い。これにより、画像の光量差によるずれを補正するこ
とができ、正しい距離を出力できる。
As described above, when it is known that the brightness of the detected object is high and the distances between the extracted / selected partial images are equal, the deviation amounts obtained from the extracted / selected partial images are averaged, and the average is averaged. The distance may be obtained by using the deviation amount. As a result, it is possible to correct the shift of the image due to the difference in the light amount and output the correct distance.

【0077】(第8の実施形態)例えば電気的ノイズや
光学的擾乱等の影響により、距離測定装置32がデータ
出力不良を発生する場合がある。例えば、電気的ノイズ
や光学的擾乱等により、切り出し部33a,33bに生
じる部分画像(光強度分布)には、図37(a)に示す
ように、ノイズ成分38が発生することがある。このた
め、第7の実施形態のような処理方法のみでは、ノイズ
成分38に対して相関演算を行なう結果、実際には被検
知物体が存在しないような距離データを出力してしまう
恐れがある。
(Eighth Embodiment) For example, the distance measuring device 32 may cause a data output failure due to the influence of electrical noise, optical disturbance, or the like. For example, a noise component 38 may occur in the partial image (light intensity distribution) generated in the cutout portions 33a and 33b due to electrical noise, optical disturbance, or the like, as shown in FIG. 37 (a). Therefore, with only the processing method as in the seventh embodiment, as a result of performing the correlation calculation on the noise component 38, there is a possibility that the distance data in which the detected object does not actually exist may be output.

【0078】このため、この実施形態では、抽出部34
における抽出条件を、画像の極値(極大値、極小値ある
いは停留値)から隣接する極値(極小値、極大値あるい
は停留値)までの区間の部分画像であって、その区間の
幅(以下、エッジ幅という)Wが所定値以上であるもの
と定義する。すなわち、第7の実施形態における抽出条
件に、部分画像の幅(エッジ幅)Wが所定値以上である
点を加重し、小さなエッジ幅のものは抽出しないように
している。従って、図37(a)の画像から抽出部14
により部分画像を抽出すると、図37(b)のような部
分画像39〜45が抽出され、ノイズによる影響を除去
して正確な距離データを出力できる。
Therefore, in this embodiment, the extraction unit 34
The extraction condition in is the partial image of the section from the extreme value (maximum value, minimum value or stationary value) of the image to the adjacent extreme value (local minimum value, maximum value or stationary value), and the width of that section (below , Edge width) W is greater than or equal to a predetermined value. That is, the extraction condition in the seventh embodiment is weighted at the point where the width (edge width) W of the partial image is equal to or larger than a predetermined value, and the small edge width is not extracted. Therefore, the extraction unit 14 from the image of FIG.
When the partial image is extracted by, the partial images 39 to 45 as shown in FIG. 37B are extracted, and the influence of noise can be removed to output accurate distance data.

【0079】ここでエッジ幅Wの限度を与える所定値は
実験的に定めることができる。すなわち、最も急峻なエ
ッジ(例えば、白色面と黒色面との境界)を有するテス
ト用サンプルを距離測定装置32からの距離(設定距
離)を変えて配置し、そのとき当該テスト用サンプルの
エッジにより得られる画像のエッジ幅を測定しておく。
図38に示すものは、このようにして得られた設定距離
−エッジ幅特性である。しかして、検出しようとする被
検知物体の設定距離に応じて図38より必要最低限のエ
ッジ幅Wを読み取り、当該エッジ幅もしくはそれよりも
若干小さな値に所定値を設定しておき、それよりも小さ
なエッジ幅の部分は抽出部34により抽出しないように
する。このようにして所定値を設定すれば、最も急峻な
エッジによる部分画像は抽出部34により抽出すること
ができるが、電気的ノイズ等の影響によるスパイク状の
部分画像は抽出しないようにでき、被検知物体までの誤
測距を防止できる。
Here, the predetermined value which gives the limit of the edge width W can be experimentally determined. That is, the test sample having the steepest edge (for example, the boundary between the white surface and the black surface) is arranged by changing the distance (set distance) from the distance measuring device 32, and then the edge of the test sample is changed. The edge width of the obtained image is measured.
FIG. 38 shows the set distance-edge width characteristic thus obtained. Then, the necessary minimum edge width W is read from FIG. 38 according to the set distance of the detected object to be detected, and the predetermined value is set to the edge width W or a value slightly smaller than that edge width. The extraction unit 34 does not extract a portion having a small edge width. By setting the predetermined value in this way, the partial image with the steepest edge can be extracted by the extraction unit 34, but the spike-shaped partial image due to the influence of electrical noise or the like can be prevented from being extracted. It is possible to prevent erroneous distance measurement to a detected object.

【0080】なお、ここでは抽出部34により抽出され
るものが極値から極値までの区間の部分画像である場合
について、所定値以下の幅のものは抽出しないようにし
たが、以下に説明するような他の抽出条件の場合におい
ても、所定値以下又は以上のものを抽出しないようにし
てもよい。
It should be noted that, here, in the case where the extraction unit 34 extracts a partial image in the section from the extreme value to the extreme value, the image having the width less than the predetermined value is not extracted. Even in the case of other extraction conditions such as those described above, it is possible not to extract those that are equal to or less than or equal to a predetermined value.

【0081】(第9の実施形態)図39(a)は、画像
シフト処理部24により右画像GRをN1画素だけずら
せた状態で、一致度判定部25において左右画像GL,
GRの一致度の高い領域を比較している状態を示してい
る。この左右画像GL,GRのうち一致度の高い状態が
切り出し部33a,33bへ切り出される。図39
(b)は切り出し部33a,33bへ切り出された左右
部分画像GL1,GR1を基準線PA,PBを一致させ
た状態で示している。ついで抽出部34は、左部分画像
GL1のうちで極値点から極値点までの任意の抽出部分
画像46を抽出し、選択部35は対応する選択部分画像
を右部分画像GR1から選択する。
(Ninth Embodiment) In FIG. 39A, the right image GR is shifted by N1 pixels by the image shift processing unit 24, and the left and right images GL,
It shows a state in which regions with a high degree of GR coincidence are being compared. The state in which the degree of coincidence is high among the left and right images GL and GR is cut out to the cutout portions 33a and 33b. FIG.
(B) shows the left and right partial images GL1 and GR1 cut out to the cutout portions 33a and 33b with the reference lines PA and PB aligned. Then, the extraction unit 34 extracts an arbitrary extracted partial image 46 from the extreme point to the extreme point in the left partial image GL1, and the selecting unit 35 selects the corresponding selected partial image from the right partial image GR1.

【0082】ここで、左右部分画像GL1とGR1は、
画像シフト処理部24と一致度判定部25により一致度
を調べた際に画素ずらし数がN1として切り出されたも
のであるから、そこから抽出された抽出部分画像46と
対応する選択部分画像47も画像ずらし数がN1となっ
ている筈である。従って、これを選択部35において相
関の強さを判定する基準として用いることができる。す
なわち、抽出部分画像46に対して画素を単位とするず
らし数がN1から比較的大きく隔たっている部分画像4
7,49〜52は選択部分画像でなく、画素を単位とし
てほぼN1(数画素の幅を持たせてもよい)だけずれて
いる部分画像48が対応する選択部分画像であるとして
選択部35により選択する。
Here, the left and right partial images GL1 and GR1 are
Since the pixel shift number is cut out as N1 when the matching degree is checked by the image shift processing section 24 and the matching degree determination section 25, the selected partial image 47 corresponding to the extracted partial image 46 extracted therefrom is also extracted. The number of image shifts should be N1. Therefore, this can be used as a criterion for determining the strength of the correlation in the selection unit 35. That is, with respect to the extracted partial image 46, the partial image 4 in which the number of shifts in units of pixels is relatively far from N1.
7, 49 to 52 are not the selected partial images, and the partial image 48 deviated by about N1 (may have a width of several pixels) in units of pixels is the selected partial image corresponding to the selected partial image. select.

【0083】なお、このような条件は単独で選択条件と
するのでなく、他の選択条件の付加条件としてもよい。
Note that such a condition may not be a selection condition by itself, but may be an additional condition of another selection condition.

【0084】このようにして選択部35で選択部分画像
を特定する際に、画素ずらし数を考慮してその後の位相
差相関処理を行なえば、例えば繰り返し周期の部分画像
に対しても部分画像どうしの誤相関を防止することがで
きる。
In this way, when the selecting unit 35 specifies the selected partial image, if the subsequent phase difference correlation processing is performed in consideration of the number of pixel shifts, for example, even partial images with a repetition period are not separated from each other. Can be prevented.

【0085】(第10の実施形態)被検知物体までの距
離を相関演算により求めるには、従来例でも説明したよ
うに、2つの部分画像が重なり合わない面積(以下、相
関面積値という)が最小となるときのずれ量Dから算出
される。ところが、例えば光学ズレの影響により左右の
光検出器23a,23bで光強度分布が違い、図40
(a)に示すように、左部分画像53のコントラストC
Lと右部分画像54のコントラストCRが異なると、左
右の部分画像53,54のコントラストCL,CRの違
いから2つの部分画像53,54の相関面積値が最小と
なる点(面積最小点という)と画像が最も重なりあう点
とが一致せず(図40(b))、そのため間違った距離
を算出してしまう場合がある。これを解決するために
は、図40(a)に破線55で示すように一方の光検出
器23a又は23bから出力される部分画像、例えば5
4の光強度分布を補正して、両画像53,55のコント
ラストを一致させるとよい。このようにすれば、両部分
画像の相関面積値が最小となる点を正しく検出できる
(図40(c))。
(Tenth Embodiment) To obtain the distance to the object to be detected by the correlation calculation, as described in the conventional example, the area where the two partial images do not overlap (hereinafter referred to as the correlation area value) is determined. It is calculated from the amount of deviation D when it becomes the minimum. However, for example, the light intensity distributions of the left and right photodetectors 23a and 23b are different due to the influence of optical misalignment.
As shown in (a), the contrast C of the left partial image 53
When the contrast CR between L and the right partial image 54 is different, the correlation area value between the two partial images 53 and 54 becomes minimum due to the difference in contrast CL and CR between the left and right partial images 53 and 54 (referred to as the area minimum point). There is a case where the point where the images overlap each other does not match (FIG. 40 (b)), and therefore an incorrect distance may be calculated. In order to solve this, a partial image output from one photodetector 23a or 23b as shown by a broken line 55 in FIG.
It is advisable to correct the light intensity distribution of No. 4 so that the contrasts of both images 53 and 55 match. By doing so, the point where the correlation area value of both partial images becomes the minimum can be correctly detected (FIG. 40 (c)).

【0086】(第11の実施形態)図41(a)〜
(d)に示すものは本発明のさらに別な実施形態を説明
する図である。いま、抽出部34で抽出された左部分画
像GL1と選択部35で選択された右部分画像GR1を
補間(図36参照)し、さらにコントラストを一致させ
たものを図41(a)に示す。このようにコントラスト
を一致させた左右部分画像GL1,GR1では、左右部
分画像のうちどちらか一方の部分画像をずらしていくと
き、図41(d)に示すように、左右部分画像GL1,
GR1が最も一致する画素ずらし数で左右部分画像GL
1,GR1の相関面積値Sが最低になり、そこから所定
数だけ離れたところでは、左右部分画像GL1,GR1
のコントラストが一致しているため、画素ずらし数が大
きくなっても小さくなっても相関面積値Sは線形に増大
する。この性質を利用すれば、以下に説明するようにし
て、相関面積値Sが最小になる画素ずらし数を計算によ
って求めることができる。
(Eleventh Embodiment) FIG. 41 (a)-
What is shown in (d) is a view for explaining still another embodiment of the present invention. FIG. 41 (a) shows an image in which the left partial image GL1 extracted by the extracting unit 34 and the right partial image GR1 selected by the selecting unit 35 are interpolated (see FIG. 36) and the contrasts are matched. In the left and right partial images GL1 and GR1 in which the contrasts are matched in this way, when one of the left and right partial images is shifted, as shown in FIG.
The left and right partial images GL with the number of pixel shifts in which GR1 is most matched
1 and GR1 have the lowest correlation area value S, and when the distance S is a predetermined number, the left and right partial images GL1 and GR1
Since the contrasts of A and B match, the correlation area value S increases linearly regardless of whether the pixel shift number is large or small. By utilizing this property, the pixel shift number that minimizes the correlation area value S can be obtained by calculation as described below.

【0087】すなわち、例えば図41(b)に示すよう
に、右部分画像GR1を左部分画像GL1から比較的大
きく左方向へずらした(画素ずらし数n1)ときの相関
面積値がS1、図41(c)に示すように、右部分画像
GR1を左部分画像GL1から比較的大きく右方向へず
らした(画素ずらし数n2)ときの相関面積値がS2で、
1画素だけずらしたときの相関面積値の変化がΔSであ
ったとすると、画素ずらし数nと相関面積値Sとの関係
は、次式で表わされる。 S=−ΔS(n−n1)+S1 S=ΔS(n−n2)+S2 この2直線を図41(d)に表わす。この2直線の交点
における画素ずらし量(計算上求められるもので、整数
に限らない)を求めると、相関面積値Sが最小となると
きの左右部分画像GL1,GR1の小数ずれまでの詳細
なずれ量Dを求めることができ、高速で精度の高い距離
計測を実現できる。
That is, as shown in FIG. 41B, for example, the correlation area value when the right partial image GR1 is shifted relatively leftward from the left partial image GL1 (pixel shift number n 1 ) is S 1 , As shown in FIG. 41 (c), the correlation area value when the right partial image GR1 is shifted to the right by a relatively large amount from the left partial image GL1 (pixel shift number n 2 ) is S 2 ,
If the change in the correlation area value when shifting by one pixel is ΔS, the relationship between the pixel shift number n and the correlation area value S is expressed by the following equation. S = −ΔS (n−n 1 ) + S 1 S = ΔS (n−n 2 ) + S 2 These two straight lines are shown in FIG. 41 (d). When the pixel shift amount (which is calculated and is not limited to an integer) at the intersection of the two straight lines is calculated, a detailed shift up to a decimal shift between the left and right partial images GL1 and GR1 when the correlation area value S is minimum is obtained. The quantity D can be obtained, and high-speed and highly accurate distance measurement can be realized.

【0088】つぎに、本発明の距離測定装置を搭載した
車両について説明する。距離測定装置の取付場所は特に
限定されるものでなく、用途に応じて任意の場所に取り
付けることができる。例えば、ルームミラー背面やダッ
シュボード上など車室内にも取り付けられるし、車両前
面のバンパーやフロントグリル部などの車室外にも取り
付け可能である。もちろん、車両の後部や側面に取り付
けて車両後方や車両側方を監視するようにしてもなんら
問題はない。
Next, a vehicle equipped with the distance measuring device of the present invention will be described. The mounting location of the distance measuring device is not particularly limited, and it can be mounted at any location according to the application. For example, it can be attached to the inside of the vehicle such as the rear of the rearview mirror or on the dashboard, and can also be attached to the outside of the vehicle such as the bumper and front grille on the front of the vehicle. Of course, there is no problem even if it is attached to the rear or side of the vehicle to monitor the rear or side of the vehicle.

【0089】図42及び図43はこのような車両81の
一実施例を示す側面図及び車室内を示す図であって、ル
ームミラー82の背面に距離測定装置83を取り付け、
車速表示メーター84の付近に距離表示装置85を取り
付けている。しかして、距離測定装置83によって車両
81の前方の視野内の被検知物体(例えば前方車両86
など)までの距離を測定し、前方の被検知物体までの距
離を距離表示装置85にリアルタイムで表示することに
より、運転者に被検知物体までの距離を報知する。従っ
て、運転者は感に頼ることなく、確実に安全な車間距離
を保って運転することができ、錯覚や運転疲労等で車間
距離を詰め過ぎることによる事故を防止できる。
42 and 43 are a side view and an interior view showing an embodiment of such a vehicle 81, in which a distance measuring device 83 is attached to the rear surface of a rearview mirror 82.
A distance display device 85 is attached near the vehicle speed display meter 84. Then, the distance measuring device 83 is used to detect a detected object in the field of view in front of the vehicle 81 (for example, the front vehicle 86
The distance to the object to be detected in front is displayed in real time on the distance display device 85 to notify the driver of the distance to the object to be detected. Therefore, the driver can reliably drive while keeping a safe inter-vehicle distance without relying on the feeling, and it is possible to prevent an accident due to an excessively short inter-vehicle distance due to an illusion or driving fatigue.

【0090】本発明による距離測定装置では、被検知物
体までの距離を確実に算出することができるので、前方
車両との車間距離を検出する車間距離表示システムとし
て使用できるだけでなく、以下に説明するような追突防
止システムや視界補助システム等にも安全に利用するこ
とができる。
Since the distance measuring apparatus according to the present invention can reliably calculate the distance to the detected object, it can be used not only as an inter-vehicle distance display system for detecting an inter-vehicle distance to a vehicle in front, but also as described below. It can be safely used for such a rear-end collision prevention system and a visual field assistance system.

【0091】図44は本発明による距離測定装置83を
用いた追突防止システム87を搭載した車両81を示す
側面図である。本発明の距離測定装置83は、例えば車
室内のルームミラー82の裏側に取り付けられており、
車両81前方の地面上方に視野を設定されている。ま
た、運転席には、ブザーやアラーム等の警報装置90が
設けられている。当該追突防止システム87は図45に
示すように構成されており、距離測定装置83によって
検出されている前方車両86までの車間距離を示す情報
と、速度センサ88によって検出されている運転中の車
両の速度(自車速度)を示す情報とが追突防止用制御部
89に入力されており、追突防止用制御部89は前方車
両86までの車間距離と自車速度とに基づいて危険度を
判断し、警報装置90をオンにし、あるいはブレーキ装
置91を作動させて車両81に制動を掛ける。
FIG. 44 is a side view showing a vehicle 81 equipped with a rear-end collision prevention system 87 using the distance measuring device 83 according to the present invention. The distance measuring device 83 of the present invention is attached to the back side of the room mirror 82 in the vehicle interior,
The field of view is set above the ground in front of the vehicle 81. Further, a warning device 90 such as a buzzer or an alarm is provided in the driver's seat. The rear-end collision prevention system 87 is configured as shown in FIG. 45, and includes information indicating the inter-vehicle distance to the forward vehicle 86 detected by the distance measuring device 83 and the vehicle in operation detected by the speed sensor 88. The information indicating the speed of the vehicle (vehicle speed) is input to the rear-end collision prevention control unit 89, and the rear-end collision prevention control unit 89 determines the degree of danger based on the inter-vehicle distance to the preceding vehicle 86 and the own vehicle speed. Then, the alarm device 90 is turned on or the brake device 91 is activated to brake the vehicle 81.

【0092】図46は追突防止用制御部89による危険
度判断方法を図示したものであって、横軸は速度センサ
88によって監視されている自車速度、縦軸は距離測定
装置83によって検出されている前方車両との車間距離
である。図46において、C1は許容領域、C2は低度危
険領域、C3は高度危険領域であって、これら領域の境
界は自車速度と車間距離との関数として定められる。許
容領域C1では追突防止システム87は作動しないが、
低度危険領域C2に侵入するとまず警報装置90がオン
となって運転者にブザーやアラーム等による警報が発せ
られ、さらに高度危険領域C3に侵入すると、自動的に
ブレーキ装置91が作動し、車両81を強制的に減速も
しくは急停止させる。従って、運転者の不注意や居眠り
等による追突事故を防止できる。
FIG. 46 shows a method of determining the degree of risk by the rear-end collision prevention control section 89. The horizontal axis indicates the vehicle speed monitored by the speed sensor 88, and the vertical axis indicates the distance measuring device 83. It is the inter-vehicle distance from the vehicle ahead. In FIG. 46, C 1 is an allowable area, C 2 is a low-risk area, and C 3 is a high-risk area, and the boundaries of these areas are defined as a function of the vehicle speed and the inter-vehicle distance. Although the rear-end collision prevention system 87 does not operate in the permissible area C 1 ,
When the vehicle enters the low-risk area C 2 , the alarm device 90 first turns on to alert the driver by a buzzer or an alarm, and when the vehicle enters the high-risk area C 3 , the brake device 91 automatically operates. , The vehicle 81 is forcibly decelerated or suddenly stopped. Therefore, it is possible to prevent a rear-end collision accident due to the driver's carelessness or falling asleep.

【0093】図47は上記追突防止システム87の動作
フローを示す図であって、距離測定装置83によって前
方車両86との車間距離が算出される(S101)と、
追突防止用制御部89は当該車間距離と速度センサ88
によって監視されている自車速度とから危険度を判断し
(S102)、車両が図46中のどの領域にあるか判定
する。そして、許容領域C1内であるか否か判断し(S
103)、許容領域C1内に止まっていれば、引続き危
険度を監視し続ける(S101〜S103)。許容領域
1内にない場合には、低度危険領域C2か高度危険領域
3か判断し(S104)、低度危険領域C2であれば警
報装置90を作動させ(S105)、高度危険領域C3
であればブレーキ装置91を作動させる(S106)。
FIG. 47 is a diagram showing an operation flow of the rear-end collision prevention system 87. When the distance measuring device 83 calculates the inter-vehicle distance to the preceding vehicle 86 (S101),
The rear-end collision prevention control unit 89 controls the inter-vehicle distance and the speed sensor 88.
The degree of danger is determined from the own vehicle speed monitored by (S102), and it is determined in which area in FIG. 46 the vehicle is located. Then, it is judged whether or not it is within the allowable region C 1 (S
103), if it remains within the permissible area C 1 , the risk level is continuously monitored (S101 to S103). If it is not within the allowable area C 1 , it is judged whether it is the low-risk area C 2 or the high-risk area C 3 (S104), and if it is the low-risk area C 2 , the alarm device 90 is activated (S105), Danger area C 3
If so, the brake device 91 is operated (S106).

【0094】なお、上記追突防止システム87では、危
険領域を警報作動領域とブレーキ作動領域との2つに分
けたが、ブレーキ作動領域をさらに2つに分け、まず低
度のブレーキ作動領域では車両を強制的に減速させ、さ
らに高度のブレーキ作動領域になると急ブレーキを掛け
て車両を急停止させるようにしてもよい。
In the rear-end collision prevention system 87, the danger area is divided into the warning operation area and the brake operation area, but the brake operation area is further divided into two areas. May be forcibly decelerated and the vehicle may be stopped suddenly by applying a sudden brake when the brake operating range becomes higher.

【0095】図48は本発明による距離測定装置83を
用いた視界補助システム92を搭載した車両81を示す
平面図である。本発明に係る距離測定装置83は、例え
ば左右のサイドミラー93及び車両背面のバンパー94
の左右両側部に取り付けられており、車両後方と車両側
部後方とに視野(図48にハッチングを施した領域)を
設定されている。当該視野補助システム92は、車線変
更時の視界補助とバック駐車時の視界補助を行なうよう
になっている。また、運転席には警報装置95(または
表示装置)が設けられている。図49に示すように、距
離測定装置83によって検出されている後方の被検知物
体までの距離を示す情報と、速度センサ88によって検
出されている自車速度を示す情報と、バックランプ制御
信号97と、ウインカー制御信号98とが視界補助用制
御部96に入力されており、視界補助用制御部96は車
線変更時やバック駐車時の危険度を判断し、危険である
と判断すると警報装置95をオンにし、運転者に警告す
る。
FIG. 48 is a plan view showing a vehicle 81 equipped with a visual field assistance system 92 using the distance measuring device 83 according to the present invention. The distance measuring device 83 according to the present invention includes, for example, left and right side mirrors 93 and a bumper 94 on the rear surface of the vehicle.
Are attached to both left and right sides of the vehicle, and the fields of view (areas hatched in FIG. 48) are set to the vehicle rear side and the vehicle side portion rear side. The visual field assistance system 92 provides visual field assistance when changing lanes and visual field assistance during back parking. An alarm device 95 (or display device) is provided in the driver's seat. As shown in FIG. 49, the information indicating the distance to the detected object behind detected by the distance measuring device 83, the information indicating the own vehicle speed detected by the speed sensor 88, and the back lamp control signal 97. And a turn signal control signal 98 are input to the visibility assistance control unit 96. The visibility assistance control unit 96 determines the degree of danger at the time of changing lanes or at the time of back parking. Turn on and warn the driver.

【0096】図50は上記視界補助システム92の車線
変更時の動作フローを示す図である。車線変更する場合
には、車線変更のために曲がる側のウインカーが点滅す
るが、この右又は左のウインカーの制御信号が発信され
ると(S107)、視界補助用制御部96はウインカー
制御信号98を検知し、移動しようとする側の距離測定
装置83と速度センサ88を作動させ(S108)、距
離測定装置83からは後側方の後続車両までの距離を示
す信号が視界補助用制御部96へ出力され、速度センサ
88からは自車速度を示す信号が視界補助用制御部96
へ出力される。視界補助用制御部96は、これらの信号
から車両81の状態を判断し、車線変更の危険度を判断
する(危険度は被検知物体との距離と自車速度との関数
となる)(S109,S110)。この結果、危険であ
ると判断した場合には、警報装置95を鳴らして(ある
いは表示装置に表示して)警告する(S111)。よっ
て、警告された場合には、運転者は警告が解除されるま
で車線変更せず待機し、車線変更による事故を未然に防
止することができる。
FIG. 50 is a diagram showing an operation flow of the visibility assisting system 92 when changing lanes. When changing lanes, the turn signal on the turn side blinks for changing lanes, but when the control signal for the right or left turn signal is transmitted (S107), the visibility assist control unit 96 causes the turn signal control signal 98 to be displayed. Is detected, the distance measuring device 83 and the speed sensor 88 on the moving side are operated (S108), and a signal indicating the distance from the distance measuring device 83 to the following vehicle on the rear side is sent to the visibility assist control unit 96. A signal indicating the vehicle speed is output from the speed sensor 88 to the visibility assist control unit 96.
Output to The visibility assist control unit 96 determines the state of the vehicle 81 from these signals and determines the risk of lane change (the risk is a function of the distance to the detected object and the vehicle speed) (S109). , S110). As a result, when it is determined that the information is dangerous, the alarm device 95 is sounded (or displayed on the display device) to warn (S111). Therefore, when the warning is given, the driver can stand by without changing the lane until the warning is released, thereby preventing an accident due to the lane change.

【0097】また、図51は上記視界補助システム92
のバック駐車時の動作フローを示す図である。バックす
る場合には、バックランプが点滅するが、このバックラ
ンプ制御信号が発信されると(S112)、視界補助用
制御部96はバックランプ制御信号97を検知し、背面
の距離測定装置83と速度センサ88を作動させ(S1
13)、距離測定装置83からは後方の被検知物体(駐
車車両や壁、あるいは子供など)までの距離を示す信号
が視界補助用制御部96へ出力され、速度センサ88か
らは車両速度を示す信号が視界補助用制御部96へ出力
される。視界補助用制御部96は、これらの信号から車
両81の状態を判断し、バック駐車の危険度を判断する
(S114,S115)。この結果、危険であると判断
した場合には、警報装置95を鳴らして(あるいは表示
装置に表示して)警告する(S116)。よって、警告
された場合には、運転者は直ちにブレーキを掛けて停止
することができ、障害物や子供等との衝突事故や接触事
故を防止することができる。なお、この場合には、車外
でも警報を鳴らして車両の後方にいる子供などにも警告
するようにしてもよい。
Further, FIG. 51 shows the visibility assisting system 92.
It is a figure which shows the operation | movement flow at the time of back parking. When backing up, the back lamp blinks, but when this back lamp control signal is transmitted (S112), the visibility assist control unit 96 detects the back lamp control signal 97, and the back distance measuring device 83 Activate the speed sensor 88 (S1
13), the distance measuring device 83 outputs a signal indicating the distance to the object to be detected (parked vehicle, wall, child, etc.) to the visibility assist control unit 96, and the speed sensor 88 indicates the vehicle speed. The signal is output to the visual field assistance control unit 96. The visibility assistance control unit 96 determines the state of the vehicle 81 from these signals and determines the risk of back parking (S114, S115). As a result, when it is determined that the information is dangerous, the alarm device 95 is sounded (or displayed on the display device) to warn (S116). Therefore, when the warning is given, the driver can immediately apply the brakes to stop, and it is possible to prevent a collision accident or a contact accident with an obstacle or a child. In this case, an alarm may be sounded even outside the vehicle to warn a child or the like behind the vehicle.

【0098】図52は本発明による距離測定装置83を
用いた自動追従制御システム121を示すブロック図で
あって、前方車両86とほぼ一定の車間距離を保ちなが
ら前方車両86に半自動追従するための装置である。こ
の場合にも、本発明の距離測定装置83は、例えばルー
ムミラー82の背後に取り付けられており、前方に視野
を設定されている(図42)。この距離測定装置83に
よって検出されている前方車両86までの車間距離を示
す情報と、速度センサ88によって検出されている自車
速度を示す情報とは、自動追従制御部122に入力され
ており、自動追従制御部122は車間距離や自車速度に
応じてアクセル制御装置123やブレーキ制御装置12
4をコントロールしている。
FIG. 52 is a block diagram showing an automatic follow-up control system 121 using the distance measuring device 83 according to the present invention, for semi-automatically following the front vehicle 86 while keeping a substantially constant inter-vehicle distance. It is a device. Also in this case, the distance measuring device 83 of the present invention is attached to the back of the room mirror 82, for example, and the field of view is set forward (FIG. 42). The information indicating the inter-vehicle distance to the forward vehicle 86 detected by the distance measuring device 83 and the information indicating the own vehicle speed detected by the speed sensor 88 are input to the automatic tracking control unit 122, The automatic follow-up control unit 122 controls the accelerator control device 123 and the brake control device 12 according to the inter-vehicle distance and the vehicle speed.
You are controlling 4.

【0099】図53は自動追従制御部122による判断
方法を示す図である。曲線Eは半自動走行する場合の前
方車両86との車間距離と自車速度との理想曲線であっ
て、曲線Eを含む領域F1は、車間距離が理想車間距離
より開いていたり、理想車間距離より詰まり過ぎていて
も許容される理想領域である。また、この理想領域F1
の外側にある領域のうち、F2は車間距離が開き過ぎて
いて調整を必要とする領域、F3は車間距離Lが詰まり
過ぎていて調整を必要とする領域である。自動追従制御
部122は、距離測定装置83と速度センサ88の出力
信号から、車両の状態が図53中のどの領域にあるか判
断し、理想領域F1にある場合には、車両81の運転を
運転者の自由に委ねているが、車両81の状態が理想領
域F1から外れると、図54のフロー図に従ってアクセ
ル制御装置123やブレーキ制御装置124を制御し、
安全かつ最適な車間距離を保って追従走行させる。
FIG. 53 is a diagram showing a determination method by the automatic tracking control unit 122. The curve E is an ideal curve of the inter-vehicle distance to the preceding vehicle 86 and the vehicle speed when the vehicle runs semi-automatically, and the area F 1 including the curve E has an inter-vehicle distance that is wider than the ideal inter-vehicle distance or an ideal inter-vehicle distance. It is an ideal area that is allowed even if it is overly clogged. In addition, this ideal region F 1
Out of the areas outside, the area F 2 is an area where the inter-vehicle distance is too wide and needs to be adjusted, and the area F 3 is an area where the inter-vehicle distance L is too narrow and needs to be adjusted. The automatic tracking control unit 122 determines from which output signal of the distance measuring device 83 and the speed sensor 88 the vehicle state is in FIG. 53, and when the vehicle state is in the ideal area F 1 , the driving of the vehicle 81 is performed. However, when the state of the vehicle 81 deviates from the ideal region F 1 , the accelerator control device 123 and the brake control device 124 are controlled according to the flowchart of FIG.
Keep track of a safe and optimal vehicle distance.

【0100】図54のフロー図に従って自動追従制御シ
ステム121の制御動作を説明する。前方車両86まで
の車間距離は距離測定装置83によって算出されており
(S131)、自動追従制御部122は車間距離と自車
速度とから車両81の状態を判断し、車両81の状態と
理想状態とを比較する(S132)。この結果、車両8
1の状態が理想領域F1にあると判断した場合には(S
133)、ブレーキ制御装置124やアクセル制御装置
123に制御信号を出力することなく、運転を運転者に
任せておき、車両状態と理想状態との比較を繰り返し行
なう(S131〜S133)。これに対し、理想領域F
1外にあると判断した場合には、さらに領域F2にあるの
か、領域F3にあるのかを判別し(S134)、車間距
離が離れ過ぎの領域F2にあると判断した場合には、ア
クセル制御装置123へ制御信号を出力し、アクセル開
度を増やして前方車両86との距離Lを詰める(S13
5)。逆に、車間距離が詰まり過ぎの領域F3にあると
判断した場合には、アクセル制御装置123やブレーキ
制御装置124へ制御信号を出力し、アクセル開度を減
らしたり、ブレーキを作動させたりして、十分な車間距
離を保つようにする(S136)。
The control operation of the automatic tracking control system 121 will be described with reference to the flowchart of FIG. The inter-vehicle distance to the front vehicle 86 is calculated by the distance measuring device 83 (S131), and the automatic tracking control unit 122 determines the state of the vehicle 81 from the inter-vehicle distance and the own vehicle speed, and the state of the vehicle 81 and the ideal state. And are compared (S132). As a result, the vehicle 8
When it is determined that the state of 1 is in the ideal area F 1 , (S
133), the driving is left to the driver without outputting the control signal to the brake control device 124 or the accelerator control device 123, and the comparison between the vehicle state and the ideal state is repeated (S131 to S133). On the other hand, the ideal area F
If it is determined that the first outer further whether the region F 2, to determine whether the region F 3 (S134), when it is determined that the area F 2 of the past away following distance, A control signal is output to the accelerator control device 123, the accelerator opening is increased, and the distance L with the preceding vehicle 86 is reduced (S13).
5). On the other hand, when it is determined that the inter-vehicle distance is in the region C 3 where the inter-vehicle distance is too close, a control signal is output to the accelerator control device 123 or the brake control device 124 to reduce the accelerator opening or activate the brake. To maintain a sufficient inter-vehicle distance (S136).

【0101】図55は交通渋滞時における車両の運転を
サポートするためのシステム125を示すブロック図で
ある。交通渋滞時には、前方車両86がいつ前方へ移動
するか予測がつかないので、運転者は前方車両86に絶
えず注意し、前方車両86が移動したら直ちに車両81
を前方へ動かして車間を詰めなければならない。このた
め、交通渋滞時の運転は神経が疲れ、いらいらを起こし
易いものであった。このシステムは、このような交通渋
滞時の運転を楽にしようとするものである。この車両8
1でも、本発明の距離測定装置83は、例えばルームミ
ラー82の背後に取り付けられており、前方に視野を設
定されている(図42)。この距離測定装置83によっ
て検出されている前方車両86までの車間距離を示す情
報と、速度センサ88によって検出されている自車速度
を示す情報とは、前方車両発進検出制御部126に入力
されており、前方車両発進検出制御部126は車間距離
が一定値以上離れた場合には、警報装置127(又は表
示装置)を作動させて運転者に知らせる。すなわち、図
56に示すように、前方車両発進検出制御部126は速
度センサ88からの信号によって自車速度が0かどうか
判定し(S141)、自車速度が0の場合には交通渋滞
による停車中であると判断し、交通渋滞のための以下の
処理を実行する。前方車両発進検出制御部126は、距
離測定装置83で算出された前方車両86との車間距離
を監視し(S142)、車間距離が交通渋滞時の適当な
車間距離を考慮して決められた一定値以上かどうか判断
している(S143)。そして、前方車両86が前方へ
移動して車間距離が一定値以上離れると、警報装置12
7を作動させ(S144)、運転者に車間距離を詰める
ように促す。このようなシステム125を用いれば、運
転者は常に前方車両86の移動に絶えず注意する負担か
ら解放され、例えば渋滞時の運転者の緊張(いらいら)
を和らげ、ゆとりを持たせることができる。
FIG. 55 is a block diagram showing a system 125 for supporting driving of a vehicle during traffic congestion. During a traffic jam, it is not possible to predict when the forward vehicle 86 will move forward. Therefore, the driver constantly pays attention to the forward vehicle 86 and immediately after the forward vehicle 86 moves, the vehicle 81
Have to move forward to reduce the distance between cars. For this reason, driving during a traffic jam is tired and irritable. This system is intended to facilitate driving during such traffic congestion. This vehicle 8
Even in No. 1, the distance measuring device 83 of the present invention is attached, for example, behind the room mirror 82, and the field of view is set forward (FIG. 42). The information indicating the inter-vehicle distance to the front vehicle 86 detected by the distance measuring device 83 and the information indicating the own vehicle speed detected by the speed sensor 88 are input to the front vehicle start detection control unit 126. Therefore, the forward vehicle start detection control unit 126 activates the alarm device 127 (or display device) to notify the driver when the inter-vehicle distance is a certain value or more. That is, as shown in FIG. 56, the forward vehicle start detection control unit 126 determines whether or not the own vehicle speed is 0 based on the signal from the speed sensor 88 (S141), and when the own vehicle speed is 0, the vehicle is stopped due to traffic congestion. It is determined that it is in the middle, and the following processing for traffic congestion is executed. The front vehicle start detection control unit 126 monitors the inter-vehicle distance to the front vehicle 86 calculated by the distance measuring device 83 (S142), and the inter-vehicle distance is a fixed value determined in consideration of an appropriate inter-vehicle distance during traffic congestion. It is determined whether the value is equal to or more than the value (S143). Then, when the front vehicle 86 moves forward and the inter-vehicle distance deviates by a certain value or more, the alarm device 12
7 is operated (S144), and the driver is urged to reduce the inter-vehicle distance. By using such a system 125, the driver is relieved of the burden of constantly paying attention to the movement of the forward vehicle 86, and the driver is nervous, for example, during a traffic jam.
Can be softened and have a lot of room.

【図面の簡単な説明】[Brief description of drawings]

【図1】低解像度の光検出器を用いて位相差相関法によ
り測距する従来の距離測定装置を示す概略構成図であ
る。
FIG. 1 is a schematic configuration diagram showing a conventional distance measuring device that measures a distance by a phase difference correlation method using a low-resolution photodetector.

【図2】同上の光学的構成を示す図である。FIG. 2 is a diagram showing an optical configuration of the above.

【図3】同上の距離測定装置における、被検知物体まで
の距離を計測するための原理を説明する図である。
FIG. 3 is a diagram illustrating a principle for measuring a distance to a detected object in the above distance measuring device.

【図4】(a)(b)(c)(d)は同上の距離計測装
置において、ずれ量を求める方法を説明する図である。
4 (a), (b), (c), and (d) are diagrams for explaining a method of obtaining a deviation amount in the above distance measuring device.

【図5】(a)は視野内に2つの被検知物体が存在する
状態を示す図、(b)(c)はこの場合に光検出器から
供給される光強度の画像を示す図である。
5A is a diagram showing a state in which two detected objects are present in the field of view, and FIGS. 5B and 5C are diagrams showing images of light intensity supplied from a photodetector in this case. .

【図6】(a)(b)(c)は、図5に示したような状
況において、異なった方法で画像のずれ量を求めている
ようすを示す図である。
6 (a), (b), and (c) are diagrams showing how the image shift amount is obtained by different methods in the situation as shown in FIG.

【図7】高解像度の光検知器を用いた従来の距離測定装
置を示す概略図である。
FIG. 7 is a schematic diagram showing a conventional distance measuring device using a high-resolution photodetector.

【図8】同上の距離測定装置における光学系の構成を示
す図である。
FIG. 8 is a diagram showing a configuration of an optical system in the above distance measuring device.

【図9】本発明の一実施形態による距離測定装置の構成
を示す図である。
FIG. 9 is a diagram showing a configuration of a distance measuring device according to an embodiment of the present invention.

【図10】(a)は同上の距離測定装置の視野内に複数
の被検知物体が存在する様子を示す図、(b)(c)は
そのときの左画像及び右画像を示す図である。
10A is a diagram showing a state in which a plurality of detected objects are present in the visual field of the above distance measuring apparatus, and FIGS. 10B and 10C are diagrams showing a left image and a right image at that time. .

【図11】(a)は左画像の基準線と右画像の基準線を
一致させた状態を示す図である。(b)は右画像を1画
素だけずらせた状態を示す図である。(c)は右画像を
2画素だけずらせた状態を示す図である。
FIG. 11A is a diagram showing a state in which the reference line of the left image and the reference line of the right image are matched. (B) is a diagram showing a state in which the right image is shifted by one pixel. (C) is a diagram showing a state in which the right image is shifted by two pixels.

【図12】(d)は右画素を3画素だけずらせた状態を
示す図である。(e)は右画素を4画素だけずらせた状
態を示す図である。(f)は右画素を5画素だけずらせ
た状態を示す図である。
FIG. 12D is a diagram showing a state where the right pixel is shifted by 3 pixels. (E) is a figure which shows the state which shifted the right pixel only 4 pixels. (F) is a diagram showing a state where the right pixel is shifted by 5 pixels.

【図13】同上の具体例において得られた、画素ずらし
量と画像の一致度の高い領域との関係を示す図である。
FIG. 13 is a diagram showing a relationship between a pixel shift amount and a region having a high degree of coincidence of images, which is obtained in the specific example.

【図14】本発明のさらに別な実施形態による距離測定
装置の構成を示す図である。
FIG. 14 is a diagram showing a configuration of a distance measuring device according to still another embodiment of the present invention.

【図15】(a)(b)は光検出器から出力される左右
画像を示す図、(c)(d)は微分回路で微分された左
右微分画像を示す図である。
15A and 15B are diagrams showing left and right images output from the photodetector, and FIGS. 15C and 15D are diagrams showing left and right differential images differentiated by the differentiating circuit.

【図16】(a)(b)は左右画像の一致度の高い領域
の定義を説明するための図である。
16 (a) and 16 (b) are diagrams for explaining the definition of a region where the left and right images have a high degree of coincidence.

【図17】(a)(b)は左右画像の一致度の高い領域
の異なる定義を説明するための図である。
17 (a) and 17 (b) are diagrams for explaining different definitions of regions having a high degree of coincidence between left and right images.

【図18】(a)〜(e)は左右画像を互いにずらした
ときの画像が一致する領域を示す図である。
18 (a) to 18 (e) are diagrams showing regions in which the images match when the left and right images are shifted from each other.

【図19】図19で求めた左右画像の一致する領域を一
緒にして示す図である。
FIG. 19 is a diagram showing the areas where the left and right images in FIG. 19 coincide with each other together.

【図20】(a)(b)は左右微分画像の一致度の高い
領域の定義を説明するための図である。
20A and 20B are diagrams for explaining the definition of a region having a high degree of coincidence between left and right differential images.

【図21】(a)(b)は左右微分画像の一致度の高い
領域の異なる定義を説明するための図である。
21 (a) and 21 (b) are diagrams for explaining different definitions of regions having a high degree of coincidence in left and right differential images.

【図22】(a)〜(e)は左右微分画像を互いにずら
したときの画像が一致する領域を示す図である。
22 (a) to 22 (e) are diagrams showing regions in which the images when the left and right differential images are shifted from each other match.

【図23】図22で求めた左右微分画像の一致する領域
を一緒にして示す図である。
FIG. 23 is a diagram showing together the matching areas of the left and right differential images obtained in FIG. 22.

【図24】本発明のさらに別な実施形態による距離測定
装置の構成を示す図である。
FIG. 24 is a diagram showing a configuration of a distance measuring device according to still another embodiment of the present invention.

【図25】同上の実施形態により距離を測定する方法を
説明する図である。
FIG. 25 is a diagram illustrating a method of measuring a distance according to the above embodiment.

【図26】同上の実施形態の原理を説明する図である。FIG. 26 is a view for explaining the principle of the above embodiment.

【図27】(a)(b)は極値点が一致していることの
判定方法を示す図である。
27 (a) and 27 (b) are diagrams showing a method of determining that extreme points match.

【図28】(a)〜(e)は左右画像を互いにずらした
ときの極値点が一致する領域を示す図である。
28A to 28E are diagrams showing regions in which extreme points match when left and right images are shifted from each other.

【図29】図28で求めた極値点の一致する領域を一緒
にして示す図である。
FIG. 29 is a diagram showing together areas where the extreme points obtained in FIG. 28 coincide.

【図30】本発明のさらに別な実施形態による距離測定
装置の構成を示す図である。
FIG. 30 is a diagram showing a configuration of a distance measuring device according to still another embodiment of the present invention.

【図31】本発明のさらに別な実施形態による距離測定
装置の構成を示す図である。
FIG. 31 is a diagram showing a configuration of a distance measuring device according to still another embodiment of the present invention.

【図32】本発明のさらに別な実施形態による距離測定
装置の構成を示す図である。
FIG. 32 is a diagram showing a configuration of a distance measuring device according to still another embodiment of the present invention.

【図33】同上の実施形態を説明する図であって、
(a)は光検出器上の左右画像を示す図、(b)は切り
出し部により切り出された左部分画像を示す図、(c)
は切り出し部により切り出された右部分画像を示す図で
ある。
FIG. 33 is a view for explaining the above embodiment,
(A) is a diagram showing left and right images on the photodetector, (b) is a diagram showing a left partial image cut out by the cutout portion, (c)
FIG. 6 is a diagram showing a right partial image cut out by a cutout unit.

【図34】(a)は抽出部により抽出された抽出部分画
像を示す図、(b)は選択部により選択された選択部分
画像を示す図、(c)は抽出部分画像と選択部分画像に
より相関演算している様子を示す図である。
34A is a diagram showing an extracted partial image extracted by an extracting unit, FIG. 34B is a diagram showing a selected partial image selected by a selecting unit, and FIG. 34C is a diagram showing an extracted partial image and a selected partial image. It is a figure which shows a mode that correlation calculation is performed.

【図35】(a)は抽出部により抽出された別な抽出部
分画像を示す図、(b)は選択部により選択された別な
選択部分画像を示す図、(c)は抽出部分画像と選択部
分画像により相関演算している様子を示す図である。
35A is a diagram showing another extracted partial image extracted by the extracting unit, FIG. 35B is a diagram showing another selected partial image selected by the selecting unit, and FIG. It is a figure which shows a mode that the correlation calculation is performed by the selected partial image.

【図36】(a)(b)は切り出し部により切り出され
た左右部分画像を示す図、(c)は抽出部により抽出さ
れ補間された抽出部分画像を示す図、(d)は選択部に
より選択され補間された選択部分画像を示す図である。
36 (a) and (b) are diagrams showing left and right partial images cut out by a cutout unit, FIG. 36 (c) is a diagram showing extracted partial images interpolated by an extraction unit, and FIG. It is a figure which shows the selected partial image which was selected and interpolated.

【図37】(a)はノイズ成分を含んだ画像を示す図、
(b)は抽出条件によりノイズ成分を除去された画像を
示す図である。
FIG. 37 (a) is a diagram showing an image containing a noise component,
(B) is a figure which shows the image from which the noise component was removed by the extraction condition.

【図38】距離測定装置の設定距離−エッジ幅特性を示
す図である。
FIG. 38 is a diagram showing a set distance-edge width characteristic of the distance measuring device.

【図39】(a)(b)は別な抽出条件を説明するため
の図である。
39A and 39B are diagrams for explaining another extraction condition.

【図40】(a)(b)(c)は本発明のさらに別な実
施形態の特徴を説明するための図である。
40 (a), (b) and (c) are views for explaining the characteristics of still another embodiment of the present invention.

【図41】(a)(b)(c)(d)は本発明のさらに
別な実施形態を説明する図である。
41 (a), (b), (c) and (d) are views for explaining still another embodiment of the present invention.

【図42】本発明にかかる車両を示す側面図である。FIG. 42 is a side view showing a vehicle according to the present invention.

【図43】同上の車両の車内を示す一部破断した概略図
である。
FIG. 43 is a partially cutaway schematic view showing the interior of the above vehicle.

【図44】本発明の衝突防止システムを搭載した車両を
示す側面図である。
FIG. 44 is a side view showing a vehicle equipped with the collision prevention system of the present invention.

【図45】同上の衝突防止システムを示すブロック図で
ある。
FIG. 45 is a block diagram showing the collision prevention system of the above.

【図46】同上衝突防止用制御部における危険度の判断
方法を説明するための図である。
FIG. 46 is a diagram for explaining a method of determining a risk degree in the same collision prevention control unit.

【図47】同上の衝突防止システムにおける処理手順を
示すフロー図である。
FIG. 47 is a flowchart showing a processing procedure in the above collision prevention system.

【図48】本発明の視界補助システムを搭載した車両を
示す平面図である。
FIG. 48 is a plan view showing a vehicle equipped with the visual field assistance system of the present invention.

【図49】同上の視界補助システムを示すブロック図で
ある。
FIG. 49 is a block diagram showing the same field-of-view assistance system.

【図50】同上の視界補助システムにおける車線変更の
際の処理手順を示すフロー図である。
FIG. 50 is a flowchart showing a processing procedure when changing lanes in the visual field assistance system.

【図51】同上の視界補助システムにおけるバック駐車
の際の処理手順を示すフロー図である。
FIG. 51 is a flowchart showing a processing procedure for back parking in the visibility assistance system.

【図52】本発明の自動追従システムを示すブロック図
である。
FIG. 52 is a block diagram showing an automatic tracking system of the present invention.

【図53】同上の自動追従における車両状態の理想領域
を示す図である。
FIG. 53 is a diagram showing an ideal region of a vehicle state in the above automatic tracking.

【図54】同上の自動追従システムにおける処理手順を
示すフロー図である。
FIG. 54 is a flowchart showing a processing procedure in the above-mentioned automatic tracking system.

【図55】本発明の交通渋滞時の運転を容易にするため
のシステムを示すブロック図である。
FIG. 55 is a block diagram showing a system for facilitating driving during traffic congestion according to the present invention.

【図56】同上のシステムにおける処理手順を示すフロ
ー図である。
FIG. 56 is a flowchart showing a processing procedure in the above system.

【符号の説明】[Explanation of symbols]

22a,22b レンズ 23a,23b 光検出器 24 画像シフト処理部 25 一致判定部 26 相関演算部 29a,29b 微分回路 31a,31b 極値検出部 33a,33b 切り出し部 34 抽出部 35 選択部 81 車両 87 追突防止システム 92 視界補助システム 121 自動追従制御システム 125 交通渋滞時用の運転サポートシステム 22a, 22b Lens 23a, 23b Photodetector 24 Image shift processing section 25 Matching determination section 26 Correlation calculation section 29a, 29b Differentiation circuit 31a, 31b Extreme value detection section 33a, 33b Cutout section 34 Extraction section 35 Selection section 81 Vehicle 87 Rear collision Prevention system 92 Visibility assist system 121 Automatic tracking control system 125 Driving support system for traffic congestion

───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.6 識別記号 庁内整理番号 FI 技術表示箇所 G01C 23/00 G01C 23/00 Z G08G 1/16 G08G 1/16 C // G01C 21/00 G01C 21/00 A (72)発明者 高木 潤一 京都府京都市右京区花園土堂町10番地 オ ムロン株式会社内─────────────────────────────────────────────────── ─── Continuation of the front page (51) Int.Cl. 6 Identification code Internal reference number FI Technical display location G01C 23/00 G01C 23/00 Z G08G 1/16 G08G 1/16 C // G01C 21/00 G01C 21/00 A (72) Inventor Junichi Takagi 10 Odoron-cho, Hanazono-cho, Ukyo-ku, Kyoto City Kyoto Prefecture

Claims (12)

【特許請求の範囲】[Claims] 【請求項1】 所定の視野から放たれる光を受け、空間
的に隔てられた第1及び第2の光路に沿って光を伝達す
る受光光学系と、 複数個の光応答素子を備え、前記受光光学系の第1光路
に沿って伝達される光を受光して、光の強度分布を表わ
す電気信号を出力する第1光検出手段と、 複数個の光応答素子を備え、前記受光光学系の第2光路
に沿って伝達される光を受光して、光の強度分布を表わ
す電気信号を出力する第2光検出手段と、 前記第1及び第2光検出手段の出力する光強度分布の、
前記光応答素子上のずれ量に基づいて行なった所定の演
算結果を、被検知物体までの距離として出力する演算手
段と、を備えた距離測定装置において、 前記第1及び第2光検出手段の出力する光強度分布を表
わす信号の中から、一致度の高い領域を判定する判定手
段を備え、 前記演算手段は、前記判定手段により一致度が高いと判
定された領域についての光応答素子上のずれ量に基づい
て前記所定の演算を行なうことを特徴とする距離測定装
置。
1. A light receiving optical system for receiving light emitted from a predetermined visual field and transmitting the light along first and second optical paths spatially separated from each other, and a plurality of photoresponsive elements, The light receiving optical system includes a first photodetector that receives the light transmitted along the first optical path of the light receiving optical system and outputs an electric signal representing the intensity distribution of the light, and a plurality of photoresponsive elements. Second light detecting means for receiving the light transmitted along the second optical path of the system and outputting an electric signal representing the light intensity distribution; and light intensity distributions output by the first and second light detecting means. of,
A distance measuring device comprising: a calculation unit configured to output a predetermined calculation result based on a shift amount on the photoresponsive element as a distance to a detected object, wherein the first and second light detection units include From the signal representing the light intensity distribution to be output, a determination unit that determines a region with a high degree of coincidence is provided, and the calculation unit includes a region on the photoresponsive element for a region determined to have a high degree of coincidence by the determination unit. A distance measuring device, characterized in that the predetermined calculation is performed based on a deviation amount.
【請求項2】 請求項1に記載の距離測定装置におい
て、前記判定手段が一致度の高い領域を複数判定した場
合には、 前記演算手段は、前記それぞれの領域についての光強度
分布のずれ量を求め、それらのずれ量のうち最も大きい
ずれ量に基づいて行なった前記所定の演算結果を被検知
物体までの距離として出力することを特徴とする距離測
定装置。
2. The distance measuring device according to claim 1, wherein when the determination unit determines a plurality of regions having a high degree of coincidence, the calculation unit causes the deviation amount of the light intensity distribution for each of the regions. And a predetermined calculation result obtained based on which one of the displacement amounts is the largest, is output as the distance to the detected object.
【請求項3】 請求項1に記載の距離測定装置におい
て、前記判定手段が一致度の高い領域を複数判定した場
合には、 前記演算手段は、前記それぞれの領域についての光強度
分布のずれ量を求め、それらのずれ量に基づいて行なっ
た前記所定の演算結果をすべて、被検知物体までの距離
として出力することを特徴とする距離測定装置。
3. The distance measuring device according to claim 1, wherein when the determination unit determines a plurality of regions having a high degree of coincidence, the calculation unit causes the deviation amount of the light intensity distribution for each of the regions. Is calculated and all the predetermined calculation results obtained based on the deviations are output as the distance to the detected object.
【請求項4】 請求項1〜3に記載の距離測定装置にお
いて、前記判定手段が一致度が高いと判定した領域から
所定の条件を満足する部分を抽出する抽出手段と、を備
え、 前記演算手段は、前記抽出された部分の光強度分布の光
応答素子上のずれ量に基づいて前記所定の演算を行なう
ことを特徴とする距離測定装置。
4. The distance measuring device according to claim 1, further comprising: an extracting unit that extracts a portion satisfying a predetermined condition from a region determined by the determining unit to have a high degree of coincidence. A distance measuring device, wherein the means performs the predetermined calculation based on the amount of deviation of the light intensity distribution of the extracted portion on the photoresponsive element.
【請求項5】 請求項4に記載の距離測定装置におい
て、前記抽出手段が所定の条件を満足する部分を複数抽
出する場合には、 前記演算手段は、前記それぞれの部分についての光強度
分布のずれ量を求め、それらのずれ量のうち複数のずれ
量の平均値を用いて演算した被検知物体までの距離を出
力することを特徴とする距離測定装置。
5. The distance measuring device according to claim 4, wherein when the extracting means extracts a plurality of portions satisfying a predetermined condition, the calculating means calculates the light intensity distribution of the respective portions. A distance measuring device, wherein a displacement amount is obtained, and a distance to a detected object calculated using an average value of a plurality of displacement amounts among the displacement amounts is output.
【請求項6】 請求項1〜5に記載の距離測定装置にお
いて、さらに、被検知物体の存在する方向を出力するこ
とを特徴とする距離測定装置。
6. The distance measuring device according to claim 1, further comprising outputting a direction in which a detected object exists.
【請求項7】 請求項1〜6に記載の距離測定装置にお
いて、さらに、被検知物体の大きさを出力することを特
徴とする距離測定装置。
7. The distance measuring device according to claim 1, further comprising outputting the size of the detected object.
【請求項8】 請求項1〜7の距離測定装置を備え、周
囲に存在する物体までの距離を測定すべく車室内もしく
は車室外に前記距離測定装置が取り付けられたことを特
徴とする安全走行システム。
8. A safe traveling comprising the distance measuring device according to any one of claims 1 to 7, wherein the distance measuring device is mounted inside or outside a vehicle in order to measure a distance to an object existing in the surroundings. system.
【請求項9】 請求項8に記載の安全走行システムにお
いて、車速表示メータの付近に前記距離測定装置の出力
に基づいた前記物体までの距離に関する表示を行なう表
示部が取り付けられたことを特徴とする安全走行システ
ム。
9. The safe traveling system according to claim 8, wherein a display unit for displaying a distance to the object based on an output of the distance measuring device is attached near the vehicle speed display meter. Safe driving system.
【請求項10】 請求項8に記載の安全走行システムに
おいて、少なくとも前記距離測定装置の出力に基づい
て、自車両が周囲に存在する物体に衝突する可能性のあ
る危険な状態であるか否かを判断する判断装置を備えた
ことを特徴とする安全走行システム。
10. The safe traveling system according to claim 8, wherein, based on at least the output of the distance measuring device, whether the host vehicle is in a dangerous state in which there is a possibility of colliding with an object existing in the surroundings. A safe traveling system characterized by comprising a judging device for judging.
【請求項11】 請求項8に記載の安全走行システムに
おいて、少なくとも前記距離測定装置の出力に基づい
て、アクセル開度もしくはブレーキを制御する制御手段
を備えたことを特徴とする安全走行システム。
11. The safe traveling system according to claim 8, further comprising control means for controlling an accelerator opening degree or a brake based on at least the output of the distance measuring device.
【請求項12】 請求項8に記載の安全走行システムに
おいて、少なくとも前記距離測定装置の出力に基づい
て、前方の車両が発進したことを運転者に報知する報知
手段を備えたことを特徴とする安全走行システム。
12. The safe traveling system according to claim 8, further comprising informing means for informing a driver that the vehicle ahead has started based on at least the output of the distance measuring device. Safe driving system.
JP8099049A 1996-03-27 1996-03-27 Distance-measuring apparatus and safe running system Pending JPH09264742A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP8099049A JPH09264742A (en) 1996-03-27 1996-03-27 Distance-measuring apparatus and safe running system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP8099049A JPH09264742A (en) 1996-03-27 1996-03-27 Distance-measuring apparatus and safe running system

Publications (1)

Publication Number Publication Date
JPH09264742A true JPH09264742A (en) 1997-10-07

Family

ID=14236709

Family Applications (1)

Application Number Title Priority Date Filing Date
JP8099049A Pending JPH09264742A (en) 1996-03-27 1996-03-27 Distance-measuring apparatus and safe running system

Country Status (1)

Country Link
JP (1) JPH09264742A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001289631A (en) * 2000-04-06 2001-10-19 Nippon Signal Co Ltd:The Distance measuring apparatus and distance measuring method
JP2007200137A (en) * 2006-01-27 2007-08-09 Toyota Motor Corp Device for judging driver's mental state

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001289631A (en) * 2000-04-06 2001-10-19 Nippon Signal Co Ltd:The Distance measuring apparatus and distance measuring method
JP2007200137A (en) * 2006-01-27 2007-08-09 Toyota Motor Corp Device for judging driver's mental state

Similar Documents

Publication Publication Date Title
JP2800531B2 (en) Obstacle detection device for vehicles
KR101328363B1 (en) Lane departure prevention support apparatus, method of displaying a lane boundary line and program
US6470273B2 (en) Collision warning system
US5424952A (en) Vehicle-surroundings monitoring apparatus
JP5155042B2 (en) Vehicle peripheral image switching device
CN111976598A (en) Vehicle blind area monitoring method and system
CN103562980A (en) Method for assisting a driver of a motor vehicle
US10421397B2 (en) Forward maneuvering assistance using head-up display
JPH09178505A (en) Drive assist system
JP3666332B2 (en) Pedestrian detection device
JP2006508437A (en) Method for detecting the forward perimeter of a road vehicle by a perimeter sensing system
JP3372190B2 (en) Vehicle collision prevention device
JP4948338B2 (en) Inter-vehicle distance measuring device
JPH1069598A (en) Collision preventing device for vehicle
JP3786113B2 (en) Approach prediction device
JPH0844999A (en) Approach prediction device
US20230415734A1 (en) Vehicular driving assist system using radar sensors and cameras
JPH0771916A (en) On-vehicle distance measuring device
JPH09264742A (en) Distance-measuring apparatus and safe running system
JP3463231B2 (en) Distance measuring device and safe driving system
JP3446509B2 (en) Obstacle warning device on the rear side of the vehicle
WO2008037473A1 (en) Park assist system visually marking up dangerous objects
JPH10115518A (en) Distance-measuring apparatus and vehicle using the apparatus
JP3212235B2 (en) Obstacle detection device for vehicles
JP3463130B2 (en) Distance measuring device