JPH10206116A - Object recognizing device - Google Patents
Object recognizing deviceInfo
- Publication number
- JPH10206116A JPH10206116A JP9010115A JP1011597A JPH10206116A JP H10206116 A JPH10206116 A JP H10206116A JP 9010115 A JP9010115 A JP 9010115A JP 1011597 A JP1011597 A JP 1011597A JP H10206116 A JPH10206116 A JP H10206116A
- Authority
- JP
- Japan
- Prior art keywords
- distance
- line
- representative
- ccd
- recognition
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Landscapes
- Length Measuring Devices By Optical Means (AREA)
- Measurement Of Optical Distance (AREA)
- Image Processing (AREA)
- Closed-Circuit Television Systems (AREA)
Abstract
Description
【0001】[0001]
【発明の属する技術分野】本発明は、物体認識装置に関
し、詳しくは多段ライン型CCDによる距離データに基
づいて物体を認識するようにしたものに関する技術分野
に属する。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an object recognizing apparatus, and more particularly to a technical field related to an apparatus for recognizing an object based on distance data obtained by a multi-stage line CCD.
【0002】[0002]
【従来の技術】従来より、この種の物体認識装置とし
て、例えば特開平5―52562号公報に示されている
ように、撮像された画像を複数のウィンドウに分割し
て、各ウィンドウでの距離に基づいて物体を認識するよ
うにしたものは知られている。すなわち、このもので
は、上下方向に配置された1対のイメージセンサにより
先行車等の物体を撮像して、その一方のイメージセンサ
による画像を表示し、その表示画面を複数のウィンドウ
に分割してそのウィンドウ毎に物体までの距離を測定
し、この距離値を基に目標物体のウィンドウを認識して
追尾用ウィンドウを設定し、この追尾用ウィンドウでの
距離を測定するようになされている。2. Description of the Related Art Conventionally, as an object recognizing device of this type, for example, as shown in Japanese Patent Application Laid-Open No. 5-52562, a captured image is divided into a plurality of windows, and the distance between each window is divided. An object that recognizes an object based on the object is known. That is, in this device, an object such as a preceding vehicle is imaged by a pair of image sensors arranged in the vertical direction, an image is displayed by one of the image sensors, and the display screen is divided into a plurality of windows. The distance to the object is measured for each window, the window of the target object is recognized based on the distance value, a tracking window is set, and the distance in the tracking window is measured.
【0003】[0003]
【発明が解決しようとする課題】ところで、このように
物体をその距離に基づいて認識する場合、一定方向に配
置された多数のCCDをその配列方向と直交する方向に
多段に並設してなる多段ライン型CCDを設け、この多
段ライン型CCDからの輝度信号に基づいて得られた2
次元の距離データから特定の物体を認識して追従し続け
るようにすることが考えられる。すなわち、この多段ラ
イン型CCDは、縦横に多数のCCDが配置されたカメ
ラ用等のセンサに対し、CCDを一方向に間引いた構成
のものであり、CCDの数が減った分だけ、撮像データ
数が少なくなり、コストダウンを図ることができる。In recognizing an object based on its distance, a large number of CCDs arranged in a certain direction are arranged in multiple stages in a direction orthogonal to the arrangement direction. A multi-stage line type CCD is provided, and two lines obtained based on the luminance signal from the multi-stage line type CCD are provided.
It is conceivable to recognize a specific object from the dimensional distance data and keep following it. In other words, this multi-stage line type CCD has a configuration in which CCDs are thinned in one direction in comparison with sensors for cameras and the like in which a large number of CCDs are arranged vertically and horizontally. The number is reduced, and the cost can be reduced.
【0004】しかし、その反面、測距データのばらつき
やノイズの影響が大きく、精度の高い距離演算が難しく
て正確な物体認識が困難になるという問題がある。特
に、多段ライン型CCDでのCCDラインが等間隔で、
かつ、該多段ライン型CCDのライン列方向の一端側を
近距離側を検出する近距離側ラインとする一方、他端側
を遠距離側を検出する遠距離側ラインとする場合、認識
物体が相対的に近づいてくる際、その物体が近距離側の
領域において近距離側ラインを横切る時間は、遠距離側
の領域において遠距離側ラインを横切る時間よりも短く
なるので、正確な物体認識を行うためにデータ処理に時
間をかけていると、遠距離側にて認識した物体を近距離
側で見失ってしまうことになる。[0004] However, on the other hand, there is a problem that the dispersion of ranging data and the influence of noise are great, and it is difficult to calculate distances with high accuracy and to recognize objects accurately. In particular, CCD lines in a multi-stage line type CCD are spaced at equal intervals,
When one end of the multi-stage line type CCD in the line direction is a short distance line for detecting a short distance, and the other end is a long distance line for detecting a long distance, the recognition object is When approaching relatively, the time that the object crosses the near line in the near area is shorter than the time that the object crosses the far line in the far area. If the data processing takes time to perform, the object recognized on the long distance side will be lost on the short distance side.
【0005】本発明は斯かる諸点に鑑みてなされたもの
であり、その目的とするところは、多段ライン型CCD
による距離データの処理に工夫を凝らすことにより、多
段ライン型CCDを用いつつ、高精度の距離演算を行っ
て正確な物体認識を可能とすると共に、認識物体までの
距離に関係なくその認識物体を確実に追従し続けること
ができるようにすることにある。[0005] The present invention has been made in view of the above points, and an object thereof is to provide a multi-stage line type CCD.
By devising the processing of the distance data by using the multi-stage line type CCD, high-precision distance calculation can be performed and accurate object recognition can be performed, and the recognition object can be recognized regardless of the distance to the recognition object. The purpose is to ensure that the vehicle can continue to follow.
【0006】[0006]
【課題を解決するための手段】上記の目的を達成するた
めに、この発明では、多段ライン型CCDにより得られ
た画像を、ライン列方向及びウィンドウ方向にそれぞれ
分割して各領域について距離を測定し、この各領域毎の
距離データに基づいてライン毎の代表距離をそれぞれ演
算し、この代表距離が所定時間毎に連続して演算される
回数がしきい値よりも大きいときに、その代表距離に基
づいて物体を認識すると共に、上記しきい値を近距離側
ラインほど小さく設定するようにした。In order to achieve the above object, according to the present invention, an image obtained by a multi-stage line type CCD is divided into a line direction and a window direction, and a distance is measured for each region. Then, the representative distance for each line is calculated based on the distance data for each area, and when the number of times that the representative distance is continuously calculated at a predetermined time is greater than a threshold value, the representative distance is calculated. , And the threshold value is set to be smaller as the distance is closer to the line.
【0007】具体的には、請求項1の発明では、図1に
示すように、ウィンドウ方向に沿って配置された多数の
CCDからなるCCDラインをウィンドウ方向と直交す
るライン列方向に多段に並設してなり画像を輝度情報と
して捕らえる多段ライン型CCD11を備え、該多段ラ
イン型CCD11からの輝度信号に基づいて得られた2
次元の距離データから特定の物体を認識するようにした
物体認識装置が対象である。Specifically, according to the first aspect of the present invention, as shown in FIG. 1, CCD lines composed of a large number of CCDs arranged along a window direction are arranged in multiple stages in a line direction orthogonal to the window direction. A multi-stage line type CCD 11 for capturing an image as luminance information, and a multi-line CCD 11 obtained based on a luminance signal from the multi-stage line type CCD 11.
The object is an object recognition device that recognizes a specific object from dimensional distance data.
【0008】そして、上記多段ライン型CCD11のラ
イン列方向の一端側が近距離側を検出する近距離側ライ
ンとされる一方、他端側が遠距離側を検出する遠距離側
ラインとされ、上記多段ライン型CCD11により得ら
れた画像を上記CCDライン毎にかつウィンドウ方向に
複数に分割して各領域について距離を測定する測距手段
16と、上記測距手段16により測定された各領域毎の
距離に基づき上記ライン毎の代表距離をそれぞれ演算す
るライン距離演算手段26と、上記ライン距離演算手段
26によりライン毎の代表距離が所定時間毎に連続して
演算される回数がしきい値よりも大きいときに、該代表
距離に基づいて物体を認識する物体認識手段20とを備
え、上記しきい値は、上記遠距離側ラインに比べて近距
離側ラインほど小さく設定されているものとする。One end of the multi-stage line type CCD 11 in the line direction is a short-distance side line for detecting a short-distance side, and the other end is a long-distance line for detecting a long-distance side. A distance measuring unit 16 that divides an image obtained by the line type CCD 11 into a plurality of parts for each CCD line and in a window direction to measure a distance for each region, and a distance for each region measured by the distance measuring unit 16 And the number of times that the representative distance for each line is continuously calculated by the line distance calculating means at predetermined time intervals is greater than a threshold value. An object recognizing means for recognizing an object based on the representative distance, wherein the threshold value is smaller for a short distance side line than for a long distance side line. It is assumed to be Ku set.
【0009】上記の構成により、先ず、測距手段16に
おいて、多段ライン型CCD11の画像がライン毎にか
つウィンドウ方向に複数に分割されて各領域について距
離が測定される。次いで、ライン距離演算手段26にお
いて、上記測距手段16により測定された領域毎の距離
に基づきライン毎の代表距離が演算され、物体認識手段
20において、このライン距離演算手段26によりライ
ン毎の代表距離が所定時間(1サンプリング時間)毎に
連続して演算される回数がしきい値よりも大きいとき
に、その代表距離から物体が認識される。すなわち、距
離データの有効性が高い場合は代表距離が演算される一
方、距離データの有効性が低い場合は代表距離が演算さ
れず、1サンプリング時間毎に連続して演算される回数
が多いほど、その距離データ延いては代表距離の有効性
が高いと判断することができるので、その回数がしきい
値よりも大きいときにその代表距離から物体を認識す
る。With the above configuration, first, in the distance measuring means 16, the image of the multi-stage line type CCD 11 is divided into a plurality of lines for each line and in the window direction, and the distance is measured for each region. Next, a representative distance for each line is calculated by the line distance calculating means 26 based on the distance for each area measured by the distance measuring means 16, and a representative distance for each line is calculated by the line distance calculating means 26 in the object recognition means 20. When the number of times that the distance is continuously calculated every predetermined time (one sampling time) is larger than a threshold value, the object is recognized from the representative distance. In other words, when the validity of the distance data is high, the representative distance is calculated. On the other hand, when the validity of the distance data is low, the representative distance is not calculated. Since the validity of the distance data and the representative distance can be determined to be high, the object is recognized from the representative distance when the number of times is greater than the threshold value.
【0010】したがって、このように、各領域について
の距離データに基づいてライン毎の代表距離を求めて、
この代表距離の有効性が高いときに、その代表距離から
物体を認識するので、測距データのばらつきやノイズ等
があっても、その影響を可及的に低減することができ、
高精度の距離演算が可能となって正確な物体認識を行う
ことができる。Therefore, the representative distance for each line is obtained based on the distance data for each area as described above.
When the effectiveness of the representative distance is high, the object is recognized from the representative distance, so that even if there is variation or noise in the distance measurement data, the influence can be reduced as much as possible.
High-precision distance calculation becomes possible, and accurate object recognition can be performed.
【0011】そして、上記しきい値は、遠距離側ライン
に比べて近距離側ラインほど小さく設定されているの
で、近距離側ラインではより短時間で物体認識を行うこ
とができ、多段ライン型CCDでのCCDラインが等間
隔である場合、認識物体が相対的に近づいてくる際、遠
距離側にて認識した物体を近距離側で見失うことはな
い。しかも、上記しきい値が、近距離側ラインほど小さ
く設定されていても、近距離側の距離検出精度は遠距離
側よりも高いので、近距離側の物体認識を正確に行うこ
とができる。よって、認識物体をその距離に関係なく確
実に追従し続けることができる。Since the threshold value is set smaller for a short distance side line than for a long distance side line, the object recognition can be performed in a short time on the short distance side line. If the CCD lines of the CCD are at equal intervals, when the recognition object relatively approaches, the object recognized on the long distance side will not be lost on the short distance side. In addition, even if the threshold value is set smaller for a line on the short distance side, since the distance detection accuracy on the short distance side is higher than that on the long distance side, object recognition on the short distance side can be performed accurately. Therefore, it is possible to reliably follow the recognition object regardless of the distance.
【0012】請求項2の発明では、請求項1の発明にお
いて、測距手段16により測定された各領域毎の距離デ
ータをスムーズ化処理するスムーズ化処理手段を設け、
上記スムーズ化処理手段は、スムーズ化度合いを遠距離
側ラインに比べて近距離側ラインほど小さくするように
構成されているものとする。According to a second aspect of the present invention, in the first aspect of the present invention, there is provided a smoothing processing means for performing a smoothing process on the distance data of each area measured by the distance measuring means 16,
It is assumed that the smoothing processing means is configured to make the degree of smoothing smaller on a short distance side line than on a long distance side line.
【0013】この発明により、測距手段16により測定
された各領域毎の距離データがスムーズ化処理手段によ
ってスムーズ化処理されているので、突発的なノイズ等
の影響を受けることなく、より一層正確に物体を認識す
ることができる。そして、そのスムーズ化度合いは、遠
距離側ラインに比べて近距離側ラインほど小さくされて
いるので、その処理に要する時間は近距離側ラインほど
短くて済み、距離データをスムーズ化処理しても、認識
物体を近距離側で見失うことはない。According to the present invention, since the distance data for each area measured by the distance measuring means 16 is subjected to smoothing processing by the smoothing processing means, it is more accurate without being affected by sudden noise or the like. Can recognize the object. Since the degree of smoothing is smaller for the near line as compared to the far line, the time required for the processing is shorter for the near line, and even when the distance data is smoothed. In addition, the recognition object is not lost on the short distance side.
【0014】請求項3の発明では、請求項1又は2の発
明において、物体認識手段は、物体の認識結果に基づい
て警報等の信号を出力するように構成されているものと
する。このことで、認識物体を容易に知ることができ、
物体が相対的に近づいてくるような危険度が高い場合
に、より一層その効果を発揮させることができる。According to a third aspect of the present invention, in the first or second aspect of the present invention, the object recognizing means is configured to output a signal such as an alarm based on the result of the object recognition. This makes it easy to know the recognition object,
When the risk of the object approaching relatively is high, the effect can be further exhibited.
【0015】[0015]
【発明の実施の形態】以下、本発明の実施形態を図面に
基づいて説明する。図2は本発明の実施形態に係る物体
認識装置を装備した車両C(自動車)を示し、この物体
認識装置は、車両Cの左右斜め後側方に位置する他の車
両等の物体O(図5、図11、図12に示す)を認識す
る。Embodiments of the present invention will be described below with reference to the drawings. FIG. 2 shows a vehicle C (automobile) equipped with the object recognition device according to the embodiment of the present invention, and the object recognition device is an object O (see FIG. 5, shown in FIGS. 11 and 12).
【0016】図2において、1は車両Cの車体、2は車
体1の前後略中央部に形成された車室、3は車体1の前
端部に形成されたエンジンルーム、4は車室2の前端部
に配置されたインストルメントパネル、5は車室2の後
端部にあるパッケージトレイ、6はリヤウィンドガラス
である。そして、図3に示すように、上記物体認識装置
は、各々物体Oまでの距離を測定するための左右の後側
方検知センサ10,10と、この各検知センサ10の出
力信号がそれぞれ入力されるコントローラ15と、この
コントローラ15からの信号を受けて物体Oの存在をC
RTや液晶等により表示する表示装置31、及び同物体
Oの危険度を警報する警報装置32とを備えている。そ
して、図2に示す如く、上記両検知センサ10,10
は、上記パッケージトレイ5上の左右両端部にそれぞれ
斜め後方を向いた状態で取付固定されている。また、コ
ントローラ15はエンジンルーム3の後端部に、また表
示装置31及び警報装置32はインストルメントパネル
4にそれぞれ配設されている。In FIG. 2, reference numeral 1 denotes a vehicle body of a vehicle C, 2 denotes a vehicle room formed at a substantially central portion in the front and rear direction of the vehicle body 1, 3 denotes an engine room formed at a front end of the vehicle body 1, and 4 denotes a vehicle room. An instrument panel 5 at the front end is a package tray at the rear end of the vehicle compartment 2, and 6 is a rear window glass. Then, as shown in FIG. 3, the object recognition device receives the left and right rear side detection sensors 10 and 10 for measuring the distance to the object O, and the output signals of the respective detection sensors 10. Controller 15 which receives a signal from the controller 15
The display device 31 includes a display device 31 for displaying by RT, liquid crystal, or the like, and an alarm device 32 for alarming the degree of danger of the object O. Then, as shown in FIG.
Are attached and fixed to both left and right end portions of the package tray 5 in a state of facing obliquely rearward, respectively. The controller 15 is provided at the rear end of the engine room 3, and the display device 31 and the alarm device 32 are provided at the instrument panel 4.
【0017】図5に示すように、上記各検知センサ10
は、所定距離離れて上下方向に配置された上下1対のC
CDチップ11,11と、該CCDチップ11,11に
対応して配置されたレンズ12,12とを備えている。
各CCDチップ11は、上下方向たるウィンドウ方向に
沿って配置された多数のCCDからなるCCDラインを
ウィンドウ方向と直交するライン列方向(水平方向)に
多段に並設してなる多段ライン型CCDからなり、この
各CCDチップ11によりレンズ12を経て車両Cのリ
アウィンドガラス6越しに、上下方向に角度θ1の範囲
でかつ水平左右方向に角度θ2の範囲(図10、図12
参照)にある物体O等の画像を輝度情報として捕らえる
ようになっている。As shown in FIG. 5, each of the detection sensors 10
Is a pair of upper and lower Cs arranged in a vertical direction at a predetermined distance.
The image pickup apparatus includes CD chips 11, 11 and lenses 12, 12 arranged corresponding to the CCD chips 11, 11.
Each of the CCD chips 11 is composed of a multi-stage line type CCD in which CCD lines composed of a large number of CCDs arranged in a vertical window direction are arranged in multiple stages in a line direction (horizontal direction) orthogonal to the window direction. Each of the CCD chips 11 passes through the lens 12 through the rear window glass 6 of the vehicle C through the lens 12 and has a range of an angle θ1 in the vertical direction and a range of an angle θ2 in the horizontal and horizontal directions (FIGS. 10 and 12).
) Is captured as luminance information.
【0018】図4に示す如く、上記各検知センサ10は
それぞれコントローラ15内の測距回路16(測距手
段)に接続されている。この各測距回路16は、両CC
Dチップ11,11での物体像の視差(位相差)を演算
する視差演算部17と、この視差演算部17からの信号
により物体Oまでの距離を演算する距離演算部18とを
備えている。そして、各測距回路16では、図6及び図
7に示す如く、各CCDチップ11により捕らえられた
画像を、ライン方向(水平方向)にCCDライン毎のn
個のラインに分割すると共に、その各ラインをウィンド
ウ方向(上下方向)にm個のウィンドウに分割して、画
像の略全体をm×n個の領域E,E,…で構成し、両方
のCCDチップ11,11による画像での同一の領域
E,E間の視差を求め、この視差から各領域E毎に物体
Oまでの距離を演算する。As shown in FIG. 4, each of the detection sensors 10 is connected to a distance measuring circuit 16 (distance measuring means) in a controller 15. Each of the distance measuring circuits 16 is connected to both CCs.
A parallax calculating unit 17 that calculates the parallax (phase difference) of the object image at the D chips 11 and 11 and a distance calculating unit 18 that calculates a distance to the object O based on a signal from the parallax calculating unit 17 are provided. . Then, as shown in FIGS. 6 and 7, each distance measuring circuit 16 converts the image captured by each CCD chip 11 into n lines for each CCD line in the line direction (horizontal direction).
, And each line is divided into m windows in the window direction (vertical direction), so that substantially the entire image is composed of m × n areas E, E,. The parallax between the same regions E, E in the images obtained by the CCD chips 11, 11 is obtained, and the distance to the object O is calculated for each region E from the parallax.
【0019】すなわち、両CCDチップ11,11によ
り捕らえられた画像はいずれも図6に示すようになる
が、これら両CCDチップ11,11の画像は同じライ
ン位置(図示例ではラインi)では、図8に示すよう
に、両CCDチップ11,11の上下方向のずれ分だけ
ずれていて視差が生じており、この視差を利用して物体
Oまでを測距する。この原理について図9により説明す
ると、図9の三角形P・O1・Q及び三角形O1・P1
・Q1同士、並びに三角形P・O2・Q及び三角形O2
・P2・Q2同士はそれぞれ相似形であるので、今、検
知センサ10(レンズ12)から物体Oまでの距離を
a、両レンズ12,12の中心間の距離をB(定数)、
レンズ12の焦点距離をf(定数)、両CCDチップ1
1,11での物体像のレンズ中心からのずれ量をそれぞ
れx1,x2とすると、 a・x1/f=B−a・x2/f となり、この式から、 a=B・f/(x1+x2) が得られる。つまり、両CCDチップ11,11での物
体像の視差(位相差)によって物体Oまでの距離aを測
定することができる。That is, the images captured by both CCD chips 11, 11 are as shown in FIG. 6, but the images of both CCD chips 11, 11 are at the same line position (line i in the illustrated example). As shown in FIG. 8, the two CCD chips 11 and 11 are displaced in the vertical direction to generate parallax, and the distance to the object O is measured using the parallax. This principle will be described with reference to FIG. 9. The triangles P.O1.Q and O1.P1 in FIG.
・ Q1 and triangles P · O2 · Q and triangle O2
Since P2 and Q2 are similar to each other, the distance from the detection sensor 10 (lens 12) to the object O is a, the distance between the centers of the lenses 12, 12 is B (constant),
The focal length of the lens 12 is f (constant), and both CCD chips 1
Assuming that the displacement amounts of the object image from the lens center at 1, 1 and 11 are x1 and x2, respectively, a · x1 / f = Ba−x2 / f, and from this equation, a = B · f / (x1 + x2) Is obtained. That is, the distance a to the object O can be measured by the parallax (phase difference) of the object image between the two CCD chips 11, 11.
【0020】尚、図6及び図7におけるG(白点)は、
CCDチップ11のCCDに対応するように縦横格子状
に配置された測距点(測距ポイント)であり、この測距
点Gは各領域Eに含まれている。また、各CCDライン
でのウィンドウは、一部が隣接するウィンドウと互いに
オーバーラップするように分割されており、上下方向
(ウィンドウ方向)に隣接する領域E,Eに同じ測距点
G,G,…が含まれている。また、O′は物体の像であ
る。G (white dots) in FIGS. 6 and 7 are:
The distance measuring points (ranging points) are arranged in a vertical and horizontal lattice so as to correspond to the CCD of the CCD chip 11, and the distance measuring points G are included in each area E. The window of each CCD line is divided so that a part of the window overlaps with the adjacent window, and the same distance measuring points G, G, G, and G are located in regions E and E adjacent in the vertical direction (window direction). …It is included. O 'is an image of the object.
【0021】また、図10に示すように、上記各CCD
チップ11により捕らえられた画像をライン毎に分割し
て形成される複数のラインは、車両Cの外側で近距離を
測距するライン位置が若い番号とされる一方、車幅方向
の中央側で遠距離を測距するライン位置が大きい番号と
され、外側ラインから車幅方向の中央側ラインに向かっ
て番号が順に増加するように番号付けされている。Further, as shown in FIG.
A plurality of lines formed by dividing the image captured by the chip 11 line by line are arranged such that the line position for measuring a short distance outside the vehicle C has a smaller number, while the center position in the vehicle width direction has a smaller number. The line position for measuring a long distance is set to a large number, and the number is sequentially increased from the outer line toward the center line in the vehicle width direction.
【0022】図4に示す如く、上記コントローラ15に
は、センサ10に基づいて得られた上下方向及び水平方
向の2次元の距離データ、つまり各測距回路16からの
信号を基に特定の物体Oを認識する物体認識部20と、
この物体認識部20の出力信号により物体Oを新規物体
かどうか選別する物体選別部21と、この物体選別部2
1により選別された物体Oが車両C(自車)にとって危
険対象物かどうかを判断する危険判断部22とが設けら
れており、物体認識部20において、物体Oの認識結果
に基づいて表示信号を表示装置31に、また警報信号を
警報装置32にそれぞれ物体選別部21を経て出力する
ようにしている。As shown in FIG. 4, a specific object is provided to the controller 15 based on two-dimensional distance data in the vertical direction and the horizontal direction obtained based on the sensor 10, that is, a signal from each distance measuring circuit 16. An object recognition unit 20 that recognizes O;
An object selecting section 21 for selecting whether or not the object O is a new object based on an output signal of the object recognizing section 20;
And a danger determining unit 22 for determining whether the object O selected in Step 1 is a dangerous object for the vehicle C (own vehicle). The object recognizing unit 20 displays a display signal based on the recognition result of the object O. Is output to the display device 31 and an alarm signal is output to the alarm device 32 through the object selection unit 21.
【0023】また、コントローラ15は、物体Oを認識
する上で本来は物体Oが位置し得ない不要な範囲を除外
するレンジカット部24と、測距された各領域毎の距離
データと周りの8つの隣接領域との比較(8隣接点処
理)を行って有効ポイント数を付与する有効ポイント数
付与手段としての8隣接点処理部25と、ライン毎の距
離を演算するライン距離演算部26と、ガードレールを
判定するためのガードレール判定部27と、距離データ
を物体O毎にグルーピングするグルーピング部28とを
備えている。The controller 15 also includes a range cut unit 24 for excluding an unnecessary range where the object O cannot be originally located in recognizing the object O, a distance data for each measured area, and a surrounding area. An eight-neighbor point processing unit 25 as effective point number giving means for comparing the eight adjacent areas (eight-neighbor point processing) and giving an effective point number, and a line distance calculating unit 26 for calculating the distance for each line , A guardrail determination unit 27 for determining a guardrail, and a grouping unit 28 for grouping distance data for each object O.
【0024】図11は上記レンジカット部24で除外さ
れる上下方向のレンジカット範囲Z1を、また図12は
同左右方向のレンジカット範囲Z2をそれぞれ示してお
り、これらのレンジカット範囲Z1,Z2は、ラインの
角度とその位置での距離とに基づいて検出される。図1
2中、Fは車両Cの路面、Mは道路における車両走行車
線を設定する路面F上の白線、F1は道路の両側に設置
された路側帯、Hはその植込みである。FIG. 11 shows a range cut range Z1 in the vertical direction excluded by the range cut section 24, and FIG. 12 shows a range cut range Z2 in the horizontal direction. These range cut ranges Z1 and Z2 are shown. Is detected based on the angle of the line and the distance at that position. FIG.
2, F is the road surface of the vehicle C, M is a white line on the road surface F that sets the vehicle traveling lane on the road, F1 is a roadside zone installed on both sides of the road, and H is an implant.
【0025】上記8隣接点処理部25での8隣接点処理
動作は、図13に示すように、ある領域E(i,j)の
距離データに対しそれに隣接する周りの8つの隣接領域
R1〜R8の距離データの相関性を判断するもので、具
体的に図15に示す如く行われる。すなわち、最初のス
テップS1で、ライン数n及びウィンドウ数mに分割さ
れた領域E(i,j)毎の距離データd(i,j)を読
み込み、次のステップS2で各領域E(i,j)の有効
ポイント数P(i,j)をP(i,j)=0と初期化す
る。この有効ポイント数P(i,j)は各領域E(i,
j)に設定されるもので、この値が大きいほど領域の距
離データの有効性が高く、信頼性、信憑性があると判断
される。次のステップS3では、全ての領域のうち左右
端及び上下端の位置にある領域(格子点)への有効ポイ
ント数を嵩上げし、周辺の領域には有効ポイント数P
(i,j)を+1だけ、またその中で4つの隅角部の領
域には有効ポイント数P(i,j)を+2だけそれぞれ
増やすように設定する。この後、ステップS4におい
て、隣接点処理を行うかどうかを判定し、この判定がN
Oのときには、ステップS11において有効ポイント数
P(i,j)をP(i,j)=8に設定した後、ステッ
プS12に進む一方、判定がYESのときには、ステッ
プS5に進む。As shown in FIG. 13, the eight adjacent point processing operation of the eight adjacent point processing unit 25 is performed by dividing the distance data of a certain area E (i, j) into eight adjacent areas R1 to R5. This is for determining the correlation of the distance data of R8, and is specifically performed as shown in FIG. That is, in the first step S1, distance data d (i, j) for each area E (i, j) divided into the number n of lines and the number m of windows is read, and in the next step S2, each area E (i, j) is read. The number of effective points P (i, j) of j) is initialized to P (i, j) = 0. The number of effective points P (i, j) is calculated for each area E (i, j).
j), the larger the value is, the higher the validity of the distance data of the area is, and it is determined that the distance data is reliable and credible. In the next step S3, the number of effective points to the area (lattice point) located at the left and right ends and the upper and lower ends of all the areas is increased, and the effective points P
(I, j) is set so as to be increased by +1 and the number of effective points P (i, j) is increased by +2 in the four corner areas. Thereafter, in step S4, it is determined whether or not to perform the adjacent point processing.
In the case of O, after setting the number of effective points P (i, j) to P (i, j) = 8 in step S11, the process proceeds to step S12, while if the determination is YES, the process proceeds to step S5.
【0026】上記ステップS4で隣接点処理を行うかど
うかの判定は、例えば、予め各ライン位置毎に決定され
る基準距離値が所定値よりも大きいか否かを判定するも
ので、基準距離値が所定値よりも大きいときには、隣接
点処理は行わない(ステップS11に進む)一方、基準
距離値が所定値よりも大きくないときには、隣接点処理
を行う(同ステップS5に進む)。The determination of whether or not to perform the adjacent point processing in step S4 is, for example, to determine whether or not a reference distance value previously determined for each line position is larger than a predetermined value. Is larger than a predetermined value, the adjacent point processing is not performed (proceed to step S11), while if the reference distance value is not larger than the predetermined value, adjacent point processing is performed (proceed to step S5).
【0027】上記ステップS5では距離しきい値d0を
設定する。この距離しきい値d0は、付与ポイント数p
を決定するためのもので、例えば、定数に設定する。In step S5, a distance threshold value d0 is set. This distance threshold value d0 is determined by the number of assigned points p
For example, and is set to a constant, for example.
【0028】ステップS5の後はステップS6に進み、
隣接領域Riの距離データd(Ri)を読み込み、次の
ステップS7では上記領域Eと隣接領域R1〜R8との
距離差dx=|d(i,j)−d(Ri)|を演算す
る。この後、ステップS8において、上記距離差dxが
上記距離しきい値d0よりも小さいか否かの判定を行
い、この判定がNOのときにはステップS12に進む一
方、判定がYESのときには、ステップS9において付
与すべきポイント数pを設定する。After step S5, the process proceeds to step S6,
The distance data d (Ri) of the adjacent region Ri is read, and in the next step S7, a distance difference dx = | d (i, j) -d (Ri) | between the region E and the adjacent regions R1 to R8 is calculated. Thereafter, in step S8, it is determined whether or not the distance difference dx is smaller than the distance threshold value d0. When the determination is NO, the process proceeds to step S12, and when the determination is YES, the process proceeds to step S9. The number p of points to be given is set.
【0029】このようなステップS9の後、ステップS
10において、それまでの有効ポイント数P(i,j)
に上記付与ポイント数pを加えて新たな有効ポイント数
P(i,j)=P(i,j)+pを設定し、上記ステッ
プS12に進む。このステップS12では、ステップS
6〜S10の処理が8つの隣接領域R1〜R8の各々に
ついて終了したか否かを判定し、この判定がNOのとき
にはステップS6に戻って、他の残りの隣接領域につい
て同様の処理を行う。一方、判定がYESになると、ス
テップS13に進み、全ての領域E,E,…についての
有効ポイント数P(i,j)の設定(ステップS6〜S
10の処理)が終了したか否かを判定する。この判定が
NOのときには、ステップS4に戻って他の領域Eにつ
いて有効ポイント数P(i,j)の設定を繰り返す。一
方、判定がYESになると、次のライン毎の距離の演算
処理(図16参照)に進む。After such step S9, step S
At 10, the number of valid points P (i, j) up to that point
Is added to the number of assigned points to set a new number of valid points P (i, j) = P (i, j) + p, and the process proceeds to step S12. In this step S12, step S
It is determined whether or not the processes of 6 to S10 have been completed for each of the eight adjacent regions R1 to R8. If the determination is NO, the process returns to step S6, and the same process is performed for the other remaining adjacent regions. On the other hand, if the determination is YES, the process advances to step S13 to set the number of effective points P (i, j) for all the areas E, E,.
10) is determined. When this determination is NO, the process returns to step S4, and the setting of the number of effective points P (i, j) is repeated for another area E. On the other hand, if the determination is YES, the process proceeds to the next distance calculation processing for each line (see FIG. 16).
【0030】図16は上記ライン距離演算部26での処
理動作を示し、上記8隣接点処理部25(有効ポイント
数付与手段)により付与設定された有効ポイント数P
(i,j)に基づき上記ライン毎の距離をそれぞれ演算
する。FIG. 16 shows the processing operation in the line distance calculating section 26, and the number of effective points P set by the eight adjacent point processing section 25 (effective point number giving means).
The distance for each line is calculated based on (i, j).
【0031】先ず、ステップT1において、ライン数n
及びウィンドウ数mに分割された領域E毎の距離データ
d(i,j)を読み込むと共に、上記8隣接点処理によ
り付与された領域E毎の有効ポイント数P(i,j)を
読み込み、次のステップT2では、ライン代表有効ポイ
ント数PI(i)をPI(i)=0に初期化する。この
ライン代表有効ポイント数PI(i)は、ライン毎の距
離演算の際にラインに設定されるもので、この値が大き
いほどラインの距離データの有効性が高く、信頼性、信
憑性があると判断される。First, in step T1, the number of lines n
And the distance data d (i, j) for each area E divided into the number m of windows, and the number of effective points P (i, j) for each area E given by the above-described eight adjacent point processing. In step T2, the line representative effective point number PI (i) is initialized to PI (i) = 0. The line representative effective point number PI (i) is set for a line at the time of distance calculation for each line, and the larger this value is, the higher the validity of the distance data of the line is, and the more reliable and reliable it is. Is determined.
【0032】次のステップT3では、上記ライン代表有
効ポイント数PI(i)に対応するライン代表しきい値
P0を設定する。このステップT3でのライン代表しき
い値P0は、例えば一定値に設定する。In the next step T3, a line representative threshold value P0 corresponding to the line representative effective point number PI (i) is set. The line representative threshold value P0 in step T3 is set to, for example, a constant value.
【0033】ステップT3の後はステップT4に進み、
上記領域毎の有効ポイント数P(i,j)がライン代表
しきい値P0よりも大きいか否かを判定する。この判定
がNOのときには、そのままステップT6に進むが、判
定がYESのときには、ステップT5において、ライン
毎の代表距離l(i)を平均化のために更新すると共
に、上記ライン代表有効ポイント数PI(i)に領域毎
の有効ポイント数P(i,j)を加えてライン代表有効
ポイント数PI(i)の更新を行った後にステップT6
に進む。すなわち、ライン距離演算部26では、8隣接
点処理部25によって付与設定された有効ポイント数P
(i,j)がライン代表しきい値P0よりも大きい領域
についてライン毎の距離演算を行うようにしている。After step T3, the process proceeds to step T4,
It is determined whether or not the number of effective points P (i, j) for each area is larger than the line representative threshold value P0. When this determination is NO, the process directly proceeds to step T6, but when the determination is YES, in step T5, the representative distance l (i) for each line is updated for averaging, and the line representative effective point number PI is updated. After updating the line representative effective point number PI (i) by adding the effective point number P (i, j) for each area to (i), step T6.
Proceed to. That is, in the line distance calculating unit 26, the number of effective points P set by the eight adjacent point processing unit 25 is set.
Distance calculation is performed for each line in an area where (i, j) is larger than the line representative threshold value P0.
【0034】上記ライン毎の代表距離l(i)の更新は
次の式で行う。 l(i)=[l(i)×PI(i)+d(i,j)×
{P(i,j)−PO+1}]÷{PI(i)+P
(i,j)−PO+1}The updating of the representative distance l (i) for each line is performed by the following equation. l (i) = [l (i) × PI (i) + d (i, j) ×
{P (i, j) -PO + 1}] {PI (i) + P
(I, j) -PO + 1}
【0035】上記ステップT6では当該ラインの全ての
ウィンドウ番号(領域E)について終了したか否かを判
定し、この判定がYESになるまでラインの各領域Eに
ついてステップT3〜T5を繰り返す。ステップT6の
判定がYESになると、ステップT7に進み、全てのラ
イン番号について終了したか否かを判定し、この判定が
YESになるまでステップT2〜T6を繰り返す。ステ
ップT7の判定がYESになると、次の物体認識処理
(図17参照)に進む。In step T6, it is determined whether or not the processing has been completed for all window numbers (areas E) of the line, and steps T3 to T5 are repeated for each area E of the line until this determination becomes YES. If the determination in step T6 is YES, the process proceeds to step T7, where it is determined whether or not the processing has been completed for all the line numbers, and steps T2 to T6 are repeated until this determination becomes YES. If the determination in step T7 is YES, the process proceeds to the next object recognition process (see FIG. 17).
【0036】図17はコントローラ15における物体認
識部20での処理動作を示し、この物体認識部20で
は、上記ライン距離演算部26により演算されたライン
毎の代表距離l(i)に基づいて物体Oを認識する。す
なわち、ステップW1において物体番号kを設定し、ス
テップW2では、物体検出距離L(k)、物体有効ポイ
ント数PK(k)及び物体内のデータ数N(k)をいず
れも0にして、一次保管用データセットのリセットを行
う。FIG. 17 shows the processing operation of the object recognizing section 20 in the controller 15. The object recognizing section 20 calculates the object based on the representative distance l (i) for each line calculated by the line distance calculating section 26. Recognize O. That is, in step W1, the object number k is set, and in step W2, the object detection distance L (k), the number of effective object points PK (k), and the number of data in the object N (k) are all set to 0, and the primary Reset the archive data set.
【0037】次のステップW3では、有効な未登録のラ
インデータが登録されているか否かを判定し、この判定
がNOのときにはステップW8に進む。ステップW3の
判定がYESのときには、ステップW4において、ライ
ンデータの前後位置XD(i)及び横位置YD(i)を
設定する。この後、ステップW5において、既に上記物
体検出距離L(k)が定義されているか否かを判定し、
この判定がNOのときには、ステップW6に進み、上記
物体検出距離L(k)をL(k)=XD(i)に、また
物体有効ポイント数PK(k)をPK(k)=PI
(i)に、さらに物体内のデータ数N(k)をN(k)
=1にそれぞれ設定して、一次保管用データセットのセ
ットを行った後、ステップW8に進む。In the next step W3, it is determined whether or not valid unregistered line data is registered. If this determination is NO, the flow proceeds to step W8. If the determination in step W3 is YES, in step W4, the front / rear position XD (i) and the horizontal position YD (i) of the line data are set. Thereafter, in step W5, it is determined whether or not the object detection distance L (k) has already been defined.
If this determination is NO, the process proceeds to step W6, where the object detection distance L (k) is set to L (k) = XD (i), and the number of object valid points PK (k) is set to PK (k) = PI
In (i), the number of data in the object N (k) is further expressed as N (k)
= 1 and the primary storage data set is set, and then the process proceeds to step W8.
【0038】これに対し、ステップW5の判定がYES
のときには、ステップW7に進み、物体検出距離L
(k)をL(k)={PK(k)×L(i)+P(i)
×XD(i)}/{PK(k)+P(i)}に、また物
体有効ポイント数PK(k)をPK(k)=PK(k)
+PI(i)に、さらに物体内のデータ数N(k)をN
(k)=N(k)+1にそれぞれ設定して、一次保管用
データセットの更新を行った後、ステップW8に進む。On the other hand, the determination in step W5 is YES
, The process proceeds to step W7, where the object detection distance L
Let (k) be L (k) = {PK (k) × L (i) + P (i)
× XD (i)} / {PK (k) + P (i)} and the number of object effective points PK (k) as PK (k) = PK (k)
+ PI (i), and the number of data in the object N (k) by N
After setting (k) = N (k) +1 and updating the primary storage data set, the process proceeds to step W8.
【0039】上記ステップW8では、全てのライン番号
について終了したか否かを判定し、この判定がYESに
なるまでステップW3〜W7を繰り返す。ステップW8
の判定がYESになると、ステップW9〜W11におい
て物体Oの登録の可否の判定を行う。先ず、ステップW
9において、上記物体内のデータ数N(k)が所定値以
上か否かを判定する。尚、この所定値は、遠距離側ほど
小さくするように可変設定することもできる。このステ
ップW9の判定がNOのときには、距離データはノイズ
等に起因するものであると見做し、ステップW10にお
いて物体Oの登録は行わず、物体番号kの物体データを
初期化した後、終了する。一方、ステップW9の判定が
YESであるときには、ステップW11において物体O
の登録を行った後に終了する。すなわち、物体認識部2
0は、ライン距離演算部26により演算されたライン毎
の距離のデータ数N(k)が所定値以上であるときのみ
に、該ライン毎の距離に対応する物体を新規物体として
登録する。In step W8, it is determined whether or not the processing has been completed for all the line numbers, and steps W3 to W7 are repeated until the determination becomes YES. Step W8
Is YES, it is determined whether or not the registration of the object O is possible in steps W9 to W11. First, step W
In 9, it is determined whether the number N (k) of data in the object is equal to or greater than a predetermined value. Note that the predetermined value can be variably set so as to decrease as the distance increases. If the determination in step W9 is NO, it is considered that the distance data is due to noise or the like, and the object O is not registered in step W10, the object data of the object number k is initialized, and the process ends. I do. On the other hand, when the determination in step W9 is YES, in step W11 the object O
After registering, the process ends. That is, the object recognition unit 2
A value of 0 registers an object corresponding to the distance of each line as a new object only when the number N (k) of distance data for each line calculated by the line distance calculation unit 26 is equal to or greater than a predetermined value.
【0040】この物体認識部20での処理動作の後は、
上記表示装置31での物体表示のための表示処理や警報
装置32での警報のための警報処理を行う。After the processing operation in the object recognition unit 20,
A display process for displaying an object on the display device 31 and a warning process for a warning on the warning device 32 are performed.
【0041】上記一連の処理動作は、所定時間(1サン
プリング時間)毎に繰り返し行われ、一度認識した物体
Oを、各CCDチップ11により捕らえることが可能な
範囲に存在する限り、上記物体選別部21にて新規物体
との選別を行いながら捕捉し続ける。The above-described series of processing operations are repeatedly performed at predetermined time intervals (one sampling time). As long as the object O once recognized is within a range that can be captured by each CCD chip 11, the object selection unit At 21, capture is continued while performing selection with a new object.
【0042】ここで、実際には、上記物体認識部20に
おいて、物体認識処理動作に先立って認識前処理動作が
行われるようになっている。この認識前処理動作では、
上記ライン距離演算部26によりライン毎の代表距離が
1サンプリング時間毎に連続して演算される回数がしき
い値よりも大きいか否かを判断し、その有効回数がしき
い値よりも大きいときに、物体認識処理にてその代表距
離のみに基づいて物体を認識し得るように準備するよう
になっている。つまり、上記8隣接点処理部25にて付
与された有効ポイント数が上記ライン代表しきい値P0
よりも大きくて距離データの有効性が高い場合は代表距
離が演算される一方、距離データの有効性が低い場合は
代表距離が演算されないので、1サンプリング時間毎に
連続して演算される回数が多いほど、その代表距離は信
頼性が高くて物体認識に使用することができるものとし
て、その代表距離のみに基づいて物体を認識し得るよう
にする。Here, in practice, the object recognition section 20 performs a pre-recognition processing operation prior to the object recognition processing operation. In this pre-recognition processing operation,
It is determined whether or not the number of times that the representative distance for each line is continuously calculated for each line by the line distance calculating unit 26 is larger than a threshold value. In the object recognition process, preparations are made so that an object can be recognized based only on the representative distance. That is, the number of effective points given by the eight adjacent point processing unit 25 is equal to the line representative threshold value P0.
If the distance data is higher and the validity of the distance data is higher, the representative distance is calculated. On the other hand, if the validity of the distance data is lower, the representative distance is not calculated. As the number increases, the representative distance has higher reliability and can be used for object recognition, so that the object can be recognized based only on the representative distance.
【0043】図18は、上記物体認識部20での認識前
処理動作を示す。先ず、ステップU1で各ライン毎に、
代表距離が1サンプリング時間毎に連続して演算される
回数LD_num(i)を読み込んだ後、ステップU2
でその有効回数LD_num(i)のしきい値LD_L
imitを設定する。このしきい値LD_Limit
は、図19に示す如く、各ライン毎に設定されたしきい
値LD_th(i)とされ、例えば、図20(a)に示
すように、ライン位置が大きくなる(車体1外側ライン
つまり近距離側ラインから内側ラインつまり遠距離側ラ
インに向かう)に連れてしきい値LD_Limitが比
例して大きくなるか、或いは、図20(b)に示すよう
に、ライン位置が大きくなるに連れてしきい値LD_L
imitが段階的に大きくなるように設定する。FIG. 18 shows a pre-recognition processing operation in the object recognition section 20. First, in step U1, for each line,
After reading the number of times LD_num (i) in which the representative distance is continuously calculated for each sampling time, step U2 is performed.
And the threshold LD_L of the effective number LD_num (i)
Set the limit. This threshold LD_Limit
Is a threshold LD_th (i) set for each line, as shown in FIG. 19, and, for example, as shown in FIG. The threshold value LD_Limit increases proportionally from the side line toward the inner line, that is, toward the far distance side line, or the threshold increases as the line position increases, as shown in FIG. Value LD_L
The limit is set so as to increase step by step.
【0044】次のステップU3で有効回数LD_num
(i)が上記しきい値LD_Limitよりも大きいか
否かを判定し、この判定がYESのときには、ステップ
U4に進んで物体認識に使用できるデータとしてフラグ
Line_Ob_f(i)を1にしてステップU5に進
む。一方、ステップU3の判定がNOのときには、その
ままステップU5に進む。In the next step U3, the number of valid times LD_num
It is determined whether or not (i) is greater than the threshold LD_Limit. If the determination is YES, the process proceeds to step U4, where the flag Line_Ob_f (i) is set to 1 as data usable for object recognition, and the process proceeds to step U5. move on. On the other hand, if the judgment in the step U3 is NO, the process directly proceeds to the step U5.
【0045】上記ステップU5では、全てのラインにつ
いて終了したか否かを判定し、この判定がYESになる
まで上記ステップU3,U4を繰り返す。ステップU5
の判定がYESになると、上記物体認識処理に進むこと
になる。このため、上記物体認識処理では、フラグLi
ne_Ob_f(i)が1とされたラインの代表距離
(図17の物体認識処理におけるステップW3での有効
なラインデータとされる)のみに基づいて物体Oを認識
することになる。In the step U5, it is determined whether or not the processing has been completed for all the lines, and the steps U3 and U4 are repeated until the determination becomes YES. Step U5
Is YES, the process proceeds to the object recognition process. Therefore, in the object recognition process, the flag Li
The object O is recognized based only on the representative distance of the line for which ne_Ob_f (i) is set to 1 (which is valid line data in step W3 in the object recognition processing in FIG. 17).
【0046】また、各測距回路16にて測定された各領
域E毎の距離データは、スムーズ化処理手段としてのロ
ーパスフィルターによりスムーズ化処理された後、8隣
接点処理部25にて8隣接点処理が行われるようになっ
ている。すなわち、df(i,j)=a×df(i,
j)+(1−a)×d(i,j)という処理動作を行っ
た後、d(i,j)の代りにdf(i,j)を用いて上
記8隣接点処理が行われることになる。The distance data for each area E measured by each distance measuring circuit 16 is subjected to smoothing processing by a low-pass filter as a smoothing processing means. Point processing is performed. That, d f (i, j) = a × d f (i,
j) + (1-a) × d (it, after the processing operation of j), the 8 neighbors treated with d f (i, j) instead of d (i, j) is performed Will be.
【0047】上記ローパスフィルターによるスムーズ化
処理におけるaの値は0〜1の定数であるが、遠距離側
ラインに比べて近距離側ラインほど(ライン位置が小さ
くなるに連れて)小さく設定されている。つまり、この
ローパスフィルターは、スムーズ化度合いを遠距離側ラ
インに比べて近距離側ラインほど小さくするように構成
されている。このとき、ライン位置が所定値よりも小さ
い場合は、スムーズ化処理が全く施されないようにa=
0としてもよい。The value of a in the smoothing process by the low-pass filter is a constant of 0 to 1, but is set to be smaller (as the line position becomes smaller) for the short distance line as compared to the long distance line. I have. In other words, this low-pass filter is configured so that the degree of smoothing is smaller in the near line as compared to the far line. At this time, when the line position is smaller than the predetermined value, a = a is set so that the smoothing process is not performed at all.
It may be set to 0.
【0048】したがって、上記実施形態では、左右後側
方検知センサ10,10により画像が輝度情報として捕
らえられると、先ず、コントローラ15の各測距回路1
6において、各検知センサ10の画像がライン列及びウ
ィンドウ方向にそれぞれ分割されて各領域Eについて距
離d(i,j)が測定される。次いで、8隣接点処理部
25で、上記測定された領域E毎の距離d(i,j)
(df(i,j))及び隣接領域R1〜R8の距離の差
dxに基づいて各領域E毎の距離データの有効ポイント
数P(i,j)が付与され、ライン距離演算部26にお
いて上記有効ポイント数P(i,j)に基づきライン毎
の代表距離l(i)が演算され、物体認識部20におい
てライン距離演算部26によりライン毎の代表距離l
(i)が連続して演算される回数がしきい値LD_Li
mitよりも大きいときに、該代表距離l(i)から物
体Oが認識される。このように、各領域Eについての距
離データの有効性が隣接領域R1〜R8との関係から有
効ポイント数P(i,j)として判定され、この有効ポ
イント数P(i,j)に基づいてライン毎の代表距離l
(i)を求めて、その代表距離l(i)の有効性が高い
ときに、該代表距離l(i)から物体Oを認識するの
で、測距データのばらつきやノイズ等があっても、その
影響を可及的に低減することができ、高精度の距離演算
が可能となって正確な物体認識を行うことができる。Therefore, in the above embodiment, when the image is captured as luminance information by the left and right rear side detection sensors 10, 10, first, each distance measuring circuit 1 of the controller 15
At 6, the image of each detection sensor 10 is divided in the line direction and the window direction, and the distance d (i, j) is measured for each region E. Next, the distance d (i, j) for each of the measured areas E is calculated by the eight adjacent point processing unit 25.
(D f (i, j) ) and the effective number of points P (i, j) of the distance data for each area E based on the difference dx of the distance between adjacent regions R1~R8 is given, the line distance calculator 26 The representative distance l (i) for each line is calculated based on the number of effective points P (i, j), and the representative distance l for each line is calculated by the line distance calculation unit 26 in the object recognition unit 20.
The number of times (i) is continuously calculated is the threshold LD_Li
When it is larger than mit, the object O is recognized from the representative distance l (i). As described above, the validity of the distance data for each region E is determined as the number of valid points P (i, j) from the relationship with the adjacent regions R1 to R8, and based on the number of valid points P (i, j). Representative distance l for each line
(I) is obtained, and when the effectiveness of the representative distance l (i) is high, the object O is recognized from the representative distance l (i). The influence can be reduced as much as possible, and a highly accurate distance calculation can be performed, so that accurate object recognition can be performed.
【0049】また、上記しきい値LD_Limitは、
遠距離側ラインに比べて近距離側ラインほど小さく設定
されているので、近距離側ラインではより短時間で物体
認識を行うことができ、CCDチップ11でのCCDラ
インが等間隔である場合、認識物体Oが相対的に近づい
てくる際、遠距離側にて認識した物体Oを近距離側で見
失うことはない。しかも、上記しきい値LD_Limi
tが、近距離側ラインほど小さく設定されていても、近
距離側の距離検出精度は遠距離側よりも高いので、近距
離側で物体Oを正確に認識することができる。よって、
認識物体Oをその距離に関係なく確実に追従し続けるこ
とができる。The threshold LD_Limit is:
Since the shorter distance line is set smaller than the longer distance line, the object recognition can be performed in a shorter time in the shorter distance line, and when the CCD lines in the CCD chip 11 are equally spaced, When the recognition object O relatively approaches, the object O recognized on the long distance side is not lost on the short distance side. Moreover, the threshold value LD_Limi
Even if t is set to be smaller for the near line, the object O can be accurately recognized on the near side because the distance detection accuracy on the near side is higher than that on the far side. Therefore,
The recognition object O can be reliably followed irrespective of the distance.
【0050】さらに、各領域E毎の距離データは、ロー
パスフィルターによりスムーズ化処理され、そのスムー
ズ化度合いは、遠距離側ラインに比べて近距離側ライン
ほど小さく設定されているので、突発的なノイズ等の影
響を受けることなく、より一層正確に物体Oを認識する
ことができると共に、その処理に要する時間は近距離側
ラインほど短くて済み、認識物体Oを近距離側で見失う
のを防止することができる。Further, the distance data for each area E is subjected to a smoothing process by a low-pass filter, and the degree of smoothing is set to be smaller for a short distance side line than for a long distance side line. The object O can be recognized more accurately without being affected by noise and the like, and the time required for the processing is shorter for the short distance side line, and the recognition object O is prevented from being lost at the short distance side. can do.
【0051】また、物体認識部20は、物体Oの認識結
果に基づいて警報等の信号を出力するように構成されて
いるので、認識物体Oを容易に車両Cの乗員に知らせる
ことができ、物体Oが相対的に近づいてくるような危険
度が高い場合でもその物体Oを追従し続けることができ
るので、乗員に適切な警報を与えることができる。Since the object recognizing section 20 is configured to output a signal such as an alarm based on the recognition result of the object O, it is possible to easily notify the occupant of the vehicle C of the recognized object O. Even when there is a high degree of risk that the object O is relatively approaching, the object O can be continuously followed, so that an appropriate warning can be given to the occupant.
【0052】[0052]
【発明の効果】以上説明したように、請求項1の発明に
よると、多段ライン型CCDの画像をライン毎にかつウ
ィンドウ方向に複数に分割して各領域について距離を測
定し、この各領域毎の距離データに基づいてライン毎の
代表距離をそれぞれ演算し、この代表距離が所定時間毎
に連続して演算される回数がしきい値よりも大きいとき
に、その代表距離に基づいて物体を認識すると共に、上
記しきい値を近距離側ラインほど小さく設定するように
したことにより、測距データのばらつきやノイズ等があ
っても、その影響を可及的に低減して、正確な物体認識
を行うことができると共に、その認識物体をその距離に
関係なく確実に捕捉し続けることができる。As described above, according to the first aspect of the present invention, the image of the multi-stage line CCD is divided into a plurality of lines for each line and in the window direction, and the distance is measured for each region. Calculates the representative distance for each line based on the distance data, and recognizes the object based on the representative distance when the number of times that the representative distance is continuously calculated at a predetermined time is greater than a threshold value. In addition, by setting the threshold value to be smaller for the line on the short distance side, even if there is a variation or noise in the distance measurement data, the influence thereof is reduced as much as possible, and accurate object recognition is performed. Can be performed, and the recognition object can be reliably captured irrespective of the distance.
【0053】請求項2の発明によると、測距手段により
測定された各領域毎の距離データをスムーズ化処理する
スムーズ化処理手段を設け、このスムーズ化処理手段の
スムーズ化度合いを遠距離側ラインに比べて近距離側ラ
インほど小さくするようにしたことにより、認識物体を
近距離側で見失うことなく、より一層正確に物体を認識
することができる。According to the second aspect of the present invention, the smoothing processing means for smoothing the distance data of each area measured by the distance measuring means is provided, and the smoothing degree of the smoothing processing means is set to the long distance side line. By making the line smaller on the short distance side as compared with, the object can be more accurately recognized without losing the recognition object on the short distance side.
【0054】請求項3の発明によると、物体の認識結果
に基づいて警報等の信号を出力するようにしたことによ
り、認識物体を容易に知ることができ、物体が相対的に
近づいてくるような危険度が高い場合に、より一層その
効果を高めることができる。According to the third aspect of the present invention, a signal such as a warning is output based on the recognition result of the object, so that the recognized object can be easily known and the object relatively approaches. If the risk is high, the effect can be further enhanced.
【図1】本発明の構成図である。FIG. 1 is a configuration diagram of the present invention.
【図2】本発明の実施形態に係る物体認識装置の各構成
部品の車両での位置を示す斜視図である。FIG. 2 is a perspective view showing positions of respective components of the object recognition device according to the embodiment of the present invention in a vehicle.
【図3】物体認識装置の概略構成を示すブロック図であ
る。FIG. 3 is a block diagram illustrating a schematic configuration of an object recognition device.
【図4】物体認識装置の詳細構成を示すブロック図であ
る。FIG. 4 is a block diagram illustrating a detailed configuration of the object recognition device.
【図5】検知センサにより物体を測距する概念を示す側
面図である。FIG. 5 is a side view showing a concept of measuring a distance to an object by a detection sensor.
【図6】CCDチップにより捕らえた画像を示す図であ
る。FIG. 6 is a diagram showing an image captured by a CCD chip.
【図7】CCDチップにより捕らえた画像の中のライン
をウィンドウ方向に分割して領域を区分する概念を示す
図である。FIG. 7 is a diagram showing a concept of dividing a line in an image captured by a CCD chip in a window direction to divide an area.
【図8】上下のCCDチップにより得られた画像が同じ
ラインでずれて視差が生じる状態を示す説明図である。FIG. 8 is an explanatory diagram showing a state in which images obtained by upper and lower CCD chips are shifted on the same line and parallax occurs.
【図9】上下のCCDチップにより物体までの距離を測
定する原理を示す図である。FIG. 9 is a diagram showing a principle of measuring a distance to an object by upper and lower CCD chips.
【図10】CCDチップにより得られた画像におけるC
CDラインの測距方向を示す平面図である。FIG. 10 shows C in an image obtained by a CCD chip.
It is a top view which shows the ranging direction of a CD line.
【図11】上下方向のレンジカット領域を示す側面図で
ある。FIG. 11 is a side view showing a range cut area in a vertical direction.
【図12】水平方向のレンジカット領域を示す平面図で
ある。FIG. 12 is a plan view showing a horizontal range cut area.
【図13】領域に隣接する8隣接領域の配置を示す図で
ある。FIG. 13 is a diagram showing an arrangement of eight adjacent regions adjacent to the region.
【図14】8隣接点処理からライン毎の距離演算までの
具体例を示す図である。FIG. 14 is a diagram showing a specific example from the processing of eight adjacent points to the calculation of the distance for each line.
【図15】8隣接点処理動作を示すフローチャート図で
ある。FIG. 15 is a flowchart showing an eight adjacent point processing operation.
【図16】ライン毎の距離演算処理動作を示すフローチ
ャート図である。FIG. 16 is a flowchart illustrating a distance calculation processing operation for each line.
【図17】物体の認識処理動作を示すフローチャート図
である。FIG. 17 is a flowchart illustrating an object recognition processing operation.
【図18】物体認識処理動作に先立って行われる認識前
処理動作を示すフローチャート図である。FIG. 18 is a flowchart illustrating a pre-recognition processing operation performed prior to an object recognition processing operation.
【図19】しきい値の設定を示すフローチャート図であ
る。FIG. 19 is a flowchart illustrating setting of a threshold.
【図20】しきい値の設定例を示す図である。FIG. 20 is a diagram illustrating a setting example of a threshold.
C 車両 10 後側方検知センサ 11 CCDチップ 15 コントローラ 16 測距回路(測距手段) 20 物体認識部(物体認識手段) 25 8隣設点処理部 26 ライン距離演算部(ライン距離演算手段) 31 表示装置 32 警報装置 E,E(i,j) 領域 R1〜R8 隣設領域 d(i,j) 測定距離 dx 隣接領域との距離差 P(i,j) 有効ポイント数 l(i) ライン代表距離 LD_Limit しきい値 O 物体 O′ 物体像 C vehicle 10 rear side detection sensor 11 CCD chip 15 controller 16 distance measurement circuit (distance measurement means) 20 object recognition section (object recognition means) 25 8 adjacent point processing section 26 line distance calculation section (line distance calculation means) 31 Display device 32 Alarm device E, E (i, j) area R1 to R8 Neighboring area d (i, j) Measurement distance dx Distance difference from adjacent area P (i, j) Number of effective points l (i) Line representative Distance LD_Limit Threshold O Object O 'Object Image
───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.6 識別記号 FI H04N 7/18 G06F 15/62 380 (72)発明者 吉岡 透 広島県安芸郡府中町新地3番1号 マツダ 株式会社内 (72)発明者 上村 裕樹 広島県安芸郡府中町新地3番1号 マツダ 株式会社内──────────────────────────────────────────────────続 き Continued on the front page (51) Int.Cl. 6 Identification code FI H04N 7/18 G06F 15/62 380 (72) Inventor Toru Yoshioka 3-1, Fuchu-cho, Shinchi, Aki-gun, Hiroshima Prefecture Mazda Corporation ( 72) Inventor Hiroki Uemura 3-1, Shinchi, Fuchu-cho, Aki-gun, Hiroshima Prefecture Mazda Co., Ltd.
Claims (3)
のCCDからなるCCDラインをウィンドウ方向と直交
するライン列方向に多段に並設してなり画像を輝度情報
として捕らえる多段ライン型CCDを備え、該多段ライ
ン型CCDからの輝度信号に基づいて得られた2次元の
距離データから特定の物体を認識するようにした物体認
識装置であって、 上記多段ライン型CCDのライン列方向の一端側が近距
離側を検出する近距離側ラインとされる一方、他端側が
遠距離側を検出する遠距離側ラインとされ、 上記多段ライン型CCDにより得られた画像を上記CC
Dライン毎にかつウィンドウ方向に複数に分割して各領
域について距離を測定する測距手段と、 上記測距手段により測定された各領域毎の距離に基づき
上記ライン毎の代表距離をそれぞれ演算するライン距離
演算手段と、 上記ライン距離演算手段によりライン毎の代表距離が所
定時間毎に連続して演算される回数がしきい値よりも大
きいときに、該代表距離に基づいて物体を認識する物体
認識手段とを備え、 上記しきい値は、上記遠距離側ラインに比べて近距離側
ラインほど小さく設定されていることを特徴とする物体
認識装置。1. A multi-stage line type CCD comprising a plurality of CCD lines arranged along a window direction and arranged in multiple stages in a line direction orthogonal to the window direction to capture an image as luminance information, An object recognition device for recognizing a specific object from two-dimensional distance data obtained based on a luminance signal from the multi-line CCD, wherein one end of the multi-line CCD in a line direction is near. An image obtained by the multi-stage line type CCD is used as the short distance side line for detecting the distance side, and the other end side is set as the long distance side line for detecting the long distance side.
Distance measuring means for measuring the distance for each area by dividing the area into a plurality of parts for each D line and in the window direction; and calculating the representative distance for each line based on the distance for each area measured by the distance measuring means. An object for recognizing an object based on the representative distance when the number of times the representative distance for each line is continuously calculated for each line by the line distance calculating means is greater than a threshold value; An object recognizing device comprising: a recognition unit; wherein the threshold value is set to be smaller for a short distance side line than for the long distance side line.
ーズ化処理するスムーズ化処理手段を設け、 上記スムーズ化処理手段は、スムーズ化度合いを遠距離
側ラインに比べて近距離側ラインほど小さくするように
構成されていることを特徴とする物体認識装置。2. The object recognition apparatus according to claim 1, further comprising: a smoothing processing unit for performing a smoothing process on the distance data of each area measured by the distance measuring unit; The object recognition device characterized in that the distance is set to be smaller on the short distance side line than on the long distance side line.
いて、 物体認識手段は、物体の認識結果に基づいて警報等の信
号を出力するように構成されていることを特徴とする物
体認識装置。3. The object recognition device according to claim 1, wherein the object recognition means is configured to output a signal such as a warning based on a recognition result of the object. .
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP01011597A JP3708652B2 (en) | 1997-01-23 | 1997-01-23 | Object recognition device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP01011597A JP3708652B2 (en) | 1997-01-23 | 1997-01-23 | Object recognition device |
Publications (2)
Publication Number | Publication Date |
---|---|
JPH10206116A true JPH10206116A (en) | 1998-08-07 |
JP3708652B2 JP3708652B2 (en) | 2005-10-19 |
Family
ID=11741317
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP01011597A Expired - Fee Related JP3708652B2 (en) | 1997-01-23 | 1997-01-23 | Object recognition device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3708652B2 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000002528A (en) * | 1998-06-17 | 2000-01-07 | Honda Motor Co Ltd | Vehicle distance measuring device |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0552562A (en) * | 1991-08-28 | 1993-03-02 | Mitsubishi Electric Corp | Vehicular gap detector for tracking advance vehicle |
JPH08327353A (en) * | 1995-05-30 | 1996-12-13 | Nippon Seiki Co Ltd | Distance measuring apparatus and method |
-
1997
- 1997-01-23 JP JP01011597A patent/JP3708652B2/en not_active Expired - Fee Related
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0552562A (en) * | 1991-08-28 | 1993-03-02 | Mitsubishi Electric Corp | Vehicular gap detector for tracking advance vehicle |
JPH08327353A (en) * | 1995-05-30 | 1996-12-13 | Nippon Seiki Co Ltd | Distance measuring apparatus and method |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000002528A (en) * | 1998-06-17 | 2000-01-07 | Honda Motor Co Ltd | Vehicle distance measuring device |
Also Published As
Publication number | Publication date |
---|---|
JP3708652B2 (en) | 2005-10-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2887039B2 (en) | Vehicle periphery monitoring device | |
JP6747269B2 (en) | Object recognition device | |
JP2800531B2 (en) | Obstacle detection device for vehicles | |
EP0874331A2 (en) | Vehicle monitoring apparatus | |
JP2671615B2 (en) | Guardrail detector | |
JPH04113212A (en) | Distance detector | |
JPH07244717A (en) | Travel environment recognition device for vehicle | |
JPH10267618A (en) | Distance measuring instrument | |
JPH0935198A (en) | Traveling road detector for vehicle | |
JP2003308599A (en) | Traveling route environment detector | |
JPH10320559A (en) | Traveling path detector for vehicle | |
JP6818902B2 (en) | Vehicle detection system | |
JP3586938B2 (en) | In-vehicle distance measuring device | |
JP3287166B2 (en) | Distance measuring device | |
JP3708652B2 (en) | Object recognition device | |
JP3530803B2 (en) | Vehicle detection device | |
JP3868048B2 (en) | Object recognition device | |
JP3708653B2 (en) | Object recognition device | |
JP3708655B2 (en) | Object recognition device | |
JP2635232B2 (en) | Inter-vehicle distance detection device | |
JP3393767B2 (en) | Obstacle detection device for vehicles | |
JP4146954B2 (en) | Object recognition device | |
JPH08221698A (en) | Obstacle detecting device for vehicle | |
JPH03238566A (en) | Vanishing point detection device | |
JP3373331B2 (en) | Inter-vehicle distance detection device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20050617 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20050726 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20050804 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20080812 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20090812 Year of fee payment: 4 |
|
LAPS | Cancellation because of no payment of annual fees |