JPH10206118A - Object recognizing device - Google Patents

Object recognizing device

Info

Publication number
JPH10206118A
JPH10206118A JP9010120A JP1012097A JPH10206118A JP H10206118 A JPH10206118 A JP H10206118A JP 9010120 A JP9010120 A JP 9010120A JP 1012097 A JP1012097 A JP 1012097A JP H10206118 A JPH10206118 A JP H10206118A
Authority
JP
Japan
Prior art keywords
distance
line
dead zone
recognition
ccd
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP9010120A
Other languages
Japanese (ja)
Other versions
JP3708654B2 (en
Inventor
Koji Nakamoto
孝治 中本
Mineji Nakano
峰司 中野
Toru Yoshioka
透 吉岡
Hiroki Kamimura
裕樹 上村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mazda Motor Corp
Naldec Corp
Original Assignee
Mazda Motor Corp
Naldec Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mazda Motor Corp, Naldec Corp filed Critical Mazda Motor Corp
Priority to JP01012097A priority Critical patent/JP3708654B2/en
Publication of JPH10206118A publication Critical patent/JPH10206118A/en
Application granted granted Critical
Publication of JP3708654B2 publication Critical patent/JP3708654B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To prevent false recognition and to enable correct recognition by dividing images obtained from a multilevel line-type CCD along line rows and windows to measure a distance for each region, and calculating a distance for every line from distance data in every region to recognize an object. SOLUTION: At a distance measuring means 16, an image of a multilevel CCD 11 is plurally divided for every line in the direction of windows to measure a distance in each region. A line distance calculating means 26 calculates a distance in every line on the basis of a distance for every region measured by the distance measuring means 16, and a distance for every line is recognized at an object recognizing means 20. Next, a distance dead zone is set on every CCD line by a dead zone setting means 34, and distances belonging to this dead zone among distances for every line calculated buy the like distance calculating means 26 are not used for the recognition of objects at the object recognizing means 20. As a result of this, an object right behind is not falsely recognized as an object diagonally behind, and it is possible to correctly recognize objects such as passing vehicles.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、物体認識装置に関
し、詳しくは多段ライン型CCDによる距離データに基
づいて物体を認識するようにしたものの技術分野に属す
る。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an object recognizing apparatus, and more particularly, to an object recognizing apparatus which recognizes an object based on distance data obtained by a multi-stage line CCD.

【0002】[0002]

【従来の技術】従来より、この種の物体認識装置とし
て、例えば特開平7―225126号公報に示されるよ
うに、車両に走行路面を撮影するステレオカメラを搭載
し、このカメラにより撮像された画像を上下方向に複数
の行レンジに、また左右方向に複数の列にそれぞれ分割
して複数のウィンドウを区画し、各ウィンドウでの距離
に基づいて物体を認識するとともに、各ウィンドウの距
離を予め設定されたレンジ毎の基準距離と比較し、その
ウィンドウの距離がレンジ毎の基準距離以下であれば、
その距離を物体に関する距離データとする一方、レンジ
毎の基準距離よりも大きいときには、距離をデータから
除外するいわゆるレンジカットを行うようにしたものは
知られている。
2. Description of the Related Art Conventionally, as this kind of object recognizing apparatus, for example, as shown in Japanese Patent Application Laid-Open No. Hei 7-225126, a vehicle is equipped with a stereo camera for photographing a running road surface, and images taken by this camera are taken. Is divided into multiple rows in the vertical direction and multiple columns in the horizontal direction to divide multiple windows, and recognize objects based on the distance in each window, and set the distance of each window in advance. Compared with the reference distance for each range, if the distance of the window is less than or equal to the reference distance for each range,
While the distance is used as distance data relating to the object, when the distance is larger than a reference distance for each range, a so-called range cut for excluding the distance from the data is known.

【0003】[0003]

【発明が解決しようとする課題】そして、このように車
両に搭載する物体認識装置の一例として、一定方向に配
置された多数のCCDをその配列方向と直交する方向に
多段に並設してなる多段ライン型CCDを設け、この多
段ライン型CCDに基づいて得られた2次元の距離デー
タから特定の物体を認識するようにしたものが考えられ
る。この多段型ラインCCDは、縦横に多数のCCDが
配置されたカメラ用等のセンサに対し、CCDを一方向
に間引いた構成のものであり、CCDの数が減った分だ
け、撮像データ数が少なくなり、演算速度が速くなって
コストダウンを図ることができる。
As an example of such an object recognition apparatus mounted on a vehicle, a large number of CCDs arranged in a fixed direction are arranged in multiple stages in a direction orthogonal to the arrangement direction. It is conceivable to provide a multi-line CCD and recognize a specific object from two-dimensional distance data obtained based on the multi-line CCD. This multi-stage line CCD has a configuration in which CCDs are thinned out in one direction with respect to a sensor for a camera or the like in which a large number of CCDs are arranged vertically and horizontally, and the number of image data is reduced as the number of CCDs is reduced. As a result, the calculation speed is increased and the cost can be reduced.

【0004】また、この多段型ラインCCDを車両後部
の左右側部に配置し、車両後方にある他の車両や2輪車
(バイク)等の物体を認識し、その情報を逐次車両運転
者に知らせるようにすれば、運転者がミラー等で後方を
確認する動作等を減らして、運転者の負担を軽減するこ
とができる。
Further, the multi-stage line CCD is disposed on the left and right sides at the rear of the vehicle to recognize objects such as other vehicles and two-wheeled vehicles (motorcycles) behind the vehicle and to sequentially transmit the information to the vehicle driver. If the notification is made, the operation of the driver checking the rear with a mirror or the like can be reduced, and the burden on the driver can be reduced.

【0005】ところで、例えば自車の走行している車線
の側方に他の車線があり、この他の車線を車両等が走行
しているとき、その車両等は自車の側方を通って追い越
す可能性が高く、この動きを十分に認識しておかない
と、自車が他の車線に車線変更をする場合に障害にな
る。このため、上記多段型ラインCCDの向きをその画
像が上記他の車線上の物体を中心とするように車両の斜
め後方の向きに設定すればよい。
[0005] By the way, for example, there is another lane beside the lane in which the vehicle is running, and when the vehicle or the like is running in this other lane, the vehicle or the like passes through the side of the vehicle. There is a high possibility of overtaking, and if this movement is not sufficiently recognized, it becomes an obstacle when the own vehicle changes lanes to another lane. For this reason, the direction of the multi-stage line CCD may be set to a direction obliquely rearward of the vehicle such that the image is centered on the object on the other lane.

【0006】しかし、その場合、自車の車線上を自車の
真後ろまで車両等が接近して来たとき、上記多段型ライ
ンCCDが捕らえた画像では、他の車線に車両等がない
状態であっても、上記真後ろの車両等を他の車線の車両
等と誤認識してしまい、他の車線上の車両等を正確に認
識できない虞れがある。
However, in such a case, when a vehicle or the like approaches the vehicle immediately behind the vehicle on the lane of the vehicle, the image captured by the multi-stage line CCD indicates that the vehicle or the like does not exist in another lane. Even so, the vehicle or the like immediately behind the vehicle may be erroneously recognized as a vehicle or the like in another lane, and the vehicle or the like on another lane may not be accurately recognized.

【0007】また、他の車線の車両等を遠方から認識し
ている状態で、同様に自車の真後ろに車両等が接近して
来た場合でも、多段型ラインCCDの画像では、その真
後ろの車両等が他の車線上の車両等に重なって、その真
後ろの車両等を他の車線の車両等と誤認識してしまい、
同様の不具合が生じる。
[0007] Further, even if a vehicle or the like approaches a vehicle directly behind the vehicle in a state where the vehicle or the like in another lane is recognized from a distance, the image of the multi-stage line CCD immediately follows the vehicle. The vehicle etc. overlaps with the vehicle etc. on another lane, and the vehicle etc. directly behind it is erroneously recognized as a vehicle etc. on another lane,
A similar problem occurs.

【0008】本発明は斯かる諸点に鑑みてなされたもの
で、その目的は、多段ライン型CCDにより測距して物
体を認識する場合に、その測距範囲を限定するようにす
ることにより、遠方の物体を見落とすことなく正確に認
識しつつ、真後ろの物体を斜め側方の物体と誤認識する
のを防いで、その正確な認識ができるようにすることに
ある。
The present invention has been made in view of the above points, and an object of the present invention is to limit the distance measurement range when an object is recognized by measuring the distance using a multi-stage line type CCD. An object of the present invention is to accurately recognize a distant object without overlooking it, and prevent an object immediately behind from being erroneously recognized as an obliquely-sided object, thereby enabling accurate recognition.

【0009】[0009]

【課題を解決するための手段】上記の目的の達成のた
め、この発明では、多段ライン型CCDにより得られた
画像を、ライン列方向及びウィンドウ方向にそれぞれ分
割して各領域について距離を測定し、この各領域毎の距
離データからライン毎の距離を演算して物体を認識す
る。さらに、上記従来例の考え方を利用して、物体の認
識範囲に不感帯を形成し、検出された距離データのう
ち、その不感帯に属する距離については、物体認識の距
離データとして使用しないようにした。
In order to achieve the above object, according to the present invention, an image obtained by a multi-stage line type CCD is divided into a line direction and a window direction, and a distance is measured for each region. The object is recognized by calculating the distance for each line from the distance data for each area. Further, a dead zone is formed in the recognition range of the object by utilizing the concept of the conventional example, and the distance belonging to the dead zone among the detected distance data is not used as the distance data for the object recognition.

【0010】具体的には、請求項1の発明では、図1に
示すように、ウィンドウ方向に沿って配置された多数の
CCDからなるCCDラインをウィンドウ方向と直交す
るライン列方向に多段に並設してなり、画像を輝度情報
として捕らえる多段ライン型CCD11を備え、該ライ
ン型CCD11からの輝度信号に基づいて得られた2次
元の距離データから特定の物体を認識するようにした物
体認識装置が対象である。
More specifically, according to the first aspect of the present invention, as shown in FIG. 1, CCD lines composed of a large number of CCDs arranged along a window direction are arranged in multiple stages in a line direction orthogonal to the window direction. An object recognition device comprising a multi-stage line type CCD 11 for capturing an image as luminance information, and recognizing a specific object from two-dimensional distance data obtained based on a luminance signal from the line type CCD 11 Is the target.

【0011】そして、上記多段ライン型CCD11のラ
イン列方向一端側のCCDラインを、近距離側を測距す
る近距離側ラインとする一方、他端側のCCDライン
を、遠距離側を測距する遠距離側ラインとする。
The CCD line at one end of the multi-stage line type CCD 11 in the line direction is a short distance side line for measuring a short distance side, while the CCD line at the other end is distance measuring at a long distance side. The far side line.

【0012】また、上記多段ライン型CCD11により
得られた画像を上記CCDライン毎にかつウィンドウ方
向に複数に分割して各領域について距離を測定する測距
手段16と、この測距手段16により測定された各領域
についての距離に基づき上記ライン毎の距離をそれぞれ
演算するライン距離演算手段26と、このライン距離演
算手段26により演算されたライン毎の距離に基づいて
物体を認識する物体認識手段20と、上記物体認識手段
20で物体認識のために用いないライン毎の距離の不感
帯を、上記CCDライン毎に設定する不感帯設定手段3
4とを備えたことを特徴としている。
A distance measuring means 16 for dividing an image obtained by the multi-stage line type CCD 11 into a plurality of parts for each CCD line and in a window direction to measure a distance in each area, Line distance calculating means 26 for calculating the distance for each line based on the distances obtained for the respective areas, and object recognizing means 20 for recognizing an object based on the distance for each line calculated by the line distance calculating means 26. A dead zone setting unit 3 for setting, for each CCD line, a dead zone of a distance for each line which is not used for object recognition by the object recognition unit 20;
4 is provided.

【0013】上記の構成により、まず、測距手段16に
おいて、多段ライン型CCD11の画像がライン毎にか
つウィンドウ方向に複数に分割されて各領域について距
離が測定される。次いで、ライン距離演算手段26にお
いて、上記測距手段16により測定された領域毎の距離
に基づきライン毎の距離が演算され、物体認識手段20
において、このライン距離演算手段26により演算され
たライン毎の距離から物体が認識される。
With the above configuration, first, in the distance measuring means 16, the image of the multi-stage line type CCD 11 is divided into a plurality of lines for each line and in the window direction, and the distance is measured for each region. Next, in the line distance calculating means 26, the distance for each line is calculated based on the distance for each area measured by the distance measuring means 16, and the object recognizing means 20 is calculated.
In, the object is recognized from the distance for each line calculated by the line distance calculating means.

【0014】そして、不感帯設定手段34によって距離
の不感帯がCCDライン毎に設定され、上記ライン距離
演算手段26により演算されたライン毎の距離のうち、
この不感帯に属する距離は上記物体認識手段20での物
体認識のために用いられない。このため、例えば車両に
対し、その斜め後方の物体としての車両等を認識するよ
うに多段型ラインCCDを配置し、上記不感帯を車両真
後ろの車両等の物体が含まれるように設定することで、
その真後ろの物体に係る距離データを除いた距離データ
によって物体が認識される。その結果、真後ろの物体を
斜め後方の物体と誤認識することがなくなり、車両の斜
め後方にあって他の車線上を走行している、追越しの可
能性のある車両等の物体を正確に認識することができ
る。また、こうして不感帯を車両真後ろの物体が含まれ
るように設定するので、車両の後方であっても真後ろに
なくて遠方の物体については正確に認識することがで
き、その見落しを招くことはない。
Then, a dead zone of the distance is set for each CCD line by the dead zone setting means 34, and of the distances for each line calculated by the line distance calculating means 26,
The distance belonging to the dead zone is not used for the object recognition by the object recognition means 20. For this reason, for example, by arranging a multi-stage line CCD so as to recognize a vehicle or the like as an object obliquely behind the vehicle, and setting the dead zone to include an object such as a vehicle immediately behind the vehicle,
The object is recognized based on the distance data excluding the distance data relating to the object immediately behind the object. As a result, the object immediately behind is not erroneously recognized as an obliquely rearward object, and an object such as a vehicle that may be overtaking and that is traveling diagonally behind and in another lane is accurately recognized. can do. In addition, since the dead zone is set so as to include the object immediately behind the vehicle, even if the vehicle is behind the vehicle, it is possible to accurately recognize a distant object that is not directly behind the vehicle and does not overlook the object. .

【0015】請求項2の発明では、上記不感帯設定手段
34は、遠距離側ラインでの距離が所定値以下である範
囲を不感帯として設定するように構成されているものと
する。この発明でも、上記請求項1の発明と同様に、車
両にその斜め後方の物体としての車両等を認識するよう
に多段型ラインCCDを配置したとき、車両後方の遠方
の物体を見落とすことなく、その真後ろの物体の斜め後
方の物体との誤認識を防いで、他の車線上の追越しの可
能性のある車両等の物体を正確に認識することができ
る。
In the invention of claim 2, the dead zone setting means 34 is configured to set a range in which the distance on the long distance side line is equal to or less than a predetermined value as a dead zone. In the present invention, similarly to the first aspect of the present invention, when a multi-stage line CCD is disposed on a vehicle so as to recognize the vehicle or the like as an object obliquely behind the vehicle, the distant object behind the vehicle is not overlooked. By preventing erroneous recognition of the object immediately behind the object obliquely behind the object, it is possible to accurately recognize an object such as a vehicle that may pass on another lane.

【0016】請求項3の発明では、上記請求項1の発明
と同様に、ウィンドウ方向に沿って配置された多数のC
CDからなるCCDラインをウィンドウ方向と直交する
ライン列方向に多段に並設してなり画像を輝度情報とし
て捕らえる多段ライン型CCDを備え、該多段ライン型
CCDからの輝度信号に基づいて得られた2次元の距離
データから特定の物体を認識するようにした物体認識装
置として、多段ライン型CCDのライン列方向の一端側
のCCDラインを近距離側ラインとし、他端側のCCD
ラインを遠距離側ラインとするとともに、測距手段1
6、ライン距離演算手段26及び物体認識手段20を設
ける。
According to the third aspect of the invention, similarly to the first aspect of the invention, a large number of Cs arranged along the window direction are provided.
A multi-stage CCD is provided in which CCD lines composed of CDs are arranged in multiple stages in a line direction orthogonal to the window direction to capture an image as luminance information, and obtained based on a luminance signal from the multi-line CCD. As an object recognizing device for recognizing a specific object from two-dimensional distance data, a CCD line at one end in a line direction of a multi-stage line type CCD is set as a short distance side line, and a CCD at the other end is used.
The line is a long distance side line, and the distance measuring means 1
6. A line distance calculation means 26 and an object recognition means 20 are provided.

【0017】そして、上記物体認識手段20により認識
された物体の重心方向を求める物体重心方向検出手段3
5と、物体認識手段20により認識された物体までの距
離を求める物体距離検出手段36と、上記物体認識手段
20で物体認識のために用いないライン毎の距離の不感
帯を、上記物体重心方向検出手段35及び物体距離検出
手段36によりそれぞれ求められた物体重心方向及び物
体距離に応じて設定する不感帯設定手段34とを設け
る。
The body weight center direction detecting means 3 for obtaining the center of gravity direction of the object recognized by the object recognition means 20
5, an object distance detecting means 36 for obtaining a distance to the object recognized by the object recognizing means 20, and a dead zone of a distance for each line not used for object recognition by the object recognizing means 20, And a dead zone setting means for setting the object distance and the object distance determined by the means and the object distance detecting means, respectively.

【0018】この発明では、測距手段16において多段
ライン型CCD11の分割された各領域について距離が
測定され、さらにライン距離演算手段26において各領
域についての距離に基づきライン毎の距離が演算され、
物体認識手段20においてライン毎の距離から物体が認
識される。
According to the present invention, the distance is measured for each divided area of the multi-stage line type CCD 11 by the distance measuring means 16, and the distance for each line is calculated by the line distance calculating means 26 based on the distance for each area.
The object is recognized by the object recognition means 20 from the distance for each line.

【0019】さらに、物体重心方向検出手段35におい
て、上記物体認識手段20による認識物体の重心方向が
求められるとともに、物体距離検出手段36で、認識物
体までの距離が求められ、不感帯設定手段34によって
距離の不感帯が上記物体の重心方向及び物体距離に応じ
て設定され、上記ライン距離演算手段26により演算さ
れたライン毎の距離のうち、この不感帯に属する距離は
上記物体認識手段20での物体認識のために用いられな
い。従って、この発明でも請求項1の発明と同様の作用
効果を奏することができる。
Further, the direction of the center of gravity of the object to be recognized by the object recognizing means 20 is obtained by the object body weight direction detecting means 35, the distance to the recognized object is obtained by the object distance detecting means 36, and the dead zone setting means 34 The dead zone of the distance is set according to the direction of the center of gravity of the object and the object distance. Of the distances for each line calculated by the line distance calculating means 26, the distance belonging to this dead zone is determined by the object recognition means 20. Not used for Therefore, the present invention can provide the same functions and effects as those of the first aspect.

【0020】その場合、請求項4の発明では、上記不感
帯設定手段34は、認識物体に含まれるライン数に応じ
て不感帯を可変とするように構成し、特に請求項5の発
明では、不感帯設定手段34は、認識物体に含まれるラ
イン数が小さいほど不感帯を小さくするように構成す
る。
In this case, in the invention of claim 4, the dead zone setting means 34 is configured to make the dead zone variable in accordance with the number of lines included in the recognition object. The means is configured to reduce the dead zone as the number of lines included in the recognition object decreases.

【0021】このことで、不感帯は、認識物体に含まれ
るライン数に応じて変化し、ライン数が小さくなるほど
小さく設定される。このため、例えば車両の真後ろの物
体の幅の大きさに応じて不感帯を変えることができ、そ
の真後ろの物体が幅の大きい車両であるときには、認識
物体に含まれるライン数が増加して不感帯が大きくなる
のに対し、真後ろの物体が幅の小さい2輪車であるとき
には、認識物体に含まれるライン数が減少して不感帯が
小さくなる。すなわち、2輪車としての物体は不感帯の
減少によってその距離データが物体認識に使用される可
能性が高くなり、2輪車の車両との識別を正確に行っ
て、追越しの可能性の高い2輪車を物体として容易に認
識することができる。
As a result, the dead zone changes according to the number of lines included in the recognition object, and is set smaller as the number of lines decreases. Therefore, for example, the dead zone can be changed according to the size of the width of the object directly behind the vehicle, and when the object immediately behind the vehicle is a wide vehicle, the number of lines included in the recognition object increases and the dead zone is increased. On the other hand, when the object immediately behind is a motorcycle having a small width, the number of lines included in the recognized object is reduced and the dead zone is reduced. That is, an object as a two-wheeled vehicle has a high possibility that its distance data is used for object recognition due to a decrease in the dead zone, and accurately identifies the two-wheeled vehicle as a vehicle and has a high possibility of overtaking. The wheeled vehicle can be easily recognized as an object.

【0022】一方、請求項6の発明では、不感帯設定手
段34は、認識物体との相対速度に応じて不感帯を可変
とするように構成し、請求項7の発明では、不感帯設定
手段34は、認識物体との相対速度が高いほど不感帯を
小さくするように構成する。
On the other hand, in the invention of claim 6, the dead zone setting means 34 is configured to make the dead zone variable in accordance with the relative speed with respect to the recognition object. In the invention of claim 7, the dead zone setting means 34 The dead zone is reduced as the relative speed with respect to the recognition object increases.

【0023】この場合、不感帯は、認識物体との相対速
度に応じて変化し、相対速度が高くなるほど小さく設定
される。従って、例えば車両の真後ろの物体との相対速
度に応じて不感帯を変えることができ、その真後ろの物
体との相対速度が低いときには不感帯が大きくなるのに
対し、相対速度が高いときには不感帯が小さくなる。つ
まり、真後ろの物体との相対速度が高いとき、その相対
速度の物体が車両であれば自車と衝突する程度の車間距
離であると考えて、その物体を2輪車と判定するように
することができる。よって、この発明でも、2輪車の車
両との識別を正確に行って2輪車を物体として容易に認
識することができる。
In this case, the dead zone changes according to the relative speed with respect to the recognition object, and is set smaller as the relative speed increases. Therefore, for example, the dead zone can be changed according to the relative speed with the object directly behind the vehicle, and the dead zone becomes large when the relative speed with the object directly behind the vehicle is low, and becomes small when the relative speed is high. . In other words, when the relative speed with the object directly behind is high, if the object with the relative speed is a vehicle, it is considered that the distance between the vehicles is such that it can collide with the own vehicle, and the object is determined as a two-wheeled vehicle. be able to. Therefore, according to the present invention, the two-wheeled vehicle can be easily recognized as an object by accurately identifying the two-wheeled vehicle.

【0024】請求項8の発明では、上記物体認識手段2
0は、物体の認識結果に基づいて警報等の信号を出力す
るように構成する。このことで、認識物体を容易に知る
ことができる。
According to the eighth aspect of the present invention, the object recognizing means 2
0 is configured to output a signal such as an alarm based on the recognition result of the object. Thus, the recognition object can be easily known.

【0025】[0025]

【発明の実施の形態】BEST MODE FOR CARRYING OUT THE INVENTION

(実施形態1)図2は本発明の実施形態1に係る物体認
識装置を装備した車両C(自動車)を示し、この物体認
識装置は、車両Cの左右斜め後側方に位置する他の車両
等の物体O(図5、図11、図12に示す)を認識す
る。
(Embodiment 1) FIG. 2 shows a vehicle C (automobile) equipped with an object recognition device according to Embodiment 1 of the present invention. The object O (shown in FIGS. 5, 11, and 12) is recognized.

【0026】図2において、1は車両Cの車体、2は車
体1の前後略中央部に形成された車室、3は車体1の前
端部に形成されたエンジンルーム、4は車室2の前端部
に配置されたインストルメントパネル、5は車室2の後
端部にあるパッケージトレイ、6はリヤウィンドガラス
である。そして、図3に示すように、上記物体認識装置
は、各々物体Oまでの距離を測定するための左右の後側
方検知センサ10,10と、この各検知センサ10の出
力信号がそれぞれ入力されるコントローラ15と、この
コントローラ15からの信号を受けて物体Oの存在をC
RTや液晶等により表示する表示装置31、及び同物体
Oの危険度を警報する警報装置32とを備えている。そ
して、図2に示す如く、上記両検知センサ10,10
は、上記パッケージトレイ5上の左右両端部にそれぞれ
斜め後方を向いた状態で取付固定されている。また、コ
ントローラ15はエンジンルーム3の後端部に、また表
示装置31及び警報装置32はインストルメントパネル
4にそれぞれ配設されている。
In FIG. 2, reference numeral 1 denotes a vehicle body of the vehicle C, 2 denotes a vehicle room formed at a substantially central portion in the front and rear direction of the vehicle body 3, 3 denotes an engine room formed at a front end of the vehicle body 1, and 4 denotes a vehicle room. An instrument panel 5 at the front end is a package tray at the rear end of the vehicle compartment 2, and 6 is a rear window glass. Then, as shown in FIG. 3, the object recognition device receives the left and right rear side detection sensors 10 and 10 for measuring the distance to the object O, and the output signals of the respective detection sensors 10. Controller 15 which receives a signal from the controller 15
The display device 31 includes a display device 31 for displaying by RT, liquid crystal, or the like, and an alarm device 32 for alarming the degree of danger of the object O. Then, as shown in FIG.
Are attached and fixed to both left and right end portions of the package tray 5 in a state of facing obliquely rearward, respectively. The controller 15 is provided at the rear end of the engine room 3, and the display device 31 and the alarm device 32 are provided at the instrument panel 4.

【0027】図5に示すように、上記各検知センサ10
は、所定距離離れて上下方向に配置された上下1対のC
CDチップ11,11と、該CCDチップ11,11に
対応して配置されたレンズ12,12とを備えている。
各CCDチップ11は、上下方向たるウィンドウ方向に
沿って配置された多数のCCDからなるCCDラインを
ウィンドウ方向と直交するライン列方向(水平方向)に
多段に並設してなる多段ライン型CCDからなり、この
各CCDチップ11によりレンズ12を経て車両Cのリ
アウィンドガラス6越しに、上下方向に角度θ1の範囲
でかつ水平左右方向に角度θ2の範囲(図10、図12
参照)にある物体O等の画像を輝度情報として捕らえる
ようになっている。
As shown in FIG. 5, each of the detection sensors 10
Is a pair of upper and lower Cs arranged in a vertical direction at a predetermined distance.
The image pickup apparatus includes CD chips 11, 11 and lenses 12, 12 arranged corresponding to the CCD chips 11, 11.
Each of the CCD chips 11 is composed of a multi-stage line type CCD in which CCD lines composed of a large number of CCDs arranged in a vertical window direction are arranged in multiple stages in a line direction (horizontal direction) orthogonal to the window direction. Each of the CCD chips 11 passes through the lens 12 through the rear window glass 6 of the vehicle C through the lens 12 and has a range of an angle θ1 in the vertical direction and a range of an angle θ2 in the horizontal and horizontal directions (FIGS. 10 and 12).
) Is captured as luminance information.

【0028】図4に示す如く、上記各検知センサ10は
それぞれコントローラ15内の測距回路16(測距手
段)に接続されている。この各測距回路16は、両CC
Dチップ11,11での物体像の視差(位相差)を演算
する視差演算部17と、この視差演算部17からの信号
により物体Oまでの距離を演算する距離演算部18とを
備えている。そして、各測距回路16では、図6及び図
7に示す如く、各CCDチップ11により捕らえられた
画像を、ライン方向(水平方向)にCCDライン毎のn
個のラインに分割するとともに、その各ラインをウィン
ドウ方向(上下方向)にm個のウィンドウに分割して、
画像の略全体をm×n個の領域E,E,…で構成し、両
方のCCDチップ11,11による画像での同一の領域
E,E間の視差を求め、この視差から各領域E毎に物体
Oまでの距離を演算する。
As shown in FIG. 4, each of the detection sensors 10 is connected to a distance measuring circuit 16 (distance measuring means) in a controller 15. Each of the distance measuring circuits 16 is connected to both CCs.
A parallax calculating unit 17 that calculates the parallax (phase difference) of the object image at the D chips 11 and 11 and a distance calculating unit 18 that calculates a distance to the object O based on a signal from the parallax calculating unit 17 are provided. . Then, as shown in FIGS. 6 and 7, each distance measuring circuit 16 converts the image captured by each CCD chip 11 into n lines for each CCD line in the line direction (horizontal direction).
While dividing each line into m windows in the window direction (vertical direction)
Approximately the entire image is composed of m × n areas E, E,..., And the parallax between the same areas E, E in the images obtained by both CCD chips 11 is obtained. To calculate the distance to the object O.

【0029】すなわち、両CCDチップ11,11によ
り捕らえられた画像はいずれも図6に示すようになる
が、これら両CCDチップ11,11の画像は同じライ
ン位置(図示例ではラインi)では、図8に示すよう
に、両CCDチップ11,11の上下方向のずれ分だけ
ずれていて視差が生じており、この視差を利用して物体
Oまでを測距する。この原理について図9により説明す
るに、図9の三角形P・O1・Q及び三角形O1・P1
・Q1同士、並びに三角形P・O2・Q及び三角形O2
・P2・Q2同士はそれぞれ相似形あるので、今、検知
センサ10(レンズ12)から物体Oまでの距離をa、
両レンズ12,12の中心間の距離をB(定数)、レン
ズ12の焦点距離をf(定数)、両CCDチップ11,
11での物体像のレンズ中心からのずれ量をそれぞれx
1,x2とすると、 a・x1/f=B−a・x2/f となり、この式から、 a=B・f/(x1+x2) が得られる。つまり、両CCDチップ11,11での物
体像の視差(位相差)によって物体Oまでの距離aを測
定することができる。
That is, the images captured by both CCD chips 11, 11 are as shown in FIG. 6, but the images of both CCD chips 11, 11 are at the same line position (line i in the illustrated example). As shown in FIG. 8, the two CCD chips 11 and 11 are displaced in the vertical direction to generate parallax, and the distance to the object O is measured using the parallax. This principle will be described with reference to FIG. 9 by referring to the triangles P.O1.Q and O1.P1 in FIG.
・ Q1 and triangles P · O2 · Q and triangle O2
Since P2 and Q2 have similar shapes, the distance from the detection sensor 10 (lens 12) to the object O is a,
The distance between the centers of both lenses 12 and 12 is B (constant), the focal length of lens 12 is f (constant),
The displacement amount of the object image from the lens center at 11 is x
Assuming that 1, x2, a · x1 / f = Ba−x2 / f, and from this equation, a = B · f / (x1 + x2) is obtained. That is, the distance a to the object O can be measured by the parallax (phase difference) of the object image between the two CCD chips 11, 11.

【0030】尚、図6及び図7におけるG(白点)は、
CCDチップ11のCCDに対応するように縦横格子状
に配置された測距点(測距ポイント)であり、この測距
点Gは各領域Eに含まれている。また、各CCDライン
でのウィンドウは、一部が隣接するウィンドウと互いに
オーバーラップするように分割されており、上下方向
(ウィンドウ方向)に隣接する領域E,Eに同じ測距点
G,G,…が含まれている。また、O′は物体の像であ
る。
G (white point) in FIGS. 6 and 7 is
The distance measuring points (ranging points) are arranged in a vertical and horizontal lattice so as to correspond to the CCD of the CCD chip 11, and the distance measuring points G are included in each area E. The window of each CCD line is divided so that a part of the window overlaps with the adjacent window, and the same distance measuring points G, G, G, and G are located in regions E and E adjacent in the vertical direction (window direction). …It is included. O 'is an image of the object.

【0031】また、図10に示すように、上記各CCD
チップ11により捕らえられた画像をライン毎に分割し
て形成される複数のラインは、車両Cの外側で近距離を
測距するライン位置が若い番号とされる一方、車幅方向
の中央側で遠距離を測距するライン位置が大きい番号と
され、外側ラインから車幅方向の中央側ラインに向かっ
て番号が順に増加するように番号付けされている。
Further, as shown in FIG.
A plurality of lines formed by dividing the image captured by the chip 11 line by line are arranged such that the line position for measuring a short distance outside the vehicle C has a smaller number, while the center position in the vehicle width direction has a smaller number. The line position for measuring a long distance is set to a large number, and the number is sequentially increased from the outer line toward the center line in the vehicle width direction.

【0032】図4に示す如く、上記コントローラ15に
は、センサ10に基づいて得られた上下方向及び水平方
向の2次元の距離データ、つまり各測距回路16からの
信号を基に特定の物体Oを認識する物体認識部20と、
この物体認識部20の出力信号により物体Oを新規物体
かどうか選別する物体選別部21と、この物体選別部2
1により選別された物体Oが車両C(自車)にとって危
険対象物かどうかを判断する危険判断部22とが設けら
れており、物体認識部20において、物体Oの認識結果
に基づいて表示信号を表示装置31に、また警報信号を
警報装置32にそれぞれ物体選別部21を経て出力する
ようにしている。
As shown in FIG. 4, a specific object is provided to the controller 15 based on two-dimensional distance data in the vertical and horizontal directions obtained based on the sensor 10, that is, a signal from each distance measuring circuit 16. An object recognition unit 20 that recognizes O;
An object selecting section 21 for selecting whether or not the object O is a new object based on an output signal of the object recognizing section 20;
And a danger determining unit 22 for determining whether the object O selected in Step 1 is a dangerous object for the vehicle C (own vehicle). The object recognizing unit 20 displays a display signal based on the recognition result of the object O. Is output to the display device 31 and an alarm signal is output to the alarm device 32 through the object selection unit 21.

【0033】また、コントローラ15は、物体Oを認識
する上で本来は物体Oが位置し得ない不要な範囲を除外
するレンジカット部24と、測距された各領域毎の距離
データと周りの8つの隣接領域との比較(8隣接点処
理)を行って有効ポイント数を付与する有効ポイント数
付与手段としての8隣接点処理部25と、ライン毎の距
離を演算するライン距離演算部26と、ガードレールを
判定するためのガードレール判定部27と、距離データ
を物体O毎にグルーピングするグルーピング部28とを
備えている。
In addition, the controller 15 includes a range cut section 24 for eliminating an unnecessary range where the object O cannot be originally located in recognizing the object O, a distance data for each measured area, and a surrounding area. An eight-neighbor point processing unit 25 as effective point number giving means for comparing the eight adjacent areas (eight-neighbor point processing) and giving an effective point number, and a line distance calculating unit 26 for calculating the distance for each line , A guardrail determination unit 27 for determining a guardrail, and a grouping unit 28 for grouping distance data for each object O.

【0034】ここで、コントローラ15において両CC
Dチップ11,11により捕らえられた画像の領域E毎
の距離データから物体認識までの処理動作について図1
5のフローチャートに沿って説明する。
Here, both CCs are
FIG. 1 shows a processing operation from distance data for each area E of an image captured by D chips 11 to object recognition.
5 will be described along the flowchart.

【0035】まず、ステップS1で上記レンジカット部
24により距離データの有効範囲(レンジカット範囲)
を設定する。すなわち、図11は上記レンジカット部2
4で除外される上下方向のレンジカット範囲Z1を、ま
た図12は同左右方向のレンジカット範囲Z2をそれぞ
れ示しており、これらのレンジカット範囲Z1,Z2
は、ラインの角度とその位置での距離とに基づいて検出
される。図12中、Fは車両Cの路面、Mは道路におけ
る車両走行車線を設定する路面F上の白線、F1は道路
の両側に設置された路側帯、Hはその植込みである。
First, in step S1, the effective range (range cut range) of the distance data is set by the range cut unit 24.
Set. That is, FIG.
4 shows a range cut range Z1 in the vertical direction, and FIG. 12 shows a range cut range Z2 in the horizontal direction. These range cut ranges Z1 and Z2 are shown in FIG.
Is detected based on the angle of the line and the distance at that position. In FIG. 12, F is the road surface of the vehicle C, M is a white line on the road surface F for setting the vehicle traveling lane on the road, F1 is a road side zone installed on both sides of the road, and H is an implant.

【0036】次いで、ステップS2において、ライン数
n及びウィンドウ数mに分割された領域E(i,j)毎
の距離データd(i,j)を読み込み、ステップS3で
は、この距離データd(i,j)が上記有効範囲内にあ
るかどうかを判定する。この判定が「有効範囲内にあ
り」のYESのときには、ステップS4で上記距離デー
タd(i,j)を有効なものとして登録する一方、NO
のときには、ステップS5において、距離データd
(i,j)を無効データとしてクリアする。これらステ
ップS4,S5の後はいずれもステップS6に進み、ラ
イン番号i(1〜n)及びウィンドウ番号j(1〜m)
の各領域Eについて終了したか否かを判定し、全ての領
域E,E,…が終了するまでステップS3〜S6を繰り
返す。ステップS6での判定がYESになると、ステッ
プS7に進み、上記距離データd(i,j)からライン
毎の代表距離l(i)(ライン距離データ)を求める。
すなわち、このステップS7では、上記8隣接点処理部
25により、測距された各領域E毎の距離データに有効
ポイント数を付与する8隣接処理ルーチンと、ライン距
離演算部26によりライン毎の距離を演算するライン距
離演算ルーチンとが行われる。
Next, in step S2, distance data d (i, j) for each area E (i, j) divided into the number n of lines and the number m of windows is read, and in step S3, the distance data d (i) is read. , J) are within the valid range. When this determination is YES for “being within the effective range”, the distance data d (i, j) is registered as valid in step S4, while NO
In step S5, the distance data d
Clear (i, j) as invalid data. After these steps S4 and S5, the process proceeds to step S6, where the line number i (1 to n) and the window number j (1 to m)
Is determined for each area E, and steps S3 to S6 are repeated until all areas E, E,. If the determination in step S6 is YES, the process proceeds to step S7, where a representative distance l (i) (line distance data) for each line is obtained from the distance data d (i, j).
That is, in this step S7, the eight adjacent points processing unit 25 assigns an effective point number to the distance data of each measured area E by the eight adjacent points processing unit 25, and the line distance calculating unit 26 executes the eight adjacent points processing routine. Is calculated.

【0037】上記8隣接点処理部25での8隣接点処理
は、図13に示すように、ある領域E(i,j)の距離
データに対しそれに隣接する周りの8つの隣接領域R1
〜R8の距離データの相関性を判断するもので、具体的
に図16に示す如く行われる。すなわち、8隣接点処理
ルーチンでは、最初のステップS101で、ライン数n
及びウィンドウ数mに分割された領域E(i,j)毎の
距離データd(i,j)を読み込み、次のステップS1
02で各領域E(i,j)の有効ポイント数P(i,
j)をP(i,j)=0と初期化する。この有効ポイン
ト数P(i,j)は各領域E(i,j)に設定されるも
ので、この値が大きいほど領域の距離データの有効性が
高く、信頼性、信憑性があると判断される。次のステッ
プS103では、全ての領域のうち左右端及び上下端の
位置にある領域(格子点)への有効ポイント数を嵩上げ
し、周辺の領域には有効ポイント数P(i,j)を+1
だけ、またその中で4つの隅角部の領域には有効ポイン
ト数P(i,j)を+2だけそれぞれ増やすように設定
する。この後、ステップS104において、隣接点処理
を行うかどうかを判定し、この判定がNOのときには、
ステップS111において有効ポイント数P(i,j)
をP(i,j)=8に設定した後、ステップS112に
進む一方、判定がYESのときには、ステップS105
に進み、付与ポイント数pを決定するための距離しきい
値d0を設定する。
As shown in FIG. 13, the eight adjacent point processing by the eight adjacent point processing unit 25 is performed on the distance data of a certain area E (i, j) and the eight adjacent areas R1 surrounding the distance data.
This is to judge the correlation between the distance data of R8 to R8 and is specifically performed as shown in FIG. That is, in the eight adjacent point processing routine, in the first step S101, the number of lines n
And the distance data d (i, j) for each area E (i, j) divided into the number m of windows are read, and the next step S1
02, the number of effective points P (i, j) of each area E (i, j)
j) is initialized to P (i, j) = 0. The number of effective points P (i, j) is set for each area E (i, j). The larger this value is, the higher the validity of the distance data of the area is, and it is determined that the area data has reliability and credibility. Is done. In the next step S103, the number of effective points to the area (lattice point) located at the left and right ends and the upper and lower ends of all the areas is increased, and the effective point number P (i, j) is increased by +1 to the surrounding area.
And the number of effective points P (i, j) is increased by +2 in the four corner areas. Thereafter, in step S104, it is determined whether or not to perform the adjacent point processing. If this determination is NO,
In step S111, the number of valid points P (i, j)
Is set to P (i, j) = 8, and then the process proceeds to step S112. If the determination is YES, the process proceeds to step S105.
To set a distance threshold value d0 for determining the number p of assigned points.

【0038】ステップS105の後はステップS106
に進み、隣接領域Riの距離データd(Ri)を読み込
み、次のステップS107では上記領域Eと隣接領域R
1〜R8との距離差dx=|d(i,j)−d(Ri)
|を演算する。この後、ステップS108において、上
記距離差dxと上記距離しきい値d0との大小判定を行
い、この判定がdx≧d0のNOのときにはステップS
112に進む一方、dx<d0のYESのときには、ス
テップS109において付与すべきポイント数pを設定
する。
After step S105, step S106
The distance data d (Ri) of the adjacent region Ri is read, and in the next step S107, the region E and the adjacent region R are read.
Distance difference dx = | d (i, j) −d (Ri) from 1 to R8
Is calculated. Thereafter, in step S108, the magnitude difference between the distance difference dx and the distance threshold value d0 is determined, and if this determination is NO where dx ≧ d0, the process proceeds to step S108.
On the other hand, when it is determined that dx <d0 (YES), the number p of points to be provided is set in step S109.

【0039】このようなステップS109の後、ステッ
プS110において、それまでの有効ポイント数P
(i,j)に上記付与ポイント数pを加えて新たな有効
ポイント数P(i,j)=P(i,j)+pを設定し、
上記ステップS112に進む。このステップS112で
は、ステップS106〜S110の処理が8つの隣接領
域R1〜R8の各々について終了したかどうかを判定
し、この判定がNOのときにはステップS106に戻っ
て、他の残りの隣接領域について同様の処理を行う。一
方、判定がYESになると、ステップS113に進み、
全ての領域E,E,…についての有効ポイント数P
(i,j)の設定(ステップS106〜S110の処
理)が終了したか否かを判定する。この判定がNOのと
きには、ステップS104に戻って他の領域Eについて
有効ポイント数P(i,j)の設定を繰り返す。一方、
判定がYESになると、次のライン毎の距離の演算処理
(図17参照)に進む。
After such step S109, in step S110, the number of valid points P
(I, j) is added with the number p of points to be given, and a new number P (i, j) of effective points = P (i, j) + p is set.
The process proceeds to step S112. In this step S112, it is determined whether or not the processing of steps S106 to S110 has been completed for each of the eight adjacent regions R1 to R8. If this determination is NO, the process returns to step S106, and the same applies to the other remaining regions. Is performed. On the other hand, when the determination is YES, the process proceeds to step S113,
Number of effective points P for all areas E, E, ...
It is determined whether the setting of (i, j) (the processing of steps S106 to S110) has been completed. If this determination is NO, the process returns to step S104, and the setting of the number of effective points P (i, j) is repeated for another area E. on the other hand,
If the determination is YES, the process proceeds to the next distance calculation processing for each line (see FIG. 17).

【0040】一方、図17は上記ライン距離演算部26
での処理動作を示し、上記8隣接点処理部25(有効ポ
イント数付与手段)により付与設定された有効ポイント
数P(i,j)に基づき上記ライン毎の距離をそれぞれ
演算する。ライン距離演算ルーチンでは、まず、ステッ
プS201において、ライン数n及びウィンドウ数mに
分割された領域E毎の距離データd(i,j)を読み込
むとともに、上記8隣接点処理により付与された領域E
毎の有効ポイント数P(i,j)を読み込み、次のステ
ップS202では、ライン代表有効ポイント数PI
(i)をPI(i)=0に初期化する。このライン代表
有効ポイント数PI(i)は、ライン毎の距離演算の際
にラインに設定されるもので、この値が大きいほどライ
ンの距離データの有効性が高く、信頼性、信憑性がある
と判断される。
On the other hand, FIG.
And calculates the distance for each line based on the number of effective points P (i, j) assigned by the eight adjacent point processing unit 25 (effective point number assigning means). In the line distance calculation routine, first, in step S201, distance data d (i, j) for each area E divided into the number n of lines and the number m of windows is read, and the area E given by the above-described eight adjacent point processing is read.
The number of valid points P (i, j) is read for each line, and in the next step S202, the number of line representative valid points PI
(I) is initialized to PI (i) = 0. The line representative effective point number PI (i) is set for a line at the time of distance calculation for each line, and the larger this value is, the higher the validity of the distance data of the line is, and the more reliable and reliable it is. Is determined.

【0041】次のステップS203では、上記ライン代
表有効ポイント数PI(i)に対応するライン代表しき
い値P0を設定する。このステップS203の後はステ
ップS204に進み、上記領域毎の有効ポイント数P
(i,j)がライン代表しきい値P0よりも大きいかど
うかを判定する。この判定がP(i,j)≦P0のNO
のときには、そのままステップS206に進むが、判定
がP(i,j)>P0のYESのときには、ステップS
205において、ライン毎の代表距離l(i)を平均化
のために更新するとともに、上記ライン代表有効ポイン
ト数PI(i)に領域毎の有効ポイント数P(i,j)
を加えてライン代表有効ポイント数PI(i)の更新を
行った後にステップS206に進む。すなわち、ライン
距離演算部26では、8隣接点処理部25によって付与
設定された有効ポイント数P(i,j)がライン代表し
きい値P0よりも大きい領域についてライン毎の距離演
算を行うようにしている。
In the next step S203, a line representative threshold value P0 corresponding to the line representative effective point number PI (i) is set. After step S203, the process proceeds to step S204, where the number of effective points P for each of the above areas is set.
It is determined whether (i, j) is greater than the line representative threshold value P0. This determination is NO for P (i, j) ≦ P0
, The process proceeds directly to step S206, but if the determination is P (i, j)> P0,
At 205, the representative distance l (i) for each line is updated for averaging, and the number of valid points P (i, j) for each area is added to the line representative valid point number PI (i).
, And the line representative effective point number PI (i) is updated, and then the process proceeds to step S206. That is, the line distance calculation unit 26 performs the distance calculation for each line in an area where the number of effective points P (i, j) given by the eight adjacent point processing unit 25 is larger than the line representative threshold value P0. ing.

【0042】上記ライン毎の代表距離l(i)の更新は
次の式で行う。 l(i)=[l(i)×PI(i)+d(i,j)×
{P(i,j)−PO+1}]÷{PI(i)+P
(i,j)−PO+1}
The updating of the representative distance l (i) for each line is performed by the following equation. l (i) = [l (i) × PI (i) + d (i, j) ×
{P (i, j) -PO + 1}] {PI (i) + P
(I, j) -PO + 1}

【0043】上記ステップS206では当該ラインの全
てのウィンドウ番号(領域E)について終了したか否か
を判定し、この判定がYESになるまでラインの各領域
EについてステップS203〜S205を繰り返す。ス
テップS206の判定がYESになると、ステップS2
07に進み、全てのライン番号について終了したかどう
かを判定し、この判定がYESになるまでステップS2
02〜S206を繰り返す。ステップS207の判定が
YESになると、次の物体認識処理(図19参照)に進
む。
In step S206, it is determined whether or not the processing has been completed for all the window numbers (area E) of the line, and steps S203 to S205 are repeated for each area E of the line until the determination becomes YES. If the determination in step S206 is YES, step S2
07, it is determined whether or not the processing has been completed for all the line numbers. Step S2 is performed until the determination becomes YES.
02 to S206 are repeated. If the determination in step S207 is YES, the process proceeds to the next object recognition process (see FIG. 19).

【0044】尚、以上に説明した各領域E毎の距離デー
タd(i,j)から8隣接点処理を行って有効ポイント
数P(i,j)を付与し、その後にライン毎の代表距離
l(i)を演算する過程の具体例を図14に示してお
り、図14(a)は各領域毎の距離データd(i,j)
を、また図14(b)は領域毎の有効ポイント数P
(i,j)を、さらに図14(c)はライン毎の代表距
離l(i)をそれぞれ表している。
It should be noted that the above-described distance data d (i, j) for each area E is subjected to 8-neighboring point processing to give the number of effective points P (i, j), and thereafter, the representative distance for each line FIG. 14 shows a specific example of the process of calculating l (i), and FIG. 14A shows distance data d (i, j) for each region.
And FIG. 14B shows the number of effective points P for each area.
(I, j), and FIG. 14 (c) shows a representative distance l (i) for each line.

【0045】再び図15に戻り、そのステップS7でラ
イン毎の代表距離l(i)を求めた後、ステップS8に
進んで、上記ライン毎の代表距離l(i)に対する有効
範囲を、また次のステップS9でライン毎に不感帯をそ
れぞれ設定する。図18は上記有効範囲及び不感帯をそ
れぞれ設定したマップを示し、有効範囲はラインの位置
が大きくなって遠距離側ラインになるほど有効範囲の距
離が大きくなるように設定されている。そして、この有
効範囲において遠距離側ラインでの距離が所定値以下で
ある範囲が不感帯として設定され、図18(a)に示す
特性では、遠距離ラインのライン位置が大きくなるのに
比例して不感帯の範囲が広がり、一方、図18(b)に
示す特性では、遠距離ラインのライン位置が所定以上で
かつライン代表距離l(i)が所定以下の範囲を不感帯
としている。
Referring again to FIG. 15, after calculating the representative distance l (i) for each line in step S7, the process proceeds to step S8, where the effective range for the representative distance l (i) for each line is set, and In step S9, a dead zone is set for each line. FIG. 18 shows a map in which the effective range and the dead zone are respectively set. The effective range is set so that the distance of the effective range becomes larger as the position of the line becomes larger and the line becomes longer. In this effective range, a range in which the distance on the long distance side line is equal to or less than a predetermined value is set as a dead zone. According to the characteristics shown in FIG. In the characteristic shown in FIG. 18B, the range of the long-distance line where the line position is equal to or greater than a predetermined value and the line representative distance l (i) is equal to or less than a predetermined value is defined as a dead zone.

【0046】この実施形態では、上記ステップS9によ
り、上記物体認識部20で物体認識のために用いないラ
イン毎の距離の不感帯をCCDライン毎に設定し、遠距
離側ラインでの距離が所定値以下である範囲を不感帯と
する不感帯設定手段34が構成される。
In this embodiment, in step S9, the dead zone of the distance for each line not used for object recognition in the object recognition unit 20 is set for each CCD line, and the distance on the long distance side line is set to a predetermined value. A dead zone setting means 34 for setting the following range as a dead zone is configured.

【0047】上記ステップS9の後はステップS10に
進み、上記ライン代表距離l(i)を入力し、ステップ
S11で、該ライン代表距離l(i)が、上記ステップ
S8で設定された有効範囲内にあるかどうかを判定す
る。この判定が「有効範囲内にあり」のYESのときに
は、ステップS12に進み、今度は同ライン代表距離l
(i)が、上記ステップS9で設定された不感帯内にな
いか否かを判定する。上記ステップS11の判定が「有
効範囲内になし」のNOのとき、及びステップS12の
判定が「不感帯内にあり」のNOのときには、いずれも
ステップS13に進み、上記ライン代表距離l(i)を
初期化してデータ値としてキャンセルした後、ステップ
S14に進む。
After step S9, the process proceeds to step S10, where the line representative distance l (i) is input. At step S11, the line representative distance l (i) falls within the effective range set at step S8. Is determined. When this determination is YES for “being within the effective range”, the process proceeds to step S12, and this line representative distance l
It is determined whether or not (i) is within the dead zone set in step S9. When the determination in step S11 is NO for "not in the effective range" and when the determination in step S12 is NO for "in the dead zone", the process proceeds to step S13, and the line representative distance l (i) is entered. Are initialized as data values, and the process proceeds to step S14.

【0048】一方、上記ステップS12で「不感帯内に
なし」のYESと判定されたときにも、上記ステップS
14に進む。このステップS14では、上記ステップS
11〜S13の処理が全てのラインi(1≦i≦n)に
対して終了したかどうかを判定し、終了していないとき
にはステップS11〜S14を繰り返す。全てのライン
につき終了してステップS14の判定がYESになる
と、ステップS15に進み、コントローラ15における
物体認識部20で上記ライン代表距離l(i)から物体
Oを認識するとともに、その物体番号kについての物体
距離L(k)(物体距離データ)を求める。
On the other hand, when it is determined as YES in the above-mentioned step S12, "No in the dead zone",
Proceed to 14. In this step S14, the above step S
It is determined whether or not the processing of 11 to S13 has been completed for all the lines i (1 ≦ i ≦ n), and if not completed, steps S11 to S14 are repeated. When all lines have been completed and the determination in step S14 is YES, the process proceeds to step S15, in which the object recognition unit 20 of the controller 15 recognizes the object O from the line representative distance l (i) and determines the object number k. Of the object distance L (k) (object distance data).

【0049】具体的に、図19は上記物体認識部20で
の処理動作を示し、この物体認識部20では、上記ライ
ン距離演算部26により演算されたライン毎の代表距離
l(i)に基づいて物体Oを認識する。すなわち、ステ
ップS301において物体番号kを設定し、ステップS
302では、物体距離L(k)、物体有効ポイント数P
K(k)及び物体内のデータ数N(k)をいずれも0に
して、一次保管用データセットのリセットを行う。
Specifically, FIG. 19 shows the processing operation of the object recognition unit 20. In the object recognition unit 20, based on the representative distance l (i) for each line calculated by the line distance calculation unit 26, To recognize the object O. That is, the object number k is set in step S301,
At 302, the object distance L (k) and the number of effective object points P
Both K (k) and the number of data in the object N (k) are set to 0, and the primary storage data set is reset.

【0050】次のステップS303では、有効な未登録
のラインデータが登録されているかどうかを判定し、こ
の判定がNOのときにはステップS308に進む。ステ
ップS303の判定がYESになると、ステップS30
4において、ラインデータの前後位置XD(i)及び横
位置YD(i)を設定する。この後、ステップS305
において、既に上記物体距離L(k)が定義されている
かどうかを判定し、この判定がNOのときには、ステッ
プS306に進み、上記物体距離L(k)をL(k)=
XD(i)に、また物体有効ポイント数PK(k)をP
K(k)=PI(i)に、さらに物体内のデータ数N
(k)をN(k)=1にそれぞれ設定して、一次保管用
データセットのセットを行った後、ステップS308に
進む。
In the next step S303, it is determined whether or not valid unregistered line data is registered. If this determination is NO, the flow advances to step S308. If the determination in step S303 is YES, step S30
At 4, the front / rear position XD (i) and the horizontal position YD (i) of the line data are set. Thereafter, step S305
It is determined whether or not the object distance L (k) has already been defined. If this determination is NO, the process proceeds to step S306, where the object distance L (k) is set to L (k) =
XD (i), and the number of effective object points PK (k) to P
K (k) = PI (i) and the number of data in the object N
After setting (k) to N (k) = 1 and setting a primary storage data set, the process proceeds to step S308.

【0051】これに対し、ステップS305の判定がY
ESのときには、ステップS307に進み、物体距離L
(k)をL(k)={PK(k)×L(i)+P(i)
×XD(i)}/{PK(k)+P(i)}に、また物
体有効ポイント数PK(k)をPK(k)=PK(k)
+PI(i)に、さらに物体内のデータ数N(k)をN
(k)=N(k)+1にそれぞれ設定して、一次保管用
データセットの更新を行った後、ステップS308に進
む。
On the other hand, the determination in step S305 is Y
In the case of ES, the process proceeds to step S307, where the object distance L
Let (k) be L (k) = {PK (k) × L (i) + P (i)
× XD (i)} / {PK (k) + P (i)} and the number of object effective points PK (k) as PK (k) = PK (k)
+ PI (i), and the number of data in the object N (k) by N
After setting (k) = N (k) +1 to update the primary storage data set, the process proceeds to step S308.

【0052】上記ステップS308では、全てのライン
番号について終了したかどうかを判定し、この判定がY
ESになるまでステップS303〜S307を繰り返
す。ステップS308の判定がYESになると、ステッ
プS309〜S311において物体Oの登録の可否の判
定を行う。まず、ステップS309において、上記物体
内のデータ数N(k)が所定値以上かどうかを判定す
る。尚、この所定値は、遠距離側ほど小さくするように
可変設定することもできる。このステップS309の判
定がNOのときには、距離データはノイズ等に起因する
ものであると見做し、ステップS310において物体O
の登録は行わず、物体番号kの物体データを初期化した
後、終了する。一方、ステップS309の判定がYES
であるときには、ステップS311において物体Oの登
録を行った後に終了する。すなわち、物体認識部20
は、ライン距離演算部26により演算されたライン毎の
距離のデータ数N(k)が所定値以上であるときのみ
に、該ライン毎の距離に対応する物体を新規物体として
登録する。
In step S308, it is determined whether or not the processing has been completed for all the line numbers.
Steps S303 to S307 are repeated until ES is reached. If the determination in step S308 is YES, a determination is made in steps S309 to S311 as to whether registration of the object O is possible. First, in step S309, it is determined whether the number N (k) of data in the object is equal to or greater than a predetermined value. Note that the predetermined value can be variably set so as to decrease as the distance increases. If the determination in step S309 is NO, it is considered that the distance data is due to noise or the like, and in step S310, the object O
Is not performed, the object data of the object number k is initialized, and the process ends. On the other hand, the determination in step S309 is YES
If, the process ends after the object O is registered in step S311. That is, the object recognition unit 20
Registers an object corresponding to the distance of each line as a new object only when the number N (k) of distance data per line calculated by the line distance calculation unit 26 is equal to or greater than a predetermined value.

【0053】この物体認識部20での処理動作の後は、
上記表示装置31での物体表示のための表示処理や警報
装置32での警報のための警報処理を行う。
After the processing operation in the object recognition unit 20,
A display process for displaying an object on the display device 31 and a warning process for a warning on the warning device 32 are performed.

【0054】したがって、この実施形態では、左右後側
方検知センサ10,10により画像が輝度情報として捕
らえられると、まず、コントローラ15の各測距回路1
6において、各検知センサ10の画像がライン列及びウ
ィンドウ方向にそれぞれ分割されて各領域Eについて距
離d(i,j)が測定される。次いで、8隣接点処理部
25で、上記測定された領域E毎の距離d(i,j)及
び隣接領域R1〜R8の距離の差dxに基づいて各領域
E毎の距離データの有効ポイント数P(i,j)が付与
され、ライン距離演算部26において上記有効ポイント
数P(i,j)に基づきライン毎の距離l(i)が演算
され、物体認識部20においてライン距離演算部26に
より演算されたライン毎の距離l(i)から物体Oが認
識される。このように、各領域Eについての距離データ
の有効性が隣接領域R1〜R8との関係から有効ポイン
ト数P(i,j)として判定され、この有効ポイント数
P(i,j)に基づいてライン毎の距離l(i)を求め
て、その距離l(i)から物体Oを認識するので、測距
データのばらつきやノイズ等があっても、その影響を可
及的に低減することができ、高精度の距離演算が可能と
なって正確な物体認識を行うことができる。
Therefore, in this embodiment, when an image is captured as luminance information by the left and right rear side detection sensors 10, 10, first, each distance measuring circuit 1 of the controller 15
At 6, the image of each detection sensor 10 is divided in the line direction and the window direction, and the distance d (i, j) is measured for each region E. Next, the number of effective points of the distance data for each region E is calculated by the eight adjacent point processing unit 25 based on the measured distance d (i, j) for each region E and the difference dx between the distances of the adjacent regions R1 to R8. P (i, j) is added, and the line distance calculation unit 26 calculates the distance l (i) for each line based on the number of effective points P (i, j), and the object recognition unit 20 calculates the distance l (i). The object O is recognized from the distance l (i) for each line calculated by As described above, the validity of the distance data for each region E is determined as the number of valid points P (i, j) from the relationship with the adjacent regions R1 to R8, and based on the number of valid points P (i, j). Since the distance O (i) for each line is obtained and the object O is recognized based on the distance l (i), even if there is a variation or noise in the distance measurement data, it is possible to reduce the influence as much as possible. As a result, accurate distance calculation can be performed, and accurate object recognition can be performed.

【0055】また、上記8隣接点処理部25では、領域
Eと隣接領域R1〜R8との距離差dxがしきい値d0
よりも小さいときに有効ポイント数P(i,j)(付与
ポイント数p)を付与するようにしているので、領域E
の隣接領域R1〜R8との距離差dxがしきい値d0よ
りも小さいときのみを有効ポイント数P(i,j)の付
与によって有効と判断でき、距離演算の精度を高めるこ
とができる。
In the 8-neighboring point processing unit 25, the distance difference dx between the area E and the adjacent areas R1 to R8 is equal to the threshold value d0.
When the number is smaller than the effective point number P (i, j) (the number of assigned points p), the area E
Only when the distance difference dx from the adjacent regions R1 to R8 is smaller than the threshold value d0 can be determined to be valid by providing the effective point number P (i, j), and the accuracy of the distance calculation can be improved.

【0056】上記ライン距離演算部26では、有効ポイ
ント数P(i,j)がライン代表しきい値P0よりも大
きい領域についてライン毎の距離演算を行うので、ライ
ン毎の距離l(i)を正確に演算することができる。
The line distance calculating section 26 calculates the distance for each line in an area where the number of effective points P (i, j) is larger than the line representative threshold value P0. It is possible to calculate accurately.

【0057】さらに、図19に示すように、上記物体認
識部20は、ライン距離演算部26により演算されたラ
イン毎の距離のデータ数が所定値以上にあるときのみ
に、該ライン毎の距離に対応する物体Oを新規物体Oと
して登録するので、新規物体Oの登録に際し制限を設け
ることができ、物体O以外のノイズ等が誤って物体Oと
して登録されるのを抑制することができる。
Further, as shown in FIG. 19, the object recognizing unit 20 determines the distance for each line only when the number of data of the distance for each line calculated by the line distance calculating unit 26 is equal to or more than a predetermined value. Is registered as a new object O, it is possible to restrict the registration of the new object O, and it is possible to suppress noise or the like other than the object O from being erroneously registered as the object O.

【0058】また、上記物体認識部20は、物体Oの認
識結果に基づいて警報等の信号を出力するように構成さ
れているので、認識物体Oを容易に知ることができる。
Since the object recognizing section 20 is configured to output a signal such as an alarm based on the recognition result of the object O, the recognized object O can be easily known.

【0059】さらにまた、この実施形態では、上記ライ
ン距離演算部26により演算されたライン毎のライン代
表距離l(i)についての不感帯がCCDライン毎に設
定され、この不感帯は車両Cの後方に相当する遠距離側
ラインでの距離が所定値以下である範囲とされている。
そして、それらのライン代表距離l(i)のうち、上記
不感帯に属する距離は上記物体認識部20での物体認識
のために用いられない。このため、車両Cの真後ろつま
り上記所定値以下の距離に車両等の物体Oがあっても、
その物体Oは不感帯に属することとなり、真後ろの物体
Oに係る距離データを除いた距離データによって物体O
が認識される。その結果、車両C真後ろの物体Oを斜め
後方の物体Oと誤認識することはなく、車両Cの斜め後
方にあって他の車線上を走行している、追越しの可能性
のある車両等の物体Oを正確に認識することができる。
Further, in this embodiment, a dead zone for the line representative distance l (i) for each line calculated by the line distance calculating unit 26 is set for each CCD line, and this dead zone is located behind the vehicle C. The distance on the corresponding long distance side line is set to a range that is equal to or less than a predetermined value.
Then, of those line representative distances l (i), the distance belonging to the dead zone is not used for object recognition in the object recognition unit 20. For this reason, even if there is an object O such as a vehicle directly behind the vehicle C, that is, at a distance equal to or less than the predetermined value,
The object O belongs to the dead zone, and the object O is determined by the distance data excluding the distance data of the object O immediately behind.
Is recognized. As a result, the object O directly behind the vehicle C is not erroneously recognized as the obliquely rearward object O, and the vehicle O, which is obliquely behind the vehicle C and is running on another lane, may be overtaken. The object O can be accurately recognized.

【0060】しかも、こうして不感帯を車両C真後ろの
物体Oが含まれるように設定するので、車両Cの後方で
あっても真後ろになくて遠方の物体Oについては正確に
認識することができ、その見落しを招くことはない。
Further, since the dead zone is set so as to include the object O right behind the vehicle C, the object O located not behind and immediately behind the vehicle C can be accurately recognized. There is no oversight.

【0061】(実施形態2)図20〜図23は本発明の
実施形態2を示し(尚、図15と同じ部分については同
じ符号を付してその詳細な説明は省略する)、上記実施
形態1ではライン代表距離l(i)の有効範囲及び不感
帯をライン毎に設定するようにしているのに対し、物体
Oの重心方向及びその距離L(k)に応じて設定すると
ともに、その不感帯を物体Oに含まれるライン数に応じ
て可変とするようにしている。
(Embodiment 2) FIGS. 20 to 23 show Embodiment 2 of the present invention (note that the same parts as those in FIG. 15 are denoted by the same reference numerals and detailed description thereof is omitted). In 1, the effective range and the dead zone of the line representative distance l (i) are set for each line. On the other hand, the dead zone is set according to the direction of the center of gravity of the object O and the distance L (k). The variable is made according to the number of lines included in the object O.

【0062】すなわち、図20は、コントローラ15に
おいて画像の領域E毎の距離データから物体認識までの
処理動作を示し、ステップT1〜T7は上記実施形態1
のステップS1〜S7と、またステップT8は同ステッ
プS15とそれぞれ同じである(図15参照)。
That is, FIG. 20 shows the processing operation from the distance data for each area E of the image to the object recognition in the controller 15, and steps T1 to T7 are the same as those in the first embodiment.
Steps S1 to S7 and step T8 are the same as step S15, respectively (see FIG. 15).

【0063】そして、ステップT8で物体kの検出距離
L(k)(物体距離データ)を求めた後、ステップT9
に進んで物体距離に対する有効範囲を設定し、次のステ
ップT10で車両Cの真後ろに不感帯を設定する。具体
的に、図21は上記物体の重心方向及び物体距離L
(k)に応じて設定される有効範囲及び不感帯を示し、
有効範囲は物体重心ObjCenterの方向が遠距離
側になるほど有効範囲の距離が大きくなるように設定さ
れている。そして、この有効範囲において物体重心Ob
jCenterが遠距離側でかつ物体距離L(k)が所
定値以下である範囲が不感帯とされ、図21(a)に示
す特性では、物体重心の方向が遠距離側に向かうのに連
れて不感帯の範囲が広がり、一方、図21(b)に示す
特性では、物体重心ObjCenterの方向が所定方
向を越えて遠距離側でかつ物体距離L(k)が所定以下
の範囲を不感帯としている。
Then, after detecting the detection distance L (k) (object distance data) of the object k in step T8, in step T9
To set an effective range for the object distance, and set a dead zone right behind the vehicle C in the next step T10. Specifically, FIG. 21 shows the direction of the center of gravity of the object and the object distance L.
(K) indicates an effective range and a dead zone set in accordance with (k),
The effective range is set so that the distance of the effective range increases as the direction of the object center of gravity ObjCenter becomes farther. And, in this effective range, the object weight center Ob
A range in which jCenter is on the long distance side and the object distance L (k) is equal to or less than a predetermined value is defined as a dead zone. In the characteristic shown in FIG. 21A, the dead zone is determined as the direction of the center of gravity of the object moves toward the long distance side. 21B, on the other hand, in the characteristic shown in FIG. 21B, a range in which the direction of the object center of gravity ObjCenter is on the far side beyond the predetermined direction and the object distance L (k) is equal to or smaller than the predetermined range is a dead zone.

【0064】上記ステップT10の後はステップT11
において物体番号kの重心ObjCenter(k)
(その方向)を入力し、次いでステップT12に進ん
で、車両Cの真後ろに物体Oがある場合の処理ルーチン
に進む。この処理ルーチンは、図22に示す如く、最初
のステップT101で、上記ステップT8,T11によ
りそれぞれ求められた物体距離L(k)及び物体重心O
bjCenterの方向が、上記ステップT9により設
定されている有効範囲内にあるかどうかを判定する。こ
の判定が「有効範囲内になし」のNOのときには、ステ
ップT102に進んで、物体距離L(k)を初期化して
キャンセルした後、ステップT109に進む。
After step T10, step T11 is executed.
At the center of gravity ObjectCenter (k) of the object number k
(The direction) is input, and then the process proceeds to step T12, where the process proceeds to a processing routine when the object O is located immediately behind the vehicle C. In this processing routine, as shown in FIG. 22, in the first step T101, the object distance L (k) and the object center of gravity O obtained in steps T8 and T11, respectively.
It is determined whether or not the direction of bjCenter is within the effective range set in step T9. If the determination is NO for “not within effective range”, the process proceeds to step T102, where the object distance L (k) is initialized and canceled, and then the process proceeds to step T109.

【0065】一方、上記ステップT101の判定が「有
効範囲内にあり」のYESのときには、ステップT10
3に進み、今度は同物体距離L(k)及び物体重心の方
向が、上記ステップT10により設定されている不感帯
内にあるかどうかを判定する。この判定が「不感帯内に
なし」のYESのときには、ステップT108に進み、
上記認識物体Oを物体として登録した後、上記ステップ
T109に進む。
On the other hand, if the determination in step T101 is "YES in the effective range", the process proceeds to step T10.
Then, it is determined whether or not the object distance L (k) and the direction of the physical center of gravity are within the dead zone set in step T10. If this determination is YES for "none in dead zone", the process proceeds to step T108,
After registering the recognition object O as an object, the process proceeds to step T109.

【0066】また、ステップT103で「不感帯内にあ
る」のNOと判定されると、ステップT104に進み、
上記認識物体Oに含まれるライン数ObjLine
(k)を入力し、次のステップT105で上記ライン数
ObjLine(k)のしきい値ObjLimitを設
定する。このしきい値ObjLimitの特性は図23
に例示するように設定され、遠距離側になるほどしきい
値ObjLimitが比例的に(図23(a))又は段
階的に(図23(b))小さくなるように設定される。
If it is determined as NO in the dead zone in step T103, the process proceeds to step T104,
Number of lines ObjLine included in the recognition object O
(K) is input, and in the next step T105, a threshold value ObjLimit of the line number ObjLine (k) is set. FIG. 23 shows the characteristics of the threshold value ObjLimit.
The threshold value ObjLimit is set to decrease proportionally (FIG. 23A) or stepwise (FIG. 23B) toward the far side.

【0067】上記ステップT105の後、ステップT1
06において上記認識物体Oに含まれるライン数Obj
Line(k)とそのしきい値ObjLimitとの大
小を比較し、ここでObjLine(k)≧ObjLi
mitのNOのときには、上記ステップT102に進ん
で物体距離L(k)及び不感帯しきい値を初期化した
後、ステップT109に進む一方、ObjLine
(k)<ObjLimitのYESのときには、ステッ
プT107において上記ステップT10で設定されてい
るライン代表距離の不感帯(そのしきい値)を小さくす
るように変更した後、ステップT108に進んで物体登
録を行い、その後にステップT109に進む。
After step T105, step T1
06, the number of lines Obj included in the recognition object O
Line (k) is compared with its threshold value ObjLimit, where ObjLine (k) ≧ ObjLi
When mit is NO, the process proceeds to step T102 to initialize the object distance L (k) and the dead zone threshold, and then proceeds to step T109, while objLine
(K) If <ObjLimit is YES, the dead zone (the threshold value) of the line representative distance set in step T10 is reduced in step T107, and the process proceeds to step T108 to register an object. Then, the process proceeds to step T109.

【0068】上記ステップT109では、上記ステップ
T101〜T108の処理が全ての物体番号k(1≦k
≦R)に対して終了したかどうかを判定し、終了してい
ないときにはステップT101〜T108を繰り返す一
方、ステップT109の判定がYESになると終了す
る。
In step T109, the processing in steps T101 to T108 is repeated for all object numbers k (1 ≦ k
It is determined whether or not the processing has been completed for ≦ R). If not completed, steps T101 to T108 are repeated, whereas if the determination in step T109 is YES, the processing is ended.

【0069】この実施形態では、上記ステップT8によ
り、上記物体認識部20により認識された物体Oまでの
距離を求める物体距離検出手段36が構成されている。
In this embodiment, the object distance detecting means 36 for obtaining the distance to the object O recognized by the object recognizing unit 20 is constructed by the step T8.

【0070】また、ステップT11により、物体認識部
20により認識された物体Oの重心方向を求める物体重
心方向検出手段35が構成されている。
In step T11, the body weight center direction detecting means 35 for obtaining the center of gravity direction of the object O recognized by the object recognition unit 20 is configured.

【0071】さらに、ステップT10,T104〜T1
07により、上記物体認識部20で物体認識のために用
いないライン毎の距離の不感帯を物体Oの重心方向及び
物体Oまでの物体距離L(k)に応じて設定する不感帯
設定手段34が構成され、この不感帯設定手段34は、
認識物体Oに含まれるライン数ObjLineに応じて
不感帯を可変として、そのライン数ObjLineが小
さいほど不感帯を小さく設定するようにしている。
Further, steps T10, T104 to T1
07, the dead zone setting means 34 for setting the dead zone of the distance for each line not used for object recognition in the object recognition unit 20 according to the direction of the center of gravity of the object O and the object distance L (k) to the object O. The dead zone setting means 34
The dead zone is made variable according to the number of lines ObjLine included in the recognition object O, and the smaller the number of lines ObjLine is, the smaller the dead zone is set.

【0072】また、ステップT102において、物体距
離L(k)が有効範囲を外れたとき、不感帯を初期化す
るようにしている。
In step T102, when the object distance L (k) is out of the effective range, the dead zone is initialized.

【0073】したがって、この実施形態では、物体認識
部20において物体Oが認識されると、その認識物体O
の重心方向と認識物体Oまでの距離L(k)とが求めら
れるとともに、ライン代表距離l(i)の不感帯が上記
物体Oの重心方向及び物体距離L(k)に応じて設定さ
れ、上記ライン距離演算部26により演算されたライン
代表距離l(i)のうち、この不感帯に属する距離は上
記物体認識部20での物体認識のために用いられない。
よって、この実施形態でも上記実施形態1と同様の作用
効果が得られる。
Therefore, in this embodiment, when the object O is recognized by the object recognition unit 20, the recognized object O
And the distance L (k) to the recognition object O are obtained, and the dead zone of the line representative distance l (i) is set according to the direction of the center of gravity of the object O and the object distance L (k). Of the line representative distances l (i) calculated by the line distance calculation unit 26, the distances belonging to this dead zone are not used for object recognition in the object recognition unit 20.
Therefore, in this embodiment, the same operation and effect as those of the first embodiment can be obtained.

【0074】また、上記不感帯は、認識物体Oに含まれ
るライン数ObjLineに応じて可変とされ、その認
識物体Oに含まれるライン数ObjLineが小さいほ
ど不感帯が小さくされる。このため、例えば車両Cの真
後ろの物体Oの幅の大きさに応じて不感帯を変えること
ができ、その真後ろの物体Oが幅の大きい車両であると
きには、認識物体Oに含まれるライン数ObjLine
が増加して不感帯が大きくなるのに対し、真後ろの物体
Oが幅の小さい2輪車であるときには、認識物体Oに含
まれるライン数ObjLineが減少して不感帯が小さ
くなる。その結果、2輪車等の物体Oは不感帯の減少に
よってその距離データが物体認識に使用される可能性が
高くなり、2輪車の車両との識別を正確に行って、追越
しの可能性の高い2輪車を物体Oとして容易に認識する
ことができる。
The dead zone is variable according to the number of lines ObjLine included in the recognition object O, and the smaller the number of lines ObjLine included in the recognition object O, the smaller the dead zone. Therefore, for example, the dead zone can be changed in accordance with the width of the object O immediately behind the vehicle C. When the object O immediately behind the vehicle C is a wide vehicle, the number of lines ObjLine included in the recognized object O
Increases, and the dead zone increases, whereas when the object O directly behind is a small-sized two-wheeled vehicle, the number of lines ObjLine included in the recognition object O decreases and the dead zone decreases. As a result, there is a high possibility that the distance data of the object O such as a motorcycle is used for object recognition due to a decrease in the dead zone. A tall two-wheeled vehicle can be easily recognized as the object O.

【0075】(実施形態3)図24及び図25は実施形
態3を示し、上記実施形態2における不感帯の変更を、
物体Oに含まれるライン数ObjLineのみならず物
体Oとの相対速度も考慮して行うようにしたものであ
る。
(Embodiment 3) FIGS. 24 and 25 show Embodiment 3 in which the change of the dead zone in Embodiment 2 is described.
This is performed in consideration of not only the number of lines ObjLine included in the object O but also the relative speed with respect to the object O.

【0076】すなわち、この実施形態では、図24に示
すように(図22と同じステップについては同じ符号を
付してその詳細な説明は省略する)、そのステップT1
01〜T109は上記実施形態2のステップT101〜
T109と同じである(図22参照)。
That is, in this embodiment, as shown in FIG. 24 (the same steps as those in FIG. 22 are denoted by the same reference numerals and detailed description thereof is omitted), and
01 to T109 correspond to steps T101 to T101 of the second embodiment.
It is the same as T109 (see FIG. 22).

【0077】そして、ステップT106でObjLin
e(k)<ObjLimitのYESと判定されると、
ステップT110に進み、上記認識物体Oの自車Cとの
相対速度Objv(k)を入力し、次のステップT11
1で上記相対速度Objv(k)のしきい値ObjvL
imitを設定する。このしきい値ObjvLimit
の特性は図25に示すように設定されており、遠距離側
になるほどしきい値ObjvLimitが比例的に(図
25(a))又は段階的に(図25(b))大きくなる
ように設定される。
Then, in step T106, ObjLin
If it is determined that e (k) <ObjLimit is YES,
Proceeding to step T110, the relative speed Objv (k) of the recognition object O with respect to the own vehicle C is input, and the next step T11 is performed.
The threshold value ObjvL of the relative speed Objv (k) at 1
Set the limit. This threshold ObjvLimit
Are set as shown in FIG. 25, and the threshold value ObjvLimit is set to increase proportionally (FIG. 25A) or stepwise (FIG. 25B) as the distance increases. Is done.

【0078】上記ステップT111の後、ステップT1
12において上記認識物体Oとの相対速度Objv
(k)とそのしきい値ObjvLimitとの大小を比
較し、ここでObjv(k)≦ObjvLimitのN
Oのときには、ステップT102に進んで物体距離L
(k)を初期化する。一方、ステップT112の判定が
Objv(k)>ObjvLimitのYESのときに
は、ステップT107においてライン代表距離の不感帯
(そのしきい値)を小さくするように変更した後、ステ
ップT108に進んで物体登録を行う。
After step T111, step T1
At 12, the relative velocity Objv with respect to the recognition object O
(K) and the threshold value ObjvLimit are compared, and Nj of Objv (k) ≦ ObjvLimit is obtained.
In the case of O, the process proceeds to step T102 and the object distance L
(K) is initialized. On the other hand, if the determination in step T112 is YES, that is, Objv (k)> ObjvLimit, in step T107, the dead zone (the threshold) of the line representative distance is changed to be small, and the process proceeds to step T108 to register the object. .

【0079】この実施形態では、上記ステップT10,
T104〜T112により不感帯設定手段34が構成さ
れ、この不感帯設定手段34は、認識物体Oとの相対速
度Objvに応じて不感帯を可変として、その相対速度
Objvが大きいほど不感帯を小さく設定するようにし
ている。
In this embodiment, steps T10,
The dead zone setting unit 34 is configured by T104 to T112, and the dead zone setting unit 34 changes the dead zone in accordance with the relative speed Objv with the recognition object O, and sets the dead zone to be smaller as the relative speed Objv is larger. I have.

【0080】したがって、この実施形態では、ライン代
表距離の不感帯は、認識物体Oとの相対速度Objvが
高くなるほど小さく設定されるので、例えば車両Cの真
後ろの物体Oとの相対速度Objvに応じて不感帯を変
えることができ、その相対速度Objvが低いときには
不感帯が大きくなるのに対し、相対速度Objvが高い
ときには不感帯が小さくなる。つまり、真後ろの物体O
との相対速度Objvが高いとき、その相対速度Obj
vを持つ物体Oが車両であれば自車Cと衝突する程度の
車間距離であると考えられるので、その物体Oを2輪車
と判定することができる。よって、この発明でも、2輪
車の車両との識別を正確に行って2輪車を物体Oとして
容易に認識することができる。
Therefore, in this embodiment, the dead zone of the line representative distance is set smaller as the relative speed Objv with respect to the recognition object O increases, so that, for example, according to the relative speed Objv with the object O directly behind the vehicle C. The dead zone can be changed. When the relative speed Objv is low, the dead zone becomes large, whereas when the relative speed Objv is high, the dead zone becomes small. In other words, the object O
Is higher, the relative speed Obj
If the object O having v is a vehicle, it is considered that the inter-vehicle distance is such that the vehicle O collides with the own vehicle C, so that the object O can be determined as a two-wheeled vehicle. Therefore, according to the present invention, the two-wheeled vehicle can be easily recognized as the object O by accurately identifying the two-wheeled vehicle.

【0081】尚、上記実施形態では、車両Cの側方ない
し斜め後方の物体Oを認識するようにしているが、本発
明は、これら範囲以外の物体を認識する場合にも適用で
き、さらには車両C以外に建物内や屋外等において物体
を認識する場合にも適用することができる。
In the above-described embodiment, the object O is recognized from the side or obliquely behind the vehicle C. However, the present invention can be applied to the case of recognizing an object outside these ranges. The present invention can also be applied to a case where an object is recognized inside a building or outdoors, in addition to the vehicle C.

【0082】[0082]

【発明の効果】以上説明のように、請求項1の発明で
は、多段ライン型CCDの画像をライン毎にかつウィン
ドウ方向に複数に分割して各領域について距離を測定
し、この各領域毎の距離データからライン毎の距離を演
算して物体を認識するとともに、物体認識のために用い
ないライン毎の距離の不感帯をCCDライン毎に設定す
るようにした。また、請求項2の発明では、遠距離側ラ
インでの距離が所定値以下である範囲を不感帯として設
定するようにした。さらに、請求項3の発明では、請求
項1の発明と同様に、多段ライン型CCDの画像をライ
ン毎にかつウィンドウ方向に複数に分割して各領域につ
いて距離を測定し、この各領域毎の距離データからライ
ン毎の距離を演算して物体を認識するとともに、物体認
識のために用いないライン毎の距離の不感帯を認識物体
の重心方向及び物体までの距離に応じて設定するように
した。
As described above, according to the first aspect of the present invention, the image of the multi-stage line type CCD is divided into a plurality of lines for each line and in the window direction, and the distance is measured for each region. An object is recognized by calculating a distance for each line from the distance data, and a dead zone of a distance for each line that is not used for object recognition is set for each CCD line. Further, in the invention of claim 2, a range in which the distance on the long distance side line is equal to or less than a predetermined value is set as the dead zone. Further, in the third aspect of the present invention, similarly to the first aspect of the present invention, the image of the multi-stage line type CCD is divided into a plurality of lines and a plurality of lines in the window direction, and the distance is measured for each area. An object is recognized by calculating a distance for each line from the distance data, and a dead zone of a distance for each line that is not used for object recognition is set according to the direction of the center of gravity of the recognized object and the distance to the object.

【0083】したがって、これら発明によると、例えば
車両にその斜め後方の車両等の物体を認識するように多
段型ラインCCDを配置し、不感帯を車両真後ろの車両
等の物体が含まれるように設定して、その真後ろの車両
等を斜め後方の車両等と誤認識するのをなくすることが
でき、車両後方の遠方の車両等の見落しを招くことな
く、車両の斜め後方で他の車線上を走行している、追越
しの可能性のある車両等を正確に認識することができ
る。
Therefore, according to these inventions, for example, a multi-stage line CCD is arranged in a vehicle so as to recognize an object such as a vehicle obliquely behind the vehicle, and the dead zone is set so as to include an object such as a vehicle immediately behind the vehicle. Therefore, it is possible to prevent the vehicle immediately behind the vehicle from being erroneously recognized as a vehicle obliquely behind, and to avoid overlooking a distant vehicle behind the vehicle, and obstruct the vehicle on another lane diagonally behind the vehicle. It is possible to accurately recognize a running vehicle or the like that may pass.

【0084】請求項4の発明では、上記認識物体に含ま
れるライン数に応じて不感帯を可変とし、請求項5の発
明では、そのライン数が小さいほど不感帯を小さくする
ようにした。これらの発明によれば、例えば車両の真後
ろの物体の幅の大きさに応じて不感帯を変えることがで
き、2輪車の車両との識別を正確に行って、追越しの可
能性の高い2輪車を物体として容易に認識することがで
きる。
In the invention of claim 4, the dead zone is made variable according to the number of lines included in the recognition object. In the invention of claim 5, the dead zone is made smaller as the number of lines is smaller. According to these inventions, for example, the dead zone can be changed according to the size of the width of the object directly behind the vehicle, the two-wheeled vehicle can be accurately distinguished from the two-wheeled vehicle, and there is a high possibility of overtaking. A car can be easily recognized as an object.

【0085】請求項6の発明では、認識物体との相対速
度に応じて不感帯を可変とし、請求項7の発明では、相
対速度が高いほど不感帯を小さくするようにしたことに
より、例えば車両の真後ろの物体との相対速度に応じて
不感帯を変えることができ、2輪車の車両との識別を正
確に行って2輪車を物体として容易に認識することがで
きる。
According to a sixth aspect of the present invention, the dead zone is made variable in accordance with the relative speed with respect to the recognition object. In the seventh aspect of the present invention, the dead zone is reduced as the relative speed increases, for example, just behind the vehicle. The dead zone can be changed according to the relative speed with respect to the object, and the two-wheeled vehicle can be accurately identified and the two-wheeled vehicle can be easily recognized as the object.

【0086】請求項8の発明によると、物体の認識結果
に基づいて警報等の信号を出力するようにしたことによ
り、認識物体を容易に知ることができる。
According to the eighth aspect of the present invention, a signal such as a warning is output based on the recognition result of the object, so that the recognized object can be easily known.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の構成図である。FIG. 1 is a configuration diagram of the present invention.

【図2】本発明の実施形態1に係る物体認識装置の各構
成部品の車両での位置を示す斜視図である。
FIG. 2 is a perspective view showing positions of respective components of the object recognition device according to the first embodiment of the present invention in a vehicle.

【図3】物体認識装置の概略構成を示すブロック図であ
る。
FIG. 3 is a block diagram illustrating a schematic configuration of an object recognition device.

【図4】物体認識装置の詳細構成を示すブロック図であ
る。
FIG. 4 is a block diagram illustrating a detailed configuration of the object recognition device.

【図5】検知センサにより物体を測距する概念を示す側
面図である。
FIG. 5 is a side view showing a concept of measuring a distance to an object by a detection sensor.

【図6】CCDチップにより捕らえた画像を示す図であ
る。
FIG. 6 is a diagram showing an image captured by a CCD chip.

【図7】CCDチップにより捕らえた画像の中のライン
をウィンドウ方向に分割して領域を区分する概念を示す
図である。
FIG. 7 is a diagram showing a concept of dividing a line in an image captured by a CCD chip in a window direction to divide an area.

【図8】上下のCCDチップにより得られた画像が同じ
ラインでずれて視差が生じる状態を示す説明図である。
FIG. 8 is an explanatory diagram showing a state in which images obtained by upper and lower CCD chips are shifted on the same line and parallax occurs.

【図9】上下のCCDチップにより物体までの距離を測
定する原理を示す図である。
FIG. 9 is a diagram showing a principle of measuring a distance to an object by upper and lower CCD chips.

【図10】CCDチップにより得られた画像におけるC
CDラインの測距方向を示す平面図である。
FIG. 10 shows C in an image obtained by a CCD chip.
It is a top view which shows the ranging direction of a CD line.

【図11】上下方向のレンジカット領域を示す側面図で
ある。
FIG. 11 is a side view showing a range cut area in a vertical direction.

【図12】水平方向のレンジカット領域を示す平面図で
ある。
FIG. 12 is a plan view showing a horizontal range cut area.

【図13】領域に隣接する8隣接領域の配置を示す図で
ある。
FIG. 13 is a diagram showing an arrangement of eight adjacent regions adjacent to the region.

【図14】8隣接点処理からライン毎の距離演算までの
具体例を示す図である。
FIG. 14 is a diagram showing a specific example from the processing of eight adjacent points to the calculation of the distance for each line.

【図15】実施形態1に係るコントローラで行われる距
離データの処理動作を示すフローチャート図である。
FIG. 15 is a flowchart illustrating a distance data processing operation performed by the controller according to the first embodiment.

【図16】8隣接点処理動作を示すフローチャート図で
ある。
FIG. 16 is a flowchart illustrating an eight adjacent point processing operation.

【図17】ライン毎の距離演算処理動作を示すフローチ
ャート図である。
FIG. 17 is a flowchart illustrating a distance calculation processing operation for each line.

【図18】ライン位置に応じたライン代表距離の有効範
囲及び不感帯を示すマップの特性図である。
FIG. 18 is a characteristic diagram of a map showing an effective range of a line representative distance and a dead zone according to a line position.

【図19】物体の認識処理動作を示すフローチャート図
である。
FIG. 19 is a flowchart showing an object recognition processing operation.

【図20】本発明の実施形態2に係るコントローラで行
われる距離データの処理動作を示すフローチャート図で
ある。
FIG. 20 is a flowchart illustrating a distance data processing operation performed by the controller according to the second embodiment of the present invention.

【図21】物体の重心方向及び距離に応じた有効範囲及
び不感帯を示す特性図である。
FIG. 21 is a characteristic diagram showing an effective range and a dead zone according to the direction of the center of gravity and the distance of an object.

【図22】実施形態2において真後ろに物体がある場合
の処理ルーチンを示すフローチャート図である。
FIG. 22 is a flowchart illustrating a processing routine when an object is located immediately behind in the second embodiment.

【図23】物体に含まれるライン数のしきい値を設定す
るための特性図である。
FIG. 23 is a characteristic diagram for setting a threshold value of the number of lines included in an object.

【図24】実施形態3を示す図22相当図である。FIG. 24 is a diagram corresponding to FIG. 22 showing the third embodiment.

【図25】物体との相対速度のしきい値を設定するため
の特性図である。
FIG. 25 is a characteristic diagram for setting a threshold value of a relative speed with respect to an object.

【符号の説明】[Explanation of symbols]

C 車両 10 後側方検知センサ 11 CCDチップ(多段ライン型CCD) 15 コントローラ 16 測距回路(測距手段) 20 物体認識部(物体認識手段) 21 物体識別部 25 8隣接点処理部(有効ポイント数付与手段) 26 ライン距離演算部(ライン距離演算手段) 31 表示装置 32 警報装置 34 不感帯設定手段 35 物体重心方向検出手段 36 物体距離検出手段 E,E(i,j) 領域 R1〜R8 隣接領域 d(i,j) 測定距離 dx 隣接領域との距離差 P(i,j) 有効ポイント数 P0 ライン代表しきい値 l(i,j) ライン代表距離 L(k) 物体距離 ObjCenter(k) 物体重心 ObjLine(k) 物体に含まれるライン数 Objv(k) 物体との相対速度 O 物体 O′ 物体像 C vehicle 10 rear side detection sensor 11 CCD chip (multi-stage line type CCD) 15 controller 16 distance measuring circuit (distance measuring means) 20 object recognition unit (object recognition means) 21 object identification unit 25 8 adjacent point processing unit (effective point) Numbering means) 26 Line distance calculating unit (Line distance calculating means) 31 Display device 32 Alarm device 34 Dead zone setting means 35 Body weight center direction detecting means 36 Object distance detecting means E, E (i, j) areas R1 to R8 Adjacent areas d (i, j) measured distance dx distance difference from adjacent area P (i, j) number of effective points P0 line representative threshold l (i, j) line representative distance L (k) object distance ObjCenter (k) object Center of gravity ObjLine (k) Number of lines included in object Objv (k) Relative speed with object O Object O 'Object image

───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.6 識別記号 FI G06T 7/60 G06F 15/64 M 15/70 350J (72)発明者 吉岡 透 広島県安芸郡府中町新地3番1号 マツダ 株式会社内 (72)発明者 上村 裕樹 広島県安芸郡府中町新地3番1号 マツダ 株式会社内──────────────────────────────────────────────────の Continuation of the front page (51) Int.Cl. 6 Identification code FI G06T 7/60 G06F 15/64 M 15/70 350J (72) Inventor Toru Yoshioka 3-1, Fuchu-cho, Shinchu, Aki-gun, Hiroshima Mazda Inside (72) Inventor Hiroki Uemura 3-1, Shinchi, Fuchu-cho, Aki-gun, Hiroshima Mazda

Claims (8)

【特許請求の範囲】[Claims] 【請求項1】 ウィンドウ方向に沿って配置された多数
のCCDからなるCCDラインをウィンドウ方向と直交
するライン列方向に多段に並設してなり画像を輝度情報
として捕らえる多段ライン型CCDを備え、該多段ライ
ン型CCDからの輝度信号に基づいて得られた2次元の
距離データから特定の物体を認識するようにした物体認
識装置であって、 上記多段ライン型CCDのライン列方向一端側のCCD
ラインが近距離側を測距する近距離側ラインとされてい
る一方、他端側のCCDラインが遠距離側を測距する遠
距離側ラインとされ、 上記多段ライン型CCDにより得られた画像を上記CC
Dライン毎にかつウィンドウ方向に複数に分割して各領
域について距離を測定する測距手段と、 上記測距手段により測定された各領域についての距離に
基づき上記ライン毎の距離をそれぞれ演算するライン距
離演算手段と、 上記ライン距離演算手段により演算されたライン毎の距
離に基づいて物体を認識する物体認識手段と、 上記物体認識手段で物体認識のために用いないライン毎
の距離の不感帯を上記CCDライン毎に設定する不感帯
設定手段とを備えたことを特徴とする物体認識装置。
1. A multi-stage line type CCD comprising a plurality of CCD lines arranged along a window direction and arranged in multiple stages in a line direction orthogonal to the window direction to capture an image as luminance information, An object recognizing device for recognizing a specific object from two-dimensional distance data obtained based on a luminance signal from said multi-stage line type CCD, comprising:
The line is a short distance side line for measuring the short distance side, while the CCD line at the other end is a long distance side line for measuring the long distance side. The above CC
Distance measuring means for measuring a distance for each area by dividing the area for each D line into a plurality of pieces in the window direction, and a line for calculating the distance for each line based on the distance for each area measured by the distance measuring means Distance calculating means, object recognizing means for recognizing an object based on the distance for each line calculated by the line distance calculating means, and a dead zone for each line not used for object recognition by the object recognizing means. An object recognizing device, comprising: a dead zone setting means for setting each CCD line.
【請求項2】 請求項1の物体認識装置において、 不感帯設定手段は、遠距離側ラインでの距離が所定値以
下である範囲を不感帯として設定するように構成されて
いることを特徴とする物体認識装置。
2. The object recognition apparatus according to claim 1, wherein the dead zone setting means is configured to set a range in which the distance on the long distance side line is equal to or less than a predetermined value as a dead zone. Recognition device.
【請求項3】 ウィンドウ方向に沿って配置された多数
のCCDからなるCCDラインをウィンドウ方向と直交
するライン列方向に多段に並設してなり画像を輝度情報
として捕らえる多段ライン型CCDを備え、該多段ライ
ン型CCDからの輝度信号に基づいて得られた2次元の
距離データから特定の物体を認識するようにした物体認
識装置であって、 上記多段ライン型CCDのライン列方向の一端側のCC
Dラインが近距離側を測距する近距離側ラインとされて
いる一方、他端側のCCDラインが遠距離側を測距する
遠距離側ラインとされ、 上記多段ライン型CCDにより得られた画像を上記CC
Dライン毎にかつウィンドウ方向に複数に分割して各領
域について距離を測定する測距手段と、 上記測距手段により測定された各領域についての距離に
基づき上記ライン毎の距離をそれぞれ演算するライン距
離演算手段と、 上記ライン距離演算手段により演算されたライン毎の距
離に基づいて物体を認識する物体認識手段と、 上記物体認識手段により認識された物体の重心方向を求
める物体重心方向検出手段と、 上記物体認識手段により認識された物体までの距離を求
める物体距離検出手段と、 上記物体認識手段で物体認識のために用いないライン毎
の距離の不感帯を、上記物体重心方向検出手段及び物体
距離検出手段によりそれぞれ求められた物体重心方向及
び物体距離に応じて設定する不感帯設定手段とを備えた
ことを特徴とする物体認識装置。
3. A multi-stage line CCD in which CCD lines composed of a large number of CCDs arranged along a window direction are arranged in multiple stages in a line column direction orthogonal to the window direction to capture an image as luminance information. An object recognizing device for recognizing a specific object from two-dimensional distance data obtained based on a luminance signal from the multi-stage CCD, wherein one end of the multi-stage CCD in a line direction is provided. CC
The D line is a short distance line for measuring the short distance side, while the CCD line on the other end is a long distance line for measuring the long distance side. Image is CC
Distance measuring means for measuring a distance for each area by dividing the area for each D line into a plurality of pieces in the window direction, and a line for calculating the distance for each line based on the distance for each area measured by the distance measuring means Distance calculating means, object recognizing means for recognizing an object based on the distance for each line calculated by the line distance calculating means, and a body weight center direction detecting means for obtaining the center of gravity of the object recognized by the object recognizing means An object distance detecting means for obtaining a distance to an object recognized by the object recognizing means; a dead zone for each line not used for object recognition by the object recognizing means; A dead zone setting unit configured to set in accordance with the direction of the body weight and the object distance respectively obtained by the detecting unit; Recognition device.
【請求項4】 請求項3の物体認識装置において、 不感帯設定手段は、認識物体に含まれるライン数に応じ
て不感帯を可変とするように構成されていることを特徴
とする物体認識装置。
4. The object recognition apparatus according to claim 3, wherein the dead zone setting means is configured to change the dead zone in accordance with the number of lines included in the recognition object.
【請求項5】 請求項4の物体認識装置において、 不感帯設定手段は、認識物体に含まれるライン数が小さ
いほど不感帯を小さくするように構成されていることを
特徴とする物体認識装置。
5. The object recognition apparatus according to claim 4, wherein the dead zone setting means is configured to make the dead zone smaller as the number of lines included in the recognition object is smaller.
【請求項6】 請求項3〜5のいずれかの物体認識装置
において、 不感帯設定手段は、認識物体との相対速度に応じて不感
帯を可変とするように構成されていることを特徴とする
物体認識装置。
6. The object recognition apparatus according to claim 3, wherein the dead zone setting means is configured to change the dead zone according to a relative speed with respect to the recognized object. Recognition device.
【請求項7】 請求項6の物体認識装置において、 不感帯設定手段は、認識物体との相対速度が大きいほど
不感帯を小さくするように構成されていることを特徴と
する物体認識装置。
7. The object recognition apparatus according to claim 6, wherein the dead zone setting means is configured to reduce the dead zone as the relative speed with respect to the recognition object increases.
【請求項8】 請求項1〜7のいずれかの物体認識装置
において、 物体認識手段は、物体の認識結果に基づいて警報等の信
号を出力するように構成されていることを特徴とする物
体認識装置。
8. The object recognition apparatus according to claim 1, wherein the object recognition means is configured to output a signal such as a warning based on a recognition result of the object. Recognition device.
JP01012097A 1997-01-23 1997-01-23 Object recognition device Expired - Fee Related JP3708654B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP01012097A JP3708654B2 (en) 1997-01-23 1997-01-23 Object recognition device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP01012097A JP3708654B2 (en) 1997-01-23 1997-01-23 Object recognition device

Publications (2)

Publication Number Publication Date
JPH10206118A true JPH10206118A (en) 1998-08-07
JP3708654B2 JP3708654B2 (en) 2005-10-19

Family

ID=11741450

Family Applications (1)

Application Number Title Priority Date Filing Date
JP01012097A Expired - Fee Related JP3708654B2 (en) 1997-01-23 1997-01-23 Object recognition device

Country Status (1)

Country Link
JP (1) JP3708654B2 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06147887A (en) * 1992-10-30 1994-05-27 Nippon Seiki Co Ltd Distance detector for vehicle
JPH07225126A (en) * 1994-02-14 1995-08-22 Mitsubishi Motors Corp On-road object recognizing device for vehicle
JPH08327353A (en) * 1995-05-30 1996-12-13 Nippon Seiki Co Ltd Distance measuring apparatus and method

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06147887A (en) * 1992-10-30 1994-05-27 Nippon Seiki Co Ltd Distance detector for vehicle
JPH07225126A (en) * 1994-02-14 1995-08-22 Mitsubishi Motors Corp On-road object recognizing device for vehicle
JPH08327353A (en) * 1995-05-30 1996-12-13 Nippon Seiki Co Ltd Distance measuring apparatus and method

Also Published As

Publication number Publication date
JP3708654B2 (en) 2005-10-19

Similar Documents

Publication Publication Date Title
JP2887039B2 (en) Vehicle periphery monitoring device
JP2020140708A (en) Method for predicting motion trajectory of obstacle at intersection, device, terminal, storage medium, and program
US20050231339A1 (en) Outside-vehicle monitoring system
KR101500082B1 (en) Apparatus and method for recognizing driving lane
US20140044311A1 (en) Neighboring vehicle detecting apparatus
CN103348394A (en) Driving assistance device and adjacent vehicle detection method therefor
KR20140038986A (en) Distance measurement by means of a camera sensor
JP3440956B2 (en) Roadway detection device for vehicles
JPH08285534A (en) Vehicle-mounted image processing device
JPH07244717A (en) Travel environment recognition device for vehicle
JPH10206118A (en) Object recognizing device
JP2015028696A (en) Vehicle rear side alarm device, vehicle rear side alarm method and other vehicles distance detection device
JP2000214256A (en) Display device of vehicle
JP3868048B2 (en) Object recognition device
JP2010176592A (en) Driving support device for vehicle
JP3708653B2 (en) Object recognition device
JP3708652B2 (en) Object recognition device
JP2001227944A (en) Traveling environment recognizing device for vehicle
JP3708655B2 (en) Object recognition device
JP4146954B2 (en) Object recognition device
JPH0533011U (en) Inter-vehicle distance detector
JP3393767B2 (en) Obstacle detection device for vehicles
JP4113628B2 (en) Vehicle display device
US20230150533A1 (en) Vehicle control system and vehicle driving method using the vehicle control system
JP3406195B2 (en) Vehicle distance measuring device

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20050617

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20050726

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20050804

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080812

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090812

Year of fee payment: 4

LAPS Cancellation because of no payment of annual fees