JP2000214256A - Display device of vehicle - Google Patents

Display device of vehicle

Info

Publication number
JP2000214256A
JP2000214256A JP11019580A JP1958099A JP2000214256A JP 2000214256 A JP2000214256 A JP 2000214256A JP 11019580 A JP11019580 A JP 11019580A JP 1958099 A JP1958099 A JP 1958099A JP 2000214256 A JP2000214256 A JP 2000214256A
Authority
JP
Japan
Prior art keywords
vehicle
distance
display
line
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP11019580A
Other languages
Japanese (ja)
Inventor
Toru Yoshioka
透 吉岡
Hiroki Kamimura
裕樹 上村
Mineji Nakano
峰司 中野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mazda Motor Corp
Naldec Corp
Original Assignee
Mazda Motor Corp
Naldec Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mazda Motor Corp, Naldec Corp filed Critical Mazda Motor Corp
Priority to JP11019580A priority Critical patent/JP2000214256A/en
Publication of JP2000214256A publication Critical patent/JP2000214256A/en
Pending legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To improve the display accuracy by canceling information display when the position of a detection object after the passage of a specie time being estimated from the relative speed of the detection object and a vehicle is away from the vehicle at least by a specific distance. SOLUTION: The display device consists of a rear detection sensor 10, a controller 15, and a display part 31. The detection sensor 10 is provided with a pair of upper and lower multi-stage line-type CCD chips 11 and a lens 12 corresponding to it and captures an object image in a fixed angle range as brightness information via the lens 12. A range-finding circuit 16 in the controller 15 obtains a parallax being generated in the image of the CCD chip 11 and calculates the distance up to the object from the parallax. An object recognition part 20 recognizes the object based on a signal from the range-finding circuit 16 and outputs a display signal to a display part 31 based on the result. The distance information of the object is canceled when it is judged that the vehicle is driving on a curved road according to a vehicle speed and a handle steering angle, and the estimation position of the object after a specified time passes from the relative speed between the object and the vehicle is away from the vehicle at least by a specific distance.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、車両(以下、自車
ともいう)の後側方の物体の中から車線変更の障害とな
る物体を検出して車両との距離を表示するようにした表
示装置に関し、特に、その表示の適正化を図るための技
術分野に属するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention detects an obstacle to a lane change from objects on the rear side of a vehicle (hereinafter, also referred to as "own vehicle"), and displays the distance to the vehicle. The present invention relates to a display device, and particularly to a technical field for optimizing the display.

【0002】[0002]

【従来の技術】従来より、この種の車両用表示装置とし
て、例えば特開平10―206151号公報に示される
ように、一定方向に配置された多数のCCDをその配列
方向と直交する方向に多段に並設してなる多段ライン型
CCDを車両に設け、この多段ライン型CCDに基づい
て得られた2次元の距離データから特定の物体を認識す
ることにより、車両の後側方にある車両等の物体(他
車)を障害物として判定し、その障害物の存在を車両の
運転者等の乗員に知らせて、車線変更を支援するように
したものが知られている。
2. Description of the Related Art Conventionally, as this type of vehicle display device, for example, as disclosed in Japanese Patent Application Laid-Open No. Hei 10-206151, a large number of CCDs arranged in a fixed direction are multi-staged in a direction orthogonal to the arrangement direction. The vehicle is provided with a multi-stage line type CCD which is arranged in parallel to the vehicle, and recognizes a specific object from the two-dimensional distance data obtained based on the multi-stage line type CCD, so that the vehicle at the rear side of the vehicle, etc. An object (an other vehicle) is determined as an obstacle, and the existence of the obstacle is notified to an occupant such as a driver of the vehicle to assist lane change.

【0003】[0003]

【発明が解決しようとする課題】ところで、このように
車両の後側方の車両等の物体をセンサにより障害物とし
て検出し、その物体との距離を表示手段で表示する場
合、以下の問題が生じる虞れがあり、改良の余地があ
る。すなわち、上記従来のものでは、物体を検出する上
で本来は物体が位置し得ない不要な範囲を除外するレン
ジカットを行うようになっている。このため、例えば図
48に仮想線にて示すように、カーブした車線r(走行
路)を車両Cが走行しているときに、その走行車線rの
カーブ外側に隣接してガードレールGがあると、そのガ
ードレールGの検出データの全てがレンジカット後の検
出領域に含まれるようになり、そのデータをガードレー
ルGのものと判定することができる。
However, when an object such as a vehicle on the rear side of the vehicle is detected as an obstacle by a sensor and the distance to the object is displayed on the display means, the following problem arises. There is a possibility of occurrence, and there is room for improvement. That is, in the above-described conventional apparatus, range detection is performed to exclude an unnecessary range in which the object cannot be originally located in detecting the object. For this reason, as shown by a virtual line in FIG. 48, for example, when the vehicle C is traveling on a curved lane r (traveling road), if a guardrail G is present outside the curve of the traveling lane r. Then, all the detection data of the guard rail G is included in the detection area after the range cut, and the data can be determined to be that of the guard rail G.

【0004】しかし、図48に実線にて示す如く、カー
ブした複数車線r,r,…(走行路)のうちの内側車線
rを車両Cが走行しているときには、その走行車線rの
カーブ外側に隣接する他の車線rの外側にガードレール
Gがあるので、レンジカット後の検出範囲に遠距離にあ
るガードレールGのみのデータが含まれるようになり、
そのガードレールGは、図49に示すように、車両Cが
カーブ走行を開始した直後には車両Cに近付き、カーブ
走行中には車両Cと一定の距離を保ち、カーブ走行の終
了時には車両Cから離れるような動きをする物体(他
車)と誤判定されて表示されるという問題が生じる。
However, as shown by a solid line in FIG. 48, when the vehicle C is traveling on an inner lane r of a plurality of curved lanes r, r,. Since the guardrail G is located outside the other lane r adjacent to the vehicle, the detection range after the range cut includes only the data of the guardrail G located at a long distance,
As shown in FIG. 49, the guardrail G approaches the vehicle C immediately after the vehicle C starts traveling on a curve, keeps a certain distance from the vehicle C during the curve traveling, and moves away from the vehicle C at the end of the curve traveling. There is a problem that an object (other vehicle) moving erroneously is erroneously determined and displayed.

【0005】本発明は斯かる点に鑑みてなされたもの
で、その目的は、上記車両の後側方の物体を検出してそ
の距離を表示するときの処理方法に工夫を凝らすことに
より、例えば車両のカーブ走行時のガイドレールを物体
と誤判定して表示するのを確実に防止し、表示の精度を
高めることにある。
[0005] The present invention has been made in view of such a point, and an object thereof is to improve the processing method for detecting the object on the rear side of the vehicle and displaying the distance, for example, by An object of the present invention is to reliably prevent a guide rail when a vehicle is traveling on a curve from being erroneously determined to be an object and display the guide rail, and to enhance display accuracy.

【0006】[0006]

【課題を解決するための手段】上記の目的を達成するた
めに、この発明では、車両の後側方にある物体の位置を
車両(自車)との相対速度から推定して、その推定位置
が所定距離以上にあるもののデータ、又は、車両の走行
路の曲率を推定してその推定曲率から決まる走行路の外
の範囲にあるデータをいずれもガードレールのものであ
ると判定して、その表示を行わないようにした。
In order to achieve the above object, according to the present invention, the position of an object located on the rear side of a vehicle is estimated from the relative speed with respect to the vehicle (own vehicle), and the estimated position is determined. Is determined to be a guardrail, and data indicating that the data is over a predetermined distance, or data in a range outside the travel path determined from the estimated curvature by estimating the curvature of the travel path of the vehicle are all determined to be those of the guardrail, and displayed. Was not done.

【0007】具体的には、請求項1の発明では、図1
(a)に示すように、車両の後側方の物体を検出する物
体検出手段10と、この物体検出手段10により検出さ
れた物体の車両との相対速度を演算する相対速度演算手
段40と、この相対速度演算手段40による演算結果に
基づき、上記検出された物体の車両との距離に関する情
報を表示手段31に表示する表示制御手段41と、上記
相対速度演算手段40による演算結果に基づき、上記検
出された物体の所定時間経過後の位置を推定する位置推
定手段42と、この位置推定手段42により推定された
物体の推定位置が車両から所定距離以上離れているとき
には、上記表示制御手段41による物体の距離に関する
情報の表示をキャンセルする表示キャンセル手段43と
を備えたことを特徴としている。
Specifically, according to the first aspect of the present invention, FIG.
As shown in (a), an object detecting means 10 for detecting an object on the rear side of the vehicle, a relative speed calculating means 40 for calculating a relative speed of the object detected by the object detecting means 10 with respect to the vehicle, Based on the calculation result by the relative speed calculation means 40, a display control means 41 for displaying information on the distance of the detected object to the vehicle on the display means 31, and based on the calculation result by the relative speed calculation means 40, A position estimating means for estimating the position of the detected object after a predetermined time has elapsed, and a display estimating means for determining whether the position of the object estimated by the position estimating means is at least a predetermined distance from the vehicle. Display cancellation means 43 for canceling display of information on the distance to the object.

【0008】上記の構成により、物体検出手段10にお
いて車両の後側方にある物体が検出され、この物体検出
手段10に検出された物体の車両との相対速度が相対速
度演算手段40により演算され、この相対速度演算手段
40による相対速度の演算結果に基づき、上記検出され
た物体の車両との距離に関する情報が表示制御手段41
により表示手段31で表示される。また、位置推定手段
42において、上記相対速度演算手段40による相対速
度の演算結果に基づき、上記検出された物体の所定時間
経過後の位置が推定され、この推定された物体の推定位
置が車両から所定距離以上離れているときには、表示キ
ャンセル手段43により、上記表示制御手段41による
物体の距離に関する情報の表示がキャンセルされる。
With the above arrangement, the object detecting means 10 detects an object at the rear side of the vehicle, and the relative speed of the detected object with respect to the vehicle is calculated by the relative speed calculating means 40. Based on the calculation result of the relative speed by the relative speed calculation means 40, information on the distance of the detected object from the vehicle is displayed on the display control means 41.
Is displayed on the display means 31. Further, the position estimating means 42 estimates the position of the detected object after a predetermined time has elapsed based on the calculation result of the relative speed by the relative speed calculating means 40, and the estimated position of the estimated object is obtained from the vehicle. When the distance is equal to or more than the predetermined distance, the display canceling unit 43 cancels the display of the information on the object distance by the display control unit 41.

【0009】このように車両の後側方にある検出物体の
うちで、その車両との相対速度から推定された推定位置
が車両から所定距離以上離れたものについては、表示制
御手段41による表示が行われないので、例えば車両の
カーブ走行状態で隣接する他の走行路のカーブ外側にあ
るガードレールは上記推定位置が所定距離以上離れた物
体となり、そのガードレールの表示が防止される。よっ
て、上記ガードレールが物体(他の走行車両)として誤
表示されるのを確実に防止でき、物体の表示を適正に行
うことができる。
[0009] Among the detected objects located on the rear side of the vehicle, those whose estimated position estimated from the relative speed with respect to the vehicle is separated from the vehicle by a predetermined distance or more are displayed by the display control means 41. Since this is not performed, for example, a guardrail on the outside of a curve of another adjacent traveling road in a curve running state of the vehicle is an object whose estimated position is separated by a predetermined distance or more, and the display of the guardrail is prevented. Therefore, it is possible to reliably prevent the guardrail from being erroneously displayed as an object (another traveling vehicle), and to appropriately display the object.

【0010】請求項2の発明では、車両がカーブ走行状
態にあることを検出するカーブ検出手段44を設ける。
そして、上記表示キャンセル手段43は、上記カーブ検
出手段44によるカーブ走行状態の検出時に表示制御手
段41による物体の距離に関する情報の表示をキャンセ
ルするように構成されているものとする。こうすると、
車両のカーブ走行状態での他の車線のカーブ外側にある
ガードレールが物体(他車)として誤表示されるのを確
実に防止することができる。
According to the second aspect of the present invention, there is provided a curve detecting means for detecting that the vehicle is traveling on a curve.
The display cancel unit 43 is configured to cancel the display of the information on the distance of the object by the display control unit 41 when the curve detecting unit 44 detects the curve traveling state. In this case,
It is possible to reliably prevent the guardrail outside the curve of another lane from being erroneously displayed as an object (other vehicle) while the vehicle is traveling on a curve.

【0011】請求項3の発明では、物体検出手段10に
より検出された物体が車両に対し接近状態又は離隔状態
にあるか否かを判定する接離判定手段45を設ける。そ
して、上記表示キャンセル手段43は、上記接離判定手
段45により車両へ接近していると判定された物体につ
いては、表示制御手段41による物体の距離に関する情
報の表示のキャンセルを中止するように構成されている
ものとする。このように、車両へ接近していると判定さ
れた物体については、表示制御手段41による物体の距
離に関する情報の表示のキャンセルが中止されて、情報
の表示が行われるので、ガードレールを他の物体(他
車)とさらに正確に識別して、その誤表示のより一層確
実な防止を図ることができる。
According to the third aspect of the present invention, there is provided a contact / separation determining means 45 for determining whether the object detected by the object detecting means 10 is in a state of approaching or separating from the vehicle. The display canceling means 43 is configured to stop the display control means 41 from canceling the display of information on the distance of the object for the object determined to be approaching the vehicle by the contact / separation determining means 45. It is assumed that As described above, for the object determined to be approaching the vehicle, the display control means 41 stops canceling the display of the information related to the distance of the object, and the information is displayed. (Other vehicles) can be more accurately identified, and the erroneous display can be more reliably prevented.

【0012】請求項4の発明では、図1(b)に示す如
く、車両の後側方の物体を検出する物体検出手段10
と、車両の舵角に関する値を検出する舵角検出手段14
と、これら物体検出手段10及び舵角検出手段14の検
出結果に基づき、上記検出された物体の中から情報提供
対象を抽出する抽出手段46と、この抽出手段46によ
り抽出された情報提供対象の車両に対する位置に関する
情報を表示手段31に表示する表示制御手段41とを備
えるものとする。そして、上記抽出手段46は、上記舵
角検出手段14の検出結果に基づいて、車両が走行して
いる走行路の曲率を推定する曲率推定部47と、この曲
率推定部47により推定された走行路の推定曲率に基づ
き、走行路内の範囲に存在する物体を上記情報提供対象
として抽出する物体抽出部48とを有するものとする。
According to a fourth aspect of the present invention, as shown in FIG. 1B, an object detecting means 10 for detecting an object on the rear side of the vehicle.
And steering angle detecting means 14 for detecting a value related to the steering angle of the vehicle.
And an extracting means 46 for extracting an information providing object from the detected objects based on the detection results of the object detecting means 10 and the steering angle detecting means 14, and an information providing object extracted by the extracting means 46. A display control unit 41 for displaying information on the position with respect to the vehicle on the display unit 31 is provided. The extraction means 46 includes a curvature estimating section 47 for estimating the curvature of the traveling path on which the vehicle is traveling, based on the detection result of the steering angle detecting means 14, and a travel estimated by the curvature estimating section 47. An object extracting unit 48 that extracts an object existing in a range in the traveling road as the information providing target based on the estimated curvature of the road.

【0013】この構成によれば、車両の後側方の物体が
物体検出手段10により、また車両の舵角に関する値が
舵角検出手段14によりそれぞれ検出され、抽出手段4
6において検出された物体の中から情報提供対象が抽出
され、この抽出された情報提供対象の車両に対する位置
に関する情報が表示制御手段41により表示手段31で
表示される。上記抽出手段46においては、曲率推定部
47により、車両の舵角に関する値から車両の走行路の
曲率が推定され、物体抽出部48において、上記推定さ
れた走行路の推定曲率に基づき、走行路内の範囲に存在
する物体が上記情報提供対象として抽出される。こうし
て、車両の走行路の曲率から走行路の範囲が求められ、
その走行路の範囲内にある物体のみが情報提供対象とし
て抽出されて表示制御手段41により表示されること
で、上記請求項1の発明と同様に、車両のカーブ走行状
態で他の走行路のカーブ外側にあるガードレールは上記
走行路の範囲外の物体となり、そのガードレールが物体
(他車)として誤表示されるのを確実に防止することが
できる。
According to this configuration, the object on the rear side of the vehicle is detected by the object detecting means 10 and the value relating to the steering angle of the vehicle is detected by the steering angle detecting means 14, respectively.
The information providing target is extracted from the objects detected in 6 and the information on the position of the extracted information providing target with respect to the vehicle is displayed on the display means 31 by the display control means 41. In the extracting means 46, the curvature estimating unit 47 estimates the curvature of the traveling path of the vehicle from the value related to the steering angle of the vehicle, and the object extracting unit 48 calculates the curvature of the traveling path based on the estimated curvature of the traveling path. Objects existing within the range are extracted as the information providing targets. In this way, the range of the traveling path is obtained from the curvature of the traveling path of the vehicle,
Only the objects within the range of the travel path are extracted as information providing targets and displayed by the display control means 41, so that the vehicle travels in a curve on the other travel path as in the case of the first aspect. The guardrail outside the curve becomes an object outside the range of the travel path, and the guardrail can be reliably prevented from being erroneously displayed as an object (other vehicle).

【0014】請求項5の発明では、上記抽出手段46
は、車両の走行位置に応じて物体抽出部48の抽出内容
を変更するように構成されているものとする。このよう
に、車両の走行位置に応じて物体抽出部48の抽出内容
が変えられることで、例えば車両のカーブ走行の開始時
と途中とでガードレールまでの距離が変化しても、それ
に応じて走行路の範囲を変えて、ガードレールの誤表示
を安定して防止することができる。
According to the fifth aspect of the present invention, the extraction means 46
Is configured to change the extraction content of the object extraction unit 48 according to the traveling position of the vehicle. In this way, by changing the extraction content of the object extraction unit 48 according to the traveling position of the vehicle, even if the distance to the guardrail changes between the start and the middle of the curve traveling of the vehicle, for example, the traveling By changing the range of the road, erroneous display of the guardrail can be stably prevented.

【0015】[0015]

【発明の実施の形態】図2は本発明の実施形態に係る表
示装置を装備した自動車からなる車両C(自車)を示
し、この表示装置は、車両Cの左右斜め後側方に位置す
る他の車両等の物体O(図5、図11、図12に示す)
を認識して警報対象として警報するようになっている。
FIG. 2 shows a vehicle C (own vehicle) comprising a vehicle equipped with a display device according to an embodiment of the present invention. Object O such as another vehicle (shown in FIGS. 5, 11, and 12)
Is recognized and a warning is issued as a warning target.

【0016】すなわち、図2において、1は車両Cの車
体、2は車体1の前後略中央部に形成された車室、3は
車体1の前端部に形成されたエンジンルーム、4は車室
2の前端部に配置されたインストルメントパネル、5は
車室2の後端部にあるパッケージトレイ、6,6は左右
のドアミラーである。そして、図3に示すように、上記
表示装置は、各々物体Oまでの距離を測定するための左
右の後側方検知センサ10,10と、この各検知センサ
10の出力信号がそれぞれ入力されるコントローラ15
と、このコントローラ15からの信号を受けて車両Cの
乗員に情報、例えば物体Oの存在やその障害物としての
危険度をCRTや液晶等により表示する表示部31(表
示手段)とを備えている。
That is, in FIG. 2, reference numeral 1 denotes a vehicle body of a vehicle C, 2 denotes a vehicle room formed at a substantially central portion in the front and rear direction of the vehicle body 1, 3 denotes an engine room formed at a front end of the vehicle body 1, and 4 denotes a vehicle room. An instrument panel 5 is provided at a front end of the vehicle 2, a package tray 5 is provided at a rear end of the cabin 2, and 6 and 6 are left and right door mirrors. Then, as shown in FIG. 3, the display device receives the left and right rear side detection sensors 10 and 10 for measuring the distance to the object O, and the output signals of the respective detection sensors 10. Controller 15
And a display unit 31 (display means) for receiving information from the controller 15 and displaying information to the occupant of the vehicle C, for example, the presence of the object O and the degree of danger as an obstacle on a CRT or a liquid crystal display. I have.

【0017】上記表示部31は、上記後側方検知センサ
10(物体検出手段)により検出された物体Oの車両C
との間の距離に関する情報を表示する表示手段をなすも
ので、図43に示すように、車両Cのリアビューを自車
としてイメージした自車リアビュー部32と、この自車
リアビュー部32の下側左右両側にそれぞれ左後側方及
び右後側方の障害物に対応させて1列ずつ略上下方向に
延びるように配置された左右のセグメント列33,33
とを表示する表示画面31aを有し、上記各セグメント
列33は個別に点消灯される例えば8個の略台形状のセ
グメント34,34,…からなる。そして、両セグメン
ト列33,33は、上記自車リアビュー部32から遠い
下側から近い側である上側に向かうに連れて互いに近付
くように傾斜状に配置され、各セグメント列33におけ
るセグメント34,34,…の左右幅は、自車リアビュ
ー部32から遠い下側で広く、自車リアビュー部32に
近い上側に向かうに連れて狭くなるように変化してい
る。つまり、表示画面31aでは、自車Cを後方から離
れて見たときに後方の障害物のイメージを遠近法により
表示するようにしている。
The display section 31 displays the vehicle C of the object O detected by the rear side detection sensor 10 (object detection means).
As shown in FIG. 43, the vehicle rear view section 32 imagining the rear view of the vehicle C as a vehicle, and a lower side of the vehicle rear view section 32 as shown in FIG. Left and right segment rows 33, 33 arranged on the left and right sides so as to extend substantially vertically in a row corresponding to obstacles on the left rear side and the right rear side, respectively.
, And each segment row 33 is composed of, for example, eight substantially trapezoidal segments 34, 34,... Which are individually turned on and off. The two segment rows 33, 33 are arranged in an inclined manner so as to approach each other from the lower side far from the host vehicle rear view portion 32 to the upper side which is closer to the lower side, and the segments 34, 34 in each segment row 33. The width of the right and left sides is widened on the lower side far from the rear view portion 32 of the own vehicle, and narrows toward the upper side close to the rear view portion 32 of the own vehicle. That is, on the display screen 31a, when the host vehicle C is viewed from behind, the image of the rear obstacle is displayed in perspective.

【0018】図2に示す如く、上記両検知センサ10,
10は、上記左右のドアミラー6,6の内部にそれぞれ
斜め後方を向いた状態で取付固定されている。また、コ
ントローラ15は車室2内に、また表示部31はインス
トルメントパネル4にそれぞれ配設されている。
As shown in FIG. 2, the two detection sensors 10,
Reference numeral 10 is attached and fixed to the inside of the left and right door mirrors 6 and 6 so as to face obliquely rearward. The controller 15 is provided in the vehicle cabin 2 and the display unit 31 is provided on the instrument panel 4.

【0019】上記各検知センサ10は、車両Cの後側方
の所定範囲の物体Oを検出する物体検出手段を構成する
もので、図5に示すように、所定距離離れて上下方向に
配置された上下1対のCCDチップ11,11と、該C
CDチップ11,11に対応して配置されたレンズ1
2,12とを備えている。各CCDチップ11は、上下
方向たるウィンドウ方向に沿って配置された多数のCC
DからなるCCDラインをウィンドウ方向と直交するラ
イン列方向(水平方向)に多段に並設してなる多段ライ
ン型CCDからなり、この各CCDチップ11によりレ
ンズ12を経てドアミラー6のミラー(ハーフミラー)
越しに、上下方向に角度θ1の範囲でかつ水平左右方向
に角度θ2の範囲(図10、図12参照)にある物体O
等の画像を輝度情報として捕らえるようになっている。
Each of the detection sensors 10 constitutes an object detection means for detecting an object O in a predetermined range on the rear side of the vehicle C. As shown in FIG. A pair of upper and lower CCD chips 11, 11
Lens 1 arranged corresponding to CD chips 11, 11
2 and 12. Each of the CCD chips 11 has a number of CCs arranged along a vertical window direction.
The CCD chip 11 is a multi-stage line type CCD in which CCD lines are arranged in multiple stages in a line direction (horizontal direction) orthogonal to the window direction. )
Over the object O in the range of the angle θ1 in the vertical direction and the range of the angle θ2 in the horizontal left and right direction (see FIGS. 10 and 12).
Is captured as luminance information.

【0020】図4に示す如く、上記各検知センサ10は
それぞれコントローラ15内の測距回路16に接続され
ている。この各測距回路16は、両CCDチップ11,
11での物体像の視差(位相差)を演算する視差演算部
17と、この視差演算部17からの信号により物体Oま
での距離を演算する距離演算部18とを備えている。そ
して、各測距回路16では、図6及び図7に示す如く、
各CCDチップ11により輝度として捕らえられた画像
を、ライン方向(水平方向)にCCDライン毎のn個の
ラインに分割するとともに、その各ラインをウィンドウ
方向(上下方向)にm個のウィンドウに分割して、画像
の略全体をm×n個の領域E,E,…で構成し、両方の
CCDチップ11,11による画像での同一の領域E,
E間の視差を求め、この視差から各領域E毎に物体Oま
での距離を演算する。
As shown in FIG. 4, each of the detection sensors 10 is connected to a distance measuring circuit 16 in a controller 15. Each of the distance measuring circuits 16 includes two CCD chips 11,
A parallax calculator 17 for calculating the parallax (phase difference) of the object image at 11 and a distance calculator 18 for calculating a distance to the object O based on a signal from the parallax calculator 17. Then, in each distance measuring circuit 16, as shown in FIGS. 6 and 7,
The image captured as luminance by each CCD chip 11 is divided into n lines for each CCD line in the line direction (horizontal direction), and each line is divided into m windows in the window direction (vertical direction). , The substantially entire image is composed of m × n areas E, E,..., And the same area E,
The disparity between E is obtained, and the distance to the object O is calculated for each region E from this disparity.

【0021】すなわち、両CCDチップ11,11によ
り輝度として捕らえられた画像はいずれも図6に示すよ
うになるが、これら両CCDチップ11,11の画像は
同じライン位置(図示例ではラインi)では、図8に示
すように、両CCDチップ11,11の上下方向のずれ
分だけずれていて視差が生じており、この視差を利用し
て物体Oまでを測距する。この原理について図9により
説明するに、図9の三角形P・O1・Q及び三角形O1
・P1・Q1同士、並びに三角形P・O2・Q及び三角
形O2・P2・Q2同士はそれぞれ相似形あるので、
今、検知センサ10(レンズ12)から物体Oまでの距
離をa、両レンズ12,12の中心間の距離をB(定
数)、レンズ12の焦点距離をf(定数)、両CCDチ
ップ11,11での物体像のレンズ中心からのずれ量を
それぞれx1,x2とすると、 a・x1/f=B−a・x2/f となり、この式から、 a=B・f/(x1+x2) が得られる。つまり、両CCDチップ11,11での物
体像の視差(位相差)によって物体Oまでの距離aを測
定することができる。
That is, the images captured as luminance by both CCD chips 11, 11 are as shown in FIG. 6, but the images of both CCD chips 11, 11 have the same line position (line i in the illustrated example). In FIG. 8, as shown in FIG. 8, the two CCD chips 11, 11 are displaced by an amount corresponding to the vertical displacement to generate a parallax. This principle will be described with reference to FIG. 9 by referring to triangles P.O1.Q and O1 in FIG.
-Since P1 and Q1 and triangles P and O2 and Q and triangles O2 and P2 and Q2 are similar to each other,
Now, the distance from the detection sensor 10 (lens 12) to the object O is a, the distance between the centers of the two lenses 12, 12 is B (constant), the focal length of the lens 12 is f (constant), and both CCD chips 11, Assuming that the amounts of displacement of the object image from the lens center at 11 are x1 and x2, respectively, a · x1 / f = Ba−x2 / f, and from this equation, a = B · f / (x1 + x2) is obtained. Can be That is, the distance a to the object O can be measured by the parallax (phase difference) of the object image between the two CCD chips 11, 11.

【0022】尚、図6及び図7におけるG(白点)は、
CCDチップ11のCCDに対応するように縦横格子状
に配置された測距点(測距ポイント)であり、この測距
点Gは各領域Eに含まれている。また、各CCDライン
でのウィンドウは、一部が隣接するウィンドウと互いに
オーバーラップするように分割されており、上下方向
(ウィンドウ方向)に隣接する領域E,Eに同じ測距点
G,G,…が含まれている。また、O′は物体の像であ
る。
G (white dots) in FIGS. 6 and 7 are:
The distance measuring points (ranging points) are arranged in a vertical and horizontal lattice so as to correspond to the CCD of the CCD chip 11, and the distance measuring points G are included in each area E. The window of each CCD line is divided so that a part of the window overlaps with the adjacent window, and the same distance measuring points G, G, G, and G are located in regions E and E adjacent in the vertical direction (window direction). …It is included. O 'is an image of the object.

【0023】また、図10に示すように、上記各CCD
チップ11により輝度として捕らえられた画像をライン
毎に分割して形成される複数のラインは、車両Cの外側
で近距離を測距するライン位置が若い番号とされる一
方、車幅方向の中央側で遠距離を測距するライン位置が
大きい番号とされ、外側ラインから車幅方向の中央側ラ
インに向かって番号が順に増加するように番号付けされ
ている。
Further, as shown in FIG.
The plurality of lines formed by dividing the image captured as the luminance by the chip 11 for each line are such that the line position for measuring a short distance outside the vehicle C has a smaller number, while the center position in the vehicle width direction is smaller. The line position for measuring the long distance on the side is set to a large number, and the number is sequentially increased from the outer line toward the center line in the vehicle width direction.

【0024】図4に示す如く、上記コントローラ15に
は、検知センサ10に基づいて得られた上下方向及び水
平方向の2次元の距離データ、つまり各測距回路16か
らの信号を基に特定の物体Oを認識する物体認識部20
と、この物体認識部20の出力信号により物体Oを新規
物体かどうか選別する物体選別部21と、この物体選別
部21により選別された物体Oが車両C(自車)にとっ
て危険対象物かどうかを判断する危険判断部22とが設
けられており、物体認識部20において、物体Oの認識
結果に基づいて表示信号を表示部31に物体選別部21
を経て出力するようにしている。
As shown in FIG. 4, the controller 15 receives a specific two-dimensional distance data in the vertical direction and the horizontal direction obtained based on the detection sensor 10, that is, a specific signal based on a signal from each distance measuring circuit 16. Object recognition unit 20 for recognizing object O
And an object selection unit 21 for selecting whether or not the object O is a new object based on an output signal of the object recognition unit 20, and whether or not the object O selected by the object selection unit 21 is a dangerous object for the vehicle C (own vehicle). And a danger determining unit 22 for determining whether the object O has been detected. The object recognizing unit 20 outputs a display signal to the display unit 31 based on the recognition result of the object O.
And output it.

【0025】上記コントローラ15には、車両の走行速
度V(車速)を検出する車速センサ13と、車両のハン
ドル(図示せず)のハンドル舵角θを検出する舵角セン
サ14の出力信号とがそれぞれ入力されている。
The controller 15 receives a vehicle speed sensor 13 for detecting a running speed V (vehicle speed) of the vehicle and an output signal of a steering angle sensor 14 for detecting a steering angle θ of a steering wheel (not shown) of the vehicle. Each has been entered.

【0026】また、コントローラ15は、物体Oを認識
する上で本来は物体Oが位置し得ない不要な範囲を除外
するレンジカット部24と、測距された各領域毎の距離
データと周りの8つの隣接領域との比較(8隣接点処
理)を行って有効ポイント数を付与する8隣接点処理部
25と、ライン毎の距離を演算するライン距離演算部2
6と、ガードレールを判定するためのガードレール判定
部27と、距離データを物体O毎にグルーピングするグ
ルーピング部28とを備えている。
Further, the controller 15 includes a range cut unit 24 for eliminating an unnecessary range where the object O cannot be originally located in recognizing the object O, a distance data for each of the measured distances, and a surrounding area. An eight-neighbor point processing unit 25 that performs comparison with eight adjacent regions (eight-neighbor point processing) to give the number of effective points, and a line-distance calculation unit 2 that calculates the distance for each line
6, a guardrail determination unit 27 for determining a guardrail, and a grouping unit 28 for grouping distance data for each object O.

【0027】図11は上記レンジカット部24で除外さ
れる上下方向のレンジカット範囲Z1を、また図12は
同左右方向のレンジカット範囲Z2をそれぞれ示してお
り、これらのレンジカット範囲Z1,Z2は、ラインの
角度とその位置での距離とに基づいて検出される。図1
2中、Fは車両Cの路面、Mは道路における車両走行車
線を設定する路面F上の白線、F1は道路の両側に設置
された路側帯、Hはその植込みである。
FIG. 11 shows the range cut range Z1 in the vertical direction excluded by the range cut section 24, and FIG. 12 shows the range cut range Z2 in the horizontal direction. These range cut ranges Z1 and Z2 are shown. Is detected based on the angle of the line and the distance at that position. FIG.
2, F is the road surface of the vehicle C, M is a white line on the road surface F that sets the vehicle traveling lane on the road, F1 is a roadside zone installed on both sides of the road, and H is an implant.

【0028】また、上記の如く各検知センサ10は各ド
アミラー6のミラー(ハーフミラーのガラス)越しに画
像を捕らえるために、そのミラーの歪み等により正確の
距離を測定することが困難となり、視差に応じた距離の
関係を補正しておく必要がある。この実施形態では、図
41に示す如く、予め遠距離側ラインを基準として設定
された、視差に応じた距離の関係を示す1つのマップを
記憶しており、この1つのマップから距離を補正する。
すなわち、測距回路16での測距特性は、遠距離側ライ
ンを基準として、他のラインを補完するようにしてい
る。
Further, as described above, since each detection sensor 10 captures an image over the mirror (glass of a half mirror) of each door mirror 6, it becomes difficult to measure an accurate distance due to the distortion of the mirror and the like, and parallax is generated. It is necessary to correct the distance relationship according to the distance. In this embodiment, as shown in FIG. 41, one map indicating the relationship of the distance according to the parallax, which is set in advance with reference to the long distance side line, is stored, and the distance is corrected from this one map. .
That is, the distance measurement characteristics of the distance measurement circuit 16 are such that the other lines are complemented with reference to the long distance side line.

【0029】さらに、周囲の明るさやドアミラー6のミ
ラーの汚れ等により、視差に応じた距離の関係を補正し
ておくために、この実施形態では以下の処理が行われる
ようになっている。すなわち、周囲の明るさを判定する
前者の場合、測距されている距離データの個数Ndat
a(図36及び図37参照)を演算してそれを全ての領
域の数で割ることにより、検出率(測距率)を求め、図
42に示すように、この検出率が所定値以上であるとき
を「昼」状態と、また所定値よりも低いときを「夜」状
態とそれぞれ判定する。
Further, the following processing is performed in this embodiment in order to correct the distance relationship according to the parallax due to the surrounding brightness, dirt on the mirror of the door mirror 6, and the like. That is, in the former case of determining the surrounding brightness, the number Ndat of the distance data measured
a (see FIGS. 36 and 37), and by dividing it by the number of all regions, a detection rate (distance measurement rate) is obtained. As shown in FIG. A certain time is determined as a “day” state, and a time lower than a predetermined value is determined as a “night” state.

【0030】一方、ドアミラー6のミラーの汚れ等を判
定する後者の場合、路面の白線の位置が検知センサ10
に対し一定の角度範囲で一定の距離範囲に含まれること
を利用し、その白線の測定距離値がばらつき率をもって
変化するときには、ドアミラー6のミラーに雨水等が付
着している状態と判定し、一方、白線の測定距離値が絶
対値で変化しているときには、ドアミラー6のミラーに
汚れ等が付着している状態と判定するようにしている。
On the other hand, in the latter case of determining whether the mirror of the door mirror 6 is dirty, the position of the white line on the road surface is detected by the detection sensor 10.
When the measured distance value of the white line changes with a variation rate using the fact that it is included in a fixed distance range in a fixed angle range, it is determined that rainwater or the like is attached to the mirror of the door mirror 6, On the other hand, when the measured distance value of the white line changes in absolute value, it is determined that the mirror of the door mirror 6 is dirty.

【0031】上記8隣接点処理部25での8隣接点処理
動作は、図13に示すように、ある領域E(i,j)の
距離データに対しそれに隣接する周りの8つの隣接領域
R1〜R8の距離データの相関性を判断するもので、具
体的に図15に示す如く行われる。すなわち、最初のス
テップS1で、ライン数n及びウィンドウ数mに分割さ
れた領域E(i,j)毎の距離データd(i,j)を読
み込み、次のステップS2で各領域E(i,j)の有効
ポイント数P(i,j)をP(i,j)=0と初期化す
る。この有効ポイント数P(i,j)は各領域E(i,
j)に設定されるもので、この値が大きいほど領域の距
離データの有効性が高く、信頼性、信憑性があると判断
される。次のステップS3では、全ての領域のうち左右
端及び上下端の位置にある領域(格子点)への有効ポイ
ント数を嵩上げし、周辺の領域には有効ポイント数P
(i,j)を+1だけ、またその中で4つの隅角部の領
域には有効ポイント数P(i,j)を+2だけそれぞれ
増やすように設定する。この後、ステップS4におい
て、隣接点処理を行うかどうかを判定し、この判定がN
Oのときには、ステップS11において有効ポイント数
P(i,j)をP(i,j)=8に設定した後、ステッ
プS12に進む一方、判定がYESのときには、ステッ
プS5に進む。
As shown in FIG. 13, the eight adjacent points processing operation of the eight adjacent points processing unit 25 is performed on distance data of a certain area E (i, j) with respect to eight adjacent areas R1 to R8 adjacent thereto. This is for determining the correlation of the distance data of R8, and is specifically performed as shown in FIG. That is, in the first step S1, distance data d (i, j) for each area E (i, j) divided into the number n of lines and the number m of windows is read, and in the next step S2, each area E (i, j) is read. The number of effective points P (i, j) of j) is initialized to P (i, j) = 0. The number of effective points P (i, j) is calculated for each area E (i, j).
j), the larger the value is, the higher the validity of the distance data of the area is, and it is determined that the distance data is reliable and credible. In the next step S3, the number of effective points to the area (lattice point) located at the left and right ends and the upper and lower ends of all the areas is increased, and the effective points P
(I, j) is set so as to be increased by +1 and the number of effective points P (i, j) is increased by +2 in the four corner areas. Thereafter, in step S4, it is determined whether or not to perform the adjacent point processing.
In the case of O, after setting the number of effective points P (i, j) to P (i, j) = 8 in step S11, the process proceeds to step S12, while if the determination is YES, the process proceeds to step S5.

【0032】上記ステップS4で隣接点処理を行うかど
うかの判定は、具体的には以下のように行う。 (第1例)図26に示すように、予め各ライン位置毎に
決定される基準距離値diが所定値Lよりも大きいか否
かを判定し、この判定がdi>LのYESのときには、
隣接点処理は行わない(図15のステップS11に進
む)一方、di≦LのNOのときには、隣接点処理を行
う(同ステップS5に進む)。
The determination as to whether or not to perform the adjacent point processing in step S4 is specifically made as follows. (First Example) As shown in FIG. 26, it is determined whether or not a reference distance value di determined in advance for each line position is larger than a predetermined value L. When this determination is YES (di> L),
Neighboring point processing is not performed (proceed to step S11 in FIG. 15), while if di ≦ L is NO, adjacent point processing is performed (proceed to step S5).

【0033】上記基準距離値diは、例えば図18
(a)に示すように、ラインの位置が大きくなる(車体
1外側ラインつまり近距離側ラインから内側ラインつま
り遠距離側ラインに向かう)ほどライン位置毎に増加す
るように、或いは図18(b)に示す如く、ラインの位
置の増加に比例して増加するように、又は図18(c)
に示す如く、ラインの位置の増加に伴って段階的に増加
するようにそれぞれ設定される。
The reference distance value di is, for example, as shown in FIG.
As shown in FIG. 18A, as the position of the line increases (from the outer line of the vehicle body 1, that is, from the near line to the inner line, that is, the far line), the line position increases for each line position. ), As shown in FIG. 18 (c)
As shown in (1), each is set so as to increase stepwise as the position of the line increases.

【0034】(第2例)図27に示すように、各領域毎
の測定距離d(i,j)が所定値Lよりも大きいか否か
を判定し、この判定がd(i,j)>LのYESのとき
には、隣接点処理は行わない(図15のステップS11
に進む)一方、d(i,j)≦LのNOのときには、隣
接点処理を行う(同ステップS5に進む)。
(Second example) As shown in FIG. 27, it is determined whether or not the measured distance d (i, j) for each area is larger than a predetermined value L. This determination is made as d (i, j) If YES in> L, adjacent point processing is not performed (step S11 in FIG. 15).
On the other hand, if d (i, j) ≦ L, the adjacent point process is performed (proceed to step S5).

【0035】すなわち、8隣接点処理部25は、距離が
近距離側及び中距離側にあるときのみ有効ポイント数を
付与する処理を行い、遠距離側にあるときには有効ポイ
ント数の付与処理を行わないように構成されている。
That is, the 8-neighboring point processing unit 25 performs the processing of assigning the number of effective points only when the distance is on the short distance side and the medium distance side, and performs the processing of assigning the effective point number when the distance is on the long distance side. Not configured.

【0036】図15に示す上記ステップS5では距離し
きい値d0を設定する。この距離しきい値d0は、付与
ポイント数pを決定するためのもので、その設定は以下
のように行う。 (第1例)図16に示すように、距離しきい値d0は定
数Cとする。
In step S5 shown in FIG. 15, a distance threshold value d0 is set. The distance threshold value d0 is used to determine the number p of assigned points, and is set as follows. (First Example) As shown in FIG. 16, the distance threshold value d0 is a constant C.

【0037】(第2例)図17に示すように、距離しき
い値d0は、上記各ライン毎に決定される基準距離値d
i(図18参照)の1/10に設定する。
(Second Example) As shown in FIG. 17, the distance threshold value d0 is the reference distance value d determined for each line.
i (see FIG. 18).

【0038】(第3例)図19に示す如く、上記基準距
離値diが所定値Lよりも大きいか否かを判定し、この
判定がdi>LのYESのときには、距離しきい値d0
は大きな値に、またdi≦LのNOのときには、距離し
きい値d0は小さな値にそれぞれ設定する。
(Third Example) As shown in FIG. 19, it is determined whether or not the reference distance value di is greater than a predetermined value L. If the determination is YES, that is, if di> L, the distance threshold value d0
Is set to a large value, and when di ≦ L, the distance threshold value d0 is set to a small value.

【0039】(第4例)図20に示すように、後述する
領域Eと隣接領域R1〜R8との距離差dxの平均値D
(有効な距離データがあるものに限る)を求め、この平
均値Dが所定値DLよりも大きいかどうかを判定する。
この判定がD>DLのYESのときには、距離しきい値
d0をd0=Dlargeに、またD≦DLのNOのと
きには、距離しきい値d0を上記Dlargeよりも小
さいDsmall(<Dlarge)にそれぞれ設定す
る。より具体的には、上記距離しきい値d0は、図21
(a)に示す如く平均値Dの増大に応じて大きくなり、
平均値Dが最大域に達すると一定となるか、図21
(b)に示す如く平均値Dの増大に応じて段階的に大き
くなるか、或いは図21(c)に示す如く平均値Dの増
大に応じて比例的に大きくなるように決定される。
(Fourth example) As shown in FIG. 20, an average value D of distance differences dx between a region E to be described later and adjacent regions R1 to R8.
(Limited to valid distance data), and it is determined whether or not the average value D is larger than a predetermined value DL.
When the determination is D> DL YES, the distance threshold d0 is set to d0 = Dlarge, and when the D ≦ DL is NO, the distance threshold d0 is set to Dsmall (<Dlarge) smaller than the above-mentioned Dlage. I do. More specifically, the distance threshold value d0 is calculated as shown in FIG.
As shown in (a), it increases as the average value D increases,
When the average value D reaches the maximum range, the value becomes constant.
The value is determined so as to increase stepwise as the average value D increases as shown in FIG. 21B, or to increase proportionally as the average value D increases as shown in FIG.

【0040】図15のフローにおけるステップS5の後
はステップS6に進み、隣接領域Riの距離データd
(Ri)を読み込み、次のステップS7では上記領域E
と隣接領域R1〜R8との距離差dx=|d(i,j)
−d(Ri)|を演算する。この後、ステップS8にお
いて、上記距離差dxと上記距離しきい値d0との大小
判定を行い、この判定がdx≧d0のNOのときにはス
テップS12に進む一方、dx<d0のYESのときに
は、ステップS9において付与すべきポイント数pを設
定する。このステップS9での付与ポイント数pの設定
は以下のように行う。 (第1例)図22に示す如く、当該領域Eにおいて対象
とする隣接領域がウィンドウ方向(上下方向)の領域R
2又はR7に位置しているかどうかを判定し、この判定
がNOのときには付与ポイント数pをp=1に、また判
定がYESのときには、付与ポイント数pを上記NO判
定の場合よりも大きいp=2にそれぞれ設定する。すな
わち、隣接領域がウィンドウ方向(上下方向)にあると
きの付与ポイント数p(従って有効ポイント数P(i,
j))をライン列方向にあるときの付与ポイント数より
も大きくする。
After step S5 in the flow of FIG. 15, the process proceeds to step S6, in which the distance data d of the adjacent region Ri is set.
(Ri), and in the next step S7, the area E
Difference dx = | d (i, j) between the adjacent regions R1 to R8
-D (Ri) | Thereafter, in step S8, the magnitude difference between the distance difference dx and the distance threshold value d0 is determined. When the determination is NO for dx ≧ d0, the process proceeds to step S12. When the determination is YES for dx <d0, the process proceeds to step S12. In S9, the number of points p to be given is set. The setting of the assigned point number p in step S9 is performed as follows. (First Example) As shown in FIG. 22, a target adjacent region in the region E is a region R in the window direction (vertical direction).
It is determined whether the vehicle is located at position 2 or R7. If the determination is NO, the number of assigned points p is set to p = 1, and if the determination is YES, the number of assigned points p is set to p larger than the case of the above-described NO determination. = 2. That is, when the adjacent area is in the window direction (vertical direction), the number of assigned points p (therefore, the number of effective points P (i,
j)) is made larger than the number of points given in the line direction.

【0041】(第2例)図23に示すように、上記各ラ
イン毎に決定される基準距離値di(図18参照)が所
定値Lよりも大きいか否かを判定し、この判定がdi≦
LのNOのときには付与ポイント数pをp=1に、また
判定がdi>LのYESのときには、付与ポイント数p
を上記NO判定の場合よりも大きいp=2にそれぞれ設
定する。すなわち、遠距離側ライン位置での付与ポイン
ト数p(有効ポイント数P(i,j))を近距離側領域
よりも大きくする。
(Second Example) As shown in FIG. 23, it is determined whether or not a reference distance value di (see FIG. 18) determined for each line is larger than a predetermined value L. ≤
When L is NO, the assigned point number p is set to p = 1. When di> L is YES, the assigned point number p is set.
Is set to p = 2 which is larger than the case of the above-mentioned NO determination. That is, the assigned point number p (effective point number P (i, j)) at the long-distance side line position is made larger than the short-distance side area.

【0042】(第3例)図24に示すように、上記領域
E及び隣接領域R1〜R8の距離差dxと所定値D2と
の大小を判定し、この判定がdx<D2のYESのとき
には付与ポイント数pをp=3に設定する。判定がdx
≧D2のNOのときには、今度は距離差dxと他の所定
値D1(D0>D1>D2)との大小を判定し、この判
定がdx≧D1のNOのときには付与ポイント数pをp
=2に、またdx<D1のYESのときには付与ポイン
ト数pをp=1にそれぞれ設定する。すなわち、隣接領
域との距離差が所定値よりも小さいときに付与ポイント
数p(有効ポイント数P(i,j))を大きくする。
(Third example) As shown in FIG. 24, the magnitude of the distance difference dx between the area E and the adjacent areas R1 to R8 and the predetermined value D2 is determined. The number of points p is set to p = 3. The judgment is dx
If NO in the case of ≧ D2, the magnitude of the distance difference dx and another predetermined value D1 (D0>D1> D2) is determined. If the determination is NO in the case of dx ≧ D1, the number of assigned points p is p.
= 2, and when YES in dx <D1, the number p of assigned points is set to p = 1. That is, when the distance difference from the adjacent area is smaller than a predetermined value, the number of assigned points p (the number of effective points P (i, j)) is increased.

【0043】(第4例)図25に示す如く、上記領域E
の測定距離d(i,j)が所定値Lよりも大きいか否か
を判定し、この判定がd(i,j)≦LのNOのときに
は付与ポイント数pをp=1に、また判定がd(i,
j)>LのYESのときには、付与ポイント数pを上記
NO判定の場合よりも大きいp=2にそれぞれ設定す
る。すなわち、領域Eの測定距離が所定値よりも大きい
ときに付与ポイント数p(有効ポイント数P(i,
j))を大きくする。
(Fourth example) As shown in FIG.
It is determined whether or not the measured distance d (i, j) is larger than a predetermined value L. If this determination is NO for d (i, j) ≦ L, the number p of assigned points is set to p = 1, and the determination is made again. Is d (i,
j)> When L is YES, the number of assigned points p is set to p = 2, which is larger than in the case of the above-mentioned NO determination. That is, when the measured distance of the area E is larger than the predetermined value, the number of assigned points p (the number of effective points P (i,
j)) is increased.

【0044】このようなステップS9の後、ステップS
10において、それまでの有効ポイント数P(i,j)
に上記付与ポイント数pを加えて新たな有効ポイント数
P(i,j)=P(i,j)+pを設定し、上記ステッ
プS12に進む。このステップS12では、ステップS
6〜S10の処理が8つの隣接領域R1〜R8の各々に
ついて終了したかどうかを判定し、この判定がNOのと
きにはステップS6に戻って、他の残りの隣接領域につ
いて同様の処理を行う。一方、判定がYESになると、
ステップS13に進み、全ての領域E,E,…について
の有効ポイント数P(i,j)の設定(ステップS6〜
S10の処理)が終了したか否かを判定する。この判定
がNOのときには、ステップS4に戻って他の領域Eに
ついて有効ポイント数P(i,j)の設定を繰り返す。
一方、判定がYESになると、次のライン毎の距離の演
算処理(図28参照)に進む。
After step S9, step S9 is executed.
At 10, the number of valid points P (i, j) up to that point
Is added to the number of assigned points to set a new number of valid points P (i, j) = P (i, j) + p, and the process proceeds to step S12. In this step S12, step S
It is determined whether or not the processing of 6 to S10 has been completed for each of the eight adjacent areas R1 to R8. If the determination is NO, the process returns to step S6, and the same processing is performed for the other remaining adjacent areas. On the other hand, if the determination is YES,
Proceeding to step S13, setting of the number of effective points P (i, j) for all areas E, E,.
It is determined whether or not the processing of S10) has been completed. When this determination is NO, the process returns to step S4, and the setting of the number of effective points P (i, j) is repeated for another area E.
On the other hand, if the determination is YES, the process proceeds to the next distance calculation processing for each line (see FIG. 28).

【0045】図28は上記ライン距離演算部26での処
理動作を示し、上記8隣接点処理部25により付与設定
された有効ポイント数P(i,j)に基づき上記ライン
毎の距離をそれぞれ演算する。
FIG. 28 shows the processing operation in the line distance calculating section 26, and calculates the distance for each line based on the number of effective points P (i, j) given and set by the eight adjacent point processing section 25. I do.

【0046】まず、ステップT1において、ライン数n
及びウィンドウ数mに分割された領域E毎の距離データ
d(i,j)を読み込むとともに、上記8隣接点処理に
より付与された領域E毎の有効ポイント数P(i,j)
を読み込み、次のステップT2では、ライン代表有効ポ
イント数PI(i)をPI(i)=0に初期化する。こ
のライン代表有効ポイント数PI(i)は、ライン毎の
距離演算の際にラインに設定されるもので、この値が大
きいほどラインの距離データの有効性が高く、信頼性、
信憑性があると判断される。
First, in step T1, the number of lines n
And the distance data d (i, j) for each area E divided into the number m of windows, and the number of effective points P (i, j) for each area E given by the above-described eight adjacent point processing.
In the next step T2, the line representative effective point number PI (i) is initialized to PI (i) = 0. The line representative effective point number PI (i) is set for a line at the time of distance calculation for each line. The larger this value is, the higher the validity of the distance data of the line is, and
Judged to be authentic.

【0047】次のステップT3では、上記ライン代表有
効ポイント数PI(i)に対応するライン代表しきい値
P0を設定する。このステップT3でのライン代表しき
い値P0の設定は以下のように行う。 (第1例)この例では、図29に示す如く、ライン代表
しきい値P0は一定値Cに設定する。
In the next step T3, a line representative threshold value P0 corresponding to the line representative effective point number PI (i) is set. The setting of the line representative threshold value P0 in step T3 is performed as follows. (First Example) In this example, the line representative threshold value P0 is set to a constant value C as shown in FIG.

【0048】また、下記の第2例〜第4例のように、ラ
イン代表しきい値P0は、距離が遠距離側になるほど小
さくなるように可変設定する。
Further, as in the following second to fourth examples, the line representative threshold value P0 is variably set so as to become smaller as the distance becomes longer.

【0049】(第2例)すなわち、ライン代表しきい値
P0をラインの位置に応じて設定する。例えば、図30
(a)に示すように、ライン位置が車体1外側から内側
に向かう(ライン番号が大きくなる)に連れてライン代
表しきい値P0が比例して小さくなるか、或いは、図3
0(b)に示すように、そのライン位置が車体1外側か
ら内側に向かうに連れてライン代表しきい値P0が段階
的に小さくなるように設定する。すなわち、ライン代表
しきい値P0を、遠距離側のライン位置ほど小さくなる
ようにライン毎に設定する。
(Second Example) That is, the line representative threshold value P0 is set according to the position of the line. For example, FIG.
As shown in FIG. 3A, the line representative threshold value P0 decreases proportionally as the line position moves from the outside to the inside of the vehicle body 1 (the line number increases), or FIG.
As shown in FIG. 0 (b), the line representative threshold value P0 is set so as to gradually decrease as the line position goes from the outside to the inside of the vehicle body 1. That is, the line representative threshold value P0 is set for each line such that the line representative threshold value P0 becomes smaller as the line position becomes farther.

【0050】(第3例)また、ライン代表しきい値P0
を実際の測定距離に応じてする。すなわち、図31
(a)に示す如く、測定距離が大きくなるに連れてライ
ン代表しきい値P0が比例して小さくなるか、或いは、
図31(b)に示すように、その測定距離が大きくなる
に連れてライン代表しきい値P0が段階的に小さくなる
ように設定する。すなわち、ライン代表しきい値P0
は、測定された距離が大きくなるほど小さくなるように
設定する。
(Third Example) In addition, the line representative threshold value P0
According to the actual measurement distance. That is, FIG.
(A), the line representative threshold value P0 decreases proportionally as the measurement distance increases, or
As shown in FIG. 31B, the line representative threshold value P0 is set so as to gradually decrease as the measurement distance increases. That is, the line representative threshold value P0
Is set to decrease as the measured distance increases.

【0051】(第4例)図33に示すように、車両Cの
側方ないし斜め後方の物体認識範囲に、車両C側方で最
も近い近距離検出エリアA1と、この近距離検出エリア
A1の後方に位置する中距離検出エリアA2と、この中
距離検出エリアA2の後方に位置しかつ最も遠い遠距離
検出エリアA3と、上記中距離ないし遠距離検出エリア
A2,A3の側方に位置する側方検出エリアA4とを区
画設定する。そして、図32に示す如く、中距離検出エ
リアA2のライン代表しきい値P0を近距離検出エリア
A1よりも小さくし、この中距離検出エリアA2よりも
遠距離検出エリアA3のライン代表しきい値P0を小さ
く(図示例では遠距離検出エリアA3のライン代表しき
い値P0=0)設定する。尚、側方検出エリアA4のラ
イン代表しきい値P0は、中距離検出エリアA2のライ
ン代表しきい値P0よりも大きくかつ近距離検出エリア
A1のライン代表しきい値P0よりも小さく設定する。
すなわち、ライン代表しきい値P0は、予め設定された
検出エリアA1〜A4毎に設定する。
(Fourth Example) As shown in FIG. 33, a short-distance detection area A1 closest to the side of the vehicle C and the short-distance detection area A1 and a short-distance detection area A1 The middle distance detection area A2 located behind, the farthest long distance detection area A3 located behind the middle distance detection area A2, and the side located at the side of the middle distance or long distance detection areas A2, A3. And the area detection area A4. Then, as shown in FIG. 32, the line representative threshold value P0 of the middle distance detection area A2 is made smaller than the short distance detection area A1, and the line representative threshold value of the long distance detection area A3 is larger than the middle distance detection area A2. P0 is set small (in the illustrated example, the line representative threshold value P0 of the long distance detection area A3 = 0). The line representative threshold value P0 of the side detection area A4 is set to be larger than the line representative threshold value P0 of the middle distance detection area A2 and smaller than the line representative threshold value P0 of the short distance detection area A1.
That is, the line representative threshold value P0 is set for each of the predetermined detection areas A1 to A4.

【0052】下記の第5例〜第7例のように、ライン代
表しきい値P0は測定距離の状況に応じて可変設定す
る。 (第5例)ライン代表しきい値P0は各ライン上の領域
の中の最大有効ポイント数Pmaxに応じて設定する。
具体的には、図34に示すように、ラインi上の領域中
から最大有効ポイント数Pmax=max(P(i,
1),P(i,2),…,P(i,m))を探索する。
次いで、上記最大有効ポイント数Pmaxが所定値より
も大きいか否かを判定し、この判定がNOのときにはラ
イン代表しきい値P0をP0=P1に、また判定がYE
Sのときには、ライン代表しきい値P0を上記NOの場
合よりも大きいP0=P2(>P1)にそれぞれ設定す
る。すなわち、ライン代表しきい値P0は、各ライン上
の領域の最大有効ポイント数Pmaxに応じて設定す
る。
As in the following fifth to seventh examples, the line representative threshold value P0 is variably set according to the condition of the measured distance. (Fifth example) The line representative threshold value P0 is set according to the maximum number of effective points Pmax in the area on each line.
Specifically, as shown in FIG. 34, the maximum number of effective points Pmax = max (P (i,
1), P (i, 2),..., P (i, m)).
Next, it is determined whether or not the maximum effective point number Pmax is larger than a predetermined value. If the determination is NO, the line representative threshold value P0 is set to P0 = P1, and the determination is YE.
In the case of S, the line representative threshold value P0 is set to P0 = P2 (> P1) which is larger than the case of NO. That is, the line representative threshold value P0 is set according to the maximum effective point number Pmax of the area on each line.

【0053】(第6例)ライン代表しきい値P0は各ラ
イン上の領域の有効ポイント数の総和Psumに応じて
設定する。具体的には、図35に示すように、ラインi
上の領域中の有効ポイント数の総和Psum=(P
(i,1)+P(i,2)+…+P(i,m)を探索す
る。次いで、上記総和Psumが所定値よりも大きいか
否かを判定し、この判定がNOのときにはライン代表し
きい値P0をP0=P1に、また判定がYESのときに
は、ライン代表しきい値P0を上記NOの場合よりも大
きいP0=P2(>P1)にそれぞれ設定する。すなわ
ち、ライン代表しきい値P0は、各ライン上の領域の有
効ポイント数の総和Psumに応じて、その総和Psu
mが大きいほど大きくなるように設定する。
(Sixth Example) The line representative threshold value P0 is set according to the total sum Psum of the effective points of the area on each line. Specifically, as shown in FIG.
Sum of the number of effective points in the upper area Psum = (P
Search for (i, 1) + P (i, 2) +... + P (i, m). Next, it is determined whether or not the total sum Psum is greater than a predetermined value. If the determination is NO, the line representative threshold value P0 is set to P0 = P1, and if the determination is YES, the line representative threshold value P0 is set. It is set to P0 = P2 (> P1) which is larger than the case of NO. That is, the line representative threshold value P0 is determined by the sum Psum of the effective points of the area on each line.
It is set to increase as m increases.

【0054】(第7例)ライン代表しきい値P0は各ラ
イン上の領域の距離データの検出頻度に応じて設定す
る。具体的には、図36に示す如く、測距されている距
離データの個数Ndataを演算し、このデータ個数N
dataが所定値よりも大きいか否かを判定して、この
判定がNOのときにはライン代表しきい値P0をP0=
P1に、また判定がYESのときには、ライン代表しき
い値P0を上記NOの場合よりも大きいP0=P2(>
P1)にそれぞれ設定する。すなわち、ライン代表しき
い値P0を各ライン上の領域での距離データの検出頻度
に基づいて設定する。
(Seventh Example) The line representative threshold value P0 is set according to the detection frequency of the distance data of the area on each line. Specifically, as shown in FIG. 36, the number Ndata of distance data measured is calculated, and this data number Ndata is calculated.
It is determined whether data is greater than a predetermined value. If the determination is NO, the line representative threshold value P0 is set to P0 =
When the determination is YES, the line representative threshold value P0 is set to P0 = P2 (>
P1). That is, the line representative threshold value P0 is set based on the detection frequency of the distance data in the area on each line.

【0055】図37は上記距離データの個数Ndata
の演算例を示し、データ個数NdataをNdata=
0として初期化した後、各ライン上のある領域での距離
d(i,j)がd(i,j)=0かどうかを判定する。
この判定がYESのときには距離データが検出されてい
ない状態としてそのまま、また判定がNOのときには距
離データが検出されている状態としてデータ個数Nda
taをNdata=Ndata+1に更新した後、それ
ぞれ次のステップに進み、各ライン上の全ての領域での
距離d(i,j)について終了したかどうかを判定す
る。この判定がYESになるまで、上記距離d(i,
j)=0の判定及びフィルタ処理を繰り返し、判定がY
ESになるとフィルタ処理に入る。このフィルタ処理
は、距離データの瞬間的な検出状況の変動によるライン
代表しきい値P0の頻繁な切換えを抑えるために行うも
ので、まず、データ個数Ndataを平滑化して平滑化
データ個数Ndatarecを求め、次いで、元のデー
タ個数Ndataを平滑化データ個数Ndatarec
に置換する。
FIG. 37 shows the number Ndata of the distance data.
Is shown, and the number of data Ndata is set to Ndata =
After initialization as 0, it is determined whether the distance d (i, j) in a certain area on each line is d (i, j) = 0.
When the determination is YES, the state is that the distance data is not detected, and when the determination is NO, the state is that the distance data is detected.
After updating ta to Ndata = Ndata + 1, the process proceeds to the next step, and it is determined whether or not the processing has been completed for the distance d (i, j) in all regions on each line. The distance d (i,
j) The determination of 0 and the filtering process are repeated, and the determination is Y
When it becomes ES, the filter processing starts. This filtering process is performed to suppress frequent switching of the line representative threshold value P0 due to an instantaneous change in the detection state of the distance data. First, the data number Ndata is smoothed to obtain a smoothed data number Ndatarec. Then, the original data number Ndata is reduced to the smoothed data number Ndatarec.
Replace with

【0056】図28のフローにおいて、ステップT3の
後はステップT4に進み、上記領域毎の有効ポイント数
P(i,j)がライン代表しきい値P0よりも大きいか
どうかを判定する。この判定がP(i,j)≦P0のN
Oのときには、そのままステップT6に進むが、判定が
P(i,j)>P0のYESのときには、ステップT5
において、ライン毎の代表距離l(i)を平均化のため
に更新するとともに、上記ライン代表有効ポイント数P
I(i)に領域毎の有効ポイント数P(i,j)を加え
てライン代表有効ポイント数PI(i)の更新を行った
後にステップT6に進む。すなわち、ライン距離演算部
26では、8隣接点処理部25によって付与設定された
有効ポイント数P(i,j)がライン代表しきい値P0
よりも大きい領域についてライン毎の距離演算を行うよ
うにしている。
In the flow of FIG. 28, after step T3, the process proceeds to step T4, where it is determined whether or not the effective point number P (i, j) for each area is larger than the line representative threshold value P0. This determination is made by N of P (i, j) ≦ P0
If O, the process proceeds to step T6, but if the determination is P (i, j)> P0, the process proceeds to step T5.
, The representative distance l (i) for each line is updated for averaging, and the line representative effective point number P
After updating the line representative effective point number PI (i) by adding the effective point number P (i, j) for each area to I (i), the process proceeds to step T6. That is, in the line distance calculation unit 26, the number of effective points P (i, j) given and set by the eight adjacent point processing unit 25 is the line representative threshold value P0.
The distance calculation for each line is performed for an area larger than the above.

【0057】上記ライン毎の代表距離l(i)の更新は
次の式で行う。 l(i)=[l(i)×PI(i)+d(i,j)×
{P(i,j)−PO+1}]÷{PI(i)+P
(i,j)−PO+1}
The updating of the representative distance l (i) for each line is performed by the following equation. l (i) = [l (i) × PI (i) + d (i, j) ×
{P (i, j) -PO + 1}] {PI (i) + P
(I, j) -PO + 1}

【0058】上記ステップT6では当該ラインの全ての
ウィンドウ番号(領域E)について終了したか否かを判
定し、この判定がYESになるまでラインの各領域Eに
ついてステップT3〜T5を繰り返す。ステップT6の
判定がYESになると、ステップT7に進み、全てのラ
イン番号について終了したかどうかを判定し、この判定
がYESになるまでステップT2〜T6を繰り返す。ス
テップT7の判定がYESになると、次の物体認識処理
(図39参照)に進む。
In step T6, it is determined whether or not the processing has been completed for all the window numbers (area E) of the line, and steps T3 to T5 are repeated for each area E of the line until this determination becomes YES. If the determination in step T6 is YES, the process proceeds to step T7, where it is determined whether or not the processing has been completed for all the line numbers, and steps T2 to T6 are repeated until the determination becomes YES. If the determination in step T7 is YES, the process proceeds to the next object recognition process (see FIG. 39).

【0059】図38は上記ライン距離演算部26での処
理動作の他の実施形態を示し、各ライン上の領域E,E
の最大有効ポイント数となる距離データを基準として、
該距離データから所定距離以上外れた距離データを距離
演算に用いないようにしている。尚、図28と同じ部分
についてはその詳細な説明は省略する。
FIG. 38 shows another embodiment of the processing operation of the line distance calculating section 26, and the regions E, E on each line are shown.
Based on the distance data that is the maximum number of valid points for
Distance data deviating from the distance data by a predetermined distance or more is not used for distance calculation. The detailed description of the same parts as in FIG. 28 will be omitted.

【0060】すなわち、ステップU1,U2は上記ステ
ップT1,T2(図28参照)と同じである。ステップ
U3〜U6では、ラインiにおける最大有効ポイント数
PPと、その最大有効ポイント数PPが得られる領域E
の距離Dmaxとを求める。具体的には、ステップU3
において、ラインiにおける最大有効ポイント数PPを
PP=0に初期化した後、ステップU4で、領域E毎の
有効ポイント数P(i,j)が上記ライン代表有効ポイ
ント数PPよりも大きいかどうかを判定する。この判定
がP(i,j)≦PPのNOのときには、そのままステ
ップU6に進むが、判定がP(i,j)>PPのYES
のときには、ステップU5において、その領域E毎の有
効ポイント数P(i,j)を上記ライン代表有効ポイン
ト数PPとし、かつ該領域Eでの距離d(i,j)を距
離Dmaxとした後、ステップU6に進む。そして、ス
テップU6では、全てのウィンドウ番号について終了し
た、つまりライン中の全ての領域について最大有効ポイ
ント数PP及びそれに対応する領域の距離Dmaxが得
られたかどうかを判定し、この判定がYESになるまで
ステップU4〜U6を繰り返す。
That is, steps U1 and U2 are the same as steps T1 and T2 (see FIG. 28). In steps U3 to U6, the maximum number of valid points PP in the line i and the area E where the maximum number of valid points PP can be obtained.
With the distance Dmax. Specifically, step U3
, After initializing the maximum number of effective points PP in the line i to PP = 0, in step U4, whether the number of effective points P (i, j) for each area E is larger than the line representative effective point number PP Is determined. If the determination is NO in P (i, j) ≦ PP, the process proceeds directly to step U6, but the determination is YES in P (i, j)> PP.
In step U5, after the number of effective points P (i, j) for each area E is set to the above-mentioned line representative effective point number PP and the distance d (i, j) in the area E is set to distance Dmax. , And proceed to step U6. Then, in step U6, it is determined whether the process has been completed for all window numbers, that is, whether the maximum number of effective points PP and the distance Dmax of the corresponding region have been obtained for all regions in the line, and this determination is YES. Steps U4 to U6 are repeated until.

【0061】ステップU6の判定がYESになると、ス
テップU7に進み、距離判定のための下限値Dlowe
r(=Dmax−d0)及び上限値Dupper(=D
max+d0)を設定する。その後、ステップU8にお
いて、上記領域毎の距離d(i,j)が上記下限値Dl
owerよりも大きくかつ上限値Dupperよりも小
さい、すなわちDlower<d(i,j)<Dupp
erかどうかを判定し、この判定がNOのときにはその
ままステップU10に、また判定がYESのときにはス
テップU9を経てステップU10にそれぞれ進む。上記
ステップU9は図28におけるステップT5と、またス
テップU10は同ステップT6とそれぞれ同じである。
そして、このステップU10の後、図28におけるステ
ップT7と同じ処理を行うステップU11に進む。
If the determination in step U6 is YES, the process proceeds to step U7, where the lower limit value Dlow for distance determination is determined.
r (= Dmax−d0) and the upper limit value Dupper (= D
max + d0) is set. Thereafter, in step U8, the distance d (i, j) for each of the regions is set to the lower limit Dl.
larger than the power and smaller than the upper limit value Dupper, that is, Dlower <d (i, j) <Dupp
er, and if the determination is NO, the process proceeds directly to step U10, and if the determination is YES, the process proceeds to step U10 via step U9. Step U9 is the same as step T5 in FIG. 28, and step U10 is the same as step T6 in FIG.
After step U10, the process proceeds to step U11 in which the same processing as step T7 in FIG. 28 is performed.

【0062】尚、以上に説明した各領域E毎の距離デー
タd(i,j)から8隣接点処理を行って有効ポイント
数P(i,j)を付与し、その後にライン毎の代表距離
l(i)を演算する過程の具体例を図14に示してお
り、図14(a)は各領域毎の距離データd(i,j)
を、また図14(b)は領域毎の有効ポイント数P
(i,j)を、さらに図14(c)はライン毎の代表距
離l(i)をそれぞれ表している。
It should be noted that the above-described distance data d (i, j) for each region E is subjected to 8-neighboring point processing to give the number of effective points P (i, j), and thereafter, the representative distance for each line FIG. 14 shows a specific example of the process of calculating l (i), and FIG. 14A shows distance data d (i, j) for each region.
And FIG. 14B shows the number of effective points P for each area.
(I, j), and FIG. 14 (c) shows a representative distance l (i) for each line.

【0063】図39及び図40はコントローラ15にお
ける物体認識部20の処理動作を示し、この物体認識部
20では、上記ライン距離演算部26により演算された
ライン毎の代表距離l(i)に基づいて物体Oを認識す
る。すなわち、ステップW1において物体番号kを設定
し、ステップW2では、物体検出距離L(k)、物体有
効ポイント数PK(k)及び物体内のデータ数N(k)
をいずれも0にして、一次保管用データセットのリセッ
トを行う。
FIGS. 39 and 40 show the processing operation of the object recognizing section 20 in the controller 15. The object recognizing section 20 is based on the representative distance l (i) for each line calculated by the line distance calculating section 26. To recognize the object O. That is, in step W1, the object number k is set, and in step W2, the object detection distance L (k), the number of effective object points PK (k), and the number of data in the object N (k)
Are set to 0, and the primary storage data set is reset.

【0064】次のステップW3では、有効な未登録のラ
インデータが登録されているかどうかを判定し、この判
定がNOのときにはステップW8に進む。ステップW3
の判定がYESになると、ステップW4において、ライ
ンデータの前後位置XD(i)及び横位置YD(i)を
設定する。この後、ステップW5において、既に上記物
体検出距離L(k)が定義されているかどうかを判定
し、この判定がNOのときには、ステップW6に進み、
上記物体検出距離L(k)をL(k)=XD(i)に、
また物体有効ポイント数PK(k)をPK(k)=PI
(i)に、さらに物体内のデータ数N(k)をN(k)
=1にそれぞれ設定して、一次保管用データセットのセ
ットを行った後、ステップW8に進む。
In the next step W3, it is determined whether or not valid unregistered line data has been registered. If this determination is NO, the flow proceeds to step W8. Step W3
Is YES, in step W4, the front / rear position XD (i) and the horizontal position YD (i) of the line data are set. Thereafter, in step W5, it is determined whether or not the object detection distance L (k) has already been defined. If the determination is NO, the process proceeds to step W6.
The object detection distance L (k) is set to L (k) = XD (i),
Also, the number of object effective points PK (k) is expressed as PK (k) = PI
In (i), the number of data in the object N (k) is further expressed as N (k)
= 1 and the primary storage data set is set, and then the process proceeds to step W8.

【0065】これに対し、ステップW5の判定がYES
のときには、ステップW7に進み、物体検出距離L
(k)をL(k)={PK(k)×L(i)+P(i)
×XD(i)}/{PK(k)+P(i)}に、また物
体有効ポイント数PK(k)をPK(k)=PK(k)
+PI(i)に、さらに物体内のデータ数N(k)をN
(k)=N(k)+1にそれぞれ設定して、一次保管用
データセットの更新を行った後、ステップW8に進む。
On the other hand, the determination in step W5 is YES
, The process proceeds to step W7, where the object detection distance L
Let (k) be L (k) = {PK (k) × L (i) + P (i)
× XD (i)} / {PK (k) + P (i)} and the number of object effective points PK (k) as PK (k) = PK (k)
+ PI (i), and the number of data in the object N (k) by N
After setting (k) = N (k) +1 and updating the primary storage data set, the process proceeds to step W8.

【0066】上記ステップW8では、全てのライン番号
について終了したかどうかを判定し、この判定がYES
になるまでステップW3〜W7を繰り返す。ステップW
8の判定がYESになると、ステップW9〜W11にお
いて物体Oの登録の可否の判定を行う。まず、ステップ
W9において、上記物体内のデータ数N(k)が所定値
以上かどうかを判定する。尚、この所定値は、遠距離側
ほど小さくするように可変設定することもできる。この
ステップW9の判定がNOのときには、距離データはノ
イズ等に起因するものであると見做し、ステップW10
において物体Oの登録は行わず、物体番号kの物体デー
タを初期化した後、図40に示すステップW12に進
む。一方、ステップW9の判定がYESであるときに
は、ステップW11において物体Oの登録を行った後に
上記ステップW12に進む。すなわち、物体認識部20
は、ライン距離演算部26により演算されたライン毎の
距離のデータ数N(k)が所定値以上であるときのみ
に、該ライン毎の距離に対応する物体を新規物体として
登録する。
In step W8, it is determined whether or not the processing has been completed for all the line numbers.
Steps W3 to W7 are repeated until. Step W
If the determination at step 8 is YES, a determination is made at steps W9 to W11 as to whether or not the object O can be registered. First, in step W9, it is determined whether the number N (k) of data in the object is equal to or greater than a predetermined value. Note that the predetermined value can be variably set so as to decrease as the distance increases. If the determination in step W9 is NO, it is considered that the distance data is due to noise or the like, and step W10
Does not register the object O and initializes the object data of the object number k, and then proceeds to step W12 shown in FIG. On the other hand, if the determination in step W9 is YES, the process proceeds to step W12 after the object O is registered in step W11. That is, the object recognition unit 20
Registers an object corresponding to the distance of each line as a new object only when the number N (k) of distance data per line calculated by the line distance calculation unit 26 is equal to or greater than a predetermined value.

【0067】上記ステップW12では、上記車速センサ
13により検出された車速Vと舵角センサ14により検
出されたハンドル舵角θとを読み込み、次のステップW
13で上記ハンドル舵角θの速度を算出するとともに、
車両の走行している走行路の曲率半径R(図48参照)
を以下の式により算出する。尚、式中、Aは車両の回頭
性の良さを表すスタビリティファクタ、Lhは車両のホ
ィールベースである。
In step W12, the vehicle speed V detected by the vehicle speed sensor 13 and the steering angle θ detected by the steering angle sensor 14 are read.
At 13, the speed of the steering wheel angle θ is calculated,
Curvature radius R of the traveling path on which the vehicle is traveling (see FIG. 48)
Is calculated by the following equation. In the equation, A is a stability factor indicating the good turning performance of the vehicle, and Lh is the wheel base of the vehicle.

【0068】R=(1+A・V2)・(Lh/θ)R = (1 + A · V 2 ) · (Lh / θ)

【0069】次のステップW14では、上記ハンドル舵
角θを大小2つの設定値と比較し、ハンドル舵角θが小
さい側の設定値よりも小さいときには、車両は直進走行
状態にあると見倣して、そのまま後述する表示処理動作
(図44参照)へ進む。
In the next step W14, the steering angle θ is compared with two large and small set values. If the steering angle θ is smaller than the smaller set value, the vehicle is assumed to be in a straight running state. Then, the process directly proceeds to a display processing operation (see FIG. 44) described later.

【0070】ハンドル舵角θが大小2つの基準値の間に
ある中状態のときには、車両は車線変更の状態にあると
判定し、ステップW15に進んで上記走行路の曲率半径
Rが所定値以上かどうかを判定する。ここでR<所定値
のNOと判定されたときには、上記表示処理動作(図4
4参照)に進むが、R≧所定値のYESと判定される
と、ステップW17に進む。
When the steering angle θ is in the middle state between the two reference values, it is determined that the vehicle is in the lane change state, and the routine proceeds to step W15, where the curvature radius R of the traveling road is equal to or larger than a predetermined value. Is determined. Here, when it is determined that R <NO at the predetermined value, the display processing operation (FIG.
4), but if it is determined that R ≧ the predetermined value is YES, the process proceeds to step W17.

【0071】また、上記ステップW14でハンドル舵角
θが大きい側の設定値よりも大きいときには、車両はカ
ーブ走行状態にあると見倣してステップW16に進み、
上記算出したハンドル舵角θの速度があるか、つまりハ
ンドルが動いてハンドル舵角θが変化しているか否かを
判定する。この判定がNOのときには、上記表示処理動
作(図44参照)に進むが、YESのときには、上記ス
テップW17に進む。
When the steering angle θ is larger than the set value on the larger side in step W14, the process proceeds to step W16, assuming that the vehicle is in a curve running state.
It is determined whether there is a speed of the calculated steering wheel angle θ, that is, whether the steering wheel is moving and the steering wheel angle θ is changing. When this determination is NO, the process proceeds to the display processing operation (see FIG. 44), but when YES, the process proceeds to step W17.

【0072】上記ステップW17では表示部31により
表示する最大表示距離xmaxを演算し、次のステップ
W18で物体Oまでの距離の検出値xを読み込み、ステ
ップW19において上記物体Oの車両C(自車)との相
対速度vssを演算する。次いで、ステップW20に進ん
で上記物体Oの所定時間Δt経過後の位置xpredi
ctを式 xpredict=x+Δt・vss により推定し、ステップW21において上記推定位置x
predictと最大距離xmaxとの大小を比較す
る。この判定がxpredict<xmaxのNOのと
きには、上記表示処理動作に進むが、xpredict
≧xmaxのYESのときには、ステップW22におい
て該物体Oが車両Cから離れつつあるものか否かを判定
し、この判定がNOのとき(物体Oが接近していると
き)には表示処理動作に進む。一方、ステップW22の
判定がYESであると、ステップW23に進んで表示部
31での物体Oの距離の表示をキャンセルした後に終了
する。
In step W17, the maximum display distance xmax to be displayed on the display unit 31 is calculated, and in step W18, the detected value x of the distance to the object O is read. In step W19, the vehicle C (own vehicle) of the object O is read. ) Is calculated. Next, the process proceeds to step W20, where the position xpredi of the object O after a predetermined time Δt has elapsed.
ct is estimated by an expression xpredict = x + Δt · vss, and in step W21, the estimated position x is estimated.
The magnitude of the predict and the maximum distance xmax are compared. If the determination is NO in xpredict <xmax, the process proceeds to the display processing operation.
When ≧ xmax is YES, it is determined in step W22 whether or not the object O is moving away from the vehicle C. When the determination is NO (when the object O is approaching), the display processing operation is performed. move on. On the other hand, if the determination in step W22 is YES, the process proceeds to step W23, where the display of the distance of the object O on the display unit 31 is canceled, and the process ends.

【0073】上記物体認識部20での処理動作の後は図
44に示す表示処理動作に進み、上記表示部31での物
体表示のための表示処理を行う。すなわち、この表示処
理動作では、まず、図44に示すステップX1で、上記
物体Oの自車Cとの間の各距離xと、比較的長い設定値
40mとの大小を比較し、この判定がx>40mのNO
のときには、物体Oは自車Cから遠く離れて車線変更の
障害物となり得ないと判断してそのまま終了する。ステ
ップX1の判定がx≦40mのYESのときには、ステ
ップX2に進んで今度は上記距離xと極めて短い設定値
10m(最近接位置の物体Oが自車Cのミラーの死角に
入るような距離)との大小を比較する。この判定がx≦
10mのYESのときには、物体Oが自車Cに極めて近
接していると判断し、ステップX3に進んで、その物体
Oに関する情報を上記表示部31の表示画面31aにお
けるセグメント34の表示輝度(点灯輝度)のレベルを
「設定3」にセットし、次のステップX4においてセグ
メント34の表示色を「赤」にセットした後、ステップ
X10に進み、上記表示部31の表示画面31aでセグ
メント列33のセグメント34,34,…の点灯により
物体Oとの間の現在の距離を表示した後に終了する。
After the processing operation in the object recognizing unit 20, the process proceeds to a display processing operation shown in FIG. 44, and a display process for displaying an object on the display unit 31 is performed. That is, in this display processing operation, first, in step X1 shown in FIG. 44, the distance x between the object O and the own vehicle C is compared with the comparatively long set value 40 m, and this determination is made. x> 40m NO
In this case, it is determined that the object O is far from the host vehicle C and cannot be an obstacle to change lanes, and the process ends. If the determination in step X1 is YES, that is, x ≦ 40 m, the process proceeds to step X2, and the distance x is set to 10 m (the distance at which the closest object O enters the blind spot of the mirror of the vehicle C). Compare the size with. This judgment is x ≦
If YES at 10 m, it is determined that the object O is extremely close to the vehicle C, and the process proceeds to step X3 to display the information about the object O on the display luminance (lighting) of the segment 34 on the display screen 31a of the display unit 31. Brightness) is set to “setting 3”, and in the next step X4, the display color of the segment 34 is set to “red”. Then, the process proceeds to step X10, where the segment row 33 is displayed on the display screen 31a of the display unit 31. After the current distance to the object O is displayed by lighting the segments 34, 34,...

【0074】上記ステップX2の判定がx>10mのN
Oのとき(x=10〜40mのとき)には、ステップX
5に進み、上記物体Oの自車Cに対する相対速度vss
が正か否か、つまり物体Oが自車Cに対して接近してい
るか否かを判定し、この判定がYES(vss>0)で
物体Oが接近状態であるときには、ステップX6に進
み、上記表示部31の表示画面31aにおけるセグメン
ト34,34,…の表示輝度のレベルを中間程度の「設
定2」にセットし、次のステップX7でセグメント3
4,34,…の表示色を「黄」にセットした後、上記ス
テップX10に進む。
The determination in step X2 indicates that N> x
If O (x = 10 to 40 m), step X
5, the relative speed vss of the object O with respect to the own vehicle C
Is true, that is, whether or not the object O is approaching the vehicle C. When the determination is YES (vss> 0) and the object O is in the approaching state, the process proceeds to step X6. The display brightness level of the segments 34, 34,... On the display screen 31a of the display unit 31 is set to an intermediate "setting 2", and the segment 3 is set in the next step X7.
After the display colors of 4, 34,... Are set to “yellow”, the process proceeds to step X10.

【0075】一方、上記ステップX5の判定がNO(v
ss≦0)のときには、物体Oが離隔状態であると見倣
してステップX8に進み、上記表示画面31aにおける
セグメント34,34,…の表示輝度のレベルを最も小
さい(暗い)「設定1」にセットし、次のステップX9
でセグメント34,34,…の表示色を「青」にセット
した後、上記ステップX10に進む。
On the other hand, if the determination in step X5 is NO (v
When ss ≦ 0), the process proceeds to step X8, assuming that the object O is in the separated state, and sets the display brightness level of the segment 34, 34,... on the display screen 31a to the smallest (dark) “Setting 1”. To the next step X9
, The display color of the segments 34, 34,... Is set to "blue", and the process proceeds to step X10.

【0076】上記表示部31における各セグメント列3
3のセグメント34の表示輝度レベルは、図45に示す
ように、「設定」の数値が大きくなるほど輝度が大きく
(明るく)なるように設定されている。また、上記図4
4に示すステップX10で行う距離表示については、表
示画面31aの各セグメント列33の8個のセグメント
34,34,…をそれぞれ5mの間隔を表すものとし、
図46に示す如く、物体Oが40mからに5mずつ自車
Cに接近する毎にセグメント34,34,…の点灯個数
が1個ずつ増加するようになっている。従って、上記の
ようにステップX2でx≦10mと判定された場合、そ
の距離xの算出結果に応じて、セグメント列33の8個
のセグメント34,34,…のうち下から7個目までの
セグメント34,34,…(x=5〜10mの場合)、
又は全てのセグメント34,34,…(x<5mの場
合)が点灯し、そのセグメント34,34,…の点灯が
最も明るい「設定3」の輝度レベルでかつ最も注意を喚
起させる「赤」の色で行われる。尚、図43では、全て
のセグメント34,34,…が「設定3」の輝度レベル
でかつ「赤」色で点灯している表示状態を例示してい
る。
Each segment row 3 in the display section 31
As shown in FIG. 45, the display brightness level of the segment 34 of No. 3 is set so that the larger the value of “setting”, the larger (brighter) the brightness. In addition, FIG.
4, the eight segments 34, 34,... Of each segment row 33 on the display screen 31a represent a distance of 5 m.
As shown in FIG. 46, each time the object O approaches the vehicle C by 5 m from 40 m, the lighting number of the segments 34, 34,... Increases by one. Therefore, when it is determined that x ≦ 10 m in step X2 as described above, according to the calculation result of the distance x, among the eight segments 34, 34,. Segments 34, 34, ... (when x = 5 to 10 m),
(In the case of x <5 m), all the segments 34, 34,... (When x <5 m) are lit, and the lighting of the segments 34, 34,. Done in color. Note that FIG. 43 illustrates a display state in which all the segments 34, 34, ... are lit at the luminance level of "setting 3" and in "red".

【0077】この実施形態では、上記図40に示す物体
認識部20の処理動作におけるステップW19により、
後方検知センサ10(物体検出手段)により検出された
物体Oの車両Cとの相対速度vssを演算する相対速度
演算手段40が構成されている。
In this embodiment, the step W19 in the processing operation of the object recognizing section 20 shown in FIG.
A relative speed calculating means 40 for calculating a relative speed vss of the object O detected by the rear detection sensor 10 (object detecting means) with respect to the vehicle C is provided.

【0078】また、図44に示す表示処理動作のステッ
プX1〜X10により、上記相対速度演算手段40によ
る演算結果に基づき、上記検出された物体Oの車両Cと
の距離に関する情報を表示部31に表示する表示制御手
段41が構成されている。
Further, in steps X1 to X10 of the display processing operation shown in FIG. 44, based on the calculation result by the relative speed calculation means 40, information on the distance of the detected object O from the vehicle C is displayed on the display unit 31. Display control means 41 for displaying is configured.

【0079】また、物体認識部20の処理動作のステッ
プW20により、上記相対速度演算手段40による演算
結果に基づき、上記検出された物体Oの所定時間tΔ経
過後の位置xpredictを推定する位置推定手段4
2が構成されている。
In step W20 of the processing operation of the object recognizing section 20, a position estimating means for estimating the position xpredict of the detected object O after a lapse of a predetermined time tΔ based on the calculation result by the relative speed calculating means 40. 4
2 are configured.

【0080】さらに、ステップW21,W23により、
上記位置推定手段42により推定された物体Oの推定位
置xpredictが車両Cから所定距離xmax以上
離れているときには、上記表示制御手段41による物体
Oの距離に関する情報の表示をキャンセルする表示キャ
ンセル手段43が構成されている。
Further, at steps W21 and W23,
When the estimated position xpredict of the object O estimated by the position estimating means 42 is apart from the vehicle C by a predetermined distance xmax or more, a display canceling means 43 for canceling the display control means 41 to display the information on the distance of the object O is provided. It is configured.

【0081】さらにまた、ステップW14〜W16によ
り、車両がカーブ走行状態にあることを検出するカーブ
検出手段44が構成されている。
Further, the steps W14 to W16 constitute a curve detecting means 44 for detecting that the vehicle is traveling on a curve.

【0082】加えて、ステップW22により、検知セン
サ10(物体検出手段)により検出された物体Oが車両
Cに対し接近状態又は離隔状態にあるか否かを判定する
接離判定手段45が構成されている。
In addition, the contact / separation determining means 45 for determining whether the object O detected by the detection sensor 10 (object detecting means) is in the approaching state or the separating state with respect to the vehicle C by step W22 is constituted. ing.

【0083】そして、上記表示キャンセル手段43は、
上記カーブ検出手段44によるカーブ走行状態の検出時
に表示制御手段41による物体Oの距離に関する情報の
表示をキャンセルするように、かつ上記接離判定手段4
5により車両Cへ接近していると判定された物体Oにつ
いては、表示制御手段41による物体Oの距離に関する
情報の表示のキャンセルを中止するように構成されてい
る。
The display canceling means 43
The display control means 41 cancels the display of the information on the distance of the object O when the curve detecting means 44 detects the curve traveling state, and the contact / separation determining means 4
For the object O determined to be approaching the vehicle C by 5, the canceling of the display of the information on the distance of the object O by the display control means 41 is stopped.

【0084】したがって、この実施形態では、左右後側
方検知センサ10,10により画像が輝度情報として捕
らえられると、まず、コントローラ15の各測距回路1
6において、各検知センサ10の画像がライン列及びウ
ィンドウ方向にそれぞれ分割されて各領域Eについて距
離d(i,j)が測定される。次いで、8隣接点処理部
25で、上記測定された領域E毎の距離d(i,j)及
び隣接領域R1〜R8の距離の差dxに基づいて各領域
E毎の距離データの有効ポイント数P(i,j)が付与
され、ライン距離演算部26において上記有効ポイント
数P(i,j)に基づきライン毎の距離l(i)が演算
され、物体認識部20においてライン距離演算部26に
より演算されたライン毎の距離l(i)から物体Oが認
識される。このように、各領域Eについての距離データ
の有効性が隣接領域R1〜R8との関係から有効ポイン
ト数P(i,j)として判定され、この有効ポイント数
P(i,j)に基づいてライン毎の距離l(i)を求め
て、その距離l(i)から物体Oを認識するので、測距
データのばらつきやノイズ等があっても、その影響を可
及的に低減することができ、高精度の距離演算が可能と
なって正確な物体認識を行うことができる。
Therefore, in this embodiment, when an image is captured as luminance information by the left and right rear side detection sensors 10, 10, first, each distance measuring circuit 1 of the controller 15
At 6, the image of each detection sensor 10 is divided in the line direction and the window direction, and the distance d (i, j) is measured for each region E. Next, the number of effective points of the distance data for each region E is calculated by the eight adjacent point processing unit 25 based on the measured distance d (i, j) for each region E and the difference dx between the distances of the adjacent regions R1 to R8. P (i, j) is added, and the line distance calculation unit 26 calculates the distance l (i) for each line based on the number of effective points P (i, j), and the object recognition unit 20 calculates the distance l (i). The object O is recognized from the distance l (i) for each line calculated by As described above, the validity of the distance data for each region E is determined as the number of valid points P (i, j) from the relationship with the adjacent regions R1 to R8, and based on the number of valid points P (i, j). Since the distance O (i) for each line is obtained and the object O is recognized based on the distance l (i), even if there is a variation or noise in the distance measurement data, it is possible to reduce the influence as much as possible. As a result, accurate distance calculation can be performed, and accurate object recognition can be performed.

【0085】また、上記8隣接点処理部25では、領域
Eと隣接領域R1〜R8との距離差dxがしきい値d0
よりも小さいときに有効ポイント数P(i,j)(付与
ポイント数p)を付与するようにしているので、領域E
の隣接領域R1〜R8との距離差dxがしきい値d0よ
りも小さいときのみを有効ポイント数P(i,j)の付
与によって有効と判断でき、距離演算の精度を高めるこ
とができる。
In the 8-neighboring point processing section 25, the distance difference dx between the area E and the adjacent areas R1 to R8 is equal to the threshold value d0.
When the number is smaller than the effective point number P (i, j) (the number of assigned points p), the area E
Only when the distance difference dx from the adjacent regions R1 to R8 is smaller than the threshold value d0 can be determined to be valid by providing the effective point number P (i, j), and the accuracy of the distance calculation can be improved.

【0086】そのとき、上記しきい値d0は、領域Eの
測定距離データに応じて可変とされ、図17〜図19に
示すように、領域のライン位置に応じて設定された基準
距離値diが大きいほど大きくなるように設定すれば、
遠距離側領域の距離データについてのしきい値d0を大
きくすることで、その距離データの有効ポイント数P
(i,j)を増やし、遠距離側の物体Oについての距離
データがばらついても正確なデータを得ることができ
る。
At this time, the threshold value d0 is made variable according to the measured distance data of the area E, and as shown in FIGS. 17 to 19, the reference distance value di set in accordance with the line position of the area E. If you set it to be larger as
By increasing the threshold value d0 for the distance data in the far distance side area, the number of effective points P of the distance data is increased.
By increasing (i, j), accurate data can be obtained even if the distance data of the object O on the far side varies.

【0087】また、図20及び図21に示す如く、しき
い値は、各領域Eの隣接領域R1〜R8との距離差dx
の平均値Dに基づき、該平均値Dが大きいほど大きくな
るように設定すれば、実際に測定された距離データに応
じてしきい値d0が設定されるので、遠距離側が変化し
てもそれにしきい値d0を安定して対応させることがで
きる。
As shown in FIGS. 20 and 21, the threshold value is the distance difference dx between each region E and the adjacent regions R1 to R8.
If the average value D is set so as to increase as the average value D increases, the threshold value d0 is set according to the actually measured distance data. The threshold value d0 can be made to correspond stably.

【0088】上記8隣接点処理部25においては、付与
する有効ポイント数を領域Eの距離d(i,j)に応じ
て変え、図22に示すように、ウィンドウ方向にある隣
接領域R2,R7の有効ポイント数をライン列方向より
も大きくするようにされている。すなわち、CCDチッ
プ11でのCCDラインが等間隔である場合、遠距離領
域に含まれるライン数が近距離領域に比べ少なくなり、
遠距離側の物体Oが近距離側の物体Oに比べ認識され難
くなるが、この実施形態のように、隣接領域がウィンド
ウ方向にあるときの有効ポイント数をライン列方向より
も大きくすれば、上記少ないライン数であっても有効ポ
イント数を増加でき、遠距離側物体Oを認識する確率を
高めることができる。
In the eight adjacent point processing unit 25, the number of effective points to be given is changed according to the distance d (i, j) of the area E, and as shown in FIG. Is set to be larger than the number of effective points in the line direction. That is, when the CCD lines on the CCD chip 11 are at equal intervals, the number of lines included in the long distance area is smaller than that in the short distance area,
Although the object O on the far side is more difficult to recognize than the object O on the near side, if the number of effective points when the adjacent area is in the window direction is made larger than that in the line row direction as in this embodiment, Even with the small number of lines, the number of effective points can be increased, and the probability of recognizing the far-side object O can be increased.

【0089】また、図23に示すように、遠距離側ライ
ン位置での有効ポイント数を近距離側ライン位置よりも
大きくするようにしても、同様の効果が得られる。
Further, as shown in FIG. 23, the same effect can be obtained even if the number of effective points at the long-distance line position is made larger than that at the short-distance line position.

【0090】さらに、図24に示すように、隣接領域R
1〜R8との距離差dxが所定値D1又はD2よりも小
さいときに有効ポイント数を大きくするようにすると、
物体Oを認識し易くすることができる。
Further, as shown in FIG.
When the distance difference dx from 1 to R8 is smaller than the predetermined value D1 or D2, the number of effective points is increased.
The object O can be easily recognized.

【0091】また、図25に示す如く、測定された距離
d(i,j)が所定値Lよりも大きいときに有効ポイン
ト数を大きくするようにしても、上記と同様の作用効果
を奏することができる。
As shown in FIG. 25, even when the number of effective points is increased when the measured distance d (i, j) is larger than the predetermined value L, the same operation and effect as described above can be obtained. Can be.

【0092】図26及び図27に示すように、距離が近
距離側及び中距離側にあるときのみ有効ポイント数を付
与する処理を行い、遠距離側にあるときには有効ポイン
ト数の付与処理を行わないようにすると、遠距離側で
は、距離データの有効性を判断する有効ポイント数の付
与処理が行われず、その距離データが有効ポイント数の
付与処理によってノイズ等として落とされることなく、
そのまま採用される。この場合でも同様の効果が得られ
る。
As shown in FIGS. 26 and 27, the process of assigning the number of effective points is performed only when the distance is on the short distance side and the middle distance side, and the process of assigning the effective point number is performed when the distance is on the long distance side. If it does not, on the long distance side, the process of assigning the number of effective points for determining the validity of the distance data is not performed, and the distance data is not dropped as noise etc. by the process of assigning the number of effective points,
Adopted as it is. In this case, the same effect can be obtained.

【0093】上記ライン距離演算部26では、有効ポイ
ント数P(i,j)がライン代表しきい値P0よりも大
きい領域についてライン毎の距離演算を行うので、ライ
ン毎の距離l(i)を正確に演算することができる。
The line distance calculation unit 26 calculates the distance for each line in an area where the number of effective points P (i, j) is larger than the line representative threshold value P0. It is possible to calculate accurately.

【0094】そのとき、図30〜図33に示すように、
上記ライン代表しきい値P0は、距離が遠距離側になる
ほど小さく設定する(図30に示す如く、遠距離側のラ
イン位置ほど小さくなるようにライン毎に設定するか、
又は図31に示す如く、測定された距離d(i,j)が
大きくなるほど小さくなるように設定する)と、遠距離
側領域のライン代表しきい値が近距離側領域よりも小さ
いので、遠距離側の距離データの取りこぼしが防止で
き、その遠距離側の距離演算を精度よく行って遠距離側
の物体Oを正確に認識することができる。
At this time, as shown in FIGS.
The line representative threshold value P0 is set smaller as the distance becomes longer (as shown in FIG. 30, the line representative threshold value P0 is set for each line so that the line position becomes smaller as the line position becomes longer.
Alternatively, as shown in FIG. 31, when the measured distance d (i, j) is set to be smaller as the distance becomes larger), the line representative threshold value in the long distance side area is smaller than that in the short distance side area, The distance data on the distance side can be prevented from being missed, and the distance calculation on the long distance side can be accurately performed to accurately recognize the object O on the long distance side.

【0095】また、図32及び図33に示すように、ラ
イン代表しきい値を、予め設定された検出エリアA1〜
A4毎に設定すると、所望の検出エリアA1〜A4の距
離演算を精度よく行うことができる。
Further, as shown in FIGS. 32 and 33, the line representative threshold is set to a predetermined detection area A1.
If the setting is made for each A4, the distance calculation of the desired detection areas A1 to A4 can be accurately performed.

【0096】一方、図33〜図36に示す如く、上記ラ
イン代表しきい値は、各ライン毎の距離データの検出状
況に応じて設定することで、ライン代表しきい値が検出
状況に応じて変化して設定され、距離演算の精度をさら
に高めることができる。
On the other hand, as shown in FIGS. 33 to 36, the line representative threshold is set in accordance with the detection state of the distance data for each line, so that the line representative threshold is set in accordance with the detection state. It is set by changing, and the accuracy of the distance calculation can be further increased.

【0097】すなわち、図34に示すように、ライン代
表しきい値P0は、各ライン上の領域の最大有効ポイン
ト数Pmaxに応じて、その最大有効ポイント数Pma
xが大きいほど大きくなるように設定すると、ライン代
表しきい値P0は、各ライン上の領域の最大有効ポイン
ト数Pmaxに応じて変化する。また、図35に示す如
く、ライン代表しきい値P0は、各ライン上の領域の有
効ポイント数の総和Psumに応じて、その総和Psu
mが大きいほど大きくなるように設定すれば、ライン代
表しきい値P0が、各ライン上の領域の有効ポイント数
の総和Psumに応じて変化する。従って、いずれの場
合でも、距離演算の精度を高めることができる。
That is, as shown in FIG. 34, the line representative threshold value P0 is determined by the maximum effective point number Pmax according to the maximum effective point number Pmax of the area on each line.
When it is set to be larger as x is larger, the line representative threshold value P0 changes according to the maximum number of effective points Pmax of the area on each line. Further, as shown in FIG. 35, the line representative threshold value P0 is calculated based on the total sum Psum of the effective points of the area on each line.
If it is set to increase as m increases, the line representative threshold value P0 changes according to the total sum Psum of the number of effective points in the area on each line. Therefore, in any case, the accuracy of the distance calculation can be improved.

【0098】また、図36に示す如く、ライン代表しき
い値は、各ライン上の領域での距離データの検出頻度に
基づいて設定すると、距離データの検出頻度が高いとき
には、ライン代表しきい値を大きく設定して、距離演算
の精度を高めることができる。
Further, as shown in FIG. 36, when the line representative threshold is set based on the distance data detection frequency in the area on each line, the line representative threshold is set when the distance data detection frequency is high. Can be set large to improve the accuracy of the distance calculation.

【0099】図38に示すように、上記ライン距離演算
部26において、各ライン上の領域の最大有効ポイント
数となる距離Dmaxを基準として、該距離Dmaxか
ら所定距離d0以上外れた距離データを距離演算に用い
ないように構成すれば、各ライン上の領域の最大有効ポ
イント数となる距離Dmaxから所定距離d0の範囲内
にある距離データのみで距離演算が行われ、高精度の距
離演算を行うことができる。
As shown in FIG. 38, the line distance calculator 26 calculates distance data deviated from the distance Dmax by a predetermined distance d0 or more with respect to the distance Dmax which is the maximum number of effective points of the area on each line. If it is configured not to be used in the calculation, the distance calculation is performed only with the distance data within the range of the predetermined distance d0 from the distance Dmax that is the maximum number of effective points of the area on each line, and the distance calculation with high accuracy is performed. be able to.

【0100】図39に示すように、上記物体認識部20
は、ライン距離演算部26により演算されたライン毎の
距離のデータ数が所定値以上にあるときのみに、該ライ
ン毎の距離に対応する物体Oを新規物体Oとして登録す
るようにすると、新規物体Oの登録に際し制限を設ける
ことができ、物体O以外のノイズ等が誤って物体Oとし
て登録されるのを抑制することができる。
As shown in FIG. 39, the object recognition unit 20
When the object O corresponding to the distance of each line is registered as a new object O only when the number of distance data per line calculated by the line distance calculator 26 is equal to or greater than a predetermined value, a new It is possible to provide a restriction when registering the object O, and it is possible to prevent noise or the like other than the object O from being erroneously registered as the object O.

【0101】そのとき、上記ライン毎の距離データ数と
比較する所定値は、遠距離側ほど小さくなるように設定
すれば、遠距離側の物体Oほど登録し易くすることがで
きる。
At this time, if the predetermined value to be compared with the number of distance data for each line is set to be smaller on the far side, registration can be more easily performed on the object O on the far side.

【0102】また、上記測距回路16の測距特性は、遠
距離側ラインを基準として、他のラインを補完するよう
に構成されているので、検知センサ10後方のドアミラ
ー6のミラー等の測距精度への影響を避ける目的で、ラ
イン毎の測距特性を所定ラインを基準にして他のライン
を補完するとき、遠距離側の距離データの有効性を高め
つつ、全てのラインの検出精度を良好に補正することが
できる。
The distance measuring characteristic of the distance measuring circuit 16 is configured so as to complement the other lines with reference to the long distance side line, so that the distance of the mirror of the door mirror 6 behind the detection sensor 10 can be measured. When the distance measurement characteristics for each line are complemented with other lines based on the specified line in order to avoid affecting the distance accuracy, the detection accuracy of all lines is improved while increasing the effectiveness of distance data on the long distance side. Can be satisfactorily corrected.

【0103】また、上記物体認識部20は、物体Oの認
識結果に基づいて警報等の信号を出力するように構成さ
れているので、認識物体Oを容易に知ることができる。
Since the object recognizing section 20 is configured to output a signal such as an alarm based on the recognition result of the object O, the recognized object O can be easily known.

【0104】さらに、この実施形態では、車両Cの後側
方の所定範囲内にある物体Oが検知センサ10により検
出されて物体Oとして登録され、その登録物体Oが車両
Cの車線変更の障害物と判定されて、その車両Cとの間
の距離xに関する情報が表示部31のセグメント34,
34,…の点灯表示により乗員に報知される。そして、
車速V及びハンドル舵角θから車両Cの走行路の曲率半
径Rが算出推定されるとともに、ハンドル舵角θ及びそ
の速度Vから車両Cがカーブした走行路を走行している
カーブ走行状態の有無が判定され、カーブ走行状態にあ
るときには、物体Oまでの距離の検出値xから物体Oと
車両C(自車)との相対速度vssが演算されて、この
相対速度vssに基づいて所定時間Δt経過後の物体O
の位置xpredictが推定される。この物体Oの推
定位置xpredictが車両Cから所定距離xmax
未満離れているときには、上記車両Cとの間の距離xに
関する情報が表示部31のセグメント34,34,…の
点灯表示により表示されるが、推定位置xpredic
tが車両Cから所定距離xmax以上離れているときに
は、上記物体Oの距離に関する情報の表示がキャンセル
される。このように車両Cがカーブ走行状態にあると
き、その後側方にある検出物体Oのうち所定時間Δt経
過後の推定位置xpredictが車両Cから所定距離
xmax以上離れたものについては、表示部31での表
示が行われないので、例えば図48に示すように、カー
ブした複数車線r,r,…のうちの内側車線rを車両C
が走行しているときには、その走行車線rのカーブ外側
に隣接する他の車線rの外側にあるガードレールGにつ
いては、上記推定位置xpredictが所定距離xm
ax以上離れた物体と判定され、そのガードレールGの
表示はキャンセルされる。このことで、上記ガードレー
ルGが物体(他車)として誤表示されるのを確実に防止
することができる。
Further, in this embodiment, an object O within a predetermined range on the rear side of the vehicle C is detected by the detection sensor 10 and registered as the object O, and the registered object O is obstructed by the lane change of the vehicle C. Is determined to be an object, and information on the distance x between the vehicle and the vehicle C is displayed on the segments 34,
An occupant is notified by the lighting display of 34,. And
The radius of curvature R of the traveling path of the vehicle C is calculated and estimated from the vehicle speed V and the steering angle θ, and the presence or absence of a curve traveling state in which the vehicle C is traveling on a curved traveling path from the steering angle θ and the speed V thereof. When the vehicle is traveling on a curve, the relative speed vss between the object O and the vehicle C (own vehicle) is calculated from the detected value x of the distance to the object O, and a predetermined time Δt is calculated based on the relative speed vss. Object O after passing
Is estimated. The estimated position xpredict of the object O is a predetermined distance xmax from the vehicle C.
When the vehicle is separated from the vehicle C, information on the distance x from the vehicle C is displayed by lighting the segments 34, 34,... Of the display unit 31, but the estimated position xpredic
When t is more than the predetermined distance xmax from the vehicle C, the display of the information on the distance of the object O is canceled. As described above, when the vehicle C is in a curve running state, among the detected objects O located behind the vehicle C, the estimated position xpredict after a lapse of the predetermined time Δt is separated from the vehicle C by a predetermined distance xmax or more is displayed on the display unit 31. Are not displayed, for example, as shown in FIG. 48, the inside lane r of the curved lanes r, r,.
Is traveling, the estimated position xpredict of the guardrail G outside the other lane r adjacent to the outside of the curve of the traveling lane r is equal to the predetermined distance xm.
It is determined that the object is more than ax away, and the display of the guardrail G is canceled. Thus, it is possible to reliably prevent the guardrail G from being erroneously displayed as an object (other vehicle).

【0105】しかも、上記所定時間Δt経過後の推定位
置xpredictが車両Cから所定距離xmax以上
離れた物体Oであっても、それが車両Cに対し接近状態
にあると判定されたものについては、上記表示部31で
の表示のキャンセルが中止され、通常どおり、セグメン
ト34,34,…の点灯による物体Oの距離に関する情
報の表示が行われる。このため、ガードレールGを他の
物体(他車)とさらに正確に識別して、その誤表示のよ
り一層確実な防止を図ることができる。
Further, even if the estimated position xpredict after the lapse of the predetermined time Δt is the object O which is more than the predetermined distance xmax from the vehicle C, it is determined that the object O is approaching the vehicle C. The cancellation of the display on the display unit 31 is stopped, and information on the distance of the object O is displayed by lighting the segments 34, 34,... As usual. For this reason, the guardrail G can be more accurately distinguished from other objects (other vehicles), and the erroneous display thereof can be more reliably prevented.

【0106】(他の実施形態)図47及び図48は、上
記のように車両Cのカーブ走行状態でのガードレールG
の誤表示を防止するための他の実施形態を示したもので
ある(尚、以上の実施形態の各図と同じ部分については
同じ符号を付してその詳細な説明は省略する)。
(Other Embodiments) FIGS. 47 and 48 show the guardrail G when the vehicle C is running on a curve as described above.
This shows another embodiment for preventing the erroneous display (the same reference numerals are given to the same portions as those in the respective drawings of the above embodiments, and the detailed description thereof will be omitted).

【0107】すなわち、この実施形態は、上記図40に
示す処理動作の一部を変えたものであり、図47に示す
処理動作のうちステップY12〜Y16はそれぞれ図4
0のステップW12〜W16と同じである。そして、ス
テップY17では、それまでの物体検出領域を車両C後
方に距離Lを持った物体検出領域に変更する。この変更
された物体検出領域は、図48に示すように、例えば車
両Cの後方の物体検出領域がガードレールGと交差する
までの範囲を示し、走行路の曲率半径Rと隣接車線rま
での距離αとから、 L={(R+α)2−R21/2 により算出される。尚、これはガードレールGが走行路
のカーブの外側にある場合であり、内側にある場合に
は、L={(R−α)2−R2}1/2により求められ
る。
That is, in this embodiment, a part of the processing operation shown in FIG. 40 is changed, and steps Y12 to Y16 in the processing operation shown in FIG.
0 is the same as steps W12 to W16. Then, in step Y17, the object detection area up to that point is changed to an object detection area having a distance L behind the vehicle C. The changed object detection area indicates, for example, a range until the object detection area behind the vehicle C intersects with the guardrail G, as shown in FIG. 48, the radius of curvature R of the traveling road and the distance to the adjacent lane r. From α, it is calculated by L = {(R + α) 2 −R 2 } 1/2 . Note that this is the case where the guardrail G is outside the curve of the traveling road, and when it is inside, it is determined by L = {(R-α) 2-R2} 1/2.

【0108】上記ステップY17の後のステップY18
では、上記変更された物体検出領域において所定距離L
j以上の範囲に物体Oがあるかどうかを判定する。この
所定距離Ljは、図48に示すように、検出領域の幅
(レンジカット範囲間の幅)をY(但し、Y≠α)とし
たとき、 Lj={(R+α)2−(R+Y)21/2 として求められる。そして、このステップY18の判定
がNOのときには、そのまま表示処理動作(図44参
照)に移行するが、YESのときには、ステップY19
において表示部31での物体Oの距離の表示をキャンセ
ルした後に終了する。
Step Y18 after step Y17
Then, in the changed object detection area, the predetermined distance L
It is determined whether or not the object O exists in a range equal to or greater than j. As shown in FIG. 48, when the width of the detection area (the width between the range cut ranges) is Y (where Y ≠ α), as shown in FIG. 48, Lj = {(R + α) 2- (R + Y) 2し て Required as 1/2 . If the determination in step Y18 is NO, the process directly proceeds to the display processing operation (see FIG. 44), but if YES, step Y19.
Ends after canceling the display of the distance of the object O on the display unit 31 in.

【0109】この実施形態の場合、ステップY12〜Y
17により、検知センサ10及び舵角センサ14の検出
結果に基づき、検出物体の中から情報提供対象を抽出す
る抽出手段46が構成されている。また、表示制御手段
41は、この抽出手段46により抽出された情報提供対
象の車両Cに対する位置に関する情報を表示部31に表
示するものとされている。そして、上記抽出手段46
は、舵角センサ14の検出結果に基づいて車両Cが走行
している走行路の曲率Rを推定する曲率推定部47(ス
テップY12,Y13)と、この曲率推定部47により
推定された走行路の推定曲率Rに基づき、走行路内の範
囲に存在する物体を上記情報提供対象として抽出する物
体抽出部48(ステップY17,Y18)とを有する。
また、この抽出手段46は、車両Cの走行位置に応じて
物体抽出部48の抽出内容を変更するように構成されて
いる。
In the case of this embodiment, steps Y12 to Y
An extraction means 46 is configured by 17 to extract an information provision target from the detected objects based on the detection results of the detection sensor 10 and the steering angle sensor 14. The display control means 41 displays the information on the position of the information providing target with respect to the vehicle C extracted by the extraction means 46 on the display unit 31. Then, the extraction means 46
Are a curvature estimating unit 47 (steps Y12 and Y13) for estimating a curvature R of a traveling path on which the vehicle C is traveling based on the detection result of the steering angle sensor 14, and a traveling path estimated by the curvature estimating unit 47. And an object extracting unit 48 (steps Y17 and Y18) for extracting an object existing in the range of the traveling path as the information providing target based on the estimated curvature R of
Further, the extracting means 46 is configured to change the extraction content of the object extracting section 48 according to the traveling position of the vehicle C.

【0110】したがって、この実施形態においては、車
両Cがカーブ走行状態になると、物体検出領域が変更さ
れ、この変更された物体検出領域のうちで所定距離Lj
未満の範囲にある物体については、その距離の情報が表
示部31でセグメント34,34,…の点灯により表示
されるが、所定距離Lj以上の範囲にある物体は、表示
部31での表示がキャンセルされて距離の表示は行われ
ない。こうして、車両Cの走行路の曲率Rから走行路の
範囲が求められて、その走行路の範囲内にある物体のみ
が情報提供対象として抽出されて表示されるので、図4
8に示す如く、車両Cのカーブ走行状態で他の車線rの
カーブ外側にあるガードレールGは上記走行路の範囲外
の物体となり、そのガードレールGが物体(他車)とし
て誤表示されるのを確実に防止することができる。
Therefore, in this embodiment, when the vehicle C enters a curve running state, the object detection area is changed, and a predetermined distance Lj is set in the changed object detection area.
Are displayed on the display unit 31 by lighting of the segments 34, 34,..., While the objects in the range of the predetermined distance Lj or more are displayed on the display unit 31. Cancellation is not performed and the distance is not displayed. In this manner, the range of the travel path is obtained from the curvature R of the travel path of the vehicle C, and only the objects within the range of the travel path are extracted and displayed as information providing targets.
As shown in FIG. 8, when the vehicle C is traveling on a curve, the guardrail G outside the curve of the other lane r becomes an object outside the range of the travel path, and the guardrail G is erroneously displayed as an object (other vehicle). It can be reliably prevented.

【0111】また、上記車両Cの走行位置に応じて物体
抽出部48の抽出内容が変更されるので、例えば車両C
のカーブ走行の開始時と途中とでガードレールGまでの
距離が変化しても、それに応じて走行路の範囲を変え
て、ガードレールGの誤表示を安定して防止することが
できる。
Further, since the contents of the extraction by the object extracting section 48 are changed according to the traveling position of the vehicle C, for example,
Even if the distance to the guardrail G changes between the start and the middle of the curve running of the curve, the range of the running path is changed accordingly, and erroneous display of the guardrail G can be stably prevented.

【0112】尚、上記実施形態では、検知センサ10と
して多段ライン型CCDを用いているが、本発明はその
他、レーザレーダやミリ波レーダ、超音波センサを用い
て車両Cの後側方の物体Oを検出するようにしてもよ
く、同様の作用効果が得られる。また、検知センサ10
はドアミラー6内に限らず、その他、例えば車室内のリ
アウィンドガラス近くに設置することもできる。
In the above embodiment, a multi-stage line type CCD is used as the detection sensor 10. However, the present invention is also applicable to a laser radar, a millimeter-wave radar, and an ultrasonic sensor. O may be detected, and a similar effect can be obtained. In addition, the detection sensor 10
Is not limited to the inside of the door mirror 6, and may be installed, for example, near the rear window glass in the vehicle interior.

【0113】また、上記警報対象となった最近接位置の
登録物体Oの距離xについての情報は、表示部31にセ
グメント34,34,…の点灯により表示するものに限
らず、その他の表示形態により表示するようにしてもよ
く、さらには表示部31での表示のみでなくて音声等に
より車両Cの乗員に報知するようにしてもよい。
The information on the distance x of the registered object O at the closest position which has become the alarm target is not limited to information displayed on the display unit 31 by lighting the segments 34, 34,. May be displayed, and furthermore, not only the display on the display unit 31 but also an occupant of the vehicle C may be notified by voice or the like.

【0114】[0114]

【発明の効果】以上説明した如く、請求項1の発明で
は、車両の後側方の物体を検出して、その物体との距離
を表示する場合において、検出された物体の車両との相
対速度を演算し、この相対速度の演算結果に基づき、上
記検出物体の所定時間経過後の位置を推定し、この物体
の推定位置が車両から所定距離以上離れているときに
は、その物体の距離に関する情報の表示をキャンセルす
るようにした。また、請求項2の発明では、車両がカー
ブ走行状態にあるときに、上記物体の距離に関する情報
の表示をキャンセルするようにした。さらに、請求項4
の発明では、車両の後側方の物体を検出し、その検出物
体の中から車両の舵角に関する値に基づいて情報提供対
象を抽出してその位置を表示する場合に、上記車両の舵
角に関する値に基づいて車両の走行路の曲率を推定し、
この走行路の推定曲率に基づき、走行路内の範囲に存在
する物体を情報提供対象として抽出するようにした。従
って、これらの発明によると、車両のカーブ走行状態で
他の車線のカーブ外側にあるガードレールが物体(他
車)として誤表示されるのを確実に防止でき、物体の表
示を適正化を図ることができる。
As described above, according to the first aspect of the present invention, when an object on the rear side of the vehicle is detected and the distance to the object is displayed, the relative speed of the detected object to the vehicle is determined. Is calculated, and based on the calculation result of the relative speed, the position of the detected object after a predetermined time elapses is estimated. When the estimated position of the object is more than a predetermined distance from the vehicle, information on the distance of the object is obtained. Display was canceled. Further, according to the second aspect of the present invention, the display of the information on the distance to the object is canceled when the vehicle is in a curve running state. Claim 4
According to the invention, when detecting an object on the rear side of the vehicle, extracting an information providing target based on a value related to the steering angle of the vehicle from the detected objects and displaying the position, the steering angle of the vehicle is determined. Estimating the curvature of the vehicle's travel path based on the value of
Based on the estimated curvature of the travel path, objects existing in a range within the travel path are extracted as information providing targets. Therefore, according to these inventions, it is possible to reliably prevent a guardrail on the outside of a curve in another lane from being erroneously displayed as an object (other vehicle) in a curve running state of the vehicle, and to optimize the display of the object. Can be.

【0115】請求項3の発明によると、上記請求項1の
発明において、検出された物体が車両に対し接近状態又
は離隔状態にあるか否かを判定して、車両へ接近してい
ると判定された物体については、物体の距離に関する情
報の表示のキャンセルを中止して情報の表示を行うよう
にしたことにより、ガードレールを他の物体(他車)と
さらに正確に識別して、その誤表示のより一層確実な防
止を図ることができる。
According to the third aspect of the present invention, in the first aspect of the present invention, it is determined whether the detected object is in an approaching state or a separated state with respect to the vehicle, and it is determined that the detected object is approaching the vehicle. For the object that was displayed, the cancellation of the display of information related to the distance of the object was stopped and the information was displayed, so that the guardrail could be more accurately identified from other objects (other vehicles) and displayed incorrectly. Can be more reliably prevented.

【0116】請求項5の発明によると、請求項4の発明
において、車両の走行位置に応じて情報提供対象の抽出
内容を変更するようにしたことにより、例えば車両のカ
ーブ走行の開始時と途中とでガードレールまでの距離が
変化しても、それに応じて走行路の範囲を変えることが
でき、ガードレールの誤表示を安定して防止することが
できる。
According to the fifth aspect of the present invention, in the fourth aspect of the present invention, the content of the information providing object to be extracted is changed according to the traveling position of the vehicle. Even if the distance to the guardrail changes, the range of the traveling path can be changed accordingly, and erroneous display of the guardrail can be stably prevented.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の構成図である。FIG. 1 is a configuration diagram of the present invention.

【図2】本発明の実施形態に係る車両用表示装置の各構
成部品の車両での位置を示す斜視図である。
FIG. 2 is a perspective view showing positions of components of the display device for a vehicle according to the embodiment of the present invention in a vehicle.

【図3】表示装置の概略構成を示すブロック図である。FIG. 3 is a block diagram illustrating a schematic configuration of a display device.

【図4】表示装置の詳細構成を示すブロック図である。FIG. 4 is a block diagram illustrating a detailed configuration of a display device.

【図5】検知センサにより物体を測距する概念を示す側
面図である。
FIG. 5 is a side view showing a concept of measuring a distance to an object by a detection sensor.

【図6】CCDチップにより捕らえた画像を示す図であ
る。
FIG. 6 is a diagram showing an image captured by a CCD chip.

【図7】CCDチップにより捕らえた画像の中のライン
をウィンドウ方向に分割して領域を区分する概念を示す
図である。
FIG. 7 is a diagram showing a concept of dividing a line in an image captured by a CCD chip in a window direction to divide an area.

【図8】上下のCCDチップにより得られた画像が同じ
ラインでずれて視差が生じる状態を示す説明図である。
FIG. 8 is an explanatory diagram showing a state in which images obtained by upper and lower CCD chips are shifted on the same line and parallax occurs.

【図9】上下のCCDチップにより物体までの距離を測
定する原理を示す図である。
FIG. 9 is a diagram showing a principle of measuring a distance to an object by upper and lower CCD chips.

【図10】CCDチップにより得られた画像におけるC
CDラインの測距方向を示す平面図である。
FIG. 10 shows C in an image obtained by a CCD chip.
It is a top view which shows the ranging direction of a CD line.

【図11】上下方向のレンジカット領域を示す側面図で
ある。
FIG. 11 is a side view showing a range cut area in a vertical direction.

【図12】水平方向のレンジカット領域を示す平面図で
ある。
FIG. 12 is a plan view showing a horizontal range cut area.

【図13】領域に隣接する8隣接領域の配置を示す図で
ある。
FIG. 13 is a diagram showing an arrangement of eight adjacent regions adjacent to the region.

【図14】8隣接点処理からライン毎の距離演算までの
具体例を示す図である。
FIG. 14 is a diagram showing a specific example from the processing of eight adjacent points to the calculation of the distance for each line.

【図15】8隣接点処理動作を示すフローチャート図で
ある。
FIG. 15 is a flowchart showing an eight adjacent point processing operation.

【図16】距離しきい値の設定のための第1例を示すフ
ローチャート図である。
FIG. 16 is a flowchart illustrating a first example for setting a distance threshold.

【図17】距離しきい値の設定のための第2例を示す図
16相当図である。
FIG. 17 is a diagram corresponding to FIG. 16, showing a second example for setting a distance threshold value.

【図18】基準距離値の設定例を示す図である。FIG. 18 is a diagram illustrating a setting example of a reference distance value.

【図19】距離しきい値の設定のための第3例を示す図
16相当図である。
FIG. 19 is a diagram corresponding to FIG. 16, showing a third example for setting a distance threshold value.

【図20】距離しきい値の設定のための第4例を示す図
16相当図である。
FIG. 20 is a diagram corresponding to FIG. 16 showing a fourth example for setting a distance threshold value.

【図21】距離差の平均値に応じて距離しきい値を設定
する例を示す図である。
FIG. 21 is a diagram illustrating an example in which a distance threshold is set according to an average value of distance differences.

【図22】各領域毎の有効ポイント数付与のための第1
例を示すフローチャート図である。
FIG. 22 is a first example for assigning the number of effective points for each area.
It is a flowchart figure which shows an example.

【図23】各領域毎の有効ポイント数付与のための第2
例を示す図22相当図である。
FIG. 23 shows a second example for assigning the number of effective points for each area.
FIG. 23 is a diagram corresponding to FIG. 22 showing an example.

【図24】各領域毎の有効ポイント数付与のための第3
例を示す図22相当図である。
FIG. 24 is a third diagram for assigning the number of effective points for each area.
FIG. 23 is a diagram corresponding to FIG. 22 showing an example.

【図25】各領域毎の有効ポイント数付与のための第4
例を示す図22相当図である。
FIG. 25 is a fourth diagram for giving the number of effective points for each area.
FIG. 23 is a diagram corresponding to FIG. 22 showing an example.

【図26】各領域毎の有効ポイント数付与の実行判断の
ための第1例を示すフローチャート図である。
FIG. 26 is a flowchart illustrating a first example for determining whether to assign an effective point to each area.

【図27】各領域毎の有効ポイント数付与の実行判断の
ための第2例を示す図26相当図である。
FIG. 27 is a diagram corresponding to FIG. 26, illustrating a second example for determining whether to assign an effective point number for each area.

【図28】ライン毎の距離演算処理動作を示すフローチ
ャート図である。
FIG. 28 is a flowchart illustrating a distance calculation processing operation for each line.

【図29】ライン代表しきい値の設定のための第1例を
示すフローチャート図である。
FIG. 29 is a flowchart illustrating a first example for setting a line representative threshold.

【図30】ライン代表しきい値の設定のための第2例を
示す特性図である。
FIG. 30 is a characteristic diagram showing a second example for setting a line representative threshold.

【図31】ライン代表しきい値の設定のための第3例を
示す特性図である。
FIG. 31 is a characteristic diagram showing a third example for setting a line representative threshold value.

【図32】ライン代表しきい値の設定のための第4例を
示す特性図である。
FIG. 32 is a characteristic diagram showing a fourth example for setting a line representative threshold value.

【図33】ライン代表しきい値の設定のための第4例に
おける検出エリアを示す平面図である。
FIG. 33 is a plan view showing a detection area in a fourth example for setting a line representative threshold value.

【図34】ライン代表しきい値の設定のための第5例を
示すフローチャート図である。
FIG. 34 is a flowchart illustrating a fifth example for setting a line representative threshold value.

【図35】ライン代表しきい値の設定のための第6例を
示す図34相当図である。
FIG. 35 is a diagram corresponding to FIG. 34, illustrating a sixth example for setting a line representative threshold value.

【図36】ライン代表しきい値の設定のための第7例を
示す図34相当図である。
FIG. 36 is a diagram corresponding to FIG. 34, illustrating a seventh example for setting a line representative threshold value.

【図37】ライン代表しきい値の設定のための第7例に
おけるデータ個数の演算例を示すフローチャート図であ
る。
FIG. 37 is a flowchart illustrating an example of calculating the number of data in a seventh example for setting a line representative threshold value.

【図38】ライン毎の距離演算処理動作の他の実施形態
を示す図28相当図である。
FIG. 38 is a diagram corresponding to FIG. 28, illustrating another embodiment of the distance calculation processing operation for each line.

【図39】物体の認識処理動作の前半部を示すフローチ
ャート図である。
FIG. 39 is a flowchart showing the first half of the object recognition processing operation.

【図40】物体の認識処理動作の後半部を示すフローチ
ャート図である。
FIG. 40 is a flowchart showing the latter half of the object recognition processing operation.

【図41】視差に応じた距離補正のための特性を示す特
性図である。
FIG. 41 is a characteristic diagram illustrating characteristics for distance correction according to parallax.

【図42】検出率に応じて昼夜判定するための説明図で
ある。
FIG. 42 is an explanatory diagram for determining day and night according to a detection rate.

【図43】表示部での表示状態を示す図である。FIG. 43 is a diagram showing a display state on the display unit.

【図44】表示処理動作を示すフローチャート図であ
る。
FIG. 44 is a flowchart showing a display processing operation.

【図45】表示処理動作で用いる表示輝度マップの特性
を示す図である。
FIG. 45 is a diagram illustrating characteristics of a display luminance map used in the display processing operation.

【図46】表示処理動作で用いるセグメント点灯個数マ
ップの説明図である。
FIG. 46 is an explanatory diagram of a segment lighting number map used in the display processing operation.

【図47】物体の認識処理動作の他の実施形態を示すフ
ローチャート図である。
FIG. 47 is a flowchart showing another embodiment of the object recognition processing operation.

【図48】検出領域の概念を示す図である。FIG. 48 is a diagram showing the concept of a detection area.

【図49】車両のカーブ走行時に物体として検出される
ガードレールの距離の変化を示す図である。
FIG. 49 is a diagram illustrating a change in distance of a guardrail detected as an object when the vehicle travels on a curve.

【符号の説明】[Explanation of symbols]

C 車両 6 ドアミラー 10 後側方検知センサ(物体検出手段) 11 CCDチップ(多段ライン型CCD) 15 コントローラ 16 測距回路 20 物体認識部 21 物体識別部 25 8隣接点処理部 26 ライン距離演算部 31 表示部(表示手段) 40 相対速度演算手段 41 表示制御手段 42 位置推定手段 43 表示キャンセル手段 44 カーブ検出手段 45 接離判定手段 46 抽出手段 47 曲率推定部 48 物体抽出部 E,E(i,j) 領域 R1〜R8 隣接領域 d(i,j) 測定距離 dx 隣接領域との距離差 d0 しきい値 P(i,j) 有効ポイント数 P0 ライン代表しきい値 l(i,j) ライン代表距離 A1〜A4 検出エリア R 走行路曲率半径 r 車線(走行路) G ガードレール O 物体 O′ 物体像 C vehicle 6 door mirror 10 rear side detection sensor (object detection means) 11 CCD chip (multi-stage line type CCD) 15 controller 16 distance measuring circuit 20 object recognition unit 21 object identification unit 25 8 adjacent point processing unit 26 line distance calculation unit 31 Display unit (display unit) 40 Relative speed calculation unit 41 Display control unit 42 Position estimation unit 43 Display cancellation unit 44 Curve detection unit 45 Contact / separation determination unit 46 Extraction unit 47 Curvature estimation unit 48 Object extraction unit E, E (i, j) ) Regions R1 to R8 Adjacent region d (i, j) Measurement distance dx Distance difference from adjacent region d0 Threshold P (i, j) Number of effective points P0 Line representative threshold l (i, j) Line representative distance A1 to A4 Detection area R Curvature radius of travel road r Lane (travel road) G Guardrail O Object O 'Object image

フロントページの続き (72)発明者 上村 裕樹 広島県安芸郡府中町新地3番1号 マツダ 株式会社内 (72)発明者 中野 峰司 広島県安芸郡府中町新地3番1号 ナルデ ック株式会社内 Fターム(参考) 5H180 AA01 CC04 LL02 LL08 LL15 5J070 AC01 AC02 AC06 AK22 AK40 BG01 Continuing from the front page (72) Inventor Hiroki Uemura 3-1 Shinchi, Fuchu-cho, Aki-gun, Hiroshima Prefecture Inside Mazda Co., Ltd. (72) Minegumi Nakano 3-1 Shinchi, Fuchu-cho, Aki-gun, Hiroshima NALDEC Co., Ltd. F term (reference) 5H180 AA01 CC04 LL02 LL08 LL15 5J070 AC01 AC02 AC06 AK22 AK40 BG01

Claims (5)

【特許請求の範囲】[Claims] 【請求項1】 車両の後側方の物体を検出する物体検出
手段と、 上記物体検出手段により検出された物体の車両との相対
速度を演算する相対速度演算手段と、 上記相対速度演算手段による演算結果に基づき、上記検
出された物体の車両との距離に関する情報を表示手段に
表示する表示制御手段と、 上記相対速度演算手段による演算結果に基づき、上記検
出された物体の所定時間経過後の位置を推定する位置推
定手段と、 上記位置推定手段により推定された物体の推定位置が車
両から所定距離以上離れているときには、上記表示制御
手段による物体の距離に関する情報の表示をキャンセル
する表示キャンセル手段とを備えたことを特徴とする車
両の表示装置。
1. An object detecting means for detecting an object on a rear side of a vehicle, a relative speed calculating means for calculating a relative speed of the object detected by the object detecting means with respect to the vehicle, and a relative speed calculating means. Display control means for displaying on the display means information on the distance of the detected object to the vehicle based on the calculation result; and, based on the calculation result by the relative speed calculation means, after a predetermined time of the detected object has elapsed. Position estimating means for estimating a position, and display canceling means for canceling display of information on the distance of the object by the display control means when the estimated position of the object estimated by the position estimating means is more than a predetermined distance from the vehicle. A display device for a vehicle, comprising:
【請求項2】 請求項1の車両の表示装置において、 車両がカーブ走行状態にあることを検出するカーブ検出
手段を備え、 表示キャンセル手段は、上記カーブ検出手段によるカー
ブ走行状態の検出時に表示制御手段による物体の距離に
関する情報の表示をキャンセルするように構成されてい
ることを特徴とする車両の表示装置。
2. The display device for a vehicle according to claim 1, further comprising a curve detecting means for detecting that the vehicle is in a curve running state, wherein the display canceling means controls the display when the curve detecting means detects the curve running state. A display device for a vehicle, wherein the display device is configured to cancel the display of information on a distance to an object by the means.
【請求項3】 請求項1の車両の表示装置において、 物体検出手段により検出された物体が車両に対し接近状
態又は離隔状態にあるか否かを判定する接離判定手段を
備え、 表示キャンセル手段は、上記接離判定手段により車両へ
接近していると判定された物体については、表示制御手
段による物体の距離に関する情報の表示のキャンセルを
中止するように構成されていることを特徴とする車両の
表示装置。
3. The display device for a vehicle according to claim 1, further comprising: a contact / separation determination unit configured to determine whether an object detected by the object detection unit is in an approaching state or a separation state with respect to the vehicle, and a display canceling unit. Is configured to stop canceling the display of information on the distance of the object by the display control means for the object determined to be approaching the vehicle by the approach / separation determination means. Display device.
【請求項4】 車両の後側方の物体を検出する物体検出
手段と、 車両の舵角に関する値を検出する舵角検出手段と、 上記物体検出手段及び舵角検出手段の検出結果に基づ
き、上記検出された物体の中から情報提供対象を抽出す
る抽出手段と、 上記抽出手段により抽出された情報提供対象の車両に対
する位置に関する情報を表示手段に表示する表示制御手
段とを備え、 上記抽出手段は、上記舵角検出手段の検出結果に基づい
て、車両が走行している走行路の曲率を推定する曲率推
定部と、 上記曲率推定部により推定された走行路の推定曲率に基
づき、走行路内の範囲に存在する物体を上記情報提供対
象として抽出する物体抽出部とを有することを特徴とす
る車両の表示装置。
4. An object detecting means for detecting an object on the rear side of the vehicle, a steering angle detecting means for detecting a value relating to a steering angle of the vehicle, and a detection result of the object detecting means and the steering angle detecting means. Extracting means for extracting an information providing target from the detected objects; and display control means for displaying, on a display means, information on a position of the information providing target with respect to the vehicle extracted by the extracting means, A curvature estimating section for estimating a curvature of a traveling path on which the vehicle is traveling based on a detection result of the steering angle detecting means; and a traveling path based on an estimated curvature of the traveling path estimated by the curvature estimating section. An object extraction unit for extracting an object existing in a range as the information providing target.
【請求項5】 請求項4の車両の表示装置において、 抽出手段は、車両の走行位置に応じて物体抽出部の抽出
内容を変更するように構成されていることを特徴とする
車両の表示装置。
5. The vehicle display device according to claim 4, wherein the extraction means is configured to change the extraction content of the object extraction unit according to the traveling position of the vehicle. .
JP11019580A 1999-01-28 1999-01-28 Display device of vehicle Pending JP2000214256A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP11019580A JP2000214256A (en) 1999-01-28 1999-01-28 Display device of vehicle

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP11019580A JP2000214256A (en) 1999-01-28 1999-01-28 Display device of vehicle

Publications (1)

Publication Number Publication Date
JP2000214256A true JP2000214256A (en) 2000-08-04

Family

ID=12003219

Family Applications (1)

Application Number Title Priority Date Filing Date
JP11019580A Pending JP2000214256A (en) 1999-01-28 1999-01-28 Display device of vehicle

Country Status (1)

Country Link
JP (1) JP2000214256A (en)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006514382A (en) * 2003-08-18 2006-04-27 フィコ ミロールス,エセ ア System and method for monitoring the external environment of a vehicle
WO2012147187A1 (en) * 2011-04-27 2012-11-01 トヨタ自動車株式会社 Periphery vehicle detection device
JP2013253923A (en) * 2012-06-08 2013-12-19 Denso Corp Vehicle determination device and program
JP2014002012A (en) * 2012-06-18 2014-01-09 Denso Corp Radar device and program
US20140169630A1 (en) * 2011-08-02 2014-06-19 Nissan Motor Co., Ltd. Driving assistance apparatus and driving assistance method
EP2741256A4 (en) * 2011-08-02 2015-06-17 Nissan Motor Moving body detection device and moving body detection method
US9589470B2 (en) 2012-09-18 2017-03-07 Denso Corporation Method and apparatus for detecting vehicle running in blind spot, and method and apparatus for giving warning in changing cruising lane
US10397544B2 (en) 2010-08-19 2019-08-27 Nissan Motor Co., Ltd. Three-dimensional object detection device and three-dimensional object detection method
JP2020034354A (en) * 2018-08-28 2020-03-05 ヤンマー株式会社 Obstacle detection system
KR20210038633A (en) * 2018-08-30 2021-04-07 발레오 컴포트 앤드 드라이빙 어시스턴스 Conditional availability of vehicle mixed reality

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6047739A (en) * 1983-08-25 1985-03-15 Fujitsu Ten Ltd Apparatus for watching and indicating obstacle in back and side area of car
JPH04201641A (en) * 1990-11-30 1992-07-22 Mitsubishi Automob Eng Co Ltd Between-vehicle distance detecting alarm device
JPH05157831A (en) * 1991-12-10 1993-06-25 Kansei Corp Inter-vehicle distance measuring radar
JPH05180933A (en) * 1991-12-27 1993-07-23 Honda Motor Co Ltd Method for estimating position of concerning obstacle from vehicle
JPH05205198A (en) * 1992-01-29 1993-08-13 Mazda Motor Corp Obstacle detection device for vehicle
JPH07105496A (en) * 1993-10-01 1995-04-21 Hino Motors Ltd Backward picture display device
JPH07294634A (en) * 1994-04-26 1995-11-10 Nippondenso Co Ltd Obstacle alarm device of vehicle
JPH08160132A (en) * 1994-12-09 1996-06-21 Nikon Corp Radar detecting device for vehicle
JPH0954900A (en) * 1995-08-17 1997-02-25 Mazda Motor Corp Distance between vehicles display device
JPH10503139A (en) * 1994-07-15 1998-03-24 デザイン テクノロジイ アンド イノヴェーション リミテッド Vehicle safety system
JPH10206151A (en) * 1997-01-23 1998-08-07 Naldec Kk Object recognizing device

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6047739A (en) * 1983-08-25 1985-03-15 Fujitsu Ten Ltd Apparatus for watching and indicating obstacle in back and side area of car
JPH04201641A (en) * 1990-11-30 1992-07-22 Mitsubishi Automob Eng Co Ltd Between-vehicle distance detecting alarm device
JPH05157831A (en) * 1991-12-10 1993-06-25 Kansei Corp Inter-vehicle distance measuring radar
JPH05180933A (en) * 1991-12-27 1993-07-23 Honda Motor Co Ltd Method for estimating position of concerning obstacle from vehicle
JPH05205198A (en) * 1992-01-29 1993-08-13 Mazda Motor Corp Obstacle detection device for vehicle
JPH07105496A (en) * 1993-10-01 1995-04-21 Hino Motors Ltd Backward picture display device
JPH07294634A (en) * 1994-04-26 1995-11-10 Nippondenso Co Ltd Obstacle alarm device of vehicle
JPH10503139A (en) * 1994-07-15 1998-03-24 デザイン テクノロジイ アンド イノヴェーション リミテッド Vehicle safety system
JPH08160132A (en) * 1994-12-09 1996-06-21 Nikon Corp Radar detecting device for vehicle
JPH0954900A (en) * 1995-08-17 1997-02-25 Mazda Motor Corp Distance between vehicles display device
JPH10206151A (en) * 1997-01-23 1998-08-07 Naldec Kk Object recognizing device

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006514382A (en) * 2003-08-18 2006-04-27 フィコ ミロールス,エセ ア System and method for monitoring the external environment of a vehicle
US10397544B2 (en) 2010-08-19 2019-08-27 Nissan Motor Co., Ltd. Three-dimensional object detection device and three-dimensional object detection method
WO2012147187A1 (en) * 2011-04-27 2012-11-01 トヨタ自動車株式会社 Periphery vehicle detection device
RU2576362C2 (en) * 2011-08-02 2016-02-27 Ниссан Мотор Ко., Лтд. Driving aid device and process
US20140169630A1 (en) * 2011-08-02 2014-06-19 Nissan Motor Co., Ltd. Driving assistance apparatus and driving assistance method
JPWO2013018537A1 (en) * 2011-08-02 2015-03-05 日産自動車株式会社 Driving support device and driving support method
EP2741256A4 (en) * 2011-08-02 2015-06-17 Nissan Motor Moving body detection device and moving body detection method
US9235767B2 (en) 2011-08-02 2016-01-12 Nissan Motor Co., Ltd. Detection region modification for driving assistance apparatus and driving assistance method
US9665781B2 (en) 2011-08-02 2017-05-30 Nissan Motor Co., Ltd. Moving body detection device and moving body detection method
JP2013253923A (en) * 2012-06-08 2013-12-19 Denso Corp Vehicle determination device and program
JP2014002012A (en) * 2012-06-18 2014-01-09 Denso Corp Radar device and program
US9589470B2 (en) 2012-09-18 2017-03-07 Denso Corporation Method and apparatus for detecting vehicle running in blind spot, and method and apparatus for giving warning in changing cruising lane
JP2020034354A (en) * 2018-08-28 2020-03-05 ヤンマー株式会社 Obstacle detection system
JP7181026B2 (en) 2018-08-28 2022-11-30 ヤンマーパワーテクノロジー株式会社 Obstacle detection system
KR20210038633A (en) * 2018-08-30 2021-04-07 발레오 컴포트 앤드 드라이빙 어시스턴스 Conditional availability of vehicle mixed reality
KR102504579B1 (en) 2018-08-30 2023-02-27 발레오 컴포트 앤드 드라이빙 어시스턴스 Conditional Availability of Vehicle Mixed Reality

Similar Documents

Publication Publication Date Title
JP5276637B2 (en) Lane estimation device
JP4420011B2 (en) Object detection device
US10384681B2 (en) Vehicle cruise control device and cruise control method
EP3179270A1 (en) Lane extension of lane-keeping system by ranging-sensor for automated vehicle
JP3964287B2 (en) Outside-of-vehicle monitoring device and travel control device equipped with this out-of-vehicle monitoring device
US8576055B2 (en) Collision avoidance assisting system for vehicle
US9047779B2 (en) Vehicle rear view monitoring device
JP3304687B2 (en) Vehicle lane recognition device, obstacle detection device, road departure notification device
JP2002096702A (en) Vehicle-to-vehicle distance estimation device
EP1469442B1 (en) Vehicle drive assist system
JP4265931B2 (en) Leading vehicle detection device
JP2007309799A (en) On-board distance measuring apparatus
JP2000214256A (en) Display device of vehicle
JP4721278B2 (en) Lane departure determination device, lane departure prevention device, and lane tracking support device
JP3440956B2 (en) Roadway detection device for vehicles
JPH08138036A (en) Preceding vehicle recognition device
KR20220086781A (en) Method and system for target detection of vehicle
KR101417409B1 (en) System and method for preventing accident in parking lot
JP2004082912A (en) Inter-vehicle distance measuring device
KR20130125644A (en) Lane keeping assist system capable of providing route using radar sensor and method thereof
JP4113628B2 (en) Vehicle display device
JP2010176592A (en) Driving support device for vehicle
JP2008249634A (en) Object detector
JP2000215397A (en) Obstacle alarm system for vehicle
JP2007240316A (en) On-board distance measuring device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20051124

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080311

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080512

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080715

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20081111