JPH08156723A - Vehicle obstruction detecting device - Google Patents

Vehicle obstruction detecting device

Info

Publication number
JPH08156723A
JPH08156723A JP6302292A JP30229294A JPH08156723A JP H08156723 A JPH08156723 A JP H08156723A JP 6302292 A JP6302292 A JP 6302292A JP 30229294 A JP30229294 A JP 30229294A JP H08156723 A JPH08156723 A JP H08156723A
Authority
JP
Japan
Prior art keywords
vehicle
obstacle
distance
object position
detected
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP6302292A
Other languages
Japanese (ja)
Inventor
Ryota Shirato
良太 白▲土▼
Yasushi Ueno
裕史 上野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nissan Motor Co Ltd
Original Assignee
Nissan Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nissan Motor Co Ltd filed Critical Nissan Motor Co Ltd
Priority to JP6302292A priority Critical patent/JPH08156723A/en
Publication of JPH08156723A publication Critical patent/JPH08156723A/en
Pending legal-status Critical Current

Links

Landscapes

  • Instructional Devices (AREA)
  • Image Processing (AREA)
  • Traffic Control Systems (AREA)
  • Measurement Of Optical Distance (AREA)
  • Navigation (AREA)
  • Radar Systems Or Details Thereof (AREA)
  • Optical Radar Systems And Details Thereof (AREA)

Abstract

PURPOSE: To enhance the accuracy of detection of an obstruction in the advancing direction of an automobile, and to prevent a road sign or the like having no risk of bumping, from being regarded as an obstruction. CONSTITUTION: A lane area and a position in front of a vehicle within the lane are detected in accordance with an image signal from a CCD camera, and a distance to an object in front of the automobile is measured by a laser beam (step S21). If data are obtained from both, it is judged that an ahead vehicle is present, and detected distances to both are compared with each other in the lane area, and an inter-vehicle distance is determined (step S22 to step S28). Then, a degree of approach is determined (step S29 to step S31).

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、車両用障害物検出装置
に関し、特に、障害物の検出精度を向上させるための技
術に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a vehicle obstacle detection device, and more particularly to a technique for improving the obstacle detection accuracy.

【0002】[0002]

【従来の技術】従来の車両用障害物検出装置としては、
例えば、特開平4−193641号公報等に開示された
ようなものがある。これは、自車両前方の状況を認識す
る手段として、前方走行風景の画像を処理する画像処理
装置と、画像処理装置とは別個の自車両前方に存在する
物体との距離、方位を検出する距離測定装置とを有し、
画像処理装置から得られる画像信号に基づいて自車両が
走行する車線の領域を認識し、距離測定装置が検出した
物体の車両水平方向の方位と距離のデータから、検出物
体が、画像信号に基づいて認識された自車両走行車線領
域内に存在するものか領域外に存在するものかを判定
し、領域内に存在していると判定された場合に、検出物
体を障害物と判断する。そして、自車両が検出した障害
物と接触する可能性があるか否かを判断し、接触する可
能性(接近度)が高いと判断した場合に運転者に対して
警報を発する構成である。
2. Description of the Related Art As a conventional vehicle obstacle detection device,
For example, there is one disclosed in Japanese Patent Laid-Open No. 4-193641. As a means for recognizing the situation in front of the own vehicle, this is a distance for detecting the distance and azimuth between an image processing device that processes an image of a forward traveling scene and an object existing in front of the own vehicle that is separate from the image processing device. With a measuring device,
The area of the lane in which the vehicle is traveling is recognized based on the image signal obtained from the image processing device, and the detected object is based on the image signal from the data of the vehicle horizontal direction and the distance of the object detected by the distance measuring device. It is determined whether the vehicle is within the recognized vehicle lane area or outside the area, and if it is determined that the vehicle is within the area, the detected object is determined as an obstacle. Then, it is determined whether or not the own vehicle may come into contact with the detected obstacle, and an alarm is issued to the driver when it is determined that the possibility (contact degree) of contact is high.

【0003】[0003]

【発明が解決しようとする課題】しかしながら、かかる
従来の車両用障害物検出装置では、物体の検出を距離測
定装置側だけで行う構成であるために、以下のような問
題点があった。即ち、レーザレーダのような距離測定装
置は、走行路の勾配の変化に対応するために、図12及び
図13に示すように車両1の垂直方向にも測距範囲Zを持
っている。従って、図12のように上り勾配が終わる付近
の走行路に近接した道路標識2や、図13のように歩道橋
に設置された道路標識3等も測距範囲Zに入ってしまう
ことがある。この場合、これらから得られた方位及び距
離データに基づいて、自車両の走行車線領域内と認識さ
れた場合には、接触可能性が低い前記道路標識2,3を
障害物と認識してしまう可能性がある。
However, the conventional vehicle obstacle detection device has the following problems because it is configured to detect an object only on the side of the distance measurement device. That is, a distance measuring device such as a laser radar has a distance measuring range Z in the vertical direction of the vehicle 1 as well, as shown in FIGS. Therefore, the road sign 2 close to the traveling path near the end of the uphill as shown in FIG. 12 and the road sign 3 installed on the pedestrian bridge as shown in FIG. 13 may enter the range Z. In this case, based on the azimuth and distance data obtained from them, if it is recognized that the vehicle is in the lane area of the vehicle, the road signs 2 and 3 with low contact probability are recognized as obstacles. there is a possibility.

【0004】本発明は、このような従来の問題点に着目
してなされたもので、距離測定装置側だけでなく、画像
処理装置側でも認識した自車線領域内に存在する物体の
位置検出を行い、両者の検出結果から障害物の存在を確
認することにより、障害物の検出精度を向上させた車両
用障害物検出装置を提供することを目的とする。
The present invention has been made in view of such a conventional problem, and detects the position of an object existing in the own lane area recognized not only by the distance measuring device side but also by the image processing device side. An object of the present invention is to provide an obstacle detection device for a vehicle in which the detection accuracy of the obstacle is improved by performing the operation and confirming the existence of the obstacle from the detection results of both.

【0005】[0005]

【課題を解決するための手段】このため、請求項1記載
の本発明による車両用障害物検出装置では、図1に示す
ように、自車両の進行方向の道路状況を撮像する撮像手
段Aと、該撮像手段Aからの画像信号に基づいて自車両
が走行する走行路領域を検出する走行路領域検出手段B
と、該走行路領域検出手段Bで検出された走行路領域内
における物体位置を前記撮像手段Aからの画像信号に基
づいて検出する物体位置検出手段Cと、前記画像信号と
は関係なく自車両と前記走行路領域内の物体との距離を
計測する距離測定手段Dと、前記物体位置検出手段Cか
ら物体位置検出出力が有り、且つ、前記距離測定手段D
から距離計測出力が有った時に走行路領域内に存在する
物体が障害物であると判定する障害物判定手段Eと、自
車両の車速を検出する自車速検出手段Fと、前記障害物
判定手段Eが障害物と判定した時に前記距離測定手段D
の計測値から演算される相対速度と前記自車速検出手段
Fの自車速とに基づいて算出される所定の車間距離と障
害物までの距離とを比較して障害物との接近度を判定す
る接近判定手段Gとを備えて構成した。
Therefore, in the vehicle obstacle detection device according to the present invention as set forth in claim 1, as shown in FIG. 1, an image pickup means A for picking up an image of the road condition in the traveling direction of the host vehicle is provided. , A traveling road area detecting means B for detecting a traveling road area on which the host vehicle travels based on an image signal from the imaging means A
And an object position detecting means C for detecting an object position in the traveling road area detected by the traveling road area detecting means B based on an image signal from the image pickup means A, and the own vehicle regardless of the image signal. And a distance measuring means D for measuring the distance between the object and the object in the traveling area, and an object position detection output from the object position detecting means C, and the distance measuring means D.
When there is a distance measurement output from the vehicle, an obstacle determining means E for determining that an object existing in the traveling road area is an obstacle, a vehicle speed detecting means F for detecting the vehicle speed of the vehicle, and the obstacle determination The distance measuring means D when the means E determines that it is an obstacle
The predetermined inter-vehicle distance calculated based on the relative speed calculated from the measured value of the vehicle speed and the vehicle speed of the vehicle speed detection means F is compared with the distance to the obstacle to determine the degree of approach to the obstacle. The approach determining means G is provided.

【0006】また、請求項2記載の発明では、障害物判
定手段Eは、前記物体位置検出手段Cと距離測定手段D
からそれぞれ複数の物体位置検出出力と距離計測出力が
得られた時に、自車両に最も近い順から互いの出力値を
比較し、両出力値が一致した時に当該出力値に対応する
物体を障害物と判定する構成とした。また、請求項3記
載の発明では、障害物判定手段Eは、前記物体位置検出
手段Cから得られた物体位置検出出力から算出される検
出物体までの距離と、前記距離測定手段Dから得られた
距離計測出力とが一致しない時には、自車両から距離の
遠い方の出力値に対応する物体を障害物と判定する構成
とした。
According to the second aspect of the invention, the obstacle determining means E comprises the object position detecting means C and the distance measuring means D.
When multiple object position detection outputs and distance measurement outputs are obtained from each, the output values are compared from the order closest to the own vehicle, and when both output values match, the object corresponding to the output value is set as an obstacle. It is configured to determine that. In the invention according to claim 3, the obstacle determining means E is obtained from the distance measuring means D and the distance to the detected object calculated from the object position detection output obtained from the object position detecting means C. When the distance measurement output does not match, the object corresponding to the output value farther from the vehicle is determined as an obstacle.

【0007】また、請求項4記載の発明では、前記障害
物判定手段Eが障害物と判定した物体が存在する場合、
前記物体位置検出手段C及び距離測定手段Dを前記物体
付近のみを検出するよう制御する構成とした。
Further, in the invention according to claim 4, when there is an object judged by the obstacle judging means E as an obstacle,
The object position detecting means C and the distance measuring means D are controlled to detect only the vicinity of the object.

【0008】[0008]

【作用】請求項1記載の発明の構成において、撮像手段
Aによって、自車両の進行方向の道路状況を撮像し、こ
の画像信号に基づいて走行路領域検出手段Bは、自車両
の走行路領域を検出する。また、前記画像信号に基づい
て物体位置検出手段Cが走行路領域内の物体位置(自車
両からの距離)を検出する。同時に、物体位置検出手段
Cとは関係なく、距離測定手段Dで自車両の走行路領域
内の物体までの距離と方位を検出する。障害物判定手段
Eは、物体位置検出手段Cと距離測定手段Dの両検出手
段から共に物体を認識した時には、存在する物体が自車
両の走行に障害となる障害物であると判定する。存在す
る物体が障害物と認識された場合は、接近判定手段は、
距離測定手段Dからの検出データから得られる相対速度
と自車速とから算出される所定の車間距離と実際に検出
された物体までの距離との比較によって障害物との接近
度を判断する。
According to the structure of the present invention, the image pickup means A images the road condition in the traveling direction of the own vehicle, and the traveling road area detecting means B makes the traveling road area of the own vehicle based on the image signal. To detect. Further, the object position detecting means C detects the object position (distance from the own vehicle) in the traveling road area based on the image signal. At the same time, regardless of the object position detecting means C, the distance measuring means D detects the distance and azimuth to the object in the traveling road region of the vehicle. When both the object position detecting means C and the distance measuring means D detect the object, the obstacle determining means E determines that the existing object is an obstacle that interferes with the traveling of the vehicle. When the existing object is recognized as an obstacle, the approach determination means
The degree of approach to the obstacle is determined by comparing a predetermined inter-vehicle distance calculated from the relative speed obtained from the detection data from the distance measuring means D and the own vehicle speed with the distance to the actually detected object.

【0009】このように、距離測定手段Dだけでなく、
撮像手段Aで撮像された画像からも物体位置検出を行う
ようにすれば、道路標識等は、画像処理側では走行路領
域内の物体として検出されないため、障害物と判定する
ことがなくなる。また、障害物判定手段Eの判定方法
は、具体的には、請求項2記載の発明のように、物体位
置検出手段Cと距離測定手段Dからの各データを、自車
両に最も近いデータから順次比較し、両者の検出結果が
一致した時に、その検出データに対応する物体を障害物
と判定する。
Thus, not only the distance measuring means D,
If the object position is detected also from the image captured by the image capturing unit A, the road sign or the like is not detected as an object in the traveling road area on the image processing side, and therefore is not determined as an obstacle. In addition, the determination method of the obstacle determination means E is, concretely, the data from the object position detection means C and the distance measurement means D from the data closest to the own vehicle, as in the invention of claim 2. The objects are sequentially compared, and when the two detection results match, the object corresponding to the detection data is determined to be an obstacle.

【0010】この場合、例えば、物体位置検出手段C及
び距離測定手段Dの検出及び測定能力を、障害物以外の
ものを検出することはあっも障害物があれば必ず検出で
きるように、物体有りの出力が出易い方向に設定するこ
とで、物体の検出データが一方だけの場合に物体が存在
しないと判断することができ、両検出データが一致した
時に障害物が存在すると判断することができ、これらの
判断の信頼性が向上する。また、両手段C,Dからの検
出データは有るが一致しない場合、自車両から遠い方の
データが信頼できると判断することができる。
In this case, for example, the object position detecting means C and the distance measuring means D can detect and measure the ability to detect something other than an obstacle. It is possible to determine that the object does not exist when the detection data of the object is only one, and to determine that the obstacle exists when both detection data match by setting the output direction of , The reliability of these judgments is improved. If the detection data from both means C and D are present but do not match, it can be determined that the data farther from the vehicle is reliable.

【0011】従って、請求項3記載の発明のように、物
体位置検出手段C及び距離測定手段Dの各検出データが
一致しない場合、自車両から距離の遠い方のデータに対
応する物体を障害物と推定させることで、障害物の有無
の判定までの処理速度を速くすることができる。また、
請求項4記載の発明によれば、一度障害物有りと判定し
た場合に、検出した障害物を追従することができる。
Therefore, when the detection data of the object position detecting means C and the distance measuring means D do not match as in the third aspect of the invention, the object corresponding to the data farther from the vehicle is an obstacle. It is possible to increase the processing speed up to the determination of the presence / absence of an obstacle. Also,
According to the fourth aspect of the present invention, the detected obstacle can be followed when it is once determined that there is an obstacle.

【0012】[0012]

【実施例】以下、本発明の実施例を図面に基づいて説明
する。図2は、本発明に係る車両用障害物検出装置の第
1実施例のシステム構成図である。図2において、本実
施例装置は、車両の進行方向、例えば車両前方の風景を
撮影する撮像手段としてのCCDカメラ11と、このCC
Dカメラ11から得られる画像信号に基づいて後述するよ
うな走行路領域である自車線領域の検出及び検出した自
車線領域内の物体の位置検出を行う走行路領域検出手段
及び物体位置検出手段の機能を備えた画像処理装置12
と、CCDカメラ11の撮像範囲に存在する物体と自車両
との距離、方位及び相対速度を測定するための距離測定
手段としてのレーザレーダ13と、自車両の速度を検出す
る自車速検出手段としての車速センサ14と、前記画像処
理装置12やレーザレーダ13を制御すると共に、画像処理
装置12、レーザレーダ13及び車速センサ14からの各検出
出力に基づいて障害物の有無及び接近度の各判定処理を
実行する障害物判定手段及び接近判定手段の機能を備え
たマイクロコンピュータ15と、マイクロコンピュータ15
からの出力により自車両の運転者に警報を発生する警報
装置16とを備えて構成されている。
Embodiments of the present invention will be described below with reference to the drawings. FIG. 2 is a system configuration diagram of the first embodiment of the vehicle obstacle detection device according to the present invention. In FIG. 2, the apparatus according to the present embodiment is provided with a CCD camera 11 as an image pickup means for photographing a traveling direction of a vehicle, for example, a scene in front of the vehicle, and the CC camera 11.
Based on an image signal obtained from the D camera 11, a traveling road area detecting means and an object position detecting means for detecting a own lane area which is a traveling road area and detecting a position of an object in the detected own lane area, which will be described later. Image processing device 12 with functions
A laser radar 13 as a distance measuring means for measuring the distance, azimuth and relative speed between an object existing in the imaging range of the CCD camera 11 and the vehicle, and a vehicle speed detecting means for detecting the speed of the vehicle. While controlling the vehicle speed sensor 14 and the image processing device 12 and the laser radar 13, based on the detection output from the image processing device 12, the laser radar 13 and the vehicle speed sensor 14, each determination of the presence or absence of the obstacle and the degree of approach A microcomputer 15 having the functions of an obstacle judging means and an approach judging means for executing processing, and a microcomputer 15
And an alarm device 16 for issuing an alarm to the driver of the own vehicle based on the output from the vehicle.

【0013】前記CCDカメラ11は、例えば、ルームミ
ラー付近の位置に自車両20の前方風景が撮影できるよう
に固定されており、図3に示すような撮像範囲Xを有
し、図5に示すような画像が得られる。図中、21は前方
車両、23は路面22に描かれたレーンマーカである。ま
た、前記レーザレーダ13は、例えば3方向にレーザビー
ムを発射するマルチビーム型でフロントグリル付近に設
置されており、3本のレーザビームにより図4に示すよ
うな測距範囲Yを有している。
The CCD camera 11 is fixed, for example, at a position near a rearview mirror so that the front scene of the vehicle 20 can be photographed, has an image pickup range X as shown in FIG. 3, and is shown in FIG. An image like this is obtained. In the figure, 21 is a forward vehicle, and 23 is a lane marker drawn on the road surface 22. The laser radar 13 is, for example, a multi-beam type that emits laser beams in three directions and is installed near the front grill, and has a range-finding range Y as shown in FIG. 4 by three laser beams. There is.

【0014】次に、前記画像処理装置12による自車線領
域の検出方法及び物体位置検出方法について説明する。
まず、自車線領域の検出方法としては、図5のように得
られた画像の画像データに基づいて、図6のように画面
の水平線より下の領域を図中点線で示すように複数、例
えば4つの水平領域a〜dに分割する。この場合、最も
下の領域aに存在するレーンマーカの画面上の位置はあ
まり変化しないので、両側のレーンマーカの存在が予測
できる位置に直線検出領域31,32を設定し、その中でレ
ーンマーカを直線に近似して検出する。水平領域aの1
つ上の水平領域bでは、下の水平領域aで直線近似され
たレーンマーカの上端点を下端点とし、水平領域aで検
出したレーンマーカの傾きとあまり違わない直線を自身
の領域内で検出し、この直線を、水平領域bのレーンマ
ーカとする。水平領域c,dについても同様に、1つ下
の水平領域b,cで直線近似されたレーンマーカの上端
点を下端点とし、水平領域b,cのレーンマーカの傾き
とあまり違わない直線を検出して水平領域c,dのレー
ンマーカとする。以上のようにして、自車両の両脇に存
在するレーンマーカを図7のように折れ線で近似した形
状で認識し、2本の折れ線41,42で挟まれた領域を自車
両が走行する自車線領域Sとして認識する。
Next, the method of detecting the own lane area and the method of detecting the object position by the image processing device 12 will be described.
First, as a method of detecting the own lane area, based on the image data of the image obtained as shown in FIG. 5, a plurality of areas below the horizontal line of the screen as shown in FIG. Divide into four horizontal areas ad. In this case, the position of the lane marker existing in the lowermost area a does not change so much, so the straight line detection areas 31 and 32 are set at the positions where the existence of the lane markers on both sides can be predicted, and the lane marker is changed to a straight line among them. Approximately detect. 1 of horizontal area a
In the upper horizontal area b, the upper end point of the lane marker linearly approximated in the lower horizontal area a is used as the lower end point, and a straight line that is not much different from the inclination of the lane marker detected in the horizontal area a is detected in its own area, This straight line is used as a lane marker in the horizontal area b. Similarly, for the horizontal areas c and d, the upper end point of the lane marker linearly approximated by the next lower horizontal areas b and c is set as the lower end point, and a straight line that is not much different from the inclination of the lane marker in the horizontal areas b and c is detected. Are used as lane markers in the horizontal areas c and d. As described above, the lane markers existing on both sides of the own vehicle are recognized by the shape approximated by the polygonal line as shown in FIG. 7, and the own vehicle lane in which the own vehicle travels in the area sandwiched by the two polygonal lines 41, 42. The area S is recognized.

【0015】次に、物体位置の検出方法について説明す
る。物体位置、即ち、自車両と前方物体との距離の算出
方法としては、例えば図8のように、画像データに基づ
いて画像の横エッジ成分を抽出する処理を実行して、車
両下の路面に投影される影や車体のバンパ等、画面に現
れる横エッジ成分51を持つ特徴を抽出する。次に、自車
線領域Sに存在する横エッジ成分51を画面下から順次検
索して、横エッジ成分51を前方車両(障害物)の特徴と
して認識し、検出位置の画面上のy座標(図中上方向)
を求める。
Next, a method of detecting the object position will be described. As a method of calculating the object position, that is, the distance between the own vehicle and the front object, for example, as shown in FIG. 8, a process of extracting the lateral edge component of the image based on the image data is executed, and Features having horizontal edge components 51 appearing on the screen, such as projected shadows and bumpers of the vehicle body, are extracted. Next, the lateral edge component 51 existing in the own lane area S is sequentially searched from the bottom of the screen, the lateral edge component 51 is recognized as a feature of the vehicle ahead (obstacle), and the y coordinate (Fig. Middle upward direction)
Ask for.

【0016】画像を撮影したCCDカメラ11が、レンズ
の光軸が地面と水平になるように設置された場合、CC
Dカメラ11の高さをH、レンズの焦点距離をFとする
と、画面上のy座標でy0 の位置に撮影されている前方
車両との車間距離Lは、 L=F・(H/y0 ) ・・・ (1) によって算出される。
If the CCD camera 11 that has taken the image is installed so that the optical axis of the lens is horizontal to the ground, CC
Assuming that the height of the D camera 11 is H and the focal length of the lens is F, the inter-vehicle distance L with the preceding vehicle photographed at the position y 0 on the y coordinate on the screen is L = F · (H / y 0 ) ... Calculated according to (1).

【0017】以上のような手法により、自車両から最も
近い位置に検出される前方車両の特徴(横エッジ成分)
を第1候補として距離を算出し、以後、自車両に近い順
に、第2候補、第3候補、・・・として距離を算出す
る。尚、横エッジ成分を抽出する際に、抽出すべき横エ
ッジ成分の長さ(図中左右方向)を規定することで、車
幅に比べて極端に短い路面に設置されたキャッアイ等の
物体を障害物として認識することを防止できる。
The characteristics of the preceding vehicle (lateral edge component) detected at the position closest to the own vehicle by the above method
Is calculated as the first candidate, and thereafter, the distance is calculated as the second candidate, the third candidate, ... When extracting the lateral edge component, by defining the length (horizontal direction in the figure) of the lateral edge component to be extracted, an object such as a cateye installed on a road surface extremely shorter than the vehicle width can be defined. It is possible to prevent recognition as an obstacle.

【0018】レーザレーダ13による測距データとして
は、画像信号の距離データの処理と同様に、得られた測
距データの中の最も距離の短いデータ(自車両に最も近
いデータ)から順に第1候補、第2候補、第3候補、・
・・とする。そして、画像処理装置12とレーザレーダ13
の物体の検出精度を、画像処理装置12においては横エッ
ジ成分の抽出条件を甘く設定したり、レーザレーダ13に
おいては出力アップや反射波の閾値を低くする等して物
体を検出し易い設定とし、前方車両以外の物体を検出す
ることはあっても前方車両が存在する場合には必ず検出
するように設定する。即ち、両者が誤検出する状況とし
て、前方車両が存在しないのに前方車両以外のものを検
出し距離算出する場合と、前方車両が存在しても前方車
両より近いものがあればこれを検出して距離算出する場
合の、2つの状況であるようにする。画像処理装置12と
レーザレーダ13の物体の検出精度を、このように設定す
ることで、画像処理装置12からの距離データとレーザレ
ーダ13からの距離データとを比較した時に、両者の中の
一方だけからしか距離データが得られない時は前方車両
は存在しないと判断でき、両者の距離データが一致しな
い時は距離データの長い方(自車両から遠い方)がより
信頼できると判断でき、両者の距離データが一致した時
は前方車両が確実に存在すると判断することができる。
As the distance measurement data by the laser radar 13, similar to the processing of the distance data of the image signal, the data having the shortest distance among the obtained distance measurement data (the data closest to the own vehicle) are sequentially ordered from the first data. Candidate, Second Candidate, Third Candidate,
・ ・Then, the image processing device 12 and the laser radar 13
The detection accuracy of the object is set to be easy to detect the object by setting the extraction condition of the lateral edge component in the image processing device 12 loosely, or increasing the output in the laser radar 13 or lowering the threshold value of the reflected wave. Even if an object other than the vehicle in front is detected, the object is set to be detected when the vehicle in front exists. That is, as a situation in which both of them are erroneously detected, the case where a vehicle other than the front vehicle is detected and the distance is calculated when there is no front vehicle, and the case where the front vehicle is present and there is a vehicle closer to the front vehicle is detected. There are two situations in which the distance is calculated by By setting the object detection accuracy of the image processing device 12 and the laser radar 13 in this way, when comparing the distance data from the image processing device 12 and the distance data from the laser radar 13, one of the two When the distance data can be obtained only from the above, it can be determined that there is no vehicle in front, and when the distance data of both do not match, it can be determined that the one with the longer distance data (the one farther from the vehicle) is more reliable. When the distance data of 1 are matched, it can be determined that the vehicle ahead is definitely present.

【0019】次に、図9及び図10のフローチャートに基
づいて第1実施例の前方車両(障害物)の検知動作を説
明する。運転席付近に設置した本システムのスイッチの
ON操作により本システムが始動し、マイクロコンピュ
ータ15で以下に述べる処理が実行される。まず、ステッ
プ1(図中、S1で示し以下同様とする)では、CCD
カメラ11から得られた画像信号に基づいて画像処理装置
12において上述したように検出される自車両の走行する
自車線領域Sと物体が検出された場合には当該物体まで
の車間距離Liが入力される。この車間距離Liデータ
は、検出された数だけ自車両から最も近い順に第1候補
Li1,第2候補Li2,第3候補Li3・・・として
入力される。また、レーザレーダ13からは、同じく検出
された数だけ最も自車両に近い検出データから順にその
車間距離と検出方位を第1候補(Ll1,d1),第2
候補(Ll2,d2),第3候補(Ll3,d3)・・
・として入力される。
Next, the operation of detecting the forward vehicle (obstacle) of the first embodiment will be described with reference to the flow charts of FIGS. 9 and 10. The present system is started by turning on a switch of the present system installed near the driver's seat, and the processing described below is executed by the microcomputer 15. First, in step 1 (indicated by S1 in the figure, the same applies hereinafter), the CCD
Image processing device based on the image signal obtained from the camera 11
When the vehicle lane area S in which the vehicle is traveling and the object are detected in 12 as described above, the inter-vehicle distance Li to the object is input. The inter-vehicle distance Li data is input as the first candidate Li1, the second candidate Li2, the third candidate Li3, ... Further, from the laser radar 13, the inter-vehicle distance and the detected azimuth are first candidate (L11, d1), second, in order from the detection data closest to the own vehicle by the same number as detected.
Candidate (L12, d2), Third candidate (L13, d3) ...
・ Entered as.

【0020】ステップ2では、レーザレーダ13からの検
出データ(Ll1,d1),(Ll2,d2),(Ll
3,d3)・・・の中で、画像処理装置12で検出された
自車線領域S内に存在するものを各方位データに基づい
て選択し、選択された中で自車両に最も近いものから順
にその車間距離データを第1候補Ll1,第2候補Ll
2,第3候補Ll3・・・と置き換える。
In step 2, detection data (Ll1, d1), (Ll2, d2), (Ll) from the laser radar 13 is detected.
3, d3) ... Which exists in the own lane area S detected by the image processing device 12 is selected based on each azimuth data, and the one closest to the own vehicle is selected. The inter-vehicle distance data is sequentially set to the first candidate Ll1 and the second candidate Ll.
2, replaced with the third candidate L13.

【0021】ステップ3では、ステップ2で選択された
レーザレーダ13の検出データLl1,Ll2,Ll3・
・・をLlmとし、画像処理装置12から得られた車間距
離データLi1,Li2,Li3・・・をLinとし、
自車両に最も近い第1候補から順次比較していき、両者
が一致する(Lin=Llm)データを検索する。ステ
ップ4では、Lin=Llmとなるデータが存在するか
否かの判定を行い、存在しなければステップ1に戻り、
存在すればステップ5に進む。
In step 3, the detection data Ll1, Ll2, Ll3 ... of the laser radar 13 selected in step 2
.. is Llm, and the inter-vehicle distance data Li1, Li2, Li3 ... Obtained from the image processing device 12 are Lin,
The first candidate closest to the host vehicle is sequentially compared, and data in which both match (Lin = Llm) is searched. In step 4, it is judged whether or not there is data for which Lin = Llm. If it does not exist, the process returns to step 1,
If there is, go to step 5.

【0022】ステップ5では、Lin=Llmとなるデ
ータ値を前方車両との車間距離とする。ステップ6で
は、ステップ5で決定した車間距離に基づいて接触の可
能性が高いか否かを判定する。接近度の判断は、下記の
(2)式の計算式に基づいて判断する。
In step 5, the data value for which Lin = Llm is set as the inter-vehicle distance to the preceding vehicle. In step 6, it is determined based on the inter-vehicle distance determined in step 5 whether or not the possibility of contact is high. The degree of approach is determined based on the calculation formula (2) below.

【0023】 L=Δα・T2 /2+ΔV2 /2・Δα ・・・ (2) ここで、 L:安全車間距離 T:空走時間 ΔV:相対速度 Δα:相対加速度(相対速度の時間変化) 尚、相対速度ΔVは、レーザレーダ13から得られる測距
データから算出される。また、空走時間は車速センサ14
からの自車速に基づいて設定される。
[0023] L = Δα · T 2/2 + ΔV 2/2 · Δα ··· (2) where, L: safe distance T: sky run time ΔV: the relative speed Δα: (time change in the relative velocity) relative acceleration The relative velocity ΔV is calculated from the distance measurement data obtained from the laser radar 13. The free running time is measured by the vehicle speed sensor 14
It is set based on the vehicle speed from.

【0024】上記(2)式で算出された所定の車間距離
としての安全車間距離Lとステップ5で決定された実際
の車間距離とを比較し、安全車間距離Lより測定された
車間距離が短い場合は、接触の可能性が高いと判断して
ステップ7で警報装置16を駆動して運転者に警告する。
安全車間距離Lより測定された車間距離が長い場合は、
接触の可能性は低いと判断し、ステップ8に進む。
The safe inter-vehicle distance L as the predetermined inter-vehicle distance calculated by the above equation (2) is compared with the actual inter-vehicle distance determined in step 5, and the inter-vehicle distance measured is shorter than the safe inter-vehicle distance L. In this case, it is judged that the possibility of contact is high, and the alarm device 16 is driven in step 7 to warn the driver.
If the measured inter-vehicle distance is longer than the safe inter-vehicle distance L,
It is determined that the possibility of contact is low, and the process proceeds to step 8.

【0025】ステップ8では、画像処理装置12での車間
距離の検出領域を車間距離Lin付近に、レーザレーダ
13での車間距離の検出領域を車間距離Llm付近に、そ
れぞれ限定し検出するように制御し、検出データを各々
Linew 、Llnew とする。ステップ9では、Linew
とLlnew の値を比較し、Linew =Llnew であれば
ステップ10に進み、Linew =Llnew でなければステ
ップ1に戻る。
In step 8, the detection area of the inter-vehicle distance in the image processing device 12 is set near the inter-vehicle distance Lin by the laser radar.
The detection areas of the inter-vehicle distance in 13 are controlled so as to limit the detection to near the inter-vehicle distance Llm, and the detection data are set to Linew and Llnew, respectively. In Step 9, Linew
And the value of Llnew are compared. If Linew = Llnew, the process proceeds to step 10. If Linew = Llnew is not satisfied, the process returns to step 1.

【0026】ステップ10では、Linew =Llnew とな
る値を前方車両の車間距離とする。ステップ11では、ス
テップ6と同様の判断を行い、接触の可能性が高けれ
ば、ステップ12に進み警報装置16を駆動し、接触の可能
性が低ければステップ13に進み、Linew をLimに、
Llnew をLlnに、それぞれ置き換え、ステップ8に
戻り、ステップ8以下の動作を繰り返す。
In step 10, the value of Linew = Llnew is set as the inter-vehicle distance of the preceding vehicle. In step 11, the same judgment as in step 6 is performed. If the possibility of contact is high, the process proceeds to step 12, and the alarm device 16 is driven. If the possibility of contact is low, the process proceeds to step 13 to set Linew to Lim,
Replace Llnew with Lln, return to step 8, and repeat the operations from step 8 onward.

【0027】以上のように、画像処理装置12とレーザレ
ーダ13の両方で物体の位置検出を行う構成とすれば、道
路標識等は画像処理装置側では自車線領域内の物体とし
て検出しないため、レーザレーダ側で検出されたとして
も障害物と判断することがない。従って、レーザレーダ
のみで位置検出している従来装置のように前記道路標識
を障害物として認識することはなく、障害物の検出の信
頼性を向上できる。
As described above, if the object position is detected by both the image processing device 12 and the laser radar 13, road signs and the like are not detected as objects in the lane area on the image processing device side. Even if it is detected by the laser radar side, it is not judged as an obstacle. Therefore, unlike the conventional device in which the position is detected only by the laser radar, the road sign is not recognized as an obstacle, and the reliability of the obstacle detection can be improved.

【0028】また、それぞれ複数のデータから互いに一
致するものを車間距離とすることで、確実に前方車両と
の距離を計測できる。更には、ステップ8以下の処理を
行うことで、一度検出した前方車両を追従して検出する
ことができ、前方車両検出後の処理速度を高速化できる
という効果を有する。次に、本発明の第2実施例につい
て説明する。尚、第2実施例のシステム構成は図2に示
すものと同じであり、マイクロコンピュータ15における
前方車両の検出のソフト処理のみが異なるので、以下で
は、前方車両の検出のソフト処理についてのみ説明す
る。
Further, the distance between the front vehicle and the vehicle in front can be reliably measured by setting the mutually matching data from a plurality of data as the inter-vehicle distance. Further, by performing the processing of step 8 and subsequent steps, it is possible to detect the forward vehicle that has been detected once, and to increase the processing speed after detecting the forward vehicle. Next, a second embodiment of the present invention will be described. The system configuration of the second embodiment is the same as that shown in FIG. 2, and only the software processing for detecting the front vehicle in the microcomputer 15 is different. Therefore, only the software processing for detecting the front vehicle will be described below. .

【0029】図11に、第2実施例の前方車両検出処理動
作のフローチャートを示し、これに基づいて説明する。
ステップ21では、画像処理装置12から自車線領域Sと画
像中から前方車両が検出された場合には自車両から最も
近い距離データをその車間距離Liとして入力され、レ
ーザレーダ13から前方車両が検出された場合には車間距
離Llと相対速度ΔV、検出した方位dが入力される。
FIG. 11 shows a flowchart of the forward vehicle detection processing operation of the second embodiment, which will be described below.
In step 21, when the front vehicle is detected from the image lane area S and the image from the image processing device 12, the closest distance data from the own vehicle is input as the inter-vehicle distance Li, and the front vehicle is detected from the laser radar 13. In the case of being performed, the inter-vehicle distance Ll, the relative speed ΔV, and the detected direction d are input.

【0030】ステップ22では、画像処理装置12とレーザ
レーダ13の両方が前方車両を検出したか否かを判定し、
どちらか一方だけが車両を検出している場合は、前方車
両が存在しないと判断してステップ21に戻る。両方が検
出している場合ステップ23に進む。ステップ23では、レ
ーザレーダ13で検出された車両が、その方位データに基
づいて自車線領域S内に存在するか否かを判定し、存在
しない場合は接触の可能性は低いと判断してステップ21
に戻る。自車線領域S内に存在する場合は自車両から最
も近いデータをレーザレーダ13における車間距離データ
Llとしてステップ24に進む。
In step 22, it is determined whether both the image processing device 12 and the laser radar 13 have detected a vehicle ahead,
When only one of them detects a vehicle, it is determined that there is no vehicle ahead, and the process returns to step 21. If both are detected, go to step 23. In step 23, it is determined whether or not the vehicle detected by the laser radar 13 exists in the own lane area S based on the direction data, and if it does not exist, it is determined that the possibility of contact is low and the step is determined. twenty one
Return to If it exists in the own lane area S, the data closest to the own vehicle is set as the inter-vehicle distance data Ll in the laser radar 13 and the process proceeds to step 24.

【0031】ステップ24では、画像処理装置12から得ら
れた車間距離データLiとレーザレーダ13から得られた
車間距離データLlの値を比較し、Li=Llの場合は
ステップ26に進み、Li=Llを車間距離とし、Li<
Llの場合は、ステップ27に進みレーザレーダ13側の距
離データLlを車間距離とし、Li>Llの場合は、ス
テップ28に進み画像処理装置12側の距離データLiを車
間距離とする。即ち、両者の距離データが一致しない場
合は、自車両から遠い距離データを車間距離と推定す
る。
In step 24, the inter-vehicle distance data Li obtained from the image processing device 12 and the inter-vehicle distance data Ll obtained from the laser radar 13 are compared. If Li = Ll, the process proceeds to step 26, where Li = Let Ll be the following distance, and Li <
If Ll, the process proceeds to step 27, where the distance data Ll on the laser radar 13 side is the inter-vehicle distance, and if Li> Ll, the process proceeds to step 28 and the distance data Li on the image processing device 12 side is the inter-vehicle distance. That is, when the distance data of both do not match, the distance data far from the own vehicle is estimated as the inter-vehicle distance.

【0032】ステップ29では、第1実施例と同様に
(2)式から安全車間距離を演算する。ステップ30で
は、ステップ26〜28のいずれかで決定された車間距離と
安全車間距離とを比較し、接触の可能性が高いか低いか
を判定し、安全車間距離より実際の車間距離が短い場合
は、接触の可能性が高いとしてステップ31に進み警報装
置16を駆動して運転者に知らせる。接触の可能性が低け
ればステップ21に戻る。
In step 29, the safe inter-vehicle distance is calculated from the equation (2) as in the first embodiment. In Step 30, the inter-vehicle distance determined in any of Steps 26 to 28 is compared with the safe inter-vehicle distance to determine whether the possibility of contact is high or low, and if the actual inter-vehicle distance is shorter than the safe inter-vehicle distance. Judges that there is a high possibility of contact, advances to step 31 and drives the alarm device 16 to notify the driver. If the possibility of contact is low, the process returns to step 21.

【0033】以上のように、自車両から最も近い、画像
処理装置12の距離データとレーザレーダ13の距離データ
が一致しない場合に、自車両から遠い方のデータを車間
距離と見做すようにすれば、第1実施例のもの比べて車
間距離の検出精度の面では劣るが、障害物の検出処理速
度を速くすることができるという効果を有する。
As described above, when the distance data of the image processing device 12 and the distance data of the laser radar 13 which are the closest to the own vehicle do not match, the data farther from the own vehicle is regarded as the inter-vehicle distance. If so, the detection accuracy of the inter-vehicle distance is inferior to that of the first embodiment, but there is an effect that the obstacle detection processing speed can be increased.

【0034】[0034]

【発明の効果】以上説明したように請求項1記載の発明
によれば、画像信号に基づいて、自車両の走行路領域を
認識するだけでなく、その領域内に存在する物体の位置
検出も行う一方、画像処理とは関係ない距離測定手段で
も走行路領域内の物体までの距離を測定し、両者が共に
物体を検出した場合に障害物と認識する構成としたの
で、自車両の走行の障害とならない物体を障害物として
検出することを防止できる。
As described above, according to the first aspect of the invention, not only the traveling road region of the vehicle is recognized based on the image signal, but also the position of the object existing in the region is detected. On the other hand, even if the distance measuring means not related to image processing measures the distance to the object in the road area, and if both detect the object, it is recognized as an obstacle. It is possible to prevent an object that does not become an obstacle from being detected as an obstacle.

【0035】また、請求項2記載の発明によれば、前方
の障害物までの距離の検出精度を向上できる。また、請
求項3記載の発明によれば、障害物までの距離検出精度
は請求項2記載の発明に比べて低下するが、障害物検出
の処理速度を速くできる。また、請求項4記載の発明に
よれば、一度検出した障害物を追従して検出することが
でき、しかも、追従して検出する場合の処理速度の高速
化を図ることができる。
According to the second aspect of the invention, the accuracy of detecting the distance to the obstacle ahead can be improved. According to the invention of claim 3, the distance detection accuracy to the obstacle is lower than that of the invention of claim 2, but the processing speed of obstacle detection can be increased. In addition, according to the invention of claim 4, it is possible to detect an obstacle that has been detected once, and to increase the processing speed when the obstacle is detected.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の構成を説明するブロック図FIG. 1 is a block diagram illustrating a configuration of the present invention.

【図2】本発明の第1実施例を示すシステム構成図FIG. 2 is a system configuration diagram showing a first embodiment of the present invention.

【図3】CCDカメラの撮像範囲を示す鳥瞰図FIG. 3 is a bird's-eye view showing the imaging range of the CCD camera.

【図4】レーザレーダの測距範囲を示す鳥瞰図FIG. 4 is a bird's-eye view showing the distance measurement range of the laser radar.

【図5】CCDカメラで撮影した前方風景画面の例を示
す図
FIG. 5 is a diagram showing an example of a forward landscape screen imaged by a CCD camera.

【図6】画像処理装置における自車線領域検出処理の説
明図
FIG. 6 is an explanatory diagram of own lane area detection processing in the image processing apparatus.

【図7】画像処理装置における自車線領域検出処理の説
明図
FIG. 7 is an explanatory diagram of own lane area detection processing in the image processing apparatus.

【図8】画像処理装置による前方車両検出の説明図FIG. 8 is an explanatory diagram of detection of a front vehicle by the image processing device.

【図9】同上実施例の障害物検出動作のフローチャートFIG. 9 is a flowchart of an obstacle detection operation of the above embodiment.

【図10】図9に続くフローチャートFIG. 10 is a flowchart following FIG. 9.

【図11】本発明の第2実施例の障害物検出動作のフロー
チャート
FIG. 11 is a flowchart of an obstacle detection operation according to the second embodiment of the present invention.

【図12】従来装置の問題点の説明図FIG. 12 is an explanatory diagram of problems of the conventional device.

【図13】従来装置の問題点の説明図FIG. 13 is an explanatory diagram of problems of the conventional device.

【符号の説明】[Explanation of symbols]

11 CCDカメラ 12 画像処理装置 13 レーザレーダ 14 車速センサ 15 マイクロコンピュータ 11 CCD camera 12 Image processing device 13 Laser radar 14 Vehicle speed sensor 15 Microcomputer

フロントページの続き (51)Int.Cl.6 識別記号 庁内整理番号 FI 技術表示箇所 G08G 1/16 C Continuation of the front page (51) Int.Cl. 6 Identification number Office reference number FI Technical display location G08G 1/16 C

Claims (4)

【特許請求の範囲】[Claims] 【請求項1】 自車両の進行方向の道路状況を撮像する
撮像手段と、 該撮像手段からの画像信号に基づいて自車両が走行する
走行路領域を検出する走行路領域検出手段と、 該走行路領域検出手段で検出された走行路領域内におけ
る物体位置を前記撮像手段からの画像信号に基づいて検
出する物体位置検出手段と、 前記画像信号とは関係なく自車両と前記走行路領域内の
物体との距離を計測する距離測定手段と、 前記物体位置検出手段から物体位置検出出力が有り、且
つ、前記距離測定手段から距離計測出力が有った時に走
行路領域内に存在する物体が障害物であると判定する障
害物判定手段と、 自車両の車速を検出する自車速検出手段と、 前記障害物判定手段が障害物と判定した時に前記距離測
定手段の計測値から演算される相対速度と前記自車速検
出手段の自車速とに基づいて算出される所定の車間距離
と障害物までの距離とを比較して障害物との接近度を判
定する接近判定手段と、 を備えて構成したことを特徴とする車両用障害物検出装
置。
1. An image pickup means for picking up an image of a road condition in the traveling direction of the vehicle, a traveling road area detecting means for detecting a traveling road area on which the vehicle travels based on an image signal from the image pickup means, and the traveling. An object position detecting means for detecting an object position in the traveling road area detected by the road area detecting means based on an image signal from the image pickup means, and a vehicle in the traveling road area regardless of the image signal. There is a distance measuring means for measuring the distance to the object, and there is an object position detection output from the object position detecting means, and when there is a distance measurement output from the distance measuring means, the object existing in the traveling road area is obstructed. An obstacle determining means for determining that the vehicle is an object, a vehicle speed detecting means for detecting the vehicle speed of the vehicle, and a relative speed calculated from the measured value of the distance measuring means when the obstacle determining means determines that the vehicle is an obstacle. And before An approach determination means for determining the degree of approach to an obstacle by comparing a predetermined inter-vehicle distance calculated based on the vehicle speed of the vehicle speed detection means with the distance to the obstacle. An obstacle detection device for a vehicle.
【請求項2】障害物判定手段は、前記物体位置検出手段
と距離測定手段からそれぞれ複数の物体位置検出出力と
距離計測出力が得られた時に、自車両に最も近い順から
互いの出力値を比較し、両出力値が一致した時に当該出
力値に対応する物体を障害物と判定する構成である請求
項1記載の車両用障害物検出装置。
2. The obstacle judging means, when a plurality of object position detecting outputs and distance measuring outputs are respectively obtained from the object position detecting means and the distance measuring means, output the mutual output values from the order closest to the own vehicle. The vehicle obstacle detection device according to claim 1, wherein the obstacle detection device for a vehicle according to claim 1 is configured to compare and determine an object corresponding to the output value when both output values match.
【請求項3】障害物判定手段は、前記物体位置検出手段
から得られた物体位置検出出力から算出される検出物体
までの距離と、前記距離測定手段から得られた距離計測
出力とが一致しない時には、自車両から距離の遠い方の
出力値に対応する物体を障害物と判定する構成とした請
求項1記載の車両用障害物検出装置。
3. The obstacle determining means does not match the distance to the detected object calculated from the object position detection output obtained from the object position detecting means and the distance measurement output obtained from the distance measuring means. The vehicle obstacle detection device according to claim 1, wherein the object corresponding to an output value farther away from the vehicle is determined to be an obstacle at times.
【請求項4】前記障害物判定手段が障害物と判定した物
体が存在する場合、前記物体位置検出手段及び距離測定
手段を前記物体付近のみを検出するよう制御する構成と
したことを特徴とする請求項1〜3のいずれか1つに記
載の車両用障害物検出装置。
4. An object position detecting means and a distance measuring means are controlled so as to detect only the vicinity of the object when there is an object judged by the obstacle judging means as an obstacle. The vehicle obstacle detection device according to claim 1.
JP6302292A 1994-12-06 1994-12-06 Vehicle obstruction detecting device Pending JPH08156723A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP6302292A JPH08156723A (en) 1994-12-06 1994-12-06 Vehicle obstruction detecting device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP6302292A JPH08156723A (en) 1994-12-06 1994-12-06 Vehicle obstruction detecting device

Publications (1)

Publication Number Publication Date
JPH08156723A true JPH08156723A (en) 1996-06-18

Family

ID=17907240

Family Applications (1)

Application Number Title Priority Date Filing Date
JP6302292A Pending JPH08156723A (en) 1994-12-06 1994-12-06 Vehicle obstruction detecting device

Country Status (1)

Country Link
JP (1) JPH08156723A (en)

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10129409A (en) * 1996-10-25 1998-05-19 Kazuyoshi Ahara Collision cushioning device for automobile using air bag
JP2001099930A (en) * 1999-09-29 2001-04-13 Fujitsu Ten Ltd Sensor for monitoring periphery
JP2002163784A (en) * 2000-11-29 2002-06-07 Fujitsu Ten Ltd Deciding device for advancable range
JP2003084064A (en) * 2001-09-12 2003-03-19 Daihatsu Motor Co Ltd Device and method for recognizing vehicle in front side
JP2003172780A (en) * 2001-12-06 2003-06-20 Daihatsu Motor Co Ltd Recognition device and recognition method of preceding vehicle
EP1338477A2 (en) 2002-02-26 2003-08-27 Toyota Jidosha Kabushiki Kaisha Obstacle detection device for vehicle and method thereof
JP2003315458A (en) * 2002-04-23 2003-11-06 Daihatsu Motor Co Ltd Recognition apparatus and method for forward vehicle
JP2004178313A (en) * 2002-11-27 2004-06-24 Toyota Motor Corp Vehicle alarm device
US6990216B2 (en) 2000-09-22 2006-01-24 Nissan Motor Co., Ltd. Method and apparatus for estimating inter-vehicle distance using radar and camera
JP2006517659A (en) * 2003-02-13 2006-07-27 アイイーイー インターナショナル エレクトロニクス アンド エンジニアリング エス.エイ. Automotive device used for 3D detection of inside / outside scene of automobile
EP1703299A2 (en) 2005-03-15 2006-09-20 Omron Corporation Object detector for a vehicle
JP2007240277A (en) * 2006-03-07 2007-09-20 Olympus Corp Distance measuring device/imaging device, distance measuring method/imaging method, distance measuring program/imaging program, and storage medium
JP2008040819A (en) * 2006-08-07 2008-02-21 Toyota Motor Corp Obstacle recognition device
JP2009230229A (en) * 2008-03-19 2009-10-08 Toyota Motor Corp Object detection device
JP2010501952A (en) * 2007-04-19 2010-01-21 ローベルト ボッシュ ゲゼルシャフト ミット ベシュレンクテル ハフツング Driver assistance system and method for determining the validity of an object
KR20170047061A (en) * 2015-10-22 2017-05-04 주식회사 만도 Radar apparatus for vehicle and method for selecting target of the same
JP2018092483A (en) * 2016-12-06 2018-06-14 トヨタ自動車株式会社 Object recognition device
WO2018168182A1 (en) * 2017-03-17 2018-09-20 日本電気株式会社 Mobiile body detection device, mobile body detection method, and mobile body detection program

Cited By (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10129409A (en) * 1996-10-25 1998-05-19 Kazuyoshi Ahara Collision cushioning device for automobile using air bag
JP2001099930A (en) * 1999-09-29 2001-04-13 Fujitsu Ten Ltd Sensor for monitoring periphery
US6990216B2 (en) 2000-09-22 2006-01-24 Nissan Motor Co., Ltd. Method and apparatus for estimating inter-vehicle distance using radar and camera
JP2002163784A (en) * 2000-11-29 2002-06-07 Fujitsu Ten Ltd Deciding device for advancable range
JP2003084064A (en) * 2001-09-12 2003-03-19 Daihatsu Motor Co Ltd Device and method for recognizing vehicle in front side
JP2003172780A (en) * 2001-12-06 2003-06-20 Daihatsu Motor Co Ltd Recognition device and recognition method of preceding vehicle
EP1338477A2 (en) 2002-02-26 2003-08-27 Toyota Jidosha Kabushiki Kaisha Obstacle detection device for vehicle and method thereof
US6888447B2 (en) 2002-02-26 2005-05-03 Toyota Jidosha Kabushiki Kaisha Obstacle detection device for vehicle and method thereof
EP1338477A3 (en) * 2002-02-26 2006-03-08 Toyota Jidosha Kabushiki Kaisha Obstacle detection device for vehicle and method thereof
JP2003315458A (en) * 2002-04-23 2003-11-06 Daihatsu Motor Co Ltd Recognition apparatus and method for forward vehicle
JP2004178313A (en) * 2002-11-27 2004-06-24 Toyota Motor Corp Vehicle alarm device
JP2006517659A (en) * 2003-02-13 2006-07-27 アイイーイー インターナショナル エレクトロニクス アンド エンジニアリング エス.エイ. Automotive device used for 3D detection of inside / outside scene of automobile
EP1703299A2 (en) 2005-03-15 2006-09-20 Omron Corporation Object detector for a vehicle
EP1703299A3 (en) * 2005-03-15 2007-08-22 Omron Corporation Object detector for a vehicle
CN100401011C (en) * 2005-03-15 2008-07-09 欧姆龙株式会社 Object detector for a vehicle
JP2007240277A (en) * 2006-03-07 2007-09-20 Olympus Corp Distance measuring device/imaging device, distance measuring method/imaging method, distance measuring program/imaging program, and storage medium
JP2008040819A (en) * 2006-08-07 2008-02-21 Toyota Motor Corp Obstacle recognition device
JP2010501952A (en) * 2007-04-19 2010-01-21 ローベルト ボッシュ ゲゼルシャフト ミット ベシュレンクテル ハフツング Driver assistance system and method for determining the validity of an object
JP2009230229A (en) * 2008-03-19 2009-10-08 Toyota Motor Corp Object detection device
KR20170047061A (en) * 2015-10-22 2017-05-04 주식회사 만도 Radar apparatus for vehicle and method for selecting target of the same
JP2018092483A (en) * 2016-12-06 2018-06-14 トヨタ自動車株式会社 Object recognition device
WO2018168182A1 (en) * 2017-03-17 2018-09-20 日本電気株式会社 Mobiile body detection device, mobile body detection method, and mobile body detection program
JPWO2018168182A1 (en) * 2017-03-17 2020-06-18 日本電気株式会社 MOBILE BODY DETECTING DEVICE, MOBILE BODY DETECTING METHOD, AND MOBILE BODY DETECTING PROGRAM
US11209517B2 (en) 2017-03-17 2021-12-28 Nec Corporation Mobile body detection device, mobile body detection method, and mobile body detection program
US11740315B2 (en) 2017-03-17 2023-08-29 Nec Corporation Mobile body detection device, mobile body detection method, and mobile body detection program

Similar Documents

Publication Publication Date Title
JP3304687B2 (en) Vehicle lane recognition device, obstacle detection device, road departure notification device
KR101395089B1 (en) System and method for detecting obstacle applying to vehicle
US7027615B2 (en) Vision-based highway overhead structure detection system
EP1881345B1 (en) Method for detecting stationary object located above road
JP3596314B2 (en) Object edge position measuring device and moving object traffic judging device
US7376247B2 (en) Target detection system using radar and image processing
KR100435650B1 (en) Detection method of road condition in a vehicle equipped with a camera, and method for detecting distance between vehicles in the same vehicle
JPH08156723A (en) Vehicle obstruction detecting device
JPH09142236A (en) Periphery monitoring method and device for vehicle, and trouble deciding method and device for periphery monitoring device
JP4753765B2 (en) Obstacle recognition method
JP2003296736A (en) Device for detecting obstacle and method thereof
JP2008123462A (en) Object detector
JP4407920B2 (en) Obstacle recognition method and obstacle recognition device
US10846546B2 (en) Traffic signal recognition device
JP3666332B2 (en) Pedestrian detection device
JP2002334330A (en) Vehicle recognition device
JP3384278B2 (en) Distance measuring device
JPH08138036A (en) Preceding vehicle recognition device
JP2003308599A (en) Traveling route environment detector
JP3319401B2 (en) Roadway recognition device
JPH04193641A (en) Obstacle detection device for vehicle
JPH07244717A (en) Travel environment recognition device for vehicle
JPH08320998A (en) Lane marker detector
JP4376147B2 (en) Obstacle recognition method and obstacle recognition device
JP3287166B2 (en) Distance measuring device