JP2900737B2 - Inter-vehicle distance detection device - Google Patents

Inter-vehicle distance detection device

Info

Publication number
JP2900737B2
JP2900737B2 JP5014365A JP1436593A JP2900737B2 JP 2900737 B2 JP2900737 B2 JP 2900737B2 JP 5014365 A JP5014365 A JP 5014365A JP 1436593 A JP1436593 A JP 1436593A JP 2900737 B2 JP2900737 B2 JP 2900737B2
Authority
JP
Japan
Prior art keywords
vehicle
camera
inter
reliability
vehicle distance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP5014365A
Other languages
Japanese (ja)
Other versions
JPH06230115A (en
Inventor
久志 里中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP5014365A priority Critical patent/JP2900737B2/en
Publication of JPH06230115A publication Critical patent/JPH06230115A/en
Application granted granted Critical
Publication of JP2900737B2 publication Critical patent/JP2900737B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【産業上の利用分野】本発明は、カメラとミリ波レーダ
の両方を利用する車間距離検出装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an inter-vehicle distance detecting apparatus using both a camera and a millimeter wave radar.

【0002】[0002]

【従来の技術】近年、運転者の負担を軽減するための各
種装置が車両の搭載されるようになってきており、その
中に前方車両との車間距離に基づいて、警報を発した
り、加減速制御等を行う装置がある。このような装置を
利用する場合において、車間距離を正確に検出すること
が非常に重要である。これは、車間距離の検出が正確で
なければ、これに基づいた制御が適切なものでなくなっ
てしまうからである。
2. Description of the Related Art In recent years, various devices for reducing the burden on a driver have been mounted on a vehicle, and among them, an alarm is issued or a warning is issued based on a distance between the vehicle and a preceding vehicle. There are devices for performing deceleration control and the like. When using such a device, it is very important to accurately detect the inter-vehicle distance. This is because if the detection of the inter-vehicle distance is not accurate, the control based on this will not be appropriate.

【0003】そこで、従来より各種の車間距離検出装置
が提案されており、その測距手段としては、カメラ、レ
ーザ、超音波、レーダ等を用いたものがある。例えば、
特開平4−155211号公報には、カメラとレーザの
両方を備え、カメラで得た画像データから目標対象物と
なる先行車を決定し、この先行車の方向にレーザを向
け、反射光を受光することによって、車間距離を測定す
る装置が示されている。この装置によれば、測距性能は
良いが視野の狭いレーザと、視野は広いが測距の安定性
が低いカメラの両方の長所を利用して高精度の車間距離
検出を行うことができる。
In view of the above, various types of inter-vehicle distance detecting devices have been conventionally proposed, and as a distance measuring means, there is a device using a camera, a laser, an ultrasonic wave, a radar, or the like. For example,
Japanese Unexamined Patent Publication No. 4-155221 discloses a camera equipped with both a camera and a laser, determines a preceding vehicle as a target object from image data obtained by the camera, directs the laser in the direction of the preceding vehicle, and receives reflected light. Thus, an apparatus for measuring the distance between vehicles is shown. According to this apparatus, highly accurate inter-vehicle distance detection can be performed by using the advantages of both a laser having good distance measurement performance but a narrow field of view and a camera having a wide field of view and low stability of distance measurement.

【0004】[0004]

【発明が解決しようとする課題】しかし、この従来の装
置においては、雨、霧等により外部環境が悪化した場合
に、カメラによって得られる画像が悪くなり、十分な先
行車の検出が行えなくなり、レーザの指向方向の制御が
行えなくなってしまうという問題点があった。また、
雨、霧等の場合には、レーザによる測距もその機能が低
下してしまう。
However, in this conventional apparatus, when the external environment is deteriorated due to rain, fog, etc., the image obtained by the camera deteriorates, and it becomes impossible to sufficiently detect the preceding vehicle. There is a problem that the control of the direction of the laser beam cannot be performed. Also,
In the case of rain, fog, and the like, the function of distance measurement by a laser is also reduced.

【0005】一方、測距手段として、ミリ波レーダも検
討されている。このミリ波レーダは、雨、霧等の影響を
比較的受けにくく、外部環境条件によらず正確な車間距
離検出を行うことができる。しかし、このミリ波レーダ
もレーザと同様に、視野が狭いため、交差点やカーブ等
において先行車を捕らえられない確率が高く、道路の状
態によって適切な車間距離検出を行えないという問題点
があった。
On the other hand, a millimeter wave radar is being studied as a distance measuring means. The millimeter-wave radar is relatively insensitive to rain, fog, and the like, and can accurately detect an inter-vehicle distance regardless of external environmental conditions. However, like the laser, the millimeter-wave radar has a narrow field of view, so there is a high probability that a preceding vehicle cannot be caught at an intersection or a curve, and there is a problem that an appropriate inter-vehicle distance cannot be detected depending on road conditions. .

【0006】本発明は、上記問題点を解決することを課
題としてなされたものであり、種々の条件下において、
好適な車間距離検出を行うことができる車間距離検出装
置を提供することを目的とする。
[0006] The present invention has been made to solve the above problems, and has been made under various conditions.
An object of the present invention is to provide an inter-vehicle distance detection device capable of performing suitable inter-vehicle distance detection.

【0007】[0007]

【課題を解決するための手段】本発明は、カメラおよび
ミリ波レーダの検出結果を利用して車間距離を検出する
車間距離検出装置において、雨、霧等のカメラ視界を左
右する環境状態を検出する環境状態検出手段と、カー
ブ、交差点等の車両が走行している道路の道路状態を認
識する道路状態認識手段と、上記環境状態および上記カ
メラにより得た画像データの状態からカメラの信頼度を
算出するカメラ信頼度算出手段と、上記道路状態および
上記ミリ波レーダの検出値からミリ波レーダの信頼度を
算出するミリ波レーダ信頼度を算出するミリ波レーダ信
頼度算出手段と、両算出手段で算出された信頼度を比較
し、この比較結果に応じてカメラまたはミリ波レーダの
いずれに基づいて車間距離を検出するかを決定する選択
決定手段と、を有することを特徴とする。
SUMMARY OF THE INVENTION The present invention relates to an inter-vehicle distance detecting apparatus for detecting inter-vehicle distance using detection results of a camera and a millimeter wave radar, which detects environmental conditions such as rain and fog which influence the view of the camera. Environmental state detecting means, a road state recognizing means for recognizing a road state of a road on which a vehicle is running, such as a curve or an intersection, and a camera reliability based on the environmental state and the state of image data obtained by the camera. A camera reliability calculating means for calculating, a millimeter-wave radar reliability calculating means for calculating a millimeter-wave radar reliability for calculating a millimeter-wave radar reliability from the road condition and a detection value of the millimeter-wave radar, and both calculating means. Selection decision means for comparing the reliability calculated in the step (a), and deciding whether to detect the inter-vehicle distance based on the camera or the millimeter wave radar according to the comparison result. It is characterized in.

【0008】また、上記選択決定手段によりミリ波レー
ダが選択された場合であって、カメラの信頼度が所定値
以上である場合には、上記カメラの検出結果から得られ
た車間距離およびミリ波レーダの検出結果から得られた
車間距離から、カメラの検出結果から得られた車間距離
についての補正値を算出し、得られた補正値によってカ
メラによって得た車間距離を補正し、ミリ波レーダによ
って得られない方向の車間距離を検出することを特徴と
する。
In the case where the millimeter wave radar is selected by the selection determining means and the reliability of the camera is equal to or more than a predetermined value, the inter-vehicle distance and the millimeter wave obtained from the detection result of the camera are obtained. From the inter-vehicle distance obtained from the radar detection result, a correction value for the inter-vehicle distance obtained from the detection result of the camera is calculated, and the inter-vehicle distance obtained by the camera is corrected by the obtained correction value. It is characterized by detecting an inter-vehicle distance in a direction that cannot be obtained.

【0009】[0009]

【作用】本発明によれば、カメラの信頼度と、ミリ波レ
ーダの信頼度を比較し、信頼度の高い方を採用して車間
距離を検出する。従って、車両の状況に応じて常に正確
な車間距離検出を行うことができる。特に、雨、霧等の
影響を受けやすいが視野の広いカメラと、視野が狭くカ
ーブ、交差点等において車間距離を検出しにくいミリ波
レーダの双方の欠点を補って、効果的な車間距離の検出
を行うことができる。
According to the present invention, the reliability of the camera is compared with the reliability of the millimeter wave radar, and the higher reliability is used to detect the inter-vehicle distance. Therefore, accurate inter-vehicle distance detection can always be performed according to the situation of the vehicle. In particular, effective inter-vehicle distance detection compensates for the disadvantages of both cameras, which are susceptible to rain and fog, but have a wide field of view, and millimeter-wave radars, which have a narrow field of view and are difficult to detect the inter-vehicle distance at curves and intersections It can be performed.

【0010】また、ミリ波レーダにおいて車間距離を検
出している際において、カメラの信頼度が所定以上の場
合には、カメラによる車間距離検出の際の補正値をミリ
波レーダの検出値に基づいて算出する。そして、この補
正値にによって、カメラによって得られる車間距離を補
正することによって、ミリ波レーダによって検出できな
かった方向に存在する車両との車間距離も正確に求める
ことができる。
When the inter-vehicle distance is detected by the millimeter wave radar, if the reliability of the camera is equal to or greater than a predetermined value, a correction value for detecting the inter-vehicle distance by the camera is determined based on the detected value of the millimeter wave radar. And calculate. Then, by correcting the inter-vehicle distance obtained by the camera using the correction value, the inter-vehicle distance to a vehicle existing in a direction that cannot be detected by the millimeter wave radar can be accurately obtained.

【0011】[0011]

【実施例】以下、本発明の実施例について、図面に基づ
いて説明する。図1は、実施例の全体構成を示すブロッ
ク図である。遠距離用カメラ10は、車両前方の比較的
遠方(例えば、100m程度前方)画像を得るテレビカ
メラである。この遠距離用カメラ10は、例えば一対の
CCDカメラからなっており、ほぼ同一の対象につい
て、2つの画像データを得る。この遠距離用カメラ10
で得た画像データは、画像処理ECU12に供給され
る。この画像処理ECU12は、入力された画像を処理
し、1フレーム毎の画像データにすると共に、このデー
タから先行車を認識する。例えば、遠距離用カメラ10
の画像データから、画像データの中から、輝度の変化を
抽出することによって、車両の輪郭を認識し、先行車の
位置、方向を検出する。
Embodiments of the present invention will be described below with reference to the drawings. FIG. 1 is a block diagram showing the overall configuration of the embodiment. The long-distance camera 10 is a television camera that obtains a relatively distant image (for example, about 100 m ahead) ahead of the vehicle. The long-distance camera 10 includes, for example, a pair of CCD cameras, and obtains two image data for substantially the same target. This long distance camera 10
Is supplied to the image processing ECU 12. The image processing ECU 12 processes the input image to generate image data for each frame, and recognizes a preceding vehicle from the data. For example, a long-distance camera 10
By extracting a change in luminance from the image data, the outline of the vehicle is recognized, and the position and direction of the preceding vehicle are detected.

【0012】また、画像処理ECU12は、遠距離用カ
メラ10からの画像信号から先行車のデータから車間距
離を検出する。すなわち、2つのCCDカメラからの画
像を用い、三角法などにより車間距離を検出する。ま
た、この画像処理ECU12は、画像全体の明るさや画
像データのフレーム毎の動きなどから最適な絞りやシャ
ッタースピードなどを決定し、遠距離用カメラ10にお
ける絞りやシャッタースピードを制御する。そして、こ
のようにして画像処理ECU12において検出した各種
の検出結果についてのデータは環境認識ECU14に供
給される。
The image processing ECU 12 detects an inter-vehicle distance from data of a preceding vehicle from an image signal from the long-distance camera 10. That is, an inter-vehicle distance is detected by triangulation or the like using images from two CCD cameras. Further, the image processing ECU 12 determines an optimal aperture and shutter speed from the brightness of the entire image, the movement of each frame of image data, and the like, and controls the aperture and shutter speed of the long-distance camera 10. Then, data on various detection results detected by the image processing ECU 12 in this manner is supplied to the environment recognition ECU 14.

【0013】近距離用カメラ20は、車両の近傍の両側
部に存在するガイドライン(白線)を検出するための一
対のCCDカメラであり、この近距離用カメラ20によ
って得た画像信号は、画像処理ECU12に供給され
る。そして、画像処理ECU12は近距離用カメラ20
により得られた画像から車両の両側の白線を認識し、こ
れから車両の姿勢を検出する。また、画像処理ECU2
2は、近距離用カメラ20における絞りやシャッタース
ピードを制御する。そして、このようにして検出したデ
ータも環境認識ECU14に供給される。
The short-range camera 20 is a pair of CCD cameras for detecting a guide line (white line) existing on both sides near the vehicle, and an image signal obtained by the short-range camera 20 is subjected to image processing. It is supplied to the ECU 12. The image processing ECU 12 is connected to the short distance camera 20.
The white lines on both sides of the vehicle are recognized from the image obtained by the above, and the posture of the vehicle is detected from this. The image processing ECU 2
Reference numeral 2 controls the aperture and shutter speed of the short distance camera 20. The data detected in this way is also supplied to the environment recognition ECU 14.

【0014】さらに、遠距離用カメラ10及び近距離用
カメラ20の視野方向は、環境認識ECU14から送ら
れてくるステアモードに従って、画像処理ECU12に
よって決定される。そして、決定された視野方向につい
ての信号によって動作するステアコントローラ26、2
8がカメラ10、20の視野方向(ステア)を制御す
る。
Further, the direction of the visual field of the long-distance camera 10 and the short-distance camera 20 is determined by the image processing ECU 12 in accordance with the steer mode sent from the environment recognition ECU 14. Then, the steer controllers 26, 2 which operate according to the signal regarding the determined viewing direction are provided.
Reference numeral 8 controls the viewing direction (steer) of the cameras 10 and 20.

【0015】ここで、環境認識ECU14におけるステ
アモードには、通常走行時のモード1と、右左折時のモ
ード2の2つがある。すなわち、通常走行時(道なり走
行時)は、カメラステアモードをモード1とし、遠近カ
メラ10、20共に、自レーンが画像の中心になるよう
に、画像処理ECU12がカメラ10、20のステアを
制御する。なお、白線がない場合には、その他のデータ
も考慮して、カメラのステア角を決定しなければならな
いため、自レーンの方向に対するカメラステア角は常に
環境認識ECU14において最終的に決定する。
Here, there are two steering modes in the environment recognition ECU 14, a mode 1 for normal driving and a mode 2 for turning right and left. That is, during normal running (during road running), the camera steer mode is set to mode 1, and the image processing ECU 12 controls the steer of the cameras 10 and 20 so that both the perspective cameras 10 and 20 have their own lane at the center of the image. Control. When there is no white line, the steer angle of the camera must be determined in consideration of other data. Therefore, the camera steer angle for the direction of the own lane is always finally determined by the environment recognition ECU 14.

【0016】また、交差点内の右左折時は、カメラステ
アモードをモード2とし、環境認識ECU14が遠近距
離用カメラ10、20のステア方向を決定する。すなわ
ち、右左折時には遠距離用カメラ10は対向車の方向
(前方)に向け、近距離用カメラ20を進行方向に向け
る。これは、右左折時には、前方から進んでくる対向車
等を認識することも重要だからである。
When turning right or left within an intersection, the camera steer mode is set to mode 2, and the environment recognizing ECU 14 determines the steer direction of the cameras 10 and 20. That is, when making a right or left turn, the long distance camera 10 is directed toward the oncoming vehicle (forward), and the short distance camera 20 is directed in the traveling direction. This is because it is important to recognize an oncoming vehicle or the like coming from the front when turning right or left.

【0017】ここで、図2に、画像処理ECU12にお
ける処理のフローチャートを示す。画像処理ECU12
では、まず環境認識ECU14からカメラステアモード
を受信する(S101)。次に、このステアモードおよ
び前回の処理によって決定されたステア方向に従って、
カメラ10、20のステアを制御する(S102)。そ
して、カメラ10、20によって得た画像データから走
行レーンおよび道路を検出する(S103)と共に、先
行車両を認識する(S104)。このようにして、所定
の検出が終了した場合には、検出結果を環境認識ECU
14に送信し(S105)、S101に戻る。
FIG. 2 shows a flowchart of processing in the image processing ECU 12. Image processing ECU 12
First, the camera steer mode is received from the environment recognition ECU 14 (S101). Next, according to the steer mode and the steer direction determined by the previous process,
The steering of the cameras 10 and 20 is controlled (S102). Then, a traveling lane and a road are detected from the image data obtained by the cameras 10 and 20 (S103), and a preceding vehicle is recognized (S104). In this way, when the predetermined detection is completed, the detection result is sent to the environment recognition ECU.
14 (S105), and returns to S101.

【0018】ミリ波レーダ30は、車両の前方にミリ波
を送出すると共に、前方から反射されてくるミリ波を受
信し、送信、受信信号の状態から、前方の状況を認識す
る。このミリ波レーダ30からの信号はレーダECU3
2に供給される。そして、レーダECU32はミリ波レ
ーダ30によって得たデータに基づいて先行車との車間
距離および相対速度を検出する。そしてこの検出結果は
環境認識ECU14に供給される。
The millimeter wave radar 30 transmits a millimeter wave to the front of the vehicle, receives the millimeter wave reflected from the front, and recognizes the state of the front from the state of transmission and reception signals. The signal from the millimeter wave radar 30 is transmitted to the radar ECU 3
2 is supplied. Then, the radar ECU 32 detects the inter-vehicle distance to the preceding vehicle and the relative speed based on the data obtained by the millimeter wave radar 30. The detection result is supplied to the environment recognition ECU 14.

【0019】また、環境認識ECU14は、遠距離用カ
メラ10からの画像によって得た先行車の方向や近距離
用カメラ20からのデータによって得た車両姿勢から先
行車の方向を推定し、この結果に応じて、ミリ波レーダ
30の指向方向(ステア)を決定する。そして、このス
テアについての信号は、ステアコントローラ34を介し
ミリ波レーダ30に供給され、このステアコントローラ
34からの信号によってミリ波レーダのステアが制御さ
れる。
The environment recognition ECU 14 estimates the direction of the preceding vehicle from the direction of the preceding vehicle obtained from the image from the long-distance camera 10 and the vehicle attitude obtained from the data from the short-distance camera 20. , The directivity direction (steer) of the millimeter wave radar 30 is determined. The signal about the steering is supplied to the millimeter wave radar 30 via the steering controller 34, and the steering of the millimeter wave radar is controlled by the signal from the steering controller 34.

【0020】図3は、レーダECU32の動作を示すフ
ローチャートであり、まず供給されるミリ波レーダ30
の検出結果から車間距離および相対速度を検出する(S
201)。個々で、相対速度は、検出した車間距離の変
化状態(微分)から算出する。そして、得たデータを環
境認識ECU14に送信する(S202)。
FIG. 3 is a flowchart showing the operation of the radar ECU 32. First, the supplied millimeter wave radar 30
The distance between vehicles and the relative speed are detected from the detection result (S
201). Individually, the relative speed is calculated from the detected change state (derivative) of the following distance. Then, the obtained data is transmitted to the environment recognition ECU 14 (S202).

【0021】さらに、GPSアンテナ40は、人工衛星
(通常4つ)からの所定の信号を受信し、これをGPS
レシーバ42に供給する。GPSレシーバ42は、得ら
れた受信信号から、車両の絶対位置(緯度、経度、標
高)を特定する。図4は、GPSレシーバ42の動作を
示すフローチャートであり、まず受信信号から現在位
置、標高などを検出し(S301)、検出したデータを
環境認識ECU14に送信する(S302)。
Further, the GPS antenna 40 receives a predetermined signal from an artificial satellite (usually four satellites),
It is supplied to the receiver 42. The GPS receiver 42 specifies the absolute position (latitude, longitude, altitude) of the vehicle from the obtained reception signal. FIG. 4 is a flowchart showing the operation of the GPS receiver 42. First, the current position, altitude, and the like are detected from the received signal (S301), and the detected data is transmitted to the environment recognition ECU 14 (S302).

【0022】また、ビーコンアンテナ50は、道路の所
定位置に設けられているビーコンからの信号を受信する
ものであり、ビーコン受信機52が受信信号から現在位
置の情報を認識し環境認識ECU14に供給する。図5
にビーコン受信機52の処理フローを示す。まず、ビー
コンを通過したか否かを判断し(S401)、ビーコン
を通過した場合には、現在位置についての信号を受信し
(S402)、これを環境認識ECU14に供給する
(S403)。ここで、ビーコンから供給される情報と
しては、ビーコンの位置情報の他に、交差点の信号状
態、この交差点に進入しようとしている他車の位置、他
車が接近してくる道路、レーン、速度などの情報があ
る。なお、他車についての情報は、他車がビーコンに付
随する受信機に向けて情報を送信するか、交差点近傍に
検出器を設け、この検出結果から認識する。
The beacon antenna 50 receives a signal from a beacon provided at a predetermined position on the road. A beacon receiver 52 recognizes information on the current position from the received signal and supplies the information to the environment recognition ECU 14. I do. FIG.
Shows a processing flow of the beacon receiver 52. First, it is determined whether a beacon has passed or not (S401). If a beacon has passed, a signal about the current position is received (S402) and supplied to the environment recognition ECU 14 (S403). Here, the information supplied from the beacon includes, in addition to the position information of the beacon, the signal state of the intersection, the position of another vehicle trying to enter this intersection, the road, the lane, and the speed at which the other vehicle approaches. There is information of. The information about the other vehicle is recognized by the other vehicle transmitting information to a receiver attached to the beacon or by providing a detector near the intersection and detecting the information.

【0023】さらに、環境認識ECU14には、車両に
備えている車速センサ、操舵角センサ、ワイパスイッチ
などからの信号が供給される。
Further, the environment recognition ECU 14 is supplied with signals from a vehicle speed sensor, a steering angle sensor, a wiper switch, and the like provided in the vehicle.

【0024】ここで、環境認識ECU14内には、地図
データ記憶部70、道路モデル記憶部72、カメラ信頼
度判定部74およびミリ波レーダ信頼度判定部76が設
けられている。
The environment recognition ECU 14 includes a map data storage unit 70, a road model storage unit 72, a camera reliability determination unit 74, and a millimeter wave radar reliability determination unit 76.

【0025】カメラ信頼度判定部74は、まず雨、霧の
状態などの外部環境が、遠距離用カメラ10において先
行車を認識するのに適しているか否かを判定し、外部環
境によるカメラ信頼度Rc1を算出する。例えば、雨の
強さによって信頼度Rc1を決定する。ここで、雨の強
さについては、ワイパーの駆動状態によって判定すると
よい。すなわち、ワイパーが高速で駆動されている場合
には、雨が強いと考えられ、遠距離用カメラ10によっ
て先行車を認識するのに適していないと考えられる。一
方、ワイパースイッチがOFFであれば、雨が降ってい
ないと判定できる。また、霧は、フォグランプがオンさ
れているかによって認識できる。また、先行車のテール
ランプの内外の輝度の差、すなわちテールランプを撮影
している箇所の輝度とその周囲の輝度の差を輝度の階調
数(例えば輝度が8ビットで表現されるのであれば25
6)で除算し、 信頼度Rc1=レベル差/256 信頼度を算出することもできる。
The camera reliability determination section 74 first determines whether or not the external environment such as rain or fog is suitable for the long distance camera 10 to recognize the preceding vehicle. The degree Rc1 is calculated. For example, the reliability Rc1 is determined according to the intensity of rain. Here, the intensity of rain may be determined based on the driving state of the wiper. That is, when the wiper is driven at a high speed, it is considered that the rain is strong, and it is not suitable for the long distance camera 10 to recognize the preceding vehicle. On the other hand, if the wiper switch is OFF, it can be determined that it is not raining. The fog can be recognized by whether the fog lamp is turned on. The difference between the luminance of the tail lamp inside and outside of the preceding vehicle, that is, the difference between the luminance of the location where the tail lamp is being photographed and the luminance of the surrounding area is represented by the number of gradations of luminance (for example, 25 bits if the luminance is expressed by 8 bits).
6), reliability Rc1 = level difference / 256 reliability can be calculated.

【0026】次に、カメラ信頼度判定部74は、カメラ
10によって得られた画像データに基づいてカメラ信頼
度Rc2を判定する。例えば、画像処理ECU12にお
いて車両を認識した際のエッジの数から次にようにして
信頼度を判定する。すなわち、車両を撮影した画像デー
タの輝度を検出した場合、車両の輪郭、窓等各種のエッ
ジ(輝度変化が所定以上の点)がある。このため、垂直
方向の輝度データの変化状態から車両の水平方向のエッ
ジを検出し、得られたエッジ数から次式により信頼度を
算出する。
Next, the camera reliability determination section 74 determines the camera reliability Rc2 based on the image data obtained by the camera 10. For example, the reliability is determined as follows from the number of edges when the image processing ECU 12 recognizes the vehicle. That is, when the brightness of the image data obtained by photographing the vehicle is detected, there are various edges (points where the change in brightness is equal to or more than a predetermined value) such as the contour of the vehicle and the window. Therefore, the horizontal edge of the vehicle is detected from the change state of the luminance data in the vertical direction, and the reliability is calculated from the obtained number of edges by the following equation.

【0027】 信頼度Rc2=水平エッジ数/理論最大エッジ数 ここで、理論最大エッジ数は、車両の形状から決定され
る理論的な検出可能なエッジ数である。
Reliability Rc2 = Horizontal Edge Number / Theoretical Maximum Edge Number Here, the theoretical maximum edge number is the theoretical detectable edge number determined from the shape of the vehicle.

【0028】また、夜間の場合は、上述した霧の場合と
同様に先行車のテールランプの内外の輝度の差により信
頼度を算出するとよい。
In the case of nighttime, the reliability may be calculated from the difference between the brightness of the inside and outside of the tail lamp of the preceding vehicle as in the case of the above-mentioned fog.

【0029】次に、ミリ波レーダ信頼度算出部74は、
道路の複雑度、すなわちカーブ半径R、制限速度、道路
幅、高速道路一般道などの道路種別、交差点内か否か等
のデータからミリ波レーダの信頼度を算出する。すなわ
ち、地図データ記憶部70は、道路形状、道路端形状、
道路高さ、交差点位置、形状、横断歩道位置、停止線位
置、信号の有無、一時停止の有無などのデータを記憶し
ている。従って、環境認識ECU14は、この地図デー
タ記憶部70に記憶されている地図データと、GPS受
信機40、ビーコン受信機52から供給される信号に基
づく自車両の絶対位置との両方から自車両の状況を知る
ことができる。そして、ミリ波レーダ信頼度算出部74
は、自車が走行する道路環境からミリ波レーダ30の信
頼度を算出する。例えば、カーブ半径が小さい、制限速
度が小さい、道路幅が小さいという場合や、一般道、交
差点内においてミリ波レーダ信頼度は低い。そこで、こ
れらの各因子の状況により、走行環境に対する信頼度R
m1を算出する。
Next, the millimeter wave radar reliability calculator 74 calculates
The reliability of the millimeter wave radar is calculated from data such as the complexity of the road, that is, the curve radius R, the speed limit, the road width, the type of road such as a general highway, and whether or not the vehicle is within an intersection. That is, the map data storage unit 70 stores the road shape, the road edge shape,
Data such as road height, intersection position, shape, pedestrian crossing position, stop line position, presence / absence of signal, presence / absence of temporary stop, etc. are stored. Accordingly, the environment recognition ECU 14 determines the position of the host vehicle from both the map data stored in the map data storage unit 70 and the absolute position of the host vehicle based on the signals supplied from the GPS receiver 40 and the beacon receiver 52. You can know the situation. Then, the millimeter wave radar reliability calculation unit 74
Calculates the reliability of the millimeter wave radar 30 from the road environment in which the own vehicle runs. For example, when the radius of the curve is small, the speed limit is small, and the road width is small, or the reliability of the millimeter wave radar is low on a general road or an intersection. Therefore, depending on the situation of each of these factors, the reliability R for the driving environment
Calculate m1.

【0030】また、ミリ波レーダ30の検出値に応じて
ミリ波レーダの信頼度Rm2を算出する。このため、ま
ず静的な試験により事前に車幅をパラメータとした距離
と受信レベルのマップを作成しておく。すなわち、車幅
が一定であれば、受信強度は距離が所定値以上になった
場合に受信強度が減少し始める。また、車幅が大きいほ
ど受信強度が減少し始める距離が大きくなる。そこで、
画像で検出した車幅を用いて、最大受信レベルSR0を
マップから求め、これを実際に得られた受信レベルと比
較して信頼度を算出する。すなわち、次式でミリ波レー
ダの信頼度Rm2を算出する。
Further, the reliability Rm2 of the millimeter wave radar is calculated according to the detection value of the millimeter wave radar 30. For this reason, first, a map of the distance and the reception level using the vehicle width as a parameter is created in advance by a static test. In other words, if the vehicle width is constant, the reception intensity starts to decrease when the distance exceeds a predetermined value. In addition, the greater the vehicle width, the greater the distance at which the reception intensity starts to decrease. Therefore,
Using the vehicle width detected in the image, the maximum reception level SR0 is obtained from the map, and this is compared with the actually obtained reception level to calculate the reliability. That is, the reliability Rm2 of the millimeter wave radar is calculated by the following equation.

【0031】信頼度Rm2=実際の受信レベル/SR0 そして、環境認識ECU14には、警報・制御ECU8
0が接続されており、この車両制御ECU80が環境認
識ECU14により得られた車間距離、相対速度(車間
距離の時間変化により検出される)に基づいて、警報の
発生、加減速制御などを行う。
The reliability Rm2 = the actual reception level / SR0.
0 is connected, and the vehicle control ECU 80 performs alarm generation, acceleration / deceleration control, and the like based on the inter-vehicle distance and the relative speed (detected by a change in the inter-vehicle distance with time) obtained by the environment recognition ECU 14.

【0032】次に、実施例の全体動作について、図6に
基づいて説明する。システムの動作介し(例えば、車両
のイグニッションスイッチのオン)に伴い、環境認識E
CU14は、画像処理ECU12、ミリ波レーダECU
32、GPS受信機42及びビーコン受信機52の動作
確認などのイニシャライズ処理を実施する(S1)。ま
た、前回のイグニッションスイッチオフの直前における
車両位置を地図上における推定現在位置にセットする。
次に、GPS受信機42からの信号により、現在位置、
標高、方位等を検出する(S2)。GPS受信機42
は、約1秒毎に自車両の三次元位置、方位などを検出
し、環境認識ECU14にデータを送信する。環境認識
ECU14は、GPS受信機42からのデータと、地図
データ記憶部70からのデータにより、走行道路の候補
を選定する。そして、操舵角、ヨーレイト、横加速度な
どのデータから車両の走行軌跡を計算し、走行道路を特
定する(S3)。また、車速パルスのカウントにより、
道路内における進行方向の位置を推定する。なお、走行
軌跡はGPS受信機42によって得られる位置データの
履歴を参考にする。
Next, the overall operation of the embodiment will be described with reference to FIG. With the operation of the system (for example, turning on the ignition switch of the vehicle), the environment recognition E
The CU 14 is an image processing ECU 12, a millimeter wave radar ECU
32, an initialization process such as an operation check of the GPS receiver 42 and the beacon receiver 52 is performed (S1). Further, the vehicle position immediately before the previous ignition switch is turned off is set to the estimated current position on the map.
Next, according to a signal from the GPS receiver 42, the current position,
An altitude, a direction, and the like are detected (S2). GPS receiver 42
Detects the three-dimensional position and azimuth of the own vehicle about every one second, and transmits data to the environment recognition ECU 14. The environment recognition ECU 14 selects a candidate for a traveling road based on the data from the GPS receiver 42 and the data from the map data storage unit 70. Then, the traveling locus of the vehicle is calculated from data such as the steering angle, the yaw rate, and the lateral acceleration, and the traveling road is specified (S3). Also, by counting the vehicle speed pulse,
Estimate the position in the traveling direction on the road. The traveling locus refers to the history of the position data obtained by the GPS receiver 42.

【0033】次に、ビーコン受信機52からの信号によ
り、ビーコンを通過したか否かを判定し(S4)、ビー
コンを通過した場合にはビーコンからのデータにより現
在位置の修正を行う(S5)。これは、ビーコンからの
データによる位置の特定が、最も正確なものだからであ
る。これによって、走行道路内における車両の位置が特
定され、S3において推定された道路内の進行方向の位
置が補正される。また、このビーコンからのデータによ
る位置補正の際に、車速パルスから走行距離を求めると
きの補正係数を学習する。従って、車速パルスから求め
る道路内の進行方向の位置の特定精度が向上する。
Next, it is determined whether or not a beacon has passed based on a signal from the beacon receiver 52 (S4). If the beacon has passed, the current position is corrected based on data from the beacon (S5). . This is because the position identification based on the data from the beacon is the most accurate. Thereby, the position of the vehicle on the traveling road is specified, and the position in the traveling direction on the road estimated in S3 is corrected. In addition, at the time of position correction based on the data from the beacon, a correction coefficient for obtaining a traveling distance from a vehicle speed pulse is learned. Accordingly, the accuracy of specifying the position in the traveling direction on the road obtained from the vehicle speed pulse is improved.

【0034】このような処理により、自車両が道路上の
どの位置に存在しているか(自車両位置)が決定され
る。
Through such processing, the position of the host vehicle on the road (the host vehicle position) is determined.

【0035】環境認識ECU14は、上述のようにして
得られた自車位置により、通常走行時か、右左折時かを
判定し、カメラステアモードを決定する(S6)。そし
て、この決定されたカメラステアモードを画像処理EC
U12に送る。画像処理ECU12は、送られてきたモ
ードの種類に応じ、遠距離用カメラ10及び近距離用カ
メラ20のステアを制御し、得られた画像から、道路の
検出及び先行車両の検出を行う(S7)。すなわち、近
距離用カメラ20によって得られた画像から、白線を検
出し、自車姿勢を検出する。また、遠距離用カメラ10
によって得られた画像から、先行車両を検出する。そし
て、得られたデータを環境認識ECU14に送る。な
お、画像処理ECU12は、道路に対する横偏位、ヨー
角の他、認識した先行車から、その先行車までの車間距
離、方向及び車幅などを検出する。また、ヨーレイトセ
ンサや横加速度センサの検出値を用いる。そして、得ら
れたヨーレイト、横加速度から自車の移動量を計算する
(S8)。そして、前回の処理において得られた自車姿
勢にS8において得られた移動量を加え自車姿勢を求
め、これによって、S7において求められた自車姿勢を
補正する(S9)。ここまでの処理により、自車の走路
に対する横偏位、ヨー角及び進行方向における位置が決
定される。
The environment recognizing ECU 14 determines whether the vehicle is running normally or right or left based on the own vehicle position obtained as described above, and determines the camera steer mode (S6). Then, the determined camera steer mode is transferred to the image processing EC.
Send to U12. The image processing ECU 12 controls the steering of the long-distance camera 10 and the short-distance camera 20 in accordance with the type of the mode transmitted, and detects a road and a preceding vehicle from the obtained images (S7). ). That is, the white line is detected from the image obtained by the short-range camera 20, and the posture of the vehicle is detected. In addition, the long distance camera 10
The preceding vehicle is detected from the image obtained by the above. Then, the obtained data is sent to the environment recognition ECU 14. In addition, the image processing ECU 12 detects the inter-vehicle distance, direction, vehicle width, and the like from the recognized preceding vehicle to the preceding vehicle, in addition to the lateral deviation with respect to the road and the yaw angle. Further, the detection values of the yaw rate sensor and the lateral acceleration sensor are used. Then, the movement amount of the own vehicle is calculated from the obtained yaw rate and lateral acceleration (S8). Then, the moving amount obtained in S8 is added to the own vehicle posture obtained in the previous process to obtain the own vehicle posture, and thereby the own vehicle posture obtained in S7 is corrected (S9). By the processing so far, the lateral deviation, the yaw angle, and the position in the traveling direction of the own vehicle with respect to the traveling path are determined.

【0036】次に、カメラの信頼度Rcを計算する(S
10)。この信頼度の計算は、上述したような雨、霧な
どの状況と、画像におけるエッジの検出などによって行
う。そして、信頼度が高いか否かを判定し(S11)、
信頼度が高かった場合には、危険度の計算を行う(S1
2)。この危険度は、例えば、 危険度=1/各車両への衝突時間 により計算する。そして、得られた危険度により、最も
危険度の高い車両を選択し、選択された車両にミリ波を
ステアさせるためのステア角を決定する。また、危険度
の値が小さく、その値の変化が小さいとときには、状態
が安定していると判断し、適当な間隔で両隣のレーンの
車両についてもミリ波で車間距離を測定する。さらに、
車両が存在しない場合には、自車レーン及び両隣のレー
ンを適当な間隔で交互にミリ波をステアするようにステ
ア角を決定する。
Next, the camera reliability Rc is calculated (S
10). The calculation of the reliability is performed based on the above-described conditions such as rain and fog, and detection of edges in an image. Then, it is determined whether the reliability is high (S11),
If the reliability is high, the risk is calculated (S1).
2). This risk is calculated by, for example, risk = 1 / time of collision with each vehicle. Then, based on the obtained degree of danger, the vehicle with the highest degree of danger is selected, and the steer angle for causing the selected vehicle to steer the millimeter wave is determined. When the value of the degree of danger is small and the change in the value is small, it is determined that the state is stable, and the inter-vehicle distance is measured using millimeter waves for vehicles on both adjacent lanes at appropriate intervals. further,
When there is no vehicle, the steer angle is determined so that the own vehicle lane and the lanes on both sides are alternately steered with millimeter waves at appropriate intervals.

【0037】一方、S11においてカメラの信頼度が小
さかった場合には、自車姿勢及び地図データから得られ
た道路の形状によりミリ波のステア角を決定する(S1
3)。そして、上述のように、S12及びS13におい
て決定されたステア角に応じてミリ波のステアを制御す
る(S14)。そして、ミリ波レーダECU32におい
て、先行車両までの車間距離、相対速度及びミリ波の受
信レベルを検出する(S15)。そして、この検出され
たデータは環境認識ECU14に送られる。環境認識E
CU14は、得られたミリ波のデータ及び、自車の走行
環境から、ミリ波の信頼度を計算する(S16)。そし
て、ミリ波による信頼度とカメラによる信頼度(S10
及びS16において得られたもの)を比較し(S1
7)、信頼度の高い方を選択する(S18)。すなわ
ち、カメラの信頼度の方が高ければ、カメラによって得
られた車間距離を採用し(S18)、先行車両との車間
距離とし、ミリ波の信頼度が高ければミリ波によって得
られた車間距離を採用する(S19)。
On the other hand, if the reliability of the camera is low in S11, the steer angle of the millimeter wave is determined based on the attitude of the vehicle and the shape of the road obtained from the map data (S1).
3). Then, as described above, the steer of the millimeter wave is controlled in accordance with the steer angle determined in S12 and S13 (S14). Then, the millimeter-wave radar ECU 32 detects the inter-vehicle distance to the preceding vehicle, the relative speed, and the reception level of the millimeter wave (S15). Then, the detected data is sent to the environment recognition ECU 14. Environmental awareness E
The CU 14 calculates the reliability of the millimeter wave from the obtained millimeter wave data and the traveling environment of the own vehicle (S16). Then, the reliability by the millimeter wave and the reliability by the camera (S10
And those obtained in S16) are compared (S1
7), the higher reliability is selected (S18). That is, if the reliability of the camera is higher, the inter-vehicle distance obtained by the camera is adopted (S18), and the inter-vehicle distance to the preceding vehicle is used. If the reliability of the millimeter wave is higher, the inter-vehicle distance obtained by the millimeter wave Is adopted (S19).

【0038】このようにして、本実施例によれば、カメ
ラによる車間距離検出とミリ波による車間距離検出の両
方を常時行い、信頼度のより高い方のデータを用いて車
間距離を検出する。従って、常に正確な車間距離検出を
行うことができる。
As described above, according to the present embodiment, both the inter-vehicle distance detection by the camera and the inter-vehicle distance detection by the millimeter wave are always performed, and the inter-vehicle distance is detected using the data having higher reliability. Therefore, accurate inter-vehicle distance detection can always be performed.

【0039】次に、ミリ波の信頼度が高い場合における
追加の処理について図7に基づいて説明する。すなわ
ち、S19の処理を経たミリ波の信頼度が高かった場合
において、カメラの信頼度が所定値以上か否かを判定す
る(S21)。そして、カメラ信頼度が所定値以上であ
った場合には、ミリ波によって検出した車間距離とカメ
ラによって検出したミリ波測定車両に対する車間距離を
比較する。そして、両者の差を演算することにより、カ
メラによって得られた車間距離の補正値を計算する(S
22)。そして、カメラによって得られたミリ波測定車
両以外の車両についての車間距離を上述の補正値によっ
て補正する(S23)。そして、S21においてNoで
あった場合も含め、S2に戻る。
Next, additional processing when the reliability of the millimeter wave is high will be described with reference to FIG. That is, when the reliability of the millimeter wave after the processing of S19 is high, it is determined whether or not the reliability of the camera is equal to or more than a predetermined value (S21). If the camera reliability is equal to or greater than a predetermined value, the inter-vehicle distance detected by the millimeter wave is compared with the inter-vehicle distance to the millimeter-wave measurement vehicle detected by the camera. Then, by calculating the difference between them, a correction value of the following distance obtained by the camera is calculated (S
22). Then, the inter-vehicle distance of vehicles other than the millimeter-wave measurement vehicle obtained by the camera is corrected by the above-described correction value (S23). Then, the process returns to S2, including the case of No in S21.

【0040】これにより、カメラによって得られた車間
距離がより正確なものとなる。そして、ミリ波によって
測定できなかった車両に対する車間距離もかなり正確な
ものとして求めることができる。
Thus, the inter-vehicle distance obtained by the camera becomes more accurate. Then, the inter-vehicle distance with respect to the vehicle that could not be measured by the millimeter wave can also be obtained as being quite accurate.

【0041】[0041]

【発明の効果】以上説明したように、本発明に係る車間
距離検出装置によれば、カメラとミリ波レーダの2つの
車間距離検出手段を有し、信頼度のより高い方のデータ
を用いて車間距離を検出する。そこで、走行状況の変化
に応じて、適切な検出手段の選択ができ、正確な車間距
離検出を行うことができる。
As described above, the inter-vehicle distance detecting apparatus according to the present invention has two inter-vehicle distance detecting means, that is, a camera and a millimeter wave radar, and uses data having higher reliability. Detect inter-vehicle distance. Therefore, an appropriate detecting means can be selected according to a change in the traveling situation, and accurate inter-vehicle distance detection can be performed.

【図面の簡単な説明】[Brief description of the drawings]

【図1】実施例の全体構成を示すブロック図である。FIG. 1 is a block diagram illustrating an overall configuration of an embodiment.

【図2】画像処理ECU12の動作を示すフローチャー
トである。
FIG. 2 is a flowchart illustrating an operation of an image processing ECU 12.

【図3】レーダECU32の動作を示すフローチャート
である
FIG. 3 is a flowchart illustrating an operation of a radar ECU 32;

【図4】GPSレシーバ42の動作を示すフローチャー
トである。
FIG. 4 is a flowchart showing an operation of the GPS receiver 42.

【図5】ビーコン受信機52の動作を示すフローチャー
トである。
FIG. 5 is a flowchart showing the operation of the beacon receiver 52.

【図6】実施例の動作を説明するフローチャートであ
る。
FIG. 6 is a flowchart illustrating the operation of the embodiment.

【図7】実施例の追加の動作例を示すフローチャートで
ある。
FIG. 7 is a flowchart illustrating an additional operation example of the embodiment.

【符号の説明】[Explanation of symbols]

10 遠距離用カメラ 14 環境認識ECU 20 近距離用カメラ 30 ミリ波レーダ 40 GPS受信機 50 ビーコン受信機 70 地図データ記憶部 74 カメラ信頼度判定部 76 ミリ波レーダ信頼度判定部 80 警報・制御ECU DESCRIPTION OF SYMBOLS 10 Long distance camera 14 Environment recognition ECU 20 Short distance camera 30 Millimeter wave radar 40 GPS receiver 50 Beacon receiver 70 Map data storage part 74 Camera reliability judgment part 76 Millimeter wave radar reliability judgment part 80 Alarm / control ECU

フロントページの続き (56)参考文献 特開 昭64−79681(JP,A) 特開 平3−115985(JP,A) 特開 昭58−92879(JP,A) 特開 昭58−109870(JP,A) 特開 平3−165288(JP,A) 特開 平4−276585(JP,A) 特開 昭64−26913(JP,A) 実開 昭63−67892(JP,U) 実開 昭60−573(JP,U) 実開 平3−35490(JP,U) (58)調査した分野(Int.Cl.6,DB名) G01S 13/86 G01C 3/06 G01S 13/93 G08G 1/04 G01S 11/12 Continuation of the front page (56) References JP-A-64-79681 (JP, A) JP-A-3-115985 (JP, A) JP-A-58-92879 (JP, A) JP-A-58-109870 (JP) JP-A-3-165288 (JP, A) JP-A-4-276585 (JP, A) JP-A-64-26913 (JP, A) JP-A-63-67892 (JP, U) JP-A 60-573 (JP, U) Hikaru Hei 3-35490 (JP, U) (58) Fields investigated (Int. Cl. 6 , DB name) G01S 13/86 G01C 3/06 G01S 13/93 G08G 1 / 04 G01S 11/12

Claims (2)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】 カメラおよびミリ波レーダの検出結果を
利用して車間距離を検出する車間距離検出装置におい
て、 雨、霧等のカメラ視界を左右する環境状態を検出する環
境状態検出手段と、 カーブ、交差点等の車両が走行している道路の道路状態
を認識する道路状態認識手段と、 上記環境状態および上記カメラにより得た画像データの
状態からカメラの信頼度を算出するカメラ信頼度算出手
段と、 上記道路状態および上記ミリ波レーダの検出値からミリ
波レーダの信頼度を算出するミリ波レーダ信頼度を算出
するミリ波レーダ信頼度算出手段と、 両算出手段で算出された信頼度を比較し、この比較結果
に応じてカメラまたはミリ波レーダのいずれに基づいて
車間距離を検出するかを決定する選択決定手段と、 を有することを特徴とする車間距離検出装置。
1. An inter-vehicle distance detecting apparatus for detecting an inter-vehicle distance by using detection results of a camera and a millimeter wave radar, wherein: an environmental state detecting means for detecting an environmental state such as rain and fog which influences a field of view of the camera; A road condition recognition means for recognizing a road condition of a road on which a vehicle such as an intersection is traveling; and a camera reliability calculation means for calculating a camera reliability from the environmental condition and a state of image data obtained by the camera. A millimeter-wave radar reliability calculating means for calculating the millimeter-wave radar reliability based on the road condition and the millimeter-wave radar detection value, and comparing the reliability calculated by the two calculating means. Selection determining means for determining whether to detect the inter-vehicle distance based on the camera or the millimeter-wave radar according to the comparison result. Distance detection device.
【請求項2】 請求項1に記載の車間距離検出装置にお
いて、 上記選択決定手段によりミリ波レーダが選択された場合
であって、カメラの信頼度が所定値以上である場合に
は、 上記カメラの検出結果から得られた車間距離およびミリ
波レーダの検出結果から得られた車間距離から、カメラ
の検出結果から得られた車間距離についての補正値を算
出し、得られた補正値によってカメラによって得た車間
距離を補正し、ミリ波レーダによって得られない方向の
車間距離を検出することを特徴とする車間距離検出装
置。
2. The inter-vehicle distance detecting apparatus according to claim 1, wherein the millimeter wave radar is selected by the selection determining means, and the reliability of the camera is equal to or more than a predetermined value. From the inter-vehicle distance obtained from the detection result of the vehicle and the inter-vehicle distance obtained from the detection result of the millimeter wave radar, a correction value for the inter-vehicle distance obtained from the detection result of the camera is calculated, and the correction value obtained by the camera is used. An inter-vehicle distance detection device that corrects the obtained inter-vehicle distance and detects an inter-vehicle distance in a direction that cannot be obtained by a millimeter wave radar.
JP5014365A 1993-02-01 1993-02-01 Inter-vehicle distance detection device Expired - Fee Related JP2900737B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP5014365A JP2900737B2 (en) 1993-02-01 1993-02-01 Inter-vehicle distance detection device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP5014365A JP2900737B2 (en) 1993-02-01 1993-02-01 Inter-vehicle distance detection device

Publications (2)

Publication Number Publication Date
JPH06230115A JPH06230115A (en) 1994-08-19
JP2900737B2 true JP2900737B2 (en) 1999-06-02

Family

ID=11859035

Family Applications (1)

Application Number Title Priority Date Filing Date
JP5014365A Expired - Fee Related JP2900737B2 (en) 1993-02-01 1993-02-01 Inter-vehicle distance detection device

Country Status (1)

Country Link
JP (1) JP2900737B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE112020005077T5 (en) 2019-11-26 2022-07-28 Hitachi Astemo, Ltd. DEVICE AND METHOD FOR CONTROLLING A MOBILE BODY

Families Citing this family (67)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5877897A (en) 1993-02-26 1999-03-02 Donnelly Corporation Automatic rearview mirror, vehicle lighting control and vehicle interior monitoring system using a photosensor array
US6822563B2 (en) 1997-09-22 2004-11-23 Donnelly Corporation Vehicle imaging system with accessory control
US6891563B2 (en) 1996-05-22 2005-05-10 Donnelly Corporation Vehicular vision system
US7655894B2 (en) 1996-03-25 2010-02-02 Donnelly Corporation Vehicular image sensing system
JP3681241B2 (en) * 1996-11-19 2005-08-10 松下電器産業株式会社 Relative position calculation device
JP3748306B2 (en) * 1997-01-23 2006-02-22 富士通テン株式会社 Radar equipment
JP4046905B2 (en) * 1999-08-27 2008-02-13 本田技研工業株式会社 Inter-vehicle distance measuring device
JP4308381B2 (en) 1999-09-29 2009-08-05 富士通テン株式会社 Perimeter monitoring sensor
JP3768779B2 (en) * 2000-06-02 2006-04-19 三菱電機株式会社 Vehicle steering driving support device
JP4953498B2 (en) * 2000-07-12 2012-06-13 富士重工業株式会社 Outside vehicle monitoring device with fail-safe function
JP2002316601A (en) * 2001-04-19 2002-10-29 Mitsubishi Motors Corp Drive support device
JP3718747B2 (en) * 2001-04-27 2005-11-24 日産自動車株式会社 Vehicle travel control device
JP2003121547A (en) 2001-10-18 2003-04-23 Fuji Heavy Ind Ltd Outside-of-vehicle monitoring apparatus
JP3880841B2 (en) 2001-11-15 2007-02-14 富士重工業株式会社 Outside monitoring device
JP3766909B2 (en) 2001-11-30 2006-04-19 株式会社日立製作所 Driving environment recognition method and apparatus
US7038577B2 (en) 2002-05-03 2006-05-02 Donnelly Corporation Object detection system for vehicle
JP4032843B2 (en) * 2002-06-25 2008-01-16 富士重工業株式会社 Monitoring system and monitoring method, distance correction device and distance correction method in the monitoring system
JP2004037239A (en) 2002-07-03 2004-02-05 Fuji Heavy Ind Ltd Identical object judging method and system, and misregistration correcting method and system
JP2004085337A (en) * 2002-08-27 2004-03-18 Fujitsu Ltd Vehicle detection method and vehicle detection device
JP2004117071A (en) 2002-09-24 2004-04-15 Fuji Heavy Ind Ltd Vehicle surroundings monitoring apparatus and traveling control system incorporating the same
JP4265931B2 (en) * 2003-05-22 2009-05-20 富士重工業株式会社 Leading vehicle detection device
JP4172368B2 (en) * 2003-10-07 2008-10-29 株式会社デンソー Vehicle detection device
JP2008247385A (en) * 2003-11-07 2008-10-16 Nissan Motor Co Ltd Vehicle driving operation auxiliary device and vehicle with the vehicle driving operation auxiliary device
JP2005149023A (en) * 2003-11-13 2005-06-09 Mitsubishi Electric Corp Drive support device
JP4294450B2 (en) * 2003-11-19 2009-07-15 富士重工業株式会社 Vehicle driving support device
JP3856798B2 (en) * 2004-04-09 2006-12-13 松下電器産業株式会社 Navigation device
US7526103B2 (en) 2004-04-15 2009-04-28 Donnelly Corporation Imaging system for vehicle
JP4396400B2 (en) * 2004-06-02 2010-01-13 トヨタ自動車株式会社 Obstacle recognition device
JP2006234513A (en) * 2005-02-23 2006-09-07 Toyota Central Res & Dev Lab Inc Obstruction detection system
JP4518978B2 (en) * 2005-03-02 2010-08-04 ダイハツ工業株式会社 Vehicle object recognition device and object recognition method
WO2006123615A1 (en) 2005-05-19 2006-11-23 Olympus Corporation Distance measuring apparatus, distance measuring method and distance measuring program
JP2007024590A (en) * 2005-07-13 2007-02-01 Toyota Motor Corp Object detector
JP4613738B2 (en) * 2005-07-29 2011-01-19 アイシン・エィ・ダブリュ株式会社 Intersection recognition system and intersection recognition method
JP2007155469A (en) 2005-12-05 2007-06-21 Alpine Electronics Inc Inter-vehicle distance detection system and inter-vehicle distance detection method
JP2007240276A (en) * 2006-03-07 2007-09-20 Olympus Corp Distance measuring device/imaging device, distance measuring method/imaging method, distance measuring program/imaging program, and storage medium
JP2007240275A (en) * 2006-03-07 2007-09-20 Olympus Corp Range finder/imaging device, range finding method/imaging method, range finding program/imaging program and recording medium
JP2008008679A (en) * 2006-06-27 2008-01-17 Toyota Motor Corp Object detecting apparatus, collision predicting apparatus and vehicle controlling apparatus
WO2008024639A2 (en) 2006-08-11 2008-02-28 Donnelly Corporation Automatic headlamp control system
JP4925845B2 (en) * 2007-01-30 2012-05-09 三菱電機株式会社 Multi-sensor control system
JP5221886B2 (en) 2007-03-07 2013-06-26 富士重工業株式会社 Object detection device
JP2008299787A (en) * 2007-06-04 2008-12-11 Mitsubishi Electric Corp Vehicle detector
JP4766081B2 (en) * 2008-06-23 2011-09-07 株式会社デンソー Vehicle detection device
JP4823282B2 (en) * 2008-09-01 2011-11-24 富士通テン株式会社 Perimeter monitoring sensor
JP5288266B2 (en) * 2009-03-11 2013-09-11 株式会社エクォス・リサーチ vehicle
JP5039765B2 (en) * 2009-09-17 2012-10-03 日立オートモティブシステムズ株式会社 Vehicle control device
DE102009049849B4 (en) 2009-10-19 2020-09-24 Apple Inc. Method for determining the pose of a camera, method for recognizing an object in a real environment and method for creating a data model
JP4819166B2 (en) * 2010-01-25 2011-11-24 富士通テン株式会社 Information processing apparatus, information acquisition apparatus, information integration apparatus, control apparatus, and object detection apparatus
JP5979500B2 (en) * 2011-04-07 2016-08-24 パナソニックIpマネジメント株式会社 Stereo imaging device
JP5656732B2 (en) * 2011-05-02 2015-01-21 株式会社デンソー Collision probability computation device and collision probability computation program
JP5587930B2 (en) * 2012-03-09 2014-09-10 日立オートモティブシステムズ株式会社 Distance calculation device and distance calculation method
JP2014102165A (en) * 2012-11-20 2014-06-05 Denso Corp Target determination device
DE102012111991A1 (en) * 2012-11-20 2014-05-22 Conti Temic Microelectronic Gmbh Method for a driver assistance application
JP2015049200A (en) * 2013-09-03 2015-03-16 株式会社東芝 Measuring device, measuring method, and measuring program
JP6330160B2 (en) * 2014-05-09 2018-05-30 本田技研工業株式会社 Object recognition device
JP6134687B2 (en) * 2014-05-23 2017-05-24 本田技研工業株式会社 Object recognition device
JP2014238409A (en) * 2014-07-23 2014-12-18 日立オートモティブシステムズ株式会社 Distance calculation device and distance calculation method
KR101628688B1 (en) * 2014-12-05 2016-06-10 현대오트론 주식회사 Method for controlling output of head up display image and apparatus thereof
US9880263B2 (en) * 2015-04-06 2018-01-30 Waymo Llc Long range steerable LIDAR system
KR102186137B1 (en) * 2015-08-21 2020-12-03 현대자동차주식회사 Sensor Fusion System Based On A Vehicle Information
US11047976B2 (en) 2015-09-30 2021-06-29 Sony Corporation Information processing apparatus, information processing method and program
WO2017057058A1 (en) 2015-09-30 2017-04-06 ソニー株式会社 Information processing device, information processing method, and program
US20210183096A1 (en) * 2016-03-15 2021-06-17 Sony Corporation Image processing apparatus, imaging apparatus, image processing method and program
US10739142B2 (en) 2016-09-02 2020-08-11 Apple Inc. System for determining position both indoor and outdoor
US11091162B2 (en) * 2018-01-30 2021-08-17 Toyota Motor Engineering & Manufacturing North America, Inc. Fusion of front vehicle sensor data for detection and ranging of preceding objects
JP7117566B2 (en) * 2018-03-27 2022-08-15 パナソニックIpマネジメント株式会社 Information processing system and information processing method
JP7152884B2 (en) 2018-06-15 2022-10-13 日立Astemo株式会社 Vehicle object detection device
JP7359107B2 (en) * 2020-08-26 2023-10-11 株式会社デンソー Object recognition devices, mobile collision prevention devices, and vehicles

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE112020005077T5 (en) 2019-11-26 2022-07-28 Hitachi Astemo, Ltd. DEVICE AND METHOD FOR CONTROLLING A MOBILE BODY
JP7401273B2 (en) 2019-11-26 2023-12-19 日立Astemo株式会社 Mobile body control device and method

Also Published As

Publication number Publication date
JPH06230115A (en) 1994-08-19

Similar Documents

Publication Publication Date Title
JP2900737B2 (en) Inter-vehicle distance detection device
CN106909152B (en) Automobile-used environmental perception system and car
US7030775B2 (en) Vehicle surroundings monitoring apparatus and traveling control system incorporating the apparatus
JP3766909B2 (en) Driving environment recognition method and apparatus
EP1338477B1 (en) Obstacle detection device for vehicle and method thereof
US11541888B2 (en) Driving assist device and driving assist method
JP6465319B2 (en) Vehicle travel control device
EP3742200B1 (en) Detection apparatus and parameter adjustment method thereof
US5986601A (en) Object detecting system for vehicle
US11092442B2 (en) Host vehicle position estimation device
JP2002096702A (en) Vehicle-to-vehicle distance estimation device
JP7119720B2 (en) Driving support device
JPH06215300A (en) Dangerous status alarming device
EP1530062A1 (en) Radar scanning method
JP7324057B2 (en) Vehicle object detection device
JP6521753B2 (en) Vehicle positioning system
CN111694031A (en) Unmanned vehicle control system based on differential positioning
JP2906894B2 (en) Inter-vehicle distance detection device
US11798417B2 (en) Driving assistance device
US11433888B2 (en) Driving support system
JP3436083B2 (en) Travel lane departure warning device
JP2003107154A (en) On-vehicle radar device
WO2022259644A1 (en) Vehicle control device
RU2805577C1 (en) Device for preventing traffic accidents when changing lanes on roads
US20220308233A1 (en) Driver assistance system and operation method thereof

Legal Events

Date Code Title Description
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090319

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100319

Year of fee payment: 11

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110319

Year of fee payment: 12

LAPS Cancellation because of no payment of annual fees