JP2010162975A - Vehicle control system - Google Patents

Vehicle control system Download PDF

Info

Publication number
JP2010162975A
JP2010162975A JP2009005506A JP2009005506A JP2010162975A JP 2010162975 A JP2010162975 A JP 2010162975A JP 2009005506 A JP2009005506 A JP 2009005506A JP 2009005506 A JP2009005506 A JP 2009005506A JP 2010162975 A JP2010162975 A JP 2010162975A
Authority
JP
Japan
Prior art keywords
target
control
vehicle
image
signal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2009005506A
Other languages
Japanese (ja)
Inventor
Yusuke Iguchi
裕介 井口
Tetsuya Nomura
徹也 野村
Ayafumi Takasuka
礼文 高須賀
Hiroaki Maruno
浩明 丸野
Masao Sendo
政夫 千藤
Original Assignee
Fujitsu Ten Ltd
富士通テン株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ten Ltd, 富士通テン株式会社 filed Critical Fujitsu Ten Ltd
Priority to JP2009005506A priority Critical patent/JP2010162975A/en
Publication of JP2010162975A publication Critical patent/JP2010162975A/en
Granted legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • G01S13/867Combination of radar systems with cameras
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9325Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles for inter-vehicle distance regulation, e.g. navigating in platoons
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9327Sensor installation details
    • G01S2013/93271Sensor installation details in the front of the vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9327Sensor installation details
    • G01S2013/93275Sensor installation details in the bumper area

Abstract

<P>PROBLEM TO BE SOLVED: To avoid erroneous operation of a vehicle control system even when a high level received signal is obtained from a small-sized non-control target object located on a road. <P>SOLUTION: The vehicle control system is equipped with a radar device that transmits a radar signal to a search space in a roughly horizontal direction of a vehicle to receive a reflection signal by the target object, and detects distance of the target object based on the received signal. The device also includes a target object image detection means detecting a target object image from a photographed image including a portion of the search area, and a control means outputting a control signal to control motion of an actuator of the vehicle based on detected distance when the received signal level exceeds a reference level, and the target object image is detected from the photographed image other than a lower part range of the search area, thus avoiding erroneous operation of the vehicle control system even when a high level received signal is obtained from the target object to be controlled. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、車両の略水平方向の探索空間にレーダ信号を送受信するレーダ装置を搭載した車両の制御システムに関し、特に、前記レーダ装置における受信信号のレベルに基づいて車両のアクチュエータを制御する技術に関する。   The present invention relates to a vehicle control system equipped with a radar device that transmits and receives a radar signal in a substantially horizontal search space of the vehicle, and more particularly to a technique for controlling a vehicle actuator based on a level of a received signal in the radar device. .
自車両周囲の他車両や障害物といった目標物体の挙動に応じて自車両の挙動を制御する車両制御システムが知られており、その一例が特許文献1に記載されている。かかる車両制御システムは例えば、先行車両を一定の車間距離で追尾する追従走行制御や、他車両や障害物との衝突が予測されるときに警報や乗員保護装置を作動させる衝突対応制御といった車両制御を行う。   A vehicle control system that controls the behavior of a host vehicle in accordance with the behavior of a target object such as another vehicle or an obstacle around the host vehicle is known, and an example thereof is described in Patent Document 1. Such vehicle control systems are, for example, vehicle control such as follow-up running control that tracks a preceding vehicle at a certain inter-vehicle distance, and collision response control that activates an alarm or an occupant protection device when a collision with another vehicle or an obstacle is predicted. I do.
上記のような車両制御システムでは、車両周囲にレーダ信号を送受信するレーダ装置が、受信信号に基づいて目標物体の距離や速度といった目標物体情報を検出する。そして、レーダ装置は、目標物体情報とこれを検出したときの受信信号のレベルを、車両制御装置に入力する。   In the vehicle control system as described above, a radar device that transmits and receives a radar signal around the vehicle detects target object information such as the distance and speed of the target object based on the received signal. Then, the radar apparatus inputs the target object information and the level of the received signal when it is detected to the vehicle control apparatus.
車両制御装置は、まず受信信号のレベルが基準レベルを上回るかを判断することにより、目標物体の存在を判断する。これは、レーダ装置の受信信号のうち、路面などの乱反射による反射信号より目標物体からの反射信号の方が相対的にレベルが大きいことによる。そして、目標物体が存在すると判断すると、目標物体情報に基づき、追従走行制御や衝突対応制御といった車両制御に応じた制御信号を、車両のアクチュエータの制御装置に対し出力する。   The vehicle control device first determines the presence of the target object by determining whether the level of the received signal exceeds the reference level. This is because, among the received signals of the radar apparatus, the level of the reflected signal from the target object is relatively higher than the reflected signal due to irregular reflection on the road surface or the like. When it is determined that the target object exists, a control signal corresponding to vehicle control such as follow-up traveling control or collision response control is output to the control device for the vehicle actuator based on the target object information.
特開2008−60988号公報JP 2008-60988 A
ところで、車載用レーダ装置は、路面上にあって車両高に満たない小型の目標物体から反射信号を受信する場合がある。かかる目標物体は例えば、路面に放置された空き缶やトラックの積荷から落下した金属片などであり、本来車両制御の対象とはならない(以下、このような目標物体を、制御対象外目標物体という)。   By the way, the in-vehicle radar device may receive a reflected signal from a small target object that is on the road surface and does not reach the vehicle height. Such a target object is, for example, an empty can left on the road surface or a metal piece dropped from the load of a truck, and is not originally subject to vehicle control (hereinafter, such target object is referred to as a non-control target object). .
ここで、電磁波をレーダ信号として用いる場合に、上記のような金属製の制御対象外目標物体からは、非金属製の目標物体より相対的にレベルが大きい反射信号が得られる。さらに、そのときの反射角度によっては、車両などの目標物体と同等のレベルの反射信号が得られる場合がある。特に、空き缶の底面が凹形状を有しておりその底面がレーダ装置に対向している場合には、底面の凹形状がパラボラ反射鏡として機能し反射信号のレベルを増強させる。   Here, when the electromagnetic wave is used as a radar signal, a reflection signal having a relatively higher level than that of the non-target target object made of metal as described above is obtained. Furthermore, depending on the reflection angle at that time, a reflection signal having a level equivalent to that of a target object such as a vehicle may be obtained. In particular, when the bottom surface of the empty can has a concave shape and the bottom surface faces the radar apparatus, the concave shape on the bottom surface functions as a parabolic reflector, and enhances the level of the reflected signal.
すると、車両制御装置が受信信号のレベルに基づき目標物体の存在を判断する際、車両制御の対象とすべき、先行車両や他車両、あるいは障害物といった目標物体(以下、制御対象目標物体という)が存在するものと誤って判断してしまう。そして、制御対象目標物体に対する制御動作と同じ制御動作を制御対象外目標物体に対して実行すると、車両制御上の安全性が低下するおそれがある。   Then, when the vehicle control device determines the presence of the target object based on the level of the received signal, a target object such as a preceding vehicle, another vehicle, or an obstacle to be subject to vehicle control (hereinafter referred to as a control target object) Is mistakenly determined to exist. When the same control operation as the control operation for the control target object is executed for the non-control target object, safety in vehicle control may be reduced.
そこで、上記に鑑みてなされた本発明の目的は、制御対象外目標物体からレベルの大きい受信信号が得られた場合であっても、誤動作を回避できる車両制御システムを提供することにある。   Accordingly, an object of the present invention made in view of the above is to provide a vehicle control system capable of avoiding malfunction even when a high-level received signal is obtained from a non-control target target object.
上記目的を達成するための本発明における車両制御システムは、車両の略水平方向の探索空間にレーダ信号を送信して目標物体による反射信号を受信し、受信信号に基づき前記目標物体の距離を検出するレーダ装置を搭載した車両の車両制御システムであって、前記探索空間の一部を含む撮影画像から目標物体画像を検出する目標物体画像検出手段と、前記受信信号のレベルが基準レベルを上回り、かつ前記目標物体画像が前記探索空間の下部領域以外の前記撮影画像から検出されたときに、前記検出された距離に基づいて前記車両のアクチュエータの動作を制御する制御信号を出力する制御手段とを有する。   In order to achieve the above object, a vehicle control system according to the present invention transmits a radar signal to a substantially horizontal search space of a vehicle, receives a reflected signal from the target object, and detects the distance of the target object based on the received signal. A vehicle control system for a vehicle equipped with a radar device, the target object image detecting means for detecting a target object image from a captured image including a part of the search space, and the level of the received signal exceeds a reference level, And a control means for outputting a control signal for controlling the operation of the actuator of the vehicle based on the detected distance when the target object image is detected from the captured image other than the lower region of the search space. Have.
本発明によれば、制御対象外目標物体からレベルの大きい受信信号が得られた場合であっても、車両制御システムは誤動作を回避できる。   According to the present invention, even when a high-level received signal is obtained from a non-control target target object, the vehicle control system can avoid malfunction.
本実施形態における車両制御システムの構成例について説明する図である。It is a figure explaining the example of composition of the vehicle control system in this embodiment. レーダ装置10による探索空間と画像センサ20の撮影範囲の関係を説明する図である。FIG. 3 is a diagram for explaining a relationship between a search space by a radar apparatus and an imaging range of an image sensor. 車両制御システムの基本的な動作手順を説明するフローチャート図である。It is a flowchart figure explaining the basic operation | movement procedure of a vehicle control system. 車両前方の路面の傾斜を検出する方法について説明する図である。It is a figure explaining the method to detect the inclination of the road surface ahead of a vehicle. 変形例における車両制御システムの構成例を示す。The structural example of the vehicle control system in a modification is shown. 変形例における画像センサ20の動作について説明する図である。It is a figure explaining operation | movement of the image sensor 20 in a modification. 変形例における車両制御装置30の動作手順を説明するフローチャート図である。It is a flowchart figure explaining the operation | movement procedure of the vehicle control apparatus 30 in a modification. 別の変形例における車両制御システムの構成例を説明する図である。It is a figure explaining the structural example of the vehicle control system in another modification. 上記別の変形例における車両制御装置30の動作手順を説明するフローチャート図である。It is a flowchart figure explaining the operation | movement procedure of the vehicle control apparatus 30 in another said modification.
以下、図面にしたがって本発明の実施の形態について説明する。但し、本発明の技術的範囲はこれらの実施の形態に限定されず、特許請求の範囲に記載された事項とその均等物まで及ぶものである。   Hereinafter, embodiments of the present invention will be described with reference to the drawings. However, the technical scope of the present invention is not limited to these embodiments, but extends to the matters described in the claims and equivalents thereof.
図1は、本実施形態における車両制御システムの構成例について説明する図である。この車両制御システムは、搭載される自車両周囲の目標物体の挙動に応じて、追従走行制御や衝突対応制御といった車両制御を自車両に対し行うシステムである。この車両制御システムは、車両周囲の探索空間における目標物体の少なくとも距離を含む目標物体情報を検出するレーダ装置10と、レーダ装置10による探索空間の一部を撮影し、撮影画像から目標物体画像を検出する画像センサ20と、目標物体画像が検出されたときに目標物体情報に基づいて車両のアクチュエータを制御するための制御信号を出力する車両制御装置30とを有する。   FIG. 1 is a diagram illustrating a configuration example of a vehicle control system in the present embodiment. This vehicle control system is a system that performs vehicle control such as follow-up running control and collision response control on the host vehicle in accordance with the behavior of a target object around the host vehicle. This vehicle control system captures a target object information including at least a distance of a target object in a search space around the vehicle, a part of the search space by the radar apparatus 10, and captures a target object image from the captured image. The image sensor 20 to detect and the vehicle control apparatus 30 which outputs the control signal for controlling the actuator of a vehicle based on target object information, when a target object image is detected.
なお、ここで説明する車両制御システムは、車両の前方における目標物体の挙動に応じて自車両の車両制御を行う、前方監視用システムである。しかしながら、本実施形態は前方監視用システムに限定されるものではなく、車両の後方や側方用の監視システムにも適用可能である。   The vehicle control system described here is a forward monitoring system that performs vehicle control of the host vehicle in accordance with the behavior of the target object in front of the vehicle. However, the present embodiment is not limited to the forward monitoring system, and can be applied to a monitoring system for the rear or side of the vehicle.
レーダ装置10は、一例としてFM−CW(Frequency Modulated-Continuous Wave)方式のレーダ装置であり、時間に対し周波数が直線的に上昇及び下降するように周波数変調したミリ波長の電磁波をレーダ信号として送受信し、送受信信号の周波数差を有するビート信号を生成するレーダ送受信機12と、デジタルデータ化されたビート信号を処理するマイクロコンピュータにより構成される信号処理部14とを有する。信号処理部14は、ビート信号の周波数を解析して、目標物体の距離、速度を検出する。そして、検出した目標物体の距離、速度を含む目標物体情報とこれを検出したときの受信信号のレベルを、車両制御装置30に入力する。   The radar apparatus 10 is an FM-CW (Frequency Modulated-Continuous Wave) radar apparatus as an example, and transmits and receives millimeter-wave electromagnetic waves that are frequency-modulated so that the frequency linearly rises and falls with respect to time as a radar signal. The radar transmitter / receiver 12 generates a beat signal having a frequency difference between the transmission and reception signals, and the signal processing unit 14 includes a microcomputer that processes the beat signal converted into digital data. The signal processing unit 14 analyzes the frequency of the beat signal and detects the distance and speed of the target object. Then, the target object information including the detected distance and speed of the target object and the level of the received signal when this is detected are input to the vehicle control device 30.
画像センサ20は、一例として単眼式の画像センサであり、単一のデジタルスチルカメラ22と、ASIC(Application Specific Integrated Circuit)などのプロセッサで構成されデジタルスチルカメラ22の撮影画像データを処理する画像処理部24とを有する。画像処理部24は、デジタルスチルカメラ22による撮影画像を形成する画素の濃度階調を二値化し、被写体画像、つまり目標物体画像の輪郭を検出する。そして、目標物体画像の大きさ(例えば輪郭内の画素数)が基準値以上のときに、目標物体画像として検出する。なおこのときの基準値は、デジタルスチルカメラの解像度に応じて目標物体画像として検出可能な画素数が予め任意に定められる。そして、目標物体画像の有無を、車両制御装置30に入力する。さらに好ましくは、目標物体画像の大きさを示す画素数を、車両制御装置30に入力する。   The image sensor 20 is a monocular image sensor as an example, and is configured by a single digital still camera 22 and a processor such as an ASIC (Application Specific Integrated Circuit), and performs image processing for processing captured image data of the digital still camera 22. Part 24. The image processing unit 24 binarizes the density gradation of the pixels forming the image captured by the digital still camera 22 and detects the contour of the subject image, that is, the target object image. Then, when the size of the target object image (for example, the number of pixels in the contour) is equal to or larger than the reference value, the target object image is detected. As the reference value at this time, the number of pixels that can be detected as the target object image is arbitrarily determined in advance according to the resolution of the digital still camera. Then, the presence / absence of the target object image is input to the vehicle control device 30. More preferably, the number of pixels indicating the size of the target object image is input to the vehicle control device 30.
車両制御装置30は、例えばマイクロコンピュータにより構成される。車両制御装置30は、レーダ装置10から入力される受信信号のレベルが基準レベル以上であり、画像センサ20から目標物体画像が検出されたことを示す入力があったときには、レーダ装置10から入力される目標物体情報に基づき、追従走行制御や衝突対応制御といった車両制御の種類に応じて車両の各種アクチュエータを制御する制御信号を出力する。   The vehicle control device 30 is configured by a microcomputer, for example. The vehicle control device 30 receives an input from the radar device 10 when the level of the received signal input from the radar device 10 is equal to or higher than the reference level and the image sensor 20 receives an input indicating that the target object image has been detected. Based on the target object information, a control signal for controlling various actuators of the vehicle according to the type of vehicle control such as follow-up running control or collision response control is output.
ここで、受信信号のレベルに対する基準レベルは、他車両や障害物などある程度の反射断面積を有し車両制御の対象となる目標物体、つまり制御対象目標物体からの受信信号であるとみなされるレベルであって、予め任意に設定される。また、車両制御装置30が例えば追従走行制御を行う場合には、先行車両の速度と距離に基づき所定の車間距離で追尾するための自車両の走行速度を算出し、算出した走行速度になるようにスロットル制御装置やブレーキ制御装置に対する制御信号を出力する。また、衝突対応制御を行うときには、対向車両や障害物の速度と距離に基づいて衝突までの時間を予測し、アラームなどの警報装置、エアバッグなどの乗員保護装置に対しこれらを動作させる制御信号を出力する。   Here, the reference level relative to the level of the received signal is a level that is considered to be a received signal from a target object that has a certain cross-sectional area of reflection, such as another vehicle or an obstacle, and that is subject to vehicle control, that is, a control target object Thus, it is arbitrarily set in advance. Further, when the vehicle control device 30 performs, for example, follow-up travel control, the travel speed of the host vehicle for tracking at a predetermined inter-vehicle distance is calculated based on the speed and distance of the preceding vehicle so that the calculated travel speed is obtained. The control signal for the throttle control device and the brake control device is output. Also, when performing collision response control, a control signal that predicts the time to collision based on the speed and distance of oncoming vehicles and obstacles, and activates them to alarm devices such as alarms and occupant protection devices such as airbags Is output.
さらに好ましい態様では、車両制御装置30は、受信信号のレベルと距離との組合せから推定される目標物体画像の大きさ(画素数)を、受信信号のレベルと距離との組合せに対応づけたマップデータとして予め車両制御装置30の内蔵ROMに格納しておき、レーダ装置10から取得した受信信号のレベルと距離との組合せと、画像センサ20から取得した目標物体画像の大きさが、予め格納した対応関係を有するかを確認する。これは次の理由による。   In a further preferred aspect, the vehicle control device 30 maps the size (number of pixels) of the target object image estimated from the combination of the received signal level and the distance to the combination of the received signal level and the distance. The data is stored in advance in the built-in ROM of the vehicle control device 30, and the combination of the level and distance of the received signal acquired from the radar device 10 and the size of the target object image acquired from the image sensor 20 are stored in advance. Check if there is a correspondence. This is due to the following reason.
すなわち、レーダ装置10による受信信号のレベルは、目標物体の反射断面積と概ね正の相関関係を有するので、受信信号のレベルから目標物体の大きさがある程度推定できる。すると、その目標物体の距離と推定された大きさからさらに、撮影画像における目標物体画像の大きさが推定できる。このことから、受信信号のレベルと目標物体の距離の組合せと、目標物体画像の大きさとが予め設定した対応関係を有する場合には、先行車両や他車両、あるいは障害物といった制御対象目標物体が存在する確度が高くなるので、より精度よく車両制御を実行できる。   That is, since the level of the received signal by the radar apparatus 10 has a substantially positive correlation with the reflection cross section of the target object, the size of the target object can be estimated to some extent from the level of the received signal. Then, the size of the target object image in the captured image can be further estimated from the estimated distance from the target object. Therefore, if the combination of the level of the received signal and the distance of the target object and the size of the target object image have a preset correspondence relationship, the target object to be controlled such as the preceding vehicle, another vehicle, or an obstacle is Since the existing accuracy increases, vehicle control can be executed with higher accuracy.
図2は、レーダ装置10による探索空間と画像センサ20の撮影範囲の関係を説明する図である。ここでは、車両の前方路面が水平路面である場合を示す。まず図2(A)に示すように、レーダ装置10は、車両1前部のフロントグリル内やバンパー内に搭載される。そして、車両1前方の略水平方向(例えば、水平方向から下方に2〜3度程度の範囲)Fに向け、レーダ信号RSを送信する。ここでは、レーダ装置10が平面アンテナを備える場合のアンテナパターンに基づき、上下方向にある程度の広がりを有する探索空間Sa1を示す。かかる探索空間Sa1にレーダ信号RSを送信することにより、レーダ装置10は、前方の制御対象目標物体から最大レベルの反射信号を受信でき、受信信号のS/N比を良好に保った状態で信号処理を行うことができる。   FIG. 2 is a diagram for explaining the relationship between the search space by the radar apparatus 10 and the imaging range of the image sensor 20. Here, the case where the front road surface of a vehicle is a horizontal road surface is shown. First, as shown in FIG. 2A, the radar apparatus 10 is mounted in a front grill or a bumper at the front of the vehicle 1. Then, the radar signal RS is transmitted in a substantially horizontal direction in front of the vehicle 1 (for example, a range of about 2 to 3 degrees downward from the horizontal direction). Here, a search space Sa1 having a certain extent in the vertical direction is shown based on an antenna pattern when the radar apparatus 10 includes a planar antenna. By transmitting the radar signal RS to the search space Sa1, the radar apparatus 10 can receive the reflected signal at the maximum level from the front target object to be controlled, and the signal with the S / N ratio of the received signal kept good. Processing can be performed.
ところで、上記のような探索空間内Sa1にレーダ信号RSを送信することにより、前方の比較的近距離D(例えば10〜20メートル程度)の路面に車両高より低い小型(例えば十数センチ程度の地上高)の目標物体、つまり制御対象外目標物体Obがある場合には、レーダ装置10は制御対象外目標物体Obからの反射信号も受信する。ここで、制御対象外目標物体Obからの受信信号のレベルが基準レベルを上回る場合に、制御対象外目標物体Obに対する車両制御を誤って行うことを回避するために、本実施形態では画像センサ20の撮影範囲を次のように設定する。   By the way, by transmitting the radar signal RS to the search space Sa1 as described above, the road surface at a relatively short distance D (for example, about 10 to 20 meters) ahead is smaller than the vehicle height (for example, about a few tens of centimeters). When there is a target object that is above the ground level, that is, the non-control target object Ob, the radar apparatus 10 also receives a reflection signal from the non-control target object Ob. Here, in the present embodiment, in order to avoid erroneously performing vehicle control on the non-control target object Ob when the level of the received signal from the non-control target object Ob exceeds the reference level, the image sensor 20 in the present embodiment. Set the shooting range of as follows.
画像センサ20は、図示するように、車両1の車室内におけるフロントグラス上部付近に搭載される。そして、車両1前方におけるレーダ装置10の探索空間Sa1の下部領域U1を除く領域Sa2をデジタルスチルカメラ22が撮影するように、デジタルスチルカメラ22の視野FV1が視野FV2に調節される。   As shown in the figure, the image sensor 20 is mounted near the upper portion of the front glass in the vehicle interior of the vehicle 1. Then, the field of view FV1 of the digital still camera 22 is adjusted to the field of view FV2 so that the digital still camera 22 captures an area Sa2 excluding the lower area U1 of the search space Sa1 of the radar device 10 in front of the vehicle 1.
具体的には、デジタルスチルカメラ22が搭載される地上高をH、デジタルスチルカメラ22の俯角をθ1として、制御対象外目標物体Obの地上高h、制御対象外目標物体Obまでの距離Dから次の式(1)により、デジタルスチルカメラ22が探索空間Sa1における領域Sa2を撮影するための視野FV2に対応する俯角θ2が算出される。そして、かかる俯角θ2となるようにデジタルスチルカメラ22の視野FV1を遮蔽部材により遮蔽し、視野FV2にする。   Specifically, the ground height on which the digital still camera 22 is mounted is H, the depression angle of the digital still camera 22 is θ1, and the ground height h of the non-control target object Ob and the distance D to the non-control target object Ob The depression angle θ2 corresponding to the visual field FV2 for the digital still camera 22 to photograph the region Sa2 in the search space Sa1 is calculated by the following equation (1). Then, the visual field FV1 of the digital still camera 22 is shielded by the shielding member so that the depression angle θ2 becomes such that the visual field FV2 is obtained.
θ2=arctan[(H-h)/ D] ・・・式(1)
あるいは、画像センサ20は、デジタルスチルカメラ22により視野FV1の状態で探索空間Sa1を撮影し、画像処理部24により撮影画像を処理する際に、探索空間Sa1の下部領域U1を除く領域、つまり視野FV2に対応する領域から目標物体画像を検出することもできる。
θ2 = arctan [(Hh) / D] (1)
Alternatively, the image sensor 20 captures the search space Sa1 in the state of the visual field FV1 with the digital still camera 22, and processes the captured image with the image processing unit 24, that is, the region excluding the lower region U1 of the search space Sa1, that is, the visual field. It is also possible to detect the target object image from the area corresponding to FV2.
ここで、デジタルスチルカメラ22が視野FV1の状態で撮影した探索空間S1を含む撮影画像を模式的に図2(B)に示すと、例えば640画素×480画素の撮影画像において、下部領域U1に対応する画素数Yは、次式により求められる。ただしここでは、視野FV1に対応する俯角をθ1、1画素の大きさをP、デジタルスチルカメラ22の焦点距離をfとする。   Here, a photographed image including the search space S1 photographed by the digital still camera 22 in the state of the field of view FV1 is schematically shown in FIG. 2B. For example, in a photographed image of 640 pixels × 480 pixels, the lower region U1 is displayed. The corresponding pixel number Y is obtained by the following equation. However, here, the depression angle corresponding to the visual field FV1 is θ1, the size of one pixel is P, and the focal length of the digital still camera 22 is f.
Y=(θ1-θ2) /arctan(P/f) ・・・式(2)
よって、画像処理部24は、上記の式(2)により算出した画素数Yに対応する撮影画像の下部領域以外を対象として、目標物体画像を検出する処理を実行する。そうすることにより、探索空間Sa1における領域Sa2から目標物体画像を検出できる。
Y = (θ1-θ2) / arctan (P / f) (2)
Therefore, the image processing unit 24 executes a process of detecting the target object image for a region other than the lower region of the captured image corresponding to the number of pixels Y calculated by the above equation (2). By doing so, the target object image can be detected from the region Sa2 in the search space Sa1.
図1、図2のように構成される車両制御システムでは、画像センサ20が探索空間の下部領域U1(以下、検出対象外領域という)以外の領域Sa2(以下、検出対象領域という)の撮影画像から目標物体画像を検出するので、検出される目標物体画像には制御対象外目標物体Obの画像は含まれない。そして、車両制御装置30は、受信信号のレベルが基準レベルを上回り、かつ前記目標物体画像が検出されたときに、検出された距離に基づいて前記車両のアクチュエータの動作を制御する制御信号を出力するので、制御対象外目標物体Obに対する車両制御が誤って行われることがない。   In the vehicle control system configured as shown in FIGS. 1 and 2, the image sensor 20 is a captured image of a region Sa2 (hereinafter referred to as a detection target region) other than a lower region U1 (hereinafter referred to as a non-detection target region) of the search space. Therefore, the detected target object image does not include the image of the non-control target object Ob. The vehicle control device 30 outputs a control signal for controlling the operation of the actuator of the vehicle based on the detected distance when the level of the received signal exceeds the reference level and the target object image is detected. Therefore, the vehicle control for the non-control target object Ob is not performed erroneously.
なお、かかる構成において、画像センサ20が「目標物体画像検出手段」に対応し、車両制御装置30が「制御手段」に対応する。   In this configuration, the image sensor 20 corresponds to “target object image detection means”, and the vehicle control device 30 corresponds to “control means”.
また、画像センサ20は、撮影画像内の目標物体画像を検出するが、撮影画像に基づき目標物体の距離や大きさを検出するための構成(例えば複眼式カメラ)や処理性能を必要としない。よって、単眼式で安価な構成とすることができ、コスト増を回避できる。   The image sensor 20 detects the target object image in the captured image, but does not require a configuration (for example, a compound eye camera) or processing performance for detecting the distance or size of the target object based on the captured image. Therefore, a monocular and inexpensive configuration can be achieved, and an increase in cost can be avoided.
図3は、車両制御システムの基本的な動作手順を説明するフローチャート図である。レーダ装置10は、探索空間にてレーダ信号を送受信し(S2)、送受信信号から生成されるビート信号を処理して目標物体の速度、距離を含む目標物体情報を検出する(S4)。そして、目標物体情報と受信信号のレベルを車両制御装置30に出力する(S5)。   FIG. 3 is a flowchart illustrating a basic operation procedure of the vehicle control system. The radar apparatus 10 transmits / receives a radar signal in the search space (S2), processes a beat signal generated from the transmission / reception signal, and detects target object information including the speed and distance of the target object (S4). Then, the target object information and the level of the received signal are output to the vehicle control device 30 (S5).
一方、画像センサ20は、探索空間Sa1の一部を含む画像を撮影し(S6)、撮影画像データを処理して、検出対象領域から目標物体画像とその大きさを検出する(S8)。そして、検出結果を車両制御装置30に出力する(S10)。   On the other hand, the image sensor 20 captures an image including a part of the search space Sa1 (S6), processes the captured image data, and detects the target object image and its size from the detection target region (S8). And a detection result is output to the vehicle control apparatus 30 (S10).
車両制御装置30は、受信信号のレベルが基準レベルを上回り、かつ目標物体画像が検出された場合には(S12のYES)、手順S14に進む。手順S14は、上述した好ましい態様に対応する手順であり、受信信号のレベルと目標物体の距離の組合せと、目標物体画像の大きさが所定の対応関係を有するかを確認する。そして、結果がYESの場合には、車両制御の目的に応じた制御信号を出力する(S16)。   When the level of the received signal exceeds the reference level and the target object image is detected (YES in S12), the vehicle control device 30 proceeds to step S14. Step S14 is a procedure corresponding to the above-described preferred mode, and confirms whether the combination of the level of the received signal and the distance of the target object and the size of the target object image have a predetermined correspondence relationship. And when a result is YES, the control signal according to the objective of vehicle control is output (S16).
このように、本実施形態における車両制御システムによれば、制御対象外目標物体からレベルの大きい受信信号が得られた場合であっても、かかる制御対象外目標物体に対する車両制御は実行されないので、誤動作を回避できる。また、手順S14において、レーダ装置10から取得した受信信号のレベルと距離との組合せと目標物体画像の大きさが、予め格納した対応関係を有するかを確認する際にも、制御対象外目標物体に対する処理を省略できるので、車両制御システム全体としての処理負荷を軽減することが可能となる。   Thus, according to the vehicle control system in the present embodiment, even when a high-level received signal is obtained from the non-control target object, vehicle control for the non-control target object is not executed. Malfunctions can be avoided. In step S14, the target object that is not a control target is also used to check whether the combination of the level and distance of the received signal acquired from the radar apparatus 10 and the size of the target object image have a previously stored correspondence. Therefore, it is possible to reduce the processing load of the entire vehicle control system.
上述では、車両1前方の路面が水平路面である場合について説明した。次に、車両1前方の路面が車両1に対し傾斜しているときの変形例について説明する。以下では説明の便宜上、水平面を0度としたときの水平面に対する角度を路面の傾斜として、傾斜が0のときは水平路面、傾斜が0より大きい場合には上り傾斜、そして、傾斜が0より小さい場合には下り傾斜を示す。   In the above description, the case where the road surface in front of the vehicle 1 is a horizontal road surface has been described. Next, a modified example when the road surface in front of the vehicle 1 is inclined with respect to the vehicle 1 will be described. In the following description, for convenience of explanation, the angle with respect to the horizontal plane when the horizontal plane is 0 degree is defined as the slope of the road surface. When the slope is 0, the road surface is horizontal. When the slope is greater than 0, the slope is uphill. In some cases, it indicates a downward slope.
図4は、車両前方の路面の傾斜を検出する方法について説明する図である。ここでは、画像センサ20が「傾斜検出手段」として、水平面(一点鎖線で図示)に対する前方路面の傾斜α1(実線で図示)と、車両1の現在位置における傾斜α2(点線で図示)とを検出し、両者の差(α1−α2)を前方路面の車両1に対する傾斜α3として検出する。   FIG. 4 is a diagram for explaining a method for detecting the inclination of the road surface in front of the vehicle. Here, the image sensor 20 detects, as “inclination detecting means”, an inclination α1 (illustrated by a solid line) of the front road surface with respect to a horizontal plane (illustrated by a dashed line) and an inclination α2 (illustrated by a dotted line) at the current position of the vehicle 1. Then, the difference (α1−α2) between the two is detected as the inclination α3 with respect to the vehicle 1 on the front road surface.
図5は、変形例における車両制御システムの構成例を示す。ここでは、画像センサ20は、地図情報を有するナビゲーションシステム46、または道路環境情報や車車間通信情報を受信可能な通信装置44から、車両1の現在位置を基準とする前方路面の傾斜α1を取得する。あるいは、同じくナビゲーションシステム46や通信装置44から、車両の現在位置と前方所定距離の地点における標高を取得し、両地点の距離と標高差から傾斜α1を検出する。また画像センサ20は、車両1に搭載される、ジャイロセンサ、光学式または機械式の加速度センサなどで構成される傾斜センサ42から、車両1の地軸に対する傾きを取得し、水平面に対する車両1の傾きを検出することで、車両1の現在位置における傾斜α2を検出する。そして、前方路面の傾斜α1と車両1の現在位置の傾斜α2の差α3を算出する。この結果、前方路面の傾斜は、水平路面である場合のほかに、上り/下り傾斜のいずれかとして検出される。   FIG. 5 shows a configuration example of a vehicle control system in a modification. Here, the image sensor 20 acquires the inclination α1 of the front road surface based on the current position of the vehicle 1 from the navigation system 46 having map information or the communication device 44 capable of receiving road environment information and inter-vehicle communication information. To do. Alternatively, the altitude at a point a predetermined distance ahead of the current position of the vehicle is acquired from the navigation system 46 and the communication device 44, and the inclination α1 is detected from the distance between the two points and the altitude difference. Further, the image sensor 20 acquires the inclination of the vehicle 1 relative to the ground axis from an inclination sensor 42 that is mounted on the vehicle 1 and includes a gyro sensor, an optical or mechanical acceleration sensor, and the like, and the inclination of the vehicle 1 with respect to the horizontal plane. Is detected to detect the inclination α2 at the current position of the vehicle 1. Then, a difference α3 between the inclination α1 of the front road surface and the inclination α2 of the current position of the vehicle 1 is calculated. As a result, the inclination of the front road surface is detected as either an up / down inclination in addition to the horizontal road surface.
図6は、変形例における画像センサ20の動作について説明する図である。図6(A)は前方路面が上り傾斜の場合(つまりα3>0の場合)、図6(B)は下り傾斜の場合(つまりα3<0の場合)を示す。   FIG. 6 is a diagram for explaining the operation of the image sensor 20 in the modification. FIG. 6A shows a case where the front road surface is an upward slope (that is, when α3> 0), and FIG. 6B shows a case where the forward road surface is a downward slope (that is, when α3 <0).
図6(A)に示すように上り傾斜の場合には、図2で示したような視野FV2に、制御対象外目標物体Obが入る蓋然性が大きくなる。よってこの場合、画像センサ20は、画像処理部24が撮影画像から目標物体画像を検出する際に、検出対象外領域U1をU10のように大きくすることにより、図2(A)で示した検出対象領域Sa2を含む視野FV2をFV3のように小さく補正する。なおここで、α3が大きいほど(絶対値が大きいほど)上り傾斜が急峻となるので、視野FV3は小さくなるように補正される。   As shown in FIG. 6A, in the case of the upward inclination, the probability that the non-control target target object Ob enters the visual field FV2 as shown in FIG. Therefore, in this case, when the image processing unit 24 detects the target object image from the captured image, the image sensor 20 enlarges the non-detection target area U1 as U10, thereby detecting the detection shown in FIG. The field of view FV2 including the target area Sa2 is corrected to be as small as FV3. Here, as α3 is larger (the absolute value is larger), the upward inclination becomes steeper, so that the field of view FV3 is corrected to be smaller.
具体的には、図2(B)に示したように、視野FV1の状態で撮影した撮影画像における検出対象外領域U1に対応する画素数Yを算出する際に、前方路面の傾斜α3に対応した補正値を予めマップデータとして画像処理部24内蔵のROMに格納しておくことにより、かかる補正値を読み出して視野FV3に対応するように画素数Yを補正する。あるいは、演算処理により補正値を導出して画素数Yを補正してもよい。あるいは、図2(A)で示したように予め機構的に視野FV2を設定し、視野FV2の状態で撮影した撮影画像を処理するときに、前方路面の傾斜α3に対応する下方領域を処理対象外としてもよい。このようにして、確実に制御対象外目標物体Obの画像を検出することを回避でき、車両制御システムの誤動作を回避できる。   Specifically, as shown in FIG. 2B, when calculating the number of pixels Y corresponding to the non-detection target area U1 in the captured image captured in the state of the field of view FV1, it corresponds to the inclination α3 of the front road surface. By storing the corrected value in advance in the ROM built in the image processing unit 24 as map data, the correction value is read and the number of pixels Y is corrected so as to correspond to the visual field FV3. Alternatively, the correction value may be derived by arithmetic processing to correct the pixel number Y. Alternatively, as shown in FIG. 2A, when the field of view FV2 is mechanically set in advance and a captured image captured in the state of the field of view FV2 is processed, a lower region corresponding to the inclination α3 of the front road surface is processed. It may be outside. In this manner, it is possible to reliably detect the image of the non-control target target object Ob, and to avoid malfunction of the vehicle control system.
一方、図6(B)に示すように、下り傾斜の場合、制御対象外目標物体Obが視野FV2に入る蓋然性は小さくなるが、その反面、制御対象目標物体Ob2が視野FV2から外れる蓋然性が大きくなる。よってこの場合、画像処理部24が撮影画像から目標物体画像を検出する際に、検出対象外領域U1をU12のように小さくすることにより、図2(A)で示した検出対象領域Sa2を含む視野FV2をFV4のように大きく補正する。なおここで、α3が小さいほど(絶対値が大きいほど)下り傾斜が急峻となるので、視野FV4は大きくなるように補正される。   On the other hand, as shown in FIG. 6B, in the case of the downward slope, the probability that the non-control target object Ob will enter the field of view FV2 is small, but on the other hand, the probability that the control target object Ob2 will deviate from the field of view FV2 is large. Become. Therefore, in this case, when the image processing unit 24 detects the target object image from the captured image, the detection target area Sa2 shown in FIG. 2A is included by reducing the non-detection target area U1 as U12. The field of view FV2 is greatly corrected like FV4. Here, since the downward inclination becomes steeper as α3 is smaller (the absolute value is larger), the visual field FV4 is corrected to be larger.
具体的には、上記同様に、図2(B)に示したように視野FV1の状態で撮影した撮影画像における検出対象外領域U1に対応する画素数Yを算出する際に、前方路面の傾斜α3に対応した補正値により視野FV4に対応するように画素数Yを補正する。あるいは、図2(A)で示したように予め機構的に視野FV2を設定し、視野FV2の状態で撮影した撮影画像を処理するときに、前方路面の傾斜α3に対応する下方領域を処理対象外としてもよい。そうすることにより、確実に制御対象目標物体Ob2の画像を検出することができ、車両制御システムの正確な動作を担保できる。   Specifically, as described above, when calculating the number of pixels Y corresponding to the non-detection target area U1 in the captured image captured in the state of the visual field FV1 as illustrated in FIG. The number of pixels Y is corrected so as to correspond to the visual field FV4 by the correction value corresponding to α3. Alternatively, as shown in FIG. 2A, when the field of view FV2 is mechanically set in advance and a captured image captured in the state of the field of view FV2 is processed, a lower region corresponding to the inclination α3 of the front road surface is processed. It may be outside. By doing so, the image of the control target object Ob2 can be reliably detected, and the accurate operation of the vehicle control system can be ensured.
図7は、変形例における車両制御装置30の動作手順を説明するフローチャート図である。この手順は、図3のフローチャート図における手順S8のサブルーチンに対応する。すなわち、画像センサ20は、前方路面の傾斜α3を検出し(S82)、傾斜α3に対応する検出対象外領域U1に対する補正値を導出する(S84)。そして、検出対象外領域U1を補正することにより視野FV2の大きさを補正し(S86)、補正後の視野FV3またはFV4に対応する撮影画像から目標物体画像を検出する(S88)。   FIG. 7 is a flowchart for explaining the operation procedure of the vehicle control device 30 in the modification. This procedure corresponds to the subroutine of step S8 in the flowchart of FIG. That is, the image sensor 20 detects the inclination α3 of the front road surface (S82), and derives a correction value for the non-detection target area U1 corresponding to the inclination α3 (S84). Then, the size of the visual field FV2 is corrected by correcting the non-detection target area U1 (S86), and the target object image is detected from the captured image corresponding to the corrected visual field FV3 or FV4 (S88).
このような手順により、車両制御システムは、前方路面が傾斜路である場合に、制御対象外目標物体に対する誤制御を確実に回避するとともに、制御対象目標物体に対する制御を確実に行うことができる。   With such a procedure, when the front road surface is an inclined road, the vehicle control system can reliably avoid erroneous control on the non-control target object and can reliably control the control target object.
図8は、別の変形例における車両制御システムの構成例を説明する図である。上述の変形例と異なる点について説明すると、この変形例では、車両制御装置30が「制御手段」であるとともに「傾斜検出手段」として、通信装置44、ナビゲーションシステム46から車両1の現在位置を基準とする前方路面の傾斜α1を取得し、また傾斜センサ42から車両1の地軸に対する傾きα2を取得して、前方路面の傾斜α3を算出する。   FIG. 8 is a diagram illustrating a configuration example of a vehicle control system according to another modification. The difference from the above-described modification will be described. In this modification, the vehicle control device 30 is a “control unit” and the “tilt detection unit” is used as a reference from the communication device 44 and the navigation system 46 as a reference. And a slope α2 with respect to the ground axis of the vehicle 1 is obtained from the tilt sensor 42 to calculate a slope α3 of the front road surface.
一方、画像センサ20は、図2(A)で示した視野FV1の状態で撮影した撮影画像から目標物体を検出し、その撮影画像内における位置座標を車両制御装置30に入力する。   On the other hand, the image sensor 20 detects the target object from the captured image captured in the state of the visual field FV1 shown in FIG. 2A, and inputs the position coordinates in the captured image to the vehicle control device 30.
そして、車両制御装置30は、図6(A)、(B)に示したように、前方路面の傾斜角α3に対応して検出対象外領域U1を補正して、目標物体画像の位置に基づいて補正後の検出対象領域Sa2を含む撮影画像から検出されたかを判断し、かかる範囲で検出された目標物体画像に基づいて制御信号の出力を行う。   Then, as shown in FIGS. 6A and 6B, the vehicle control device 30 corrects the non-detection target area U1 corresponding to the inclination angle α3 of the front road surface, and based on the position of the target object image. Then, it is determined whether or not a detected image including the corrected detection target area Sa2 is detected, and a control signal is output based on the target object image detected in such a range.
図9は、上記別の変形例における車両制御装置30の動作手順を説明するフローチャート図である。この手順は、図3のフローチャート図の変形例である。   FIG. 9 is a flowchart for explaining the operation procedure of the vehicle control device 30 in another modified example. This procedure is a modification of the flowchart in FIG.
図3と異なる手順について説明すると、画像センサ20は、手順S8の代わりに撮影画像データを処理して、撮影画像における検出対象領域から目標物体画像とその大きさ、及び位置座標を検出する(S800)。   The procedure different from FIG. 3 will be described. The image sensor 20 processes the captured image data instead of the procedure S8, and detects the target object image, its size, and position coordinates from the detection target region in the captured image (S800). ).
また、車両制御装置30は、手順S12の前に手順S820〜S880を実行する。すなわち、前方路面の傾斜α3を検出し(S820)、検出対象外領域U1に対する傾斜α3に対応する補正値を導出する(S840)。そして、検出対象外領域U1を補正し(S860)、補正された後の検出対象領域Sa2を含む領域から目標物体画像が検出されたかを確認する(S880)。そして、検出が確認された目標物体画像に対し手順S12以降を実行する。   Moreover, the vehicle control apparatus 30 performs procedure S820-S880 before procedure S12. That is, the inclination α3 of the front road surface is detected (S820), and a correction value corresponding to the inclination α3 with respect to the non-detection target area U1 is derived (S840). Then, the non-detection target area U1 is corrected (S860), and it is confirmed whether the target object image is detected from the area including the corrected detection target area Sa2 (S880). Then, step S12 and subsequent steps are executed on the target object image whose detection has been confirmed.
このような手順によれば、車両制御システムは、確実に制御対象目標物体Ob2の画像を検出することができ、車両制御システムの正確な動作を担保できる。   According to such a procedure, the vehicle control system can reliably detect the image of the control target object Ob2, and can ensure the accurate operation of the vehicle control system.
上述の説明では、レーダ装置10がFM−CW方式のレーダ装置である場合を例として説明したが、レーダ装置10は、パルス・ドップラレーダ方式など他の方式であってもよい。また、電波レーダのほかにレーザレーダであってもよい。また、画像センサ20は、光学式のデジタルスチルカメラを例として示したが、可視光カメラや赤外線カメラであってもよく、画像を撮影する画像撮影装置であればよい。   In the above description, the case where the radar apparatus 10 is an FM-CW radar apparatus has been described as an example. However, the radar apparatus 10 may be another system such as a pulse Doppler radar system. In addition to the radio wave radar, a laser radar may be used. The image sensor 20 is an optical digital still camera as an example. However, the image sensor 20 may be a visible light camera or an infrared camera, and may be any image capturing device that captures an image.
以上説明したように、本実施形態によれば、制御対象外目標物体からレベルの大きい受信信号が得られた場合であっても、車両制御システムは誤動作を回避できる。   As described above, according to the present embodiment, the vehicle control system can avoid malfunction even when a high-level received signal is obtained from the non-control target target object.
1:車両、10:レーダ装置、20:画像センサ、30:車両制御装置 1: Vehicle, 10: Radar device, 20: Image sensor, 30: Vehicle control device

Claims (4)

  1. 車両の略水平方向の探索空間にレーダ信号を送信して目標物体による反射信号を受信し、受信信号に基づき前記目標物体の距離を検出するレーダ装置を搭載した車両の車両制御システムであって、
    前記探索空間の一部を含む撮影画像から目標物体画像を検出する目標物体画像検出手段と、
    前記受信信号のレベルが基準レベルを上回り、かつ前記目標物体画像が前記探索空間の下部領域以外の前記撮影画像から検出されたときに、前記検出された距離に基づいて前記車両のアクチュエータの動作を制御する制御信号を出力する制御手段とを有する車両制御システム。
    A vehicle control system for a vehicle equipped with a radar device that transmits a radar signal to a search space in a substantially horizontal direction of the vehicle, receives a reflected signal from the target object, and detects a distance of the target object based on the received signal,
    Target object image detection means for detecting a target object image from a captured image including a part of the search space;
    When the level of the received signal exceeds a reference level and the target object image is detected from the captured image other than the lower area of the search space, the operation of the actuator of the vehicle is performed based on the detected distance. A vehicle control system having control means for outputting a control signal to be controlled.
  2. 請求項1において、
    前記探索空間における路面の前記車両に対する傾斜を検出する傾斜検出手段をさらに有し、
    前記制御手段は、前記傾斜が第1の傾斜のときには前記探索空間における第1の下部領域以外の前記撮影画像から、前記傾斜が前記第1の傾斜より小さい第2の傾斜のときには前記探索空間における前記第1の下部領域より小さい第2の下部領域以外の前記撮影画像から前記目標物体画像が検出されたときに、前記制御信号を出力することを特徴とする車両制御システム。
    In claim 1,
    Further comprising an inclination detecting means for detecting an inclination of the road surface in the search space with respect to the vehicle;
    The control means is configured to detect from the photographed image other than the first lower region in the search space when the inclination is the first inclination, and in the search space when the inclination is a second inclination smaller than the first inclination. The vehicle control system, wherein the control signal is output when the target object image is detected from the captured image other than the second lower region smaller than the first lower region.
  3. 請求項1または2において、
    前記目標物体画像検出手段は、前記目標物体画像の大きさをさらに検出し、
    前記制御手段はさらに、前記受信信号のレベルと前記検出された距離の組合せと前記目標物体画像の大きさとが所定の対応関係を有するときに、前記制御信号を出力することを特徴とする車両制御システム。
    In claim 1 or 2,
    The target object image detecting means further detects the size of the target object image;
    The control means further outputs the control signal when the level of the received signal, the combination of the detected distances, and the size of the target object image have a predetermined correspondence relationship. system.
  4. 請求項1乃至3のいずれかに記載のレーダ装置を有する車両制御システム。   A vehicle control system comprising the radar device according to claim 1.
JP2009005506A 2009-01-14 2009-01-14 Vehicle control system Granted JP2010162975A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009005506A JP2010162975A (en) 2009-01-14 2009-01-14 Vehicle control system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009005506A JP2010162975A (en) 2009-01-14 2009-01-14 Vehicle control system

Publications (1)

Publication Number Publication Date
JP2010162975A true JP2010162975A (en) 2010-07-29

Family

ID=42579510

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009005506A Granted JP2010162975A (en) 2009-01-14 2009-01-14 Vehicle control system

Country Status (1)

Country Link
JP (1) JP2010162975A (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012086401A1 (en) * 2010-12-24 2012-06-28 株式会社日立製作所 Driving assist device
KR101262947B1 (en) 2010-12-08 2013-05-08 현대자동차주식회사 A method for improving detection performance of sensor fusion algorithm and a system thereof
EP2849166A4 (en) * 2012-05-09 2016-07-06 Toyota Motor Co Ltd Driving assist device
JP2016206773A (en) * 2015-04-17 2016-12-08 トヨタ自動車株式会社 Three-dimensional object detection device and three-dimensional object detection method
WO2019107550A1 (en) * 2017-12-01 2019-06-06 パイオニア株式会社 Control device, detection device, control method, program, and storage medium
JP2020051971A (en) * 2018-09-28 2020-04-02 三菱電機株式会社 Laser distance measuring device
WO2020079927A1 (en) * 2018-10-18 2020-04-23 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ Information processing device, program, and information processing method

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101262947B1 (en) 2010-12-08 2013-05-08 현대자동차주식회사 A method for improving detection performance of sensor fusion algorithm and a system thereof
WO2012086401A1 (en) * 2010-12-24 2012-06-28 株式会社日立製作所 Driving assist device
CN103270543A (en) * 2010-12-24 2013-08-28 株式会社日立制作所 Driving assist device
US9097541B2 (en) 2010-12-24 2015-08-04 Hitachi, Ltd. Driving support device
EP2849166A4 (en) * 2012-05-09 2016-07-06 Toyota Motor Co Ltd Driving assist device
US9446711B2 (en) 2012-05-09 2016-09-20 Toyota Jidosha Kabushiki Kaisha Driving assist device
JP2016206773A (en) * 2015-04-17 2016-12-08 トヨタ自動車株式会社 Three-dimensional object detection device and three-dimensional object detection method
WO2019107550A1 (en) * 2017-12-01 2019-06-06 パイオニア株式会社 Control device, detection device, control method, program, and storage medium
JP2020051971A (en) * 2018-09-28 2020-04-02 三菱電機株式会社 Laser distance measuring device
US20200103531A1 (en) * 2018-09-28 2020-04-02 Mitsubishi Electric Corporation Laser distance measuring apparatus
US10935662B2 (en) * 2018-09-28 2021-03-02 Mitsubishi Electric Cornoration Laser distance measuring apparatus
WO2020079927A1 (en) * 2018-10-18 2020-04-23 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ Information processing device, program, and information processing method

Similar Documents

Publication Publication Date Title
EP2910971B1 (en) Object recognition apparatus and object recognition method
US9352690B2 (en) Apparatus and method for detecting obstacle adaptively to vehicle speed
JP2010162975A (en) Vehicle control system
JP4823781B2 (en) Vehicle travel safety device
US20030160866A1 (en) Obstacle detection device for vehicle and method thereof
JP2006337295A (en) Range finder for vehicle
EP2808700B1 (en) Drive assist device, and vehicle using drive assist device
JP2014228943A (en) Vehicular external environment sensing device, and axial shift correction program and method therefor
JP2003501635A (en) Object detection system
US9123251B2 (en) Image system for automotive safety applications
JP2014006123A (en) Object detection device, information processing device, and object detection method
JP5910046B2 (en) Obstacle detection device
US10836388B2 (en) Vehicle control method and apparatus
JP2008224621A (en) Object detecting device for moving body
US10471961B2 (en) Cruise control device and cruise control method for vehicles
US11014566B2 (en) Object detection apparatus
JP2009133761A (en) Radar system
US11091153B2 (en) Vehicle control apparatus and vehicle control method
US11001258B2 (en) Lane keeping assist system and method for improving safety in preceding vehicle follower longitudinal control
US10922561B2 (en) Object recognition device and vehicle travel control system
JP5617362B2 (en) Obstacle recognition device
JP3822417B2 (en) Vehicle periphery monitoring device
KR102326545B1 (en) Method and apparatus for detecting object around vehicle
JP5806647B2 (en) object recognition device
WO2017138329A1 (en) Collision prediction device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20111220

A072 Dismissal of procedure

Free format text: JAPANESE INTERMEDIATE CODE: A073

Effective date: 20130507

A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20130604