JP5476960B2 - Vehicle forward monitoring device - Google Patents

Vehicle forward monitoring device Download PDF

Info

Publication number
JP5476960B2
JP5476960B2 JP2009278627A JP2009278627A JP5476960B2 JP 5476960 B2 JP5476960 B2 JP 5476960B2 JP 2009278627 A JP2009278627 A JP 2009278627A JP 2009278627 A JP2009278627 A JP 2009278627A JP 5476960 B2 JP5476960 B2 JP 5476960B2
Authority
JP
Japan
Prior art keywords
angle
image information
narrow
host vehicle
vehicle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2009278627A
Other languages
Japanese (ja)
Other versions
JP2011121398A (en
Inventor
尚秀 内田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2009278627A priority Critical patent/JP5476960B2/en
Publication of JP2011121398A publication Critical patent/JP2011121398A/en
Application granted granted Critical
Publication of JP5476960B2 publication Critical patent/JP5476960B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、車両前方監視装置に関する。   The present invention relates to a vehicle front monitoring apparatus.

車両に搭載されたカメラやレーダなどを用いて車両前方の状態を監視する車両前方監視装置が公知である。この種の車両前方監視装置では、自車両前方に存在する対向車両(自車両前方をその走行方向と逆方向に走行する車両)、先行車両(自車両前方を、その走行方向と同方向に走行する車両)、障害物、歩行者等の物体(本明細書においては、これらを纏めて「前方物体」と称す)を検出することで、車両前方を監視する。車両前方監視装置による前方物体の検出結果は、例えば衝突時の衝撃を最小限に抑えるプリクラッシュセーフティー(PCS)や、先行車との車間距離を一定に保つアダプティブクルーズコントロール(ACC)等の運転支援システムにおいて利用されている。   2. Description of the Related Art A vehicle forward monitoring device that monitors a state in front of a vehicle using a camera or a radar mounted on the vehicle is known. In this type of vehicle forward monitoring device, an oncoming vehicle (a vehicle that travels in front of the host vehicle in a direction opposite to its traveling direction) and a preceding vehicle (runs in front of the host vehicle in the same direction as the traveling direction). Vehicle), obstacles, pedestrians and other objects (in the present specification, these are collectively referred to as “front objects”) to detect the front of the vehicle. The detection result of the forward object by the vehicle forward monitoring device is, for example, driving support such as pre-crash safety (PCS) that minimizes the impact at the time of collision and adaptive cruise control (ACC) that keeps the distance between the preceding vehicle constant. Used in the system.

一般に、レーダは、前方物体との距離に関する検出精度が高い反面、横方向の分解能が比較的低いという特性を有する。そして、カメラは横方向の分解能が高く、前方物体の境界検出が容易であるという利点を有する。そこで例えば、レーダによって、前方物体の自車両からの相対距離を取得し、カメラによって前方物体の大きさや、自車両の前後軸を基準とした場合の相対的な横方向の位置にかかる情報(以下、「横位置情報」ともいう)等を取得することで前方物体の検出が行われている。   In general, the radar has a high detection accuracy with respect to the distance to the front object, but has a characteristic that the lateral resolution is relatively low. The camera has an advantage that the lateral resolution is high and the boundary detection of the front object is easy. Therefore, for example, the radar acquires the relative distance of the front object from the host vehicle, and the camera uses information about the size of the front object and the relative lateral position when the front and rear axes of the host vehicle are used as a reference (hereinafter referred to as the following). , Etc., which are also referred to as “lateral position information”), and the like, the forward object is detected.

前方物体の自車両からの相対距離とカメラの画角(視野角)との関係について言及する。自車両に近接する前方物体、例えば自車両のすぐ前方をレーン変更等によって側方から接近してくる先行車両を検出する場合には、画角の大きなカメラで車両前方を撮像すると好適である。画角の大きなカメラは、遠方の物標の分解能があまり高くない。従って、自車両に対して遠方の前方物体を画角の大きなカメラで撮像すると、前方物体の境界検出の精度が低下しやすいという実情がある。そこで、画角が異なる一組のカメラを備え、自車両に比較的近い領域を画角の大きな方のカメラで撮像する一方、自車両から遠方の領域を画角の小さな方のカメラで撮像する技術も提案されている。   The relationship between the relative distance of the front object from the host vehicle and the angle of view (viewing angle) of the camera will be described. When detecting a forward object close to the host vehicle, for example, a preceding vehicle approaching from the side by changing the lane or the like in front of the host vehicle, it is preferable to capture the front of the vehicle with a camera having a large angle of view. A camera with a large angle of view does not have a very high resolution for distant targets. Therefore, when a forward object far from the host vehicle is imaged with a camera having a large angle of view, the accuracy of boundary detection of the forward object is likely to decrease. Therefore, a pair of cameras with different angles of view are provided, and an area relatively close to the own vehicle is imaged with a camera with a larger angle of view, while an area far from the own vehicle is imaged with a camera with a smaller angle of view. Technology has also been proposed.

ところで、自車両がカーブ路に差し掛かかった時や、道路側方の路上駐車車両を回避するためにステアリングを操舵すると、画角が小さい方の狭角カメラの視野(撮像範囲)から遠方に位置する前方物体がはずれてしまう場合がある。これに関連して、ステアリングの操舵に応じて、車両の前後軸に対するカメラの視野中心線のなす角度を調節する技術も提案されている(例えば、特許文献1を参照)。   By the way, when the host vehicle is approaching a curved road or when steering is performed to avoid a parked vehicle on the side of the road, it is far from the field of view (imaging range) of the narrow-angle camera with the smaller angle of view. There is a case where the front object located is displaced. In relation to this, a technique has also been proposed in which the angle formed by the camera's visual field center line with respect to the longitudinal axis of the vehicle is adjusted in accordance with steering of the vehicle (see, for example, Patent Document 1).

特開平9−95194号公報JP-A-9-95194 特開2005−81860号公報Japanese Patent Laying-Open No. 2005-81860

しかしながら、カメラの視野中心線の方向を運転者のステアリング操作に追従して変更しようにも応答遅れが生じてしまい、車両前方の監視体制の継続性、或いは連続性が損なわれてしまう虞があった。   However, even if the direction of the camera's visual field center line is changed following the driver's steering operation, a response delay will occur, which may impair the continuity or continuity of the monitoring system in front of the vehicle. It was.

本発明は、上記したような問題点に鑑みてなされたものであり、その目的は、自車両が
カーブ路に差し掛かかった時や、道路側方の路上駐車車両を回避するためにステアリングを操舵した時においても、車両前方の監視体制の継続性、連続性を維持することが可能な車両前方監視装置を提供することである。
The present invention has been made in view of the above-described problems, and the object of the present invention is to provide steering when the host vehicle is approaching a curved road or to avoid a parked vehicle on the side of the road. An object of the present invention is to provide a vehicle forward monitoring device capable of maintaining the continuity and continuity of the monitoring system ahead of the vehicle even when the vehicle is steered.

上記課題を解決するために、本発明に係る車両前方監視装置は以下の手段を採用する。
すなわち、本発明に係る車両前方監視装置は、
自車両前方を撮像する車載式の狭角カメラと、
前記狭角カメラよりも広い画角を有し且つ自車両前方を撮像する車載式の広角カメラと、
自車両前方に存在する前方物体と自車両との相対距離に応じて、前記狭角カメラが生成する画像情報である狭角画像情報および前記広角カメラが生成する画像情報である広角画像情報の何れか一方を、画像処理に用いる画像情報である処理用画像情報として選択する選択手段と、
前記選択手段により選択された方の処理用画像情報を用いて画像処理を行い、自車両前方に存在する前方物体を検出する画像処理手段と、
自車両が進むべき進行方向に対する前記狭角カメラの画角中心線方向のずれを検知する方向ずれ検知手段と、
自車両のステアリングの操舵角を検出する操舵角検出部と、
を備え、
前記選択手段は、前記相対距離が所定の基準距離以上の場合に前記狭角画像情報を前記処理用画像情報として選択し、
前記方向ずれ検知手段は、前記操舵角検出部によって検出される操舵角の変化量が、前記基準距離に応じて定まる規定量以上の場合に前記ずれを検知し、
前記選択手段は、前記方向ずれ検知手段により前記ずれが検知された場合、前記相対距離に応じて選択すべき処理用画像情報が前記狭角画像情報である場合においても前記広角画像情報を選択することを特徴とする。

In order to solve the above problems, the vehicle forward monitoring apparatus according to the present invention employs the following means.
That is, the vehicle front monitoring apparatus according to the present invention is
An in-vehicle narrow-angle camera that images the front of the vehicle,
A vehicle-mounted wide-angle camera that has a wider angle of view than the narrow-angle camera and images the front of the host vehicle;
Any of narrow-angle image information that is image information generated by the narrow-angle camera and wide-angle image information that is image information generated by the wide-angle camera according to the relative distance between the front object existing ahead of the host vehicle and the host vehicle. Selecting means for selecting either as image information for processing which is image information used for image processing;
Image processing means for performing image processing using the processing image information selected by the selection means and detecting a forward object existing ahead of the host vehicle;
Direction deviation detection means for detecting a deviation of the angle-of-view center line direction of the narrow-angle camera with respect to the traveling direction in which the host vehicle should travel
A steering angle detector for detecting the steering angle of the steering of the host vehicle;
With
The selection means selects the narrow-angle image information as the processing image information when the relative distance is equal to or greater than a predetermined reference distance,
The direction deviation detection means detects the deviation when a change amount of the steering angle detected by the steering angle detection unit is equal to or larger than a predetermined amount determined according to the reference distance,
The selection means selects the wide-angle image information even when the image information for processing to be selected according to the relative distance is the narrow-angle image information when the deviation is detected by the direction deviation detection means. It is characterized by that.

本発明において、狭角画像情報は狭角カメラが撮像した画像を画像信号化したデータであり、広角画像情報は広角カメラが撮像した画像を画像信号化したデータである。また、前方物体の自車両からの相対距離は、例えばレーダ等によって検知することができる。   In the present invention, narrow-angle image information is data obtained by converting an image captured by a narrow-angle camera into an image signal, and wide-angle image information is data obtained by converting an image captured by a wide-angle camera into an image signal. Further, the relative distance of the front object from the host vehicle can be detected by, for example, a radar.

選択手段は、例えば前方物体の自車両との相対距離が比較的短い場合に広角画像情報を処理用画像情報として選択する。これにより、レーン変更等によって自車両の側方から接近してくる先行車両や歩道から急に飛び出してきた歩行者などを好適に検出できる。一方、例えば前方物体の自車両との相対距離が比較的長い場合、狭角画像情報を処理用画像情報として選択する。狭角カメラは広角カメラに比して画角が小さいため、焦点距離が広角カメラよりも長い。狭角画像情報を用いて自車両の遠方に位置する前方物体を検出することで、遠方に位置する前方物体の境界検出にかかる精度を高めることができる。   For example, when the relative distance between the front object and the host vehicle is relatively short, the selection unit selects the wide-angle image information as the processing image information. Accordingly, it is possible to suitably detect a preceding vehicle approaching from the side of the host vehicle due to a lane change or the like, a pedestrian suddenly jumping out from the sidewalk, and the like. On the other hand, for example, when the relative distance between the front object and the host vehicle is relatively long, the narrow-angle image information is selected as the processing image information. A narrow-angle camera has a smaller angle of view than a wide-angle camera, and therefore has a longer focal length than a wide-angle camera. By detecting the forward object located far away from the host vehicle using the narrow-angle image information, it is possible to increase the accuracy in detecting the boundary of the forward object located far away.

前記選択手段は、前方物体の自車両との相対距離が所定の基準距離以上の場合に狭角画像情報を(処理用画像情報として)選択し、上記相対距離が基準距離未満の場合に広角画像情報を(処理用画像情報として)選択することができる。この基準距離は、例えば広角画像情報を用いて画像処理手段が前方物体の検出するにあたり、その前方物体の境界(エッジ)検出を所望の精度で行うことのできる限度内における前方物体および自車両の相対距離の最大値である。   The selection means selects narrow-angle image information (as processing image information) when the relative distance between the front object and the host vehicle is equal to or greater than a predetermined reference distance, and a wide-angle image when the relative distance is less than the reference distance. Information can be selected (as processing image information). For example, when the image processing unit detects the front object using wide-angle image information, the reference distance is determined so that the boundary (edge) of the front object can be detected with a desired accuracy. The maximum relative distance.

この構成によれば、方向ずれ検知手段により、自車両が進むべき進行方向に対する狭角カメラの画角中心線方向のずれが検知された場合、前方物体の自車両との相対距離に応じて選択すべき処理用画像情報が狭角画像情報である場合においても広角画像情報が選択される。自車両が進むべき進行方向とは、自車両がこれから走行を予定している進路の方向であり、より具体的には走行路に沿っているといえる。例えば、カーブ路走行時における自車両の進むべき進行方向とはカーブ路に沿うような方向として捉えることができ、直線路走行時における自車両の進むべき進行方向とは当該直線路に沿った方向として捉えることができる。   According to this configuration, when the deviation of the angle of view of the narrow-angle camera with respect to the traveling direction in which the host vehicle should travel is detected by the direction shift detection unit, the selection is made according to the relative distance between the front object and the host vehicle. Wide-angle image information is selected even when the processing image information to be processed is narrow-angle image information. The traveling direction in which the host vehicle should travel is the direction of the route in which the host vehicle is scheduled to travel, and more specifically, it can be said to be along the traveling path. For example, the traveling direction of the host vehicle when traveling on a curved road can be understood as a direction along a curved road, and the traveling direction of the host vehicle when traveling on a straight road is a direction along the straight road. Can be understood as

自車両の走行路側方の路上駐車車両を回避するためにステアリングを操舵する場合、自車両がカーブ路に差し掛かった場合などには、自車両が進むべき進行方向と狭角カメラの画角中心線方向との間にずれが起こる。このような状況下では、自車両に対して遠方に位置する前方物体が狭角カメラの視野から外れる可能性が高い。そこで、例えば遠方の前方物体を検出する際のように前方物体の自車両との相対距離に応じて選択すべき処理用画像情報が狭角画像情報である場合においても広角画像情報を選択することで、前方物体が使用するカメラの視野外となることによって検出されないという事態を好適に回避することができる。   When steering is performed to avoid a parked vehicle on the side of the vehicle's running road, or when the vehicle approaches a curved road, the traveling direction of the vehicle and the angle-of-view centerline of the narrow-angle camera Deviation occurs between directions. Under such circumstances, there is a high possibility that a forward object located far away from the host vehicle is out of the field of view of the narrow-angle camera. Therefore, for example, when the image information for processing to be selected according to the relative distance between the front object and the host vehicle is narrow-angle image information, such as when detecting a distant front object, the wide-angle image information is selected. Thus, it is possible to suitably avoid a situation where the front object is not detected due to being out of the field of view of the camera used.

従って、本発明によれば、自車両がカーブ路に差し掛かかった時や、道路側方の路上駐車車両を回避するためにステアリングを操舵した時においても、車両前方の監視体制の継続性、連続性を維持することができる。   Therefore, according to the present invention, the continuity of the monitoring system in front of the vehicle even when the host vehicle approaches a curved road or when steering is performed to avoid a parked vehicle on the side of the road, Continuity can be maintained.

また、本発明において、前記方向ずれ検知手段は、自車両のステアリングの操舵角を検出する操舵角検出部によって検出される操舵角の変化量が、前記基準距離に応じて定まる規定量以上の場合に前記ずれを検知する。

Further, in the present invention, the direction displacement sensing means, the amount of change in the steering angle is the steering angle detection unit to the thus detected to detect a steering angle of the vehicle steering, and determined the specified amount or more depending on the reference distance In this case, the deviation is detected.

例えば、方向ずれ検知手段は、操舵角の変化量である操舵量を演算し、この操舵量が規定量以上であると判別した場合に、自車両が進むべき進行方向に対して狭角カメラの画角中心線方向がずれたことを検知しても良い。また、上記操舵量は、例えば中立操舵角を基準とした場合の操舵角の変化量として捉えることができる。そして、中立操舵角とは、ステアリングホイールの中立位置(ニュートラル位置)に対応する操舵角であり、中立位置とはステアリングホイール(ハンドル)がちょうどセンターになっている時の位置をさす。また、ここでの規定量とは、広角画像情報から狭角画像情報へと処理用画像情報がちょうど切り替えられる距離に対応した位置に存在する前方物体を狭角カメラによって撮像しようとした場合に、前方物体が狭角カメラの視野から外れてしまうことになるときの、ステアリングの操舵量の最小値として捉えることができる。   For example, the direction deviation detecting means calculates a steering amount that is a change amount of the steering angle, and when it is determined that the steering amount is equal to or greater than a predetermined amount, It may be detected that the view angle center line direction has shifted. Further, the steering amount can be grasped as a change amount of the steering angle when the neutral steering angle is used as a reference, for example. The neutral steering angle is a steering angle corresponding to the neutral position (neutral position) of the steering wheel, and the neutral position is the position when the steering wheel (handle) is just at the center. In addition, the prescribed amount here is when a forward object existing at a position corresponding to the distance at which the processing image information is just switched from the wide-angle image information to the narrow-angle image information is to be imaged by the narrow-angle camera, This can be regarded as the minimum value of the steering amount when the front object is out of the field of view of the narrow-angle camera.

また、本発明において、自車両が走行する走行路の曲率を検出する曲率検出部を備える場合は、前記方向ずれ検知手段は、該曲率検出部によって検出される曲率が、前記基準距離に応じて定まる規定曲率以上の場合に前記ずれを検知することができる。 In the present invention, in the case where a curvature detection unit that detects the curvature of the traveling path on which the host vehicle travels is provided, the direction deviation detection unit has a curvature detected by the curvature detection unit according to the reference distance. The deviation can be detected when the curvature is equal to or greater than a predetermined specified curvature .

走行路の曲率は、走行路の曲がり具合、程度を表す指標であり、カーブ半径(曲率半径)の逆数である。走行路の曲率が大きいほど、カーブ路の曲がり具合が激しい(急である)ことを意味する。方向ずれ検知手段は、走行路の曲率が規定曲率以上であると判別した場合に、自車両が進むべき進行方向に対して狭角カメラの画角中心線方向がずれたことを検知しても良い。ここで規定曲率とは、広角画像情報から狭角画像情報へと処理用画像情報がちょうど切り替えられる距離に対応した位置に存在する前方物体を狭角カメラによって撮像しようとした場合に、前方物体が狭角カメラの視野から外れてしまうことになるときの、走行路の曲率の最小値として捉えることができる。   The curvature of the traveling road is an index representing the degree and degree of bending of the traveling road, and is the reciprocal of the curve radius (curvature radius). The larger the curvature of the road, the more severe (steep) the curve is. The direction deviation detecting means detects that the angle-of-view center line direction of the narrow-angle camera has deviated from the traveling direction in which the host vehicle is to travel when it is determined that the curvature of the road is equal to or greater than the prescribed curvature. good. Here, the specified curvature means that when the front object existing at a position corresponding to the distance at which the processing image information is just switched from the wide-angle image information to the narrow-angle image information is to be imaged by the narrow-angle camera, It can be grasped as the minimum value of the curvature of the travel path when it is out of the field of view of the narrow-angle camera.

本発明に係る車両前方監視装置によれば、自車両がカーブ路に差し掛かかった時や、道路側方の路上駐車車両を回避するためにステアリングを操舵した時においても、車両前方の監視体制の継続性、連続性を維持することができる。   According to the vehicle front monitoring apparatus according to the present invention, even when the host vehicle is approaching a curved road or when steering is performed to avoid a parked vehicle on the side of the road, the monitoring system in front of the vehicle Continuity and continuity can be maintained.

実施形態に係る車両前方監視装置1の概略構成を示すブロック図である。1 is a block diagram showing a schematic configuration of a vehicle forward monitoring apparatus 1 according to an embodiment. 画像情報選択部が画像情報選択フラグFgを1に設定する領域と0に設定する領域の各々を例示した図である。It is the figure which illustrated each of the area | region which an image information selection part sets the image information selection flag Fg to 1, and the area | region which sets to 0. 自車両が前方路駐車両を回避する回避走行の様子を説明するための説明図である。It is explanatory drawing for demonstrating the mode of the avoidance driving | running | working in which the own vehicle avoids both front road parking. 自車両がカーブ路に差し掛かった様子を説明するための説明図である。It is explanatory drawing for demonstrating a mode that the own vehicle approached the curve road. 実施例1における制御ルーチンを示したフローチャートである。3 is a flowchart illustrating a control routine in the first embodiment. 実施例2に係る車両前方監視装置1の概略構成を示すブロック図である。It is a block diagram which shows schematic structure of the vehicle front monitoring apparatus 1 which concerns on Example 2. FIG. 実施例2における制御ルーチンを示したフローチャートである。6 is a flowchart illustrating a control routine in Embodiment 2.

以下に図面を参照して、この発明を実施するための形態を例示的に詳しく説明する。尚、本実施の形態に記載されている構成要素の寸法、材質、形状、その相対配置等は、特に特定的な記載がない限りは、発明の技術的範囲をそれらのみに限定する趣旨のものではない。   DETAILED DESCRIPTION Exemplary embodiments for carrying out the present invention will be described in detail below with reference to the drawings. It should be noted that the dimensions, materials, shapes, relative arrangements, and the like of the components described in this embodiment are intended to limit the technical scope of the invention only to those unless otherwise specified. is not.

図1は、本実施形態に係る車両前方監視装置1の概略構成を示すブロック図である。車両前方監視装置1は、自車両の前方に存在する他車両(対向車両、先行車両等)、障害物、歩行者等の総称である「前方物体」を検出し、車両前方を監視する装置である。そして、車両前方監視装置1による監視結果に基づいて、プリクラッシュセーフティシステム(PCS)が作動するようになっている。例えば、前方物体と自車両が衝突する可能性が高いと判断された場合、運転者へ警報を発信するとともに衝突被害低減制御が実施される。衝突被害低減制御は、シートベルトの巻き取りやプリクラッシュブレーキによる衝突速度の低減等を例示することができる。   FIG. 1 is a block diagram showing a schematic configuration of a vehicle forward monitoring apparatus 1 according to the present embodiment. The vehicle forward monitoring device 1 is a device that detects the “front object” that is a generic name of other vehicles (oncoming vehicles, preceding vehicles, etc.), obstacles, pedestrians, etc. existing in front of the host vehicle and monitors the front of the vehicle. is there. And based on the monitoring result by the vehicle front monitoring apparatus 1, a pre-crash safety system (PCS) operates. For example, when it is determined that there is a high possibility that a front object and the host vehicle will collide, a warning is transmitted to the driver and collision damage reduction control is performed. The collision damage reduction control can exemplify reduction of a collision speed by winding a seat belt or pre-crash brake.

車両前方監視装置1は、ミリ波レーダ2、画角(視野角)が互いに相違する一組のカメラ3,4、操舵角センサ5、レーダECU6、システムECU7を具備する。本実施例において、単に「車両」と記す場合には自車両をさすものとする。   The vehicle front monitoring apparatus 1 includes a millimeter wave radar 2, a pair of cameras 3 and 4, a steering angle sensor 5, a radar ECU 6, and a system ECU 7 having different angles of view (viewing angles). In this embodiment, when simply describing “vehicle”, it means the own vehicle.

ミリ波レーダ2は、自車両の前部に設けられており、自車両の前方に存在する前方物体の自車両からの相対距離(以下、「物体相対距離」という)および前方物体の方向を検知する。ミリ波レーダ2は、自車両の前方の所定範囲においてミリ波を走査して、その反射波を受信する。そして、反射波を受信した夫々の方向について物体相対距離を検知する。ミリ波レーダ2による検知は所定時間毎に行われる。ミリ波レーダ2はレーダECU6と電気的に接続されており、検知した前方物体の物体相対距離に応じた電気信号(以下、「物体距離情報」ともいう)をレーダECU6へ逐次出力する。   The millimeter wave radar 2 is provided at the front of the host vehicle, and detects the relative distance of the forward object existing in front of the host vehicle from the host vehicle (hereinafter referred to as “object relative distance”) and the direction of the front object. To do. The millimeter wave radar 2 scans the millimeter wave in a predetermined range in front of the host vehicle and receives the reflected wave. Then, the object relative distance is detected in each direction in which the reflected wave is received. Detection by the millimeter wave radar 2 is performed every predetermined time. The millimeter wave radar 2 is electrically connected to the radar ECU 6 and sequentially outputs an electrical signal (hereinafter also referred to as “object distance information”) corresponding to the detected object relative distance of the forward object to the radar ECU 6.

レーダECU6は、CPU、ROM、RAMを含むコンピュータを主体として構成されており、物体相対距離演算部61及び物体相対速度演算部62を有する。物体相対距離演算部61は、ミリ波レーダ2からの物体距離情報に基づいて、前方物体を検知する。また、物体相対距離演算部61は、物体相対距離を演算する。物体相対距離は、自車両の前後軸方向における前方物体と自車両との相対距離である。物体相対速度演算部62は、検知した前方物体の自車両に対する相対速度を演算する。物体相対距離演算部61および物体相対速度演算部62の各々は、演算結果に応じた信号をシステムECU7へ出力する。   The radar ECU 6 is mainly configured by a computer including a CPU, a ROM, and a RAM, and includes an object relative distance calculation unit 61 and an object relative speed calculation unit 62. The object relative distance calculation unit 61 detects a forward object based on the object distance information from the millimeter wave radar 2. Further, the object relative distance calculation unit 61 calculates the object relative distance. The object relative distance is a relative distance between the front object and the host vehicle in the longitudinal axis direction of the host vehicle. The object relative speed calculation unit 62 calculates the relative speed of the detected front object with respect to the host vehicle. Each of the object relative distance calculation unit 61 and the object relative speed calculation unit 62 outputs a signal corresponding to the calculation result to the system ECU 7.

一組のカメラ3,4のうち、相対的に画角(視野角)が大きい方のカメラ3を「広角カメラ」と称し、画角が小さい方のカメラ4を「狭角カメラ」と称することとする。広角カメラ3および狭角カメラ4は、レンズと、CCD(charge-coupled device)やCMOS
(complementary metal oxide semiconductor)等の撮像素子とを含んで構成されている
。広角カメラ3および狭角カメラ4の夫々は、車室(運転室)内のルームミラーのステイ(図示省略)付近に設置されており、自車両の前方の風景を撮像する。広角カメラ3および狭角カメラ4が撮像した車両前方の画像は、画像信号化された画像情報(画像データ)としてシステムECU7へ逐次出力される。以下、広角カメラ3が撮像した画像から生成
された画像情報を「広角画像情報Dw」と称し、狭角カメラ4が撮像した画像から生成された画像情報を「狭角画像情報Dn」と称する。
Of the pair of cameras 3 and 4, the camera 3 having a relatively large angle of view (viewing angle) is referred to as a “wide-angle camera”, and the camera 4 having a smaller angle of view is referred to as a “narrow-angle camera”. And The wide-angle camera 3 and the narrow-angle camera 4 have a lens, a CCD (charge-coupled device), and a CMOS.
(Complementary metal oxide semiconductor) and the like. Each of the wide-angle camera 3 and the narrow-angle camera 4 is installed in the vicinity of a stay (not shown) of a rearview mirror in the passenger compartment (driver's cab), and images a landscape in front of the host vehicle. Images in front of the vehicle captured by the wide-angle camera 3 and the narrow-angle camera 4 are sequentially output to the system ECU 7 as image information (image data) converted into image signals. Hereinafter, image information generated from an image captured by the wide-angle camera 3 is referred to as “wide-angle image information Dw”, and image information generated from an image captured by the narrow-angle camera 4 is referred to as “narrow-angle image information Dn”.

本実施形態における広角カメラ3、狭角カメラ4による画像の取り込み頻度(撮像頻度)は、例えば30ms(ミリ秒)程度となるように設定されている。また、広角カメラ3および狭角カメラ4の画角(視野)中心線方向は双方ともに、自車両の前後軸に平行である。また、自車両の前後軸方向と画角中心線方向をずらして設定しても良いが、本実施形態では上記2つの方向のなす角度は運転条件、運転状態に応じて変更されるものではない。   The image capture frequency (imaging frequency) by the wide-angle camera 3 and the narrow-angle camera 4 in the present embodiment is set to be about 30 ms (milliseconds), for example. Further, the field angle (field of view) center line directions of the wide-angle camera 3 and the narrow-angle camera 4 are both parallel to the longitudinal axis of the host vehicle. Further, the front-rear axis direction and the angle-of-view centerline direction of the host vehicle may be set to be shifted, but in the present embodiment, the angle formed by the two directions is not changed according to driving conditions and driving conditions. .

操舵角センサ5は、自車両のステアリングシャフトに設けられて、自車両のステアリングの操舵角(転舵角とも称呼されることがある)を検出するセンサである。本実施形態においては操舵角センサ5が本発明における操舵角検出部に対応している。操舵角センサ5は、ロータリエンコーダ等を含んで構成されており、自車両の運転者がステアリングホイール(いわゆるハンドル)を介して入力した操舵角の方向、およびその大きさを検出する。すなわち、ステアリングを右に転舵するときと左に転舵するときとでは、操舵角の方向は逆である。操舵角センサ5は、このようにして検出した操舵角の方向及び大きさに応じた操舵角信号をシステムECU7へ出力する。   The steering angle sensor 5 is a sensor that is provided on the steering shaft of the host vehicle and detects the steering angle of the steering of the host vehicle (sometimes referred to as a turning angle). In the present embodiment, the steering angle sensor 5 corresponds to the steering angle detector in the present invention. The steering angle sensor 5 includes a rotary encoder and the like, and detects the direction and magnitude of the steering angle input by the driver of the host vehicle via a steering wheel (so-called steering wheel). That is, the direction of the steering angle is opposite when turning the steering to the right and when turning the steering to the left. The steering angle sensor 5 outputs a steering angle signal corresponding to the direction and magnitude of the detected steering angle to the system ECU 7.

システムECU7は、CPU、ROM、RAMを含むコンピュータを主体として構成されており、画像情報選択部71、画像処理部72、方向ずれ検知部73、衝突判定部74を有する。各部の機能を以下に説明する。   The system ECU 7 is mainly configured by a computer including a CPU, a ROM, and a RAM, and includes an image information selection unit 71, an image processing unit 72, a direction deviation detection unit 73, and a collision determination unit 74. The function of each part will be described below.

レーダはその特性上、前方物体にかかる物体相対距離を検出する精度が高い反面、横方向の分解能が比較的低い。これに対して、カメラは横方向の分解能が優れ、前方物体の境界(エッジ)検出を精度良く行うことができる。更に広角カメラ3および狭角カメラ4を比較すると、狭角カメラ4は、広角カメラ3に比べて画角が小さいために焦点距離が長く、遠方に位置する前方物体に対する分解能が広角カメラ3よりも優れている。一方、広角カメラ3は、自車両に近接している前方物体を視野内に収めやすいという利点がある。そこで、システムECU7は、狭角画像情報Dn及び広角画像情報Dwのうち、前方物体を検出するための画像(解析)処理を行う対象となる画像情報、すなわち画像処理に用いる画像情報を、物体相対距離演算部61が演算した物体相対距離に応じて切り替えるようにする。ここで、画像処理に用いる画像情報を、以下「処理用画像情報」と称する。   Due to its characteristics, the radar is highly accurate in detecting the relative distance of the object on the front object, but has a relatively low lateral resolution. In contrast, the camera has excellent lateral resolution, and can accurately detect the boundary (edge) of the front object. Further, when comparing the wide-angle camera 3 and the narrow-angle camera 4, the narrow-angle camera 4 has a long focal length because of a smaller angle of view than the wide-angle camera 3, and has a higher resolution with respect to a front object located far away than the wide-angle camera 3. Are better. On the other hand, the wide-angle camera 3 has an advantage that a front object that is close to the host vehicle can be easily placed in the field of view. Therefore, the system ECU 7 uses, as object relative, image information to be subjected to image (analysis) processing for detecting a front object, that is, image information used for image processing, among the narrow-angle image information Dn and the wide-angle image information Dw. Switching is performed according to the object relative distance calculated by the distance calculation unit 61. Here, the image information used for the image processing is hereinafter referred to as “processing image information”.

ここで、具体的には、画像情報選択部71は、物体相対距離演算部61から取得した物体相対距離Dfwが基準距離Db以上である場合、処理用画像情報として狭角画像情報Dnを選択する。この場合、画像情報選択部71は、画像情報選択フラグFgを1に設定(セット)する。画像情報選択フラグFgは、画像情報選択部のRAMに設けられた記憶領域である。一方、物体相対距離Dfwが基準距離Db未満である場合、画像情報選択部71は、広角画像情報Dwを処理用画像情報として選択し、上記画像情報選択フラグFgを0に設定(セット)する。画像情報選択部71は、狭角画像情報Dn及び広角画像情報Dwの何れが処理用画像情報として選択されているかを表す画像選択信号を、画像処理部72へ出力する。画像選択信号は、画像情報選択フラグFgが1と0の何れに設定されているかを表す信号と言い換えることができる。   Specifically, the image information selection unit 71 selects the narrow-angle image information Dn as the processing image information when the object relative distance Dfw acquired from the object relative distance calculation unit 61 is greater than or equal to the reference distance Db. . In this case, the image information selection unit 71 sets (sets) the image information selection flag Fg to 1. The image information selection flag Fg is a storage area provided in the RAM of the image information selection unit. On the other hand, when the object relative distance Dfw is less than the reference distance Db, the image information selection unit 71 selects the wide-angle image information Dw as the processing image information, and sets (sets) the image information selection flag Fg to 0. The image information selection unit 71 outputs an image selection signal indicating which of the narrow-angle image information Dn and the wide-angle image information Dw is selected as the processing image information to the image processing unit 72. In other words, the image selection signal is a signal indicating whether the image information selection flag Fg is set to 1 or 0.

画像処理部72は、画像情報選択部71により選択された方の処理用画像情報を用いて画像処理を行い、前方物体を検出する。具体的には、処理用画像情報に対して例えばエッジ検出処理を施し、画像領域範囲から前方物体を抽出する。そして、この抽出結果を基に前方物体の大きさや横方向の位置に関する横位置情報を取得することで、前方物体を検出する。   The image processing unit 72 performs image processing using the processing image information selected by the image information selection unit 71 and detects a front object. Specifically, for example, edge detection processing is performed on the processing image information, and a front object is extracted from the image region range. Then, the front object is detected by acquiring the lateral position information related to the size of the forward object and the lateral position based on the extraction result.

ここで、狭角画像情報Dn及び広角画像情報Dwの双方ではなく何れか一方を択一的に選択して、選択した方の画像情報を基に前方物体を検出するのは、画像処理部72における処理負荷の軽減を図るためである。また、基準距離Dbは、広角画像情報Dwを用いて画像処理を行い前方物体の検出を試みた場合に、前方物体の境界(エッジ)検出を所望の精度で行うことのできる限度内における自車両と前方物体の最大距離である。   Here, instead of both the narrow-angle image information Dn and the wide-angle image information Dw, either one is selected, and the forward object is detected based on the selected image information. This is for the purpose of reducing the processing load. In addition, the reference distance Db is within the limit that can detect the boundary (edge) of the front object with desired accuracy when image processing is performed using the wide-angle image information Dw and detection of the front object is attempted. And the maximum distance of the front object.

図2は、画像情報選択部71が画像情報選択フラグFgを1に設定する領域(図中、斜めハッチングにて示す)と0に設定する領域(図中、格子ハッチングにて示す)の各々を例示した図である。本実施形態において、画像情報選択フラグFgが1に設定される領域(狭角画像情報Dnが処理用画像情報として選択される領域)は狭角カメラ4の視野(撮像範囲)内に含まれている。また、画像情報選択フラグFgが0に設定される領域(広角画像情報Dwが処理用画像情報として選択される領域)は、広角カメラ3の視野内に含まれている。   FIG. 2 shows each of an area where the image information selection unit 71 sets the image information selection flag Fg to 1 (indicated by diagonal hatching in the figure) and an area where the image information selection flag Fg is set to 0 (indicated by grid hatching in the figure). FIG. In the present embodiment, an area where the image information selection flag Fg is set to 1 (area where the narrow-angle image information Dn is selected as processing image information) is included in the field of view (imaging range) of the narrow-angle camera 4. Yes. An area where the image information selection flag Fg is set to 0 (an area where the wide-angle image information Dw is selected as processing image information) is included in the field of view of the wide-angle camera 3.

図中、狭角カメラ4の視野は一点鎖線で挟まれた領域であり、広角カメラ3の視野は二点鎖線で挟まれた領域である。狭角カメラ4及び広角カメラ3の各々の画角は、自車両から遠方の前方物体が狭角カメラ4の視野内に含まれ、且つ、自車両に近接する前方物体が広角カメラ3の視野内に含まれるように、それぞれが適正な角度に設定されている。   In the figure, the field of view of the narrow-angle camera 4 is an area sandwiched between alternate long and short dash lines, and the field of view of the wide-angle camera 3 is an area sandwiched between alternate long and two short dashes lines. The angle of view of each of the narrow-angle camera 4 and the wide-angle camera 3 is such that a forward object far from the own vehicle is included in the field of view of the narrow-angle camera 4 and a forward object close to the own vehicle is in the field of view of the wide-angle camera 3. Each of them is set to an appropriate angle so as to be included in.

図中の符号「MF1」、「MF2」は自車両に対する前方物体を表したものである。図示のように、前方物体MF1は、車両からの相対距離である物体相対距離Dfwが基準距離Dbより長い。そのため、画像情報選択部71は、物体相対距離演算部61から物体相対距離Dfwの演算結果を受信すると、画像情報選択フラグFgを1に設定する。そして、画像処理部72が、画像情報選択部71からの画像選択信号を受信すると、狭角画像情報Dnに基づいて前方物体MF1を検出する。一方、前方物体MF2は、物体相対距離Dfwが基準距離Dbより短い。そのため、画像情報選択部71は、物体相対距離演算部61から物体相対距離Dfwの演算結果を受信すると、画像情報選択フラグFgを0に設定する。そして、画像処理部72は、画像情報選択部71からの画像選択信号を受信すると、広角画像情報Dwに基づいて前方物体MF2を検出する。   Reference numerals “MF1” and “MF2” in the figure represent forward objects relative to the host vehicle. As illustrated, the front object MF1 has an object relative distance Dfw, which is a relative distance from the vehicle, longer than the reference distance Db. Therefore, when receiving the calculation result of the object relative distance Dfw from the object relative distance calculation unit 61, the image information selection unit 71 sets the image information selection flag Fg to 1. When the image processing unit 72 receives the image selection signal from the image information selection unit 71, the image processing unit 72 detects the front object MF1 based on the narrow-angle image information Dn. On the other hand, the front object MF2 has an object relative distance Dfw shorter than the reference distance Db. Therefore, when receiving the calculation result of the object relative distance Dfw from the object relative distance calculation unit 61, the image information selection unit 71 sets the image information selection flag Fg to 0. When the image processing unit 72 receives the image selection signal from the image information selection unit 71, the image processing unit 72 detects the front object MF2 based on the wide-angle image information Dw.

以上述べた事項が、本実施形態に係る車両前方監視装置1が自車両前方を監視する際の基本制御内容である。次に、車両前方監視装置1において、特徴的な制御内容について説明する。前方物体が自車両の遠方に位置する場合、情報選択部71は上記基本制御に従うと画像情報選択フラグFgを1に設定するため、画像情報選択部71からの画像選択信号を受信した画像処理部72は、狭角画像情報Dnを用いて画像処理を行い、前方物体を検出することになる。   The matters described above are the basic control contents when the vehicle front monitoring apparatus 1 according to the present embodiment monitors the front of the host vehicle. Next, characteristic control contents in the vehicle forward monitoring apparatus 1 will be described. When the forward object is located far from the host vehicle, the information selection unit 71 sets the image information selection flag Fg to 1 in accordance with the basic control. Therefore, the image processing unit that has received the image selection signal from the image information selection unit 71 72, image processing is performed using the narrow-angle image information Dn, and a forward object is detected.

ところが、自車両の走行路側方の路上駐車車両を回避するためにステアリングを操舵する場合、自車両がカーブ(路)に差し掛かった場合などのように、自車両の走行環境が変化すると、狭角カメラ4の画角(視野)中心線方向Dclが自車両の進むべき進行方向(以下、「進行予定方向」という)Dcpに対してずれが生じ、遠方の前方物体が狭角カメラ4の視野からはずれてしまう場合がある。   However, when the steering environment is steered to avoid a parked vehicle on the side of the traveling road of the own vehicle, and when the traveling environment of the own vehicle changes, such as when the own vehicle approaches a curve (road), the narrow angle The angle of view (field of view) center line direction Dcl of the camera 4 is deviated from the traveling direction (hereinafter referred to as “scheduled traveling direction”) Dcp of the host vehicle, and a distant front object moves from the field of view of the narrow-angle camera 4. It may come off.

図3は、自車両が前方の路上駐車車両(以下、「前方路駐車両」という)を回避する回避走行の様子を説明するための説明図である。ここで、自車両は直線の道路を走行しており、この直線路を走行する自車両の進行予定方向Dcpは、図示の通り(太実線矢印)当該直線路が延在する方向に一致する。これに対して、自車両の前方に前方路駐車両が存在するとこれを回避しなくてはならないため、自車両の走行環境が変化する。すなわち、運転者のハンドル操作に伴って自車両のステアリングが操舵されることにより、自車両の走
行状態が前方路駐車両を回避する回避走行に移行することになる。
FIG. 3 is an explanatory diagram for explaining a situation of avoiding traveling in which the host vehicle avoids a road parking vehicle ahead (hereinafter referred to as “both front road parking”). Here, the host vehicle travels on a straight road, and the planned traveling direction Dcp of the host vehicle traveling on the straight road coincides with the direction in which the straight road extends as shown (thick solid arrow). On the other hand, if there is both front road parking ahead of the host vehicle, this must be avoided, and the traveling environment of the host vehicle changes. That is, the steering state of the host vehicle is steered in accordance with the driver's steering operation, so that the traveling state of the host vehicle shifts to avoidance traveling that avoids both front road parking.

ここで、上記のように狭角カメラ4の画角中心線の方向(以下、「狭画角中心線方向」という)Dclと、自車両の前後軸との関係は固定である。そうすると、ステアリングの操舵前に比べて狭画角中心線方向Dclが変化し、これが自車両の進行予定方向Dcpに対してずれてしまう。その結果、自車両の遠方に位置する前方物体(この図では、対向車両)が狭角カメラ4の視野外となってしまい、検出することができない可能性が高くなる。なお、図3の説明から明らかなように、進行予定方向Dcpとは自車両が本来進行すべき方向を意味している。従って、自車両が図示のような直線路を走行している場合、その直線路に沿った方向が進行予定方向Dcpに相当し、上記の回避走行時にステアリングの操舵に追従して一時的に変化する自車両の前後軸の方向が進行予定方向に該当するものではない。   Here, as described above, the relationship between the direction of the angle-of-view center line of the narrow-angle camera 4 (hereinafter referred to as “narrow-view angle center line direction”) Dcl and the front-rear axis of the host vehicle is fixed. As a result, the narrow angle-of-view center line direction Dcl changes compared to before steering, which is deviated from the planned traveling direction Dcp of the host vehicle. As a result, there is a high possibility that a front object (an oncoming vehicle in this figure) located far from the host vehicle is out of the field of view of the narrow-angle camera 4 and cannot be detected. As is clear from the description of FIG. 3, the planned travel direction Dcp means the direction in which the host vehicle should travel originally. Therefore, when the host vehicle is traveling on a straight road as shown in the figure, the direction along the straight road corresponds to the planned traveling direction Dcp, and changes temporarily following the steering of the steering during the avoidance traveling. The direction of the front / rear axis of the host vehicle does not correspond to the planned traveling direction.

図4は、自車両がカーブ路に差し掛かった様子を説明するための説明図である。この図では、自車両が右方向へ曲がるカーブ(右カーブ)を走行しており、自車両の進行予定方向Dcpは、図中実線矢印方向で示されるようにカーブに沿った方向である。直線路を走行中の自車両の前方に図示のようなカーブ路が現れた場合、自車両の走行環境が変化することになる。そして、この場合、自車両から遠ざかるにつれて、狭画角中心線方向Dcl(図中、破線矢印にて表す)が、カーブに沿った進行予定方向Dcpに対してずれてゆくことになる。その結果、自車両の遠方に位置する前方物体(この図では、対向車両)が狭角カメラ4の視野外となってしまい、検出することができない可能性が高くなる。   FIG. 4 is an explanatory diagram for explaining a situation in which the host vehicle has reached a curved road. In this figure, the host vehicle is traveling along a curve that turns to the right (right curve), and the planned traveling direction Dcp of the host vehicle is a direction along the curve as indicated by the solid arrow direction in the figure. When a curved road as shown in the figure appears in front of the host vehicle traveling on a straight road, the traveling environment of the host vehicle changes. In this case, as the distance from the host vehicle increases, the narrow angle center line direction Dcl (represented by a broken line arrow in the figure) shifts from the planned traveling direction Dcp along the curve. As a result, there is a high possibility that a front object (an oncoming vehicle in this figure) located far from the host vehicle is out of the field of view of the narrow-angle camera 4 and cannot be detected.

そこで、本実施形態の車両前方監視装置1では、方向ずれ検知部73が、図3および図4において説明したような、自車両の進行予定方向Dcpに対する狭画角中心線方向Dclのずれの有無を検知する。そして、方向ずれ検知部73により進行予定方向Dcpおよび狭画角中心線方向Dclにおけるずれが検知された場合、画像情報選択部71は、物体相対距離Dfwに応じて選択すべき処理用画像情報が狭角画像情報Dnである場合においても、画角のより大きな広角カメラ3によって生成される広角画像情報Dwを選択するようにする。   Therefore, in the vehicle front monitoring apparatus 1 according to the present embodiment, the direction deviation detection unit 73 determines whether or not there is a deviation of the narrow angle of view center line direction Dcl with respect to the planned traveling direction Dcp of the host vehicle as described in FIGS. Is detected. When the deviation in the estimated traveling direction Dcp and the narrow-angle-of-viewline centerline direction Dcl is detected by the direction deviation detection unit 73, the image information selection unit 71 has processing image information to be selected according to the object relative distance Dfw. Even in the case of the narrow-angle image information Dn, the wide-angle image information Dw generated by the wide-angle camera 3 having a larger angle of view is selected.

以下、本実施形態における実施例について説明する。まず、実施例1では、図3で説明したような状況、すなわち自車両のステアリング操舵に伴い、自車両の進行予定方向Dcpと狭画角中心線方向Dclとのずれが起こった場合の制御内容について説明する。次いで、実施例2では、図4で説明したような状況、すなわちカーブ路走行時、或いはカーブ路に進入する手前において、自車両の進行予定方向Dcpと狭画角中心線方向Dclとのずれが起こった場合の制御内容について説明することにする。   Hereinafter, examples in the present embodiment will be described. First, in the first embodiment, the contents of control when the situation described with reference to FIG. 3, that is, the deviation between the planned traveling direction Dcp of the host vehicle and the narrow-angle central line direction Dcl occurs due to the steering of the host vehicle. Will be described. Next, in the second embodiment, when the vehicle travels on a curved road or before entering the curved road, the shift between the planned traveling direction Dcp of the host vehicle and the narrow-angle center line direction Dcl is similar to that in FIG. The contents of control when this happens will be described.

図5は、実施例1における制御ルーチンを示したフローチャートである。本制御ルーチンは、レーダECU6およびシステムECU7が協働して一定時間(例えば、100ms程度)毎に繰り返し行われるルーチンである。   FIG. 5 is a flowchart illustrating a control routine in the first embodiment. This control routine is a routine that is repeatedly performed at regular intervals (for example, about 100 ms) in cooperation with the radar ECU 6 and the system ECU 7.

本ルーチンが実行されると、ステップS101では、物体相対距離演算部61が、ミリ波レーダ2からの出力信号に基づいて物体相対距離Dfwを演算するとともに、画像処理部72によって検出すべき対象となる前方物体を検知する。   When this routine is executed, in step S101, the object relative distance calculation unit 61 calculates the object relative distance Dfw based on the output signal from the millimeter wave radar 2, and the object to be detected by the image processing unit 72. A forward object is detected.

次に、ステップS102では、物体相対距離Dfwが基準距離Db以上であるか否かが画像情報選択部71によって判定される。肯定判定された場合(Dfw≧Db)、ステップS103の処理に進む。本ステップにおいて、否定判定された場合(Dfw<Db)にはステップS104の処理に進む。ステップS104では、画像情報選択部71は広角画像情報Dwを処理用画像情報として選択し、画像情報選択フラグFgを0に設定(セット
)する。ステップS104の処理が終了すると、ステップS108の処理に進む。
Next, in step S102, the image information selection unit 71 determines whether or not the object relative distance Dfw is greater than or equal to the reference distance Db. When a positive determination is made (Dfw ≧ Db), the process proceeds to step S103. If a negative determination is made in this step (Dfw <Db), the process proceeds to step S104. In step S104, the image information selection unit 71 selects the wide-angle image information Dw as the processing image information, and sets (sets) the image information selection flag Fg to 0. When the process of step S104 ends, the process proceeds to step S108.

ステップS103では、操舵角センサ5により操舵角信号が検出され、その検出結果が方向ずれ検知部73へ入力される。そして、方向ずれ検知部73は、操舵角の方向及び大きさを表す操舵角信号に基づいて、操舵角の変化量(以下、「操舵量」という)θstを演算する。ここで、操舵量θstとは、中立操舵角を基準とした場合の操舵角の変化量である。この中立操舵角とは、ステアリングホイールの中立位置(ニュートラル位置)に対応する操舵(転舵)角であり、中立位置とはステアリングホイールがちょうどセンターになっている時の位置をさす。   In step S 103, a steering angle signal is detected by the steering angle sensor 5, and the detection result is input to the direction deviation detection unit 73. Then, the direction deviation detection unit 73 calculates a steering angle change amount (hereinafter referred to as “steering amount”) θst based on a steering angle signal representing the direction and magnitude of the steering angle. Here, the steering amount θst is a change amount of the steering angle when the neutral steering angle is used as a reference. The neutral steering angle is a steering (steering) angle corresponding to the neutral position (neutral position) of the steering wheel, and the neutral position is a position when the steering wheel is exactly at the center.

続くステップS105では、操舵量θstが規定操舵量θstb以上であるか否かを判定する。規定操舵量θstbは、自車両に対する物体相対距離Dfwがちょうど基準距離Dbにある前方物体を狭角カメラ4によって撮像しようとした場合に、その前方物体が狭角カメラ4の視野から外れてしまうことになるときの、操舵角の変化量の最小値として定義される。本実施例においては操舵角センサ5が本発明における操舵角検出部に相当する。また、本実施例においては方向ずれ検知部73が本発明における方向ずれ検知手段に相当する。   In a succeeding step S105, it is determined whether or not the steering amount θst is equal to or larger than the specified steering amount θstb. The prescribed steering amount θstb is that when a front object whose object relative distance Dfw is exactly the reference distance Db with respect to the host vehicle is to be imaged by the narrow-angle camera 4, the front object is out of the field of view of the narrow-angle camera 4. Is defined as the minimum value of the change amount of the steering angle. In the present embodiment, the steering angle sensor 5 corresponds to the steering angle detector in the present invention. In the present embodiment, the direction deviation detection unit 73 corresponds to the direction deviation detection means in the present invention.

本ステップにおいて否定判定された場合(θst<θstb)、方向ずれ検知部73は自車両の進行予定方向Dcpと狭画角中心線方向Dclとの間にずれが生じていないことを検知し、ステップS106の処理に進む。なお、ここでの「ずれ」とは、自車両に対する物体相対距離Dfwが基準距離Dbにある前方物体を狭角カメラ4によって撮像しようとした場合に、この前方物体が狭角カメラ4の視野からぎりぎり外れてしまう程度の大きさのずれに相当するものである。ステップS106では、上述した基本制御に則り、画像情報選択部71は狭角画像情報Dnを処理用画像情報として選択し、画像情報選択フラグFgを1に設定(セット)する。ステップS106の処理が終了すると、ステップS108の処理に進む。   When a negative determination is made in this step (θst <θstb), the direction deviation detection unit 73 detects that no deviation has occurred between the planned traveling direction Dcp of the host vehicle and the narrow angle of view centerline direction Dcl, The process proceeds to S106. Here, “displacement” means that when a forward object whose object relative distance Dfw to the host vehicle is at the reference distance Db is to be imaged by the narrow-angle camera 4, the forward object is viewed from the field of view of the narrow-angle camera 4. This is equivalent to a deviation of a magnitude that is far from the limit. In step S106, in accordance with the basic control described above, the image information selection unit 71 selects the narrow-angle image information Dn as processing image information, and sets (sets) the image information selection flag Fg to 1. When the process of step S106 ends, the process proceeds to step S108.

本ステップにおいて肯定判定された場合(θst≧θstb)、方向ずれ検知部73は、自車両の進行予定方向Dcpと狭画角中心線方向Dclとの間にずれが生じたことを検知し、ステップS107の処理に進む。ステップS107では、画像情報選択部71は広角画像情報Dwを処理用画像情報として選択し、画像情報選択フラグFgを0に設定(セット)する。   When an affirmative determination is made in this step (θst ≧ θstb), the direction deviation detection unit 73 detects that a deviation has occurred between the planned traveling direction Dcp of the host vehicle and the narrow angle of view centerline direction Dcl, The process proceeds to S107. In step S107, the image information selection unit 71 selects the wide-angle image information Dw as the processing image information, and sets (sets) the image information selection flag Fg to 0.

ここで、検出対象たる前方物体の物体相対距離Dfwは基準距離Db以上であるため、物体相対距離Dfwに応じて選択すべき処理用画像情報には、本来的には狭角画像情報Dnが該当することになる。しかし、ここでは前述のステップS105において、自車両の進行予定方向Dcpと狭画角中心線方向Dclとの間にずれが生じたことが検知されている。従って、処理用画像情報として狭角画像情報Dnを選択してしまうと、物体相対距離演算部61により検知された自車両遠方に位置する前方物体が、狭角カメラ4の視野から外れてしまい、画像処理部72における画像処理によって検出することが困難となる。そのため、本ステップでは、このように、物体相対距離Dfwに応じて選択すべき処理用画像情報が狭角画像情報Dnである場合においても、敢えて広角画像情報Dwを選択するようにした。ステップS107の処理が終了すると、ステップS108の処理に進む。   Here, since the object relative distance Dfw of the front object to be detected is equal to or larger than the reference distance Db, the narrow-angle image information Dn is essentially applicable to the processing image information to be selected according to the object relative distance Dfw. Will do. However, here, in the above-described step S105, it has been detected that a deviation has occurred between the planned traveling direction Dcp of the host vehicle and the narrow-angle central line direction Dcl. Therefore, if the narrow-angle image information Dn is selected as the processing image information, the front object located far from the host vehicle detected by the object relative distance calculation unit 61 is out of the field of view of the narrow-angle camera 4. It becomes difficult to detect by image processing in the image processing unit 72. For this reason, in this step, even when the processing image information to be selected according to the object relative distance Dfw is the narrow-angle image information Dn, the wide-angle image information Dw is selected. When the process of step S107 ends, the process proceeds to step S108.

ステップS108において、画像処理部72は、画像情報選択部71からの画像選択信号に基づいて、画像情報選択フラグFgのセット(設定)値を取得する。そして、狭角画像情報Dn及び広角画像情報Dwのうち、画像情報選択部71が処理用画像情報として選択している方の画像情報である処理用画像情報を用いて前方物体を検出する。すなわち、画像情報選択フラグFgが1にセットされている場合、狭角画像情報Dnを用いて画像処
理を行い、前方物体を検出する。一方、画像情報選択フラグFgが0にセットされている場合、広角画像情報Dwを用いて画像処理を行い、前方物体を検出する。本ステップにおける画像処理とは、例えばエッジ検出を例示できる。エッジとは、画像領域中の各画素において、輝度の高い部分(明るい部分)と輝度の低い(暗い部分)の境界であり、エッジ検出とはこの境界を画像処理により検出することである。
In step S <b> 108, the image processing unit 72 acquires the set value of the image information selection flag Fg based on the image selection signal from the image information selection unit 71. And a front object is detected using the image information for a process which is the image information which the image information selection part 71 has selected as the image information for a process among the narrow angle image information Dn and the wide angle image information Dw. That is, when the image information selection flag Fg is set to 1, image processing is performed using the narrow angle image information Dn, and a forward object is detected. On the other hand, when the image information selection flag Fg is set to 0, image processing is performed using the wide-angle image information Dw, and a forward object is detected. The image processing in this step can be exemplified by edge detection, for example. An edge is a boundary between a high luminance portion (bright portion) and a low luminance portion (dark portion) in each pixel in the image region. Edge detection is detection of this boundary by image processing.

なお、ステップS108にかかる処理の実施に際し、画像処理部72は、処理用画像情報の画像領域内において、前方物体の存在領域の周辺にいわゆるウィンドウを設定し、このウィンドウの内部領域に対してエッジ検出を行っても良い。上記ウィンドウの設定は、画像処理の対象領域を全画像領域から画定する(切り出す)ように機能するための技術であり、その内容は周知の技術であるため詳しい説明は省略する。なお、画像領域内における前方物体の存在領域については、ミリ波レーダ2が出力する信号に基づいて求めることができる。ステップS108の処理が終了すると、ステップS109の処理に進む。   When performing the processing in step S108, the image processing unit 72 sets a so-called window around the area where the forward object exists in the image area of the processing image information, and performs edge processing on the inner area of this window. Detection may be performed. The setting of the window is a technique for functioning to demarcate (cut out) the target area for image processing from the entire image area, and since the contents thereof are known techniques, detailed description thereof is omitted. It should be noted that the presence area of the front object in the image area can be obtained based on a signal output from the millimeter wave radar 2. When the process of step S108 ends, the process proceeds to step S109.

ステップS109では、衝突判定部74により、画像処理部72が検出した前方物体に自車両が衝突する可能性が高いか否かが判定される。衝突判定部74は、画像処理部72が検出した前方物体の横位置情報(自車両の前後軸を基準とした場合の相対的な横位置および大きさ)、物体相対距離演算部61および物体相対速度演算部62のそれぞれが演算した前方物体の自車両に対する相対距離および相対速度等に基づいて、自車両と前方物体とが衝突する可能性が高いか否かを判定する。   In step S109, the collision determination unit 74 determines whether or not there is a high possibility that the host vehicle will collide with a forward object detected by the image processing unit 72. The collision determination unit 74 includes the lateral position information of the forward object detected by the image processing unit 72 (relative lateral position and size with respect to the longitudinal axis of the host vehicle), the object relative distance calculation unit 61, and the object relative Based on the relative distance and relative speed of the front object calculated by each of the speed calculation units 62 with respect to the host vehicle, it is determined whether or not there is a high possibility that the host vehicle and the front object will collide.

本ステップにおいて、前方物体が自車両に衝突する可能性が低いと判定された場合、本ルーチンを一旦終了する。一方、前方物体が自車両に衝突する可能性が高いと判定された場合、ステップS110の処理に進み、シートベルト巻き取り用アクチュエータやプリクラッシュブレーキアクチュエータ等(図示省略)に制御信号を発信することで衝突被害低減制御を実施する。更に、システムECU7は、運転者への警報装置(図示省略)に警報ONの信号を発信し、自車両が前方物体と衝突する可能性が高いことを報知する(警報を発する)。本ステップの処理を終了すると、本ルーチンを一旦終了する。   In this step, when it is determined that there is a low possibility that a front object will collide with the host vehicle, this routine is temporarily ended. On the other hand, if it is determined that there is a high possibility that the front object will collide with the host vehicle, the process proceeds to step S110, and a control signal is transmitted to the seat belt retracting actuator, the pre-crash brake actuator, etc. (not shown). To implement collision damage reduction control. Further, the system ECU 7 sends a warning ON signal to a warning device (not shown) to the driver to notify that there is a high possibility that the host vehicle will collide with a front object (give a warning). When the processing of this step is finished, this routine is once finished.

以上説明したように本実施例に係る車両前方監視装置1によれば、自車両のステアリングが操舵されることによって、該自車両の進行予定方向Dcpと狭画角中心線方向Dclとの間にずれが生じた場合、物体相対距離Dfwに応じて選択すべき処理用画像情報が狭角画像情報Dnである場合においても該処理用画像情報として広角画像情報Dwが選択される。すなわち、自車両の進行予定方向Dcpと狭画角中心線方向Dclとの間にずれが生じる状況では、近接する前方物体のみならず遠方の前方物体についても、狭角カメラ4に比して画角の大きい広角カメラ3を用いて撮像するとともに広角画像情報Dwを用いて前方物体を検出する。これにより、自車両のステアリングが操舵される状況においても、自車両の遠方に位置する前方物体をより確実に検出することができる。従って、自車両の進行予定方向Dcpと狭画角中心線方向Dclとの間にずれが生じる前後において、車両前方の監視体制の継続性、連続性を維持することが可能となる。よって、プリクラッシュセーフティシステム(PCS)を作動させるべき時に同システムをより確実に作動させることができる。   As described above, according to the vehicle front monitoring apparatus 1 according to the present embodiment, when the steering of the host vehicle is steered, between the planned traveling direction Dcp of the host vehicle and the narrow angle-of-view centerline direction Dcl. When the deviation occurs, the wide-angle image information Dw is selected as the processing image information even when the processing image information to be selected according to the object relative distance Dfw is the narrow-angle image information Dn. That is, in a situation where there is a deviation between the planned traveling direction Dcp of the host vehicle and the narrow-angle-angle centerline direction Dcl, not only the near-front object but also the far-forward object is displayed as compared to the narrow-angle camera 4. An image is picked up using the wide-angle camera 3 with a large angle, and a front object is detected using the wide-angle image information Dw. Thereby, even in a situation where the steering of the host vehicle is being steered, it is possible to more reliably detect a forward object located far away from the host vehicle. Therefore, it is possible to maintain the continuity and continuity of the monitoring system ahead of the vehicle before and after a deviation occurs between the planned traveling direction Dcp of the host vehicle and the narrow-angle-of-viewline centerline direction Dcl. Therefore, when the pre-crash safety system (PCS) should be operated, the system can be operated more reliably.

なお、遠方の前方物体の検出時において、例えば前方路駐車両の回避走行が終了することで自車両の進行予定方向Dcpと狭画角中心線方向Dclとの間のずれが消失した後は、処理用画像情報を広角画像情報Dwから狭角画像情報Dnに切り替えると良い。上記のずれが消滅すれば、遠方の物標にかかるエッジ検出精度が優れている狭角画像情報Dnを用いた方が好都合であるからである。なお、前方物体が狭角カメラ4の視野内に入ると考えられる程度まで、ステアリングの操舵量θstが減少した時点で、広角画像情報Dwから狭角画像情報Dnへの処理用画像情報の切り替えを行うようにしても良い。   In addition, at the time of detecting a distant forward object, for example, after the avoidance travel of both front road parking ends, the deviation between the planned traveling direction Dcp of the host vehicle and the narrow-angle central line direction Dcl disappears. The processing image information may be switched from the wide-angle image information Dw to the narrow-angle image information Dn. This is because, if the above-mentioned deviation disappears, it is more convenient to use narrow-angle image information Dn that has excellent edge detection accuracy for a distant target. When the steering amount θst is reduced to such an extent that the front object is considered to fall within the field of view of the narrow-angle camera 4, the processing image information is switched from the wide-angle image information Dw to the narrow-angle image information Dn. You may make it do.

次に実施例2について説明する。ここでは、自車両がカーブ路走行時、或いはカーブ路に進入する手前において、自車両の進行予定方向Dcpと狭画角中心線方向Dclとのずれが起こった場合の制御内容について説明する。図6は、実施例2に係る車両前方監視装置1の概略構成を示すブロック図である。   Next, Example 2 will be described. Here, a description will be given of the control contents when a shift between the host vehicle's planned traveling direction Dcp and the narrow view angle center line direction Dcl occurs when the host vehicle travels on a curved road or before entering the curved road. FIG. 6 is a block diagram illustrating a schematic configuration of the vehicle forward monitoring apparatus 1 according to the second embodiment.

本実施例に係る車両前方監視装置1では、操舵角センサ5の代わりに、自車両が走行する走行路の曲率を検出する曲率検出部75を備える。本実施例における曲率検出部75は、システムシステムECU7の構成要素の一部である。「曲率」とは、一般に曲線や曲面の曲がり具合、程度を表す物理量である。このような曲線や曲面の曲がり具合を円に近似した場合、その円の半径が「曲率半径」であり、曲率半径の逆数が「曲率」である。本実施例において、方向ずれ検知部73は、曲率検出部75によって検出される走行路(道路)の曲率に基づいて、自車両の進行予定方向Dcpと狭画角中心線方向Dclとの間のずれを検知することを特徴とする。なお、本明細書中における走行路の曲率は、カーブ半径の逆数の意味である。   The vehicle front monitoring apparatus 1 according to the present embodiment includes a curvature detection unit 75 that detects the curvature of the travel path on which the host vehicle travels instead of the steering angle sensor 5. The curvature detection unit 75 in this embodiment is a part of the components of the system system ECU 7. The “curvature” is a physical quantity that generally represents the degree or degree of curve or curved surface bending. When such a curve or curved surface is approximated to a circle, the radius of the circle is the “curvature radius”, and the inverse of the curvature radius is the “curvature”. In the present embodiment, the direction deviation detection unit 73 is based on the curvature of the traveling road (road) detected by the curvature detection unit 75, and between the planned traveling direction Dcp of the host vehicle and the narrow-angle-angle centerline direction Dcl. It is characterized by detecting a shift. In addition, the curvature of the travel path in this specification means the reciprocal of the curve radius.

図7は、実施例2における制御ルーチンを示したフローチャートである。本制御ルーチンは、レーダECU6およびシステムECU7が協働して一定時間(例えば、100ms程度)毎に繰り返し行われるルーチンである。本ルーチンにおいて、図5で説明した制御ルーチンと共通する処理については、同じステップ番号を付すことで詳しい説明を省略する。   FIG. 7 is a flowchart showing a control routine in the second embodiment. This control routine is a routine that is repeatedly performed at regular intervals (for example, about 100 ms) in cooperation with the radar ECU 6 and the system ECU 7. In this routine, processes that are the same as those in the control routine described with reference to FIG.

本ルーチンのステップS102において肯定判定された場合、すなわち物体相対距離Dfwが基準距離Db以上であると判定された場合には、ステップS201に進む。ステップS201では、曲率検出部75が自車両の走行路の曲率(以下、「道路曲率」という)γcを演算する。曲率検出部75は、例えば、現在の処理用画像情報に基づいて画像処理を行い、自車両が走行している走行レーンの両端を区画する道路区画線(道路に描かれた白線、黄色線や道路上に配置、または埋め込まれたブロック等の場合があるが、以下、「白線」という。)を検出し、自車両が走行する走行レーンを認識する。次いで、曲率検出部75は、認識した一対の白線からその中心を通る線(すなわち、車線の中心)を演算し、車線の中心の半径(カーブ半径R)を演算し、カーブ半径Rから道路曲率γc(=1/R)を演算する。曲率検出部75が演算した道路曲率γcは、方向ずれ検知部73へ入力される。   If an affirmative determination is made in step S102 of this routine, that is, if it is determined that the object relative distance Dfw is greater than or equal to the reference distance Db, the process proceeds to step S201. In step S201, the curvature detection unit 75 calculates the curvature (hereinafter referred to as “road curvature”) γc of the traveling path of the host vehicle. The curvature detection unit 75 performs, for example, image processing based on the current processing image information, and road marking lines that divide both ends of the traveling lane in which the host vehicle is traveling (white lines, yellow lines, In some cases, such as a block arranged or embedded on the road, it is hereinafter referred to as a “white line”), and the travel lane in which the vehicle travels is recognized. Next, the curvature detection unit 75 calculates a line passing through the center (that is, the center of the lane) from the recognized pair of white lines, calculates a radius of the center of the lane (curve radius R), and calculates the road curvature from the curve radius R. γc (= 1 / R) is calculated. The road curvature γc calculated by the curvature detection unit 75 is input to the direction deviation detection unit 73.

続く、ステップS202では、方向ずれ検知部73は、道路曲率γcが規定曲率γcb以上であるか否かを判定する。ここで、道路曲率γcが大きいほど、自車両が走行するカーブ路の曲り具体が急であることを意味する。規定曲率γcbは、自車両に対する物体相対距離Dfwがちょうど基準距離Dbにある前方物体を狭角カメラ4によって撮像しようとした場合に、その前方物体が狭角カメラ4の視野から外れてしまうことになるときの、走行路の曲率の最小値として定義される。本実施例においては曲率検出部75が本発明における曲率検出部に相当する。また、本実施例においては方向ずれ検知部73が本発明における方向ずれ検知手段に相当する。   In step S202, the direction deviation detection unit 73 determines whether or not the road curvature γc is equal to or greater than the specified curvature γcb. Here, the larger the road curvature γc, the sharper the curve of the curved road on which the host vehicle travels. The prescribed curvature γcb is that when a front object whose relative distance Dfw to the host vehicle is just at the reference distance Db is to be imaged by the narrow-angle camera 4, the front object is out of the field of view of the narrow-angle camera 4. Is defined as the minimum value of the curvature of the travel path. In this embodiment, the curvature detection unit 75 corresponds to the curvature detection unit in the present invention. In the present embodiment, the direction deviation detection unit 73 corresponds to the direction deviation detection means in the present invention.

ステップS202において、否定判定された場合(γc<γcb)、方向ずれ検知部73は自車両の進行予定方向Dcpと狭画角中心線方向Dclとの間にずれが生じていないことを検知し、ステップS106の処理に進む。一方、ステップS202において肯定判定された場合(γc≧γcb)、方向ずれ検知部73は、自車両の進行予定方向Dcpと狭画角中心線方向Dclとの間にずれが生じたことを検知し、ステップS107の処理に進む。以降の各ステップに係る処理は既述のため、その説明を省略する。   If a negative determination is made in step S202 (γc <γcb), the direction deviation detection unit 73 detects that no deviation has occurred between the planned traveling direction Dcp of the host vehicle and the narrow-angle central line direction Dcl, The process proceeds to step S106. On the other hand, when an affirmative determination is made in step S202 (γc ≧ γcb), the direction deviation detection unit 73 detects that a deviation has occurred between the planned traveling direction Dcp of the host vehicle and the narrow field angle center line direction Dcl. The process proceeds to step S107. Since the processes related to the subsequent steps are already described, the description thereof is omitted.

以上説明したように本実施例に係る車両前方監視装置1によれば、カーブ路走行時、或いはカーブ路に進入する手前において、自車両の進行予定方向Dcpと狭画角中心線方向Dclとの間にずれが生じた場合、物体相対距離Dfwに応じて選択すべき処理用画像情報が狭角画像情報Dnである場合においても該処理用画像情報として広角画像情報Dwが選択される。すなわち、自車両の進行予定方向Dcpと狭画角中心線方向Dclとの間にずれが生じる状況では、近接する前方物体のみならず遠方の前方物体についても、狭角カメラ4に比して画角の大きい広角カメラ3を用いて撮像するとともに広角画像情報Dwを用いて前方物体を検出する。これにより、カーブ路走行時、或いはカーブ路の手前(例えば、カーブ路に進入する直線の直線路も該当する)を走行している時においても、自車両の遠方に位置する前方物体をより確実に検出することができる。従って、自車両の進行予定方向Dcpと狭画角中心線方向Dclとの間にずれが生じる前後において、車両前方の監視体制の継続性、連続性を維持することが可能となる。よって、プリクラッシュセーフティシステム(PCS)を作動させるべき時に同システムをより確実に作動させることができる。   As described above, according to the vehicle front monitoring apparatus 1 according to the present embodiment, when traveling on a curved road or before entering the curved road, the traveling direction Dcp of the host vehicle and the narrow-angle central line direction Dcl When a deviation occurs, wide-angle image information Dw is selected as the processing image information even when the processing image information to be selected according to the object relative distance Dfw is the narrow-angle image information Dn. That is, in a situation where there is a deviation between the planned traveling direction Dcp of the host vehicle and the narrow-angle-angle centerline direction Dcl, not only the near-front object but also the far-forward object is displayed as compared to the narrow-angle camera 4. An image is picked up using the wide-angle camera 3 with a large angle, and a front object is detected using the wide-angle image information Dw. As a result, even when traveling on a curved road, or when traveling on the front of a curved road (for example, a straight straight road entering the curved road also applies), a forward object located far from the host vehicle is more reliably detected. Can be detected. Therefore, it is possible to maintain the continuity and continuity of the monitoring system ahead of the vehicle before and after a deviation occurs between the planned traveling direction Dcp of the host vehicle and the narrow-angle-of-viewline centerline direction Dcl. Therefore, when the pre-crash safety system (PCS) should be operated, the system can be operated more reliably.

なお、本実施例に係る制御と、実施例1に係る制御とは組み合わせて実施すると良い。これによれば、車両前方監視装置1における車両前方の監視体制の継続性、連続性をより好適に維持することが可能となる。また、本実施例において、曲率検出部75は、上記以外の方法によって道路曲率γcを求めても良いし、方向ずれ検知部73は他の方法に基づいて自車両の進行予定方向Dcpと狭画角中心線方向Dclとの間のずれを検知しても良い。例えば、車両前方監視装置1はナビゲーションシステムを備え、このナビゲーションシステムによって、自車両がカーブ路に差し掛かるタイミングを取得しても良い。これにより、自車両の進行予定方向Dcpと狭画角中心線方向Dclとの間のずれの発生を好適に検知することができる。   Note that the control according to the present embodiment and the control according to the first embodiment may be performed in combination. According to this, it becomes possible to more suitably maintain the continuity and continuity of the monitoring system in front of the vehicle in the vehicle forward monitoring device 1. Further, in this embodiment, the curvature detection unit 75 may obtain the road curvature γc by a method other than the above, and the direction deviation detection unit 73 narrows the planned traveling direction Dcp of the host vehicle based on other methods. A deviation from the angular center line direction Dcl may be detected. For example, the vehicle forward monitoring apparatus 1 may include a navigation system, and the navigation system may acquire the timing at which the host vehicle approaches a curved road. Thereby, it is possible to suitably detect the occurrence of a deviation between the planned traveling direction Dcp of the host vehicle and the narrow-angle-angle centerline direction Dcl.

1・・・車両前方監視装置
2・・・ミリ波レーダ
3・・・広角カメラ
4・・・狭角カメラ
5・・・操舵角センサ
6・・・レーダECU
7・・・システムECU
61・・物体相対距離演算部
62・・物体相対速度演算部
71・・画像情報選択部
72・・画像処理部
73・・方向ずれ検知部
74・・衝突判定部
75・・曲率検出部
DESCRIPTION OF SYMBOLS 1 ... Vehicle front monitoring apparatus 2 ... Millimeter wave radar 3 ... Wide angle camera 4 ... Narrow angle camera 5 ... Steering angle sensor 6 ... Radar ECU
7 ... System ECU
61 .. Object relative distance calculation unit 62 .. Object relative speed calculation unit 71.. Image information selection unit 72.. Image processing unit 73 .. Direction deviation detection unit 74 .. Collision determination unit 75.

Claims (3)

自車両前方を撮像する車載式の狭角カメラと、
前記狭角カメラよりも広い画角を有し且つ自車両前方を撮像する車載式の広角カメラと、
自車両前方に存在する前方物体と自車両との相対距離に応じて、前記狭角カメラが生成する画像情報である狭角画像情報および前記広角カメラが生成する画像情報である広角画像情報の何れか一方を、画像処理に用いる画像情報である処理用画像情報として選択する選択手段と、
前記選択手段により選択された方の処理用画像情報を用いて画像処理を行い、自車両前方に存在する前方物体を検出する画像処理手段と、
自車両が進むべき進行方向に対する前記狭角カメラの画角中心線方向のずれを検知する方向ずれ検知手段と、
自車両のステアリングの操舵角を検出する操舵角検出部と、
を備え、
前記選択手段は、前記相対距離が所定の基準距離以上の場合に前記狭角画像情報を前記処理用画像情報として選択し、
前記方向ずれ検知手段は、前記操舵角検出部によって検出される操舵角の変化量が、前記基準距離に応じて定まる規定量以上の場合に前記ずれを検知し、
前記選択手段は、前記方向ずれ検知手段により前記ずれが検知された場合、前記相対距離に応じて選択すべき処理用画像情報が前記狭角画像情報である場合においても前記広角画像情報を選択することを特徴とする車両前方監視装置。
An in-vehicle narrow-angle camera that images the front of the vehicle,
A vehicle-mounted wide-angle camera that has a wider angle of view than the narrow-angle camera and images the front of the host vehicle;
Any of narrow-angle image information that is image information generated by the narrow-angle camera and wide-angle image information that is image information generated by the wide-angle camera according to the relative distance between the front object existing ahead of the host vehicle and the host vehicle. Selecting means for selecting either as image information for processing which is image information used for image processing;
Image processing means for performing image processing using the processing image information selected by the selection means and detecting a forward object existing ahead of the host vehicle;
Direction deviation detection means for detecting a deviation of the angle-of-view center line direction of the narrow-angle camera with respect to the traveling direction in which the host vehicle should travel;
A steering angle detector for detecting the steering angle of the steering of the host vehicle;
With
The selection means selects the narrow-angle image information as the processing image information when the relative distance is equal to or greater than a predetermined reference distance,
The direction deviation detection means detects the deviation when a change amount of the steering angle detected by the steering angle detection unit is equal to or larger than a predetermined amount determined according to the reference distance,
The selection means selects the wide-angle image information even when the image information for processing to be selected according to the relative distance is the narrow-angle image information when the deviation is detected by the direction deviation detection means. A vehicle forward monitoring device characterized by that.
自車両前方を撮像する車載式の狭角カメラと、
前記狭角カメラよりも広い画角を有し且つ自車両前方を撮像する車載式の広角カメラと、
自車両前方に存在する前方物体と自車両との相対距離に応じて、前記狭角カメラが生成する画像情報である狭角画像情報および前記広角カメラが生成する画像情報である広角画像情報の何れか一方を、画像処理に用いる画像情報である処理用画像情報として選択する選択手段と、
前記選択手段により選択された方の処理用画像情報を用いて画像処理を行い、自車両前方に存在する前方物体を検出する画像処理手段と、
自車両が進むべき進行方向に対する前記狭角カメラの画角中心線方向のずれを検知する方向ずれ検知手段と、
自車両が走行する走行路の曲率を検出する曲率検出部と、
を備え、
前記選択手段は、前記相対距離が所定の基準距離以上の場合に前記狭角画像情報を前記処理用画像情報として選択し、
前記方向ずれ検知手段は、前記曲率検出部によって検出される曲率が、前記基準距離に応じて定まる規定曲率以上の場合に前記ずれを検知し、
前記選択手段は、前記方向ずれ検知手段により前記ずれが検知された場合、前記相対距離に応じて選択すべき処理用画像情報が前記狭角画像情報である場合においても前記広角画像情報を選択することを特徴とする車両前方監視装置。
An in-vehicle narrow-angle camera that images the front of the vehicle,
A vehicle-mounted wide-angle camera that has a wider angle of view than the narrow-angle camera and images the front of the host vehicle;
Any of narrow-angle image information that is image information generated by the narrow-angle camera and wide-angle image information that is image information generated by the wide-angle camera according to the relative distance between the front object existing ahead of the host vehicle and the host vehicle. Selecting means for selecting either as image information for processing which is image information used for image processing;
Image processing means for performing image processing using the processing image information selected by the selection means and detecting a forward object existing ahead of the host vehicle;
Direction deviation detection means for detecting a deviation of the angle-of-view center line direction of the narrow-angle camera with respect to the traveling direction in which the host vehicle should travel
A curvature detection unit for detecting the curvature of the travel path on which the host vehicle travels;
With
The selection means selects the narrow-angle image information as the processing image information when the relative distance is equal to or greater than a predetermined reference distance,
The direction deviation detection means detects the deviation when the curvature detected by the curvature detection unit is equal to or greater than a prescribed curvature determined according to the reference distance,
The selection means selects the wide-angle image information even when the image information for processing to be selected according to the relative distance is the narrow-angle image information when the deviation is detected by the direction deviation detection means. A vehicle forward monitoring device characterized by that.
自車両が走行する走行路の曲率を検出する曲率検出部を更に備え、
前記選択手段は、前記相対距離が所定の基準距離以上の場合に前記狭角画像情報を前記処理用画像情報として選択し、
前記方向ずれ検知手段は、前記曲率検出部によって検出される曲率が、前記基準距離に応じて定まる規定曲率以上の場合に前記ずれを検知することを特徴とする請求項に記載の車両前方監視装置。
A curvature detection unit for detecting a curvature of a traveling path on which the vehicle travels;
The selection means selects the narrow-angle image information as the processing image information when the relative distance is equal to or greater than a predetermined reference distance,
The directional deviation detecting means, the curvature detected by the curvature detecting section, a vehicle front monitoring according to claim 1, characterized in that for detecting the displacement in the case of less than the prescribed curvature determined according to the reference distance apparatus.
JP2009278627A 2009-12-08 2009-12-08 Vehicle forward monitoring device Active JP5476960B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009278627A JP5476960B2 (en) 2009-12-08 2009-12-08 Vehicle forward monitoring device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009278627A JP5476960B2 (en) 2009-12-08 2009-12-08 Vehicle forward monitoring device

Publications (2)

Publication Number Publication Date
JP2011121398A JP2011121398A (en) 2011-06-23
JP5476960B2 true JP5476960B2 (en) 2014-04-23

Family

ID=44285757

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009278627A Active JP5476960B2 (en) 2009-12-08 2009-12-08 Vehicle forward monitoring device

Country Status (1)

Country Link
JP (1) JP5476960B2 (en)

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2856207B1 (en) 2012-05-29 2020-11-11 Brightway Vision Ltd. Gated imaging using an adaptive depth of field
JP6179249B2 (en) * 2013-08-01 2017-08-16 日産自動車株式会社 Vehicle detection device
BR112017026218B1 (en) 2015-06-05 2021-01-05 Nissan Motor Co., Ltd. traffic signal detection device and traffic signal detection method
KR102384175B1 (en) * 2015-07-29 2022-04-08 주식회사 만도모빌리티솔루션즈 Camera device for vehicle
JP6677474B2 (en) 2015-09-29 2020-04-08 日立オートモティブシステムズ株式会社 Perimeter recognition device
DK3485462T3 (en) * 2016-07-12 2021-02-01 Sz Dji Technology Co Ltd PROCESSING IMAGES TO OBTAIN ENVIRONMENTAL INFORMATION
JP7086949B2 (en) * 2016-10-20 2022-06-20 レール ビジョン リミテッド Systems and methods for detecting and classifying objects and obstacles in collision avoidance for railroad applications
EP3690805A4 (en) * 2017-09-28 2021-09-29 Koito Manufacturing Co., Ltd. Sensor system
JP7261588B2 (en) * 2019-01-04 2023-04-20 日産自動車株式会社 Traffic light recognition method and traffic light recognition device
JP7245653B2 (en) * 2019-01-04 2023-03-24 日産自動車株式会社 Traffic light recognition method and traffic light recognition device
JP7278846B2 (en) * 2019-04-17 2023-05-22 日立Astemo株式会社 OBJECT POSITION DETECTION DEVICE, TRIP CONTROL SYSTEM, AND TRIP CONTROL METHOD
JP7455044B2 (en) 2020-10-21 2024-03-25 株式会社日立製作所 Aircraft landing control system
CN115131957B (en) * 2021-03-19 2024-02-23 三一汽车制造有限公司 Road condition early warning method and device

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1139596A (en) * 1997-07-17 1999-02-12 Fuji Heavy Ind Ltd Outside monitoring device
JP2005081860A (en) * 2003-09-04 2005-03-31 Nissan Motor Co Ltd Display device for vehicle
JP4335651B2 (en) * 2003-12-03 2009-09-30 富士通テン株式会社 Perimeter monitoring device

Also Published As

Publication number Publication date
JP2011121398A (en) 2011-06-23

Similar Documents

Publication Publication Date Title
JP5476960B2 (en) Vehicle forward monitoring device
EP2419881B1 (en) Object detection device
US8461976B2 (en) On-vehicle device and recognition support system
CN107251127B (en) Vehicle travel control device and travel control method
CN108694860B (en) Attention reminding device
US10956757B2 (en) Image processing device, outside recognition device
EP2302412B1 (en) System and method for evaluation of an automotive vehicle forward collision threat
JP4211809B2 (en) Object detection device
US10793096B2 (en) Vehicle control device with object detection
CN109891262B (en) Object detecting device
CN109204311B (en) Automobile speed control method and device
CN107533795B (en) Vehicle display device and vehicle display method
US11014559B2 (en) Cruise control device
KR101807088B1 (en) Vehicular forward object detection device and method therefor
US11136013B2 (en) Vehicle control apparatus and vehicle control method
CN107408346B (en) Vehicle control device and vehicle control method
US11042996B2 (en) Recognition apparatus
JP2008037361A (en) Obstacle recognition device
JP6429360B2 (en) Object detection device
JP5312493B2 (en) Automotive radar equipment
JP4872517B2 (en) Obstacle recognition device
US11087149B2 (en) Object detection apparatus
CN108885833B (en) Vehicle detection device
JP5606468B2 (en) Vehicle periphery monitoring device
JP4900377B2 (en) Image processing device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120320

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130515

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130521

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130719

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140114

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140127

R151 Written notification of patent or utility model registration

Ref document number: 5476960

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151